במפגש שהתקיים השבוע עם סם אלטמן ואיליה סוצקבר, מייסדי OpenAI - האמא של ChatGPT, הייתה שאלה אחת שרציתי לשאול. לא פעלתי מספיק מהר ובנחישות, ולכן לא שאלתי אותה. התחרות בשלב שאילת השאלות הייתה קשה: כיאה לרוקסטארים שהם, שאחראים על הלהיטים הטכנולוגיים הגדולים ביותר של השנים האחרונות - חיכו להם גרופיז להוטים שרק המתינו להזדמנות לשאול אותם שאלות במפגש שהתקיים באוניברסיטת תל-אביב.
״מה השימוש האהוב עליך ב-Chat GPT?״, ״איזה תכונות אתם מחפשים בעובדים שאתם מגייסים ל-OpenAI?״ ו״מה מיוחד בישראל בעיניך?״ היו כמה מהשאלות שהם קיבלו.
השאלה שאני רציתי לשאול, ולא נשאלה על ידי אף אחד או אחת נגעה להתמודדות עם כמויות הזבל ש-Chat GPT ושאר מנועי הבינה המלאכותית הולכים לייצר בשנים הקרובות. כן, אני יודעת, זו לא שאלה שנוגעת לתרחישי אימה בהם בינה מלאכותית משתלטת על העולם ופועלת על דעת עצמה נגד המין האנושי - שזה אחד מתרחישי האימה הנפוצים שנוהגים להזכיר בהקשר הזה.
לצפייה בשיחה המלאה עם סם אלטמן ואיליה סוצקבר באוניברסיטת תל אביב:
הדאגה שלי היא משני איזורים מרכזיים: מיסאינפורמציה ודיסאינפורמציה. כלומר, מהפצה של מידע שקרי בתום לב או בזדון.
אסביר: מנועי הבינה המלאכותית מבוססי הטקסט כמו Chat GPT (טוב, מעכשיו: ג׳פטו) נועדו לייצר טקסט שנראה אמיתי. אם אני ממש אפשט את זה: הם התאמנו על כמויות גדולות של דאטה ויודעים איך נראה טקסט אמיתי - אבל הם לא יודעים מה נכון ומה לא. לכן, כשאנחנו שואלים את ג׳פטו שאלה - התשובה שלו לאו דווקא נכונה. וזה עוד לפני שהזכרנו את זה שהמידע הנגיש למנוע הוא עד שנת 2021.
כל עוד אנחנו מפעילים חשיבה ביקורתית, מחזיקים בחוש ביקורת בריא ולוקחים בערבון מוגבל את התשובות המתקבלות ומתאימים את המשימות למגבלות - זה כלי באמת מדהים. הבעיה היא שיש אנשים שהחליפו את השימוש בגוגל בג׳פטו, ושם מתחילות בעיות אם לא מודעים לכך שהמידע פשוט לא נכון. כך למשל, לאחד המחקרים שאני עובדת עליהם ניסיתי לתת לו סוג משימות שאני נותנת לעוזר.ת מחקר. התוצאות היו מרשימות ומעניינות. ביקשתי רפרנס למאמרים עליהם הוא נסמך בתשובה, וקיבלתי רשימה של ספרים ומאמרים של חוקרים. השמות של החוקרים היו אמיתיים ואלו מומחים שעוסקים בנושא שבו עסקתי. אבל המאמרים והספרים היו בעלי שמות מומצאים לחלוטין. הבעיה היא שהם נראו אמיתיים והגיוניים לגמרי. אם לא הייתי מנסה לאתר את המקור - אולי הייתי חושבת שמדובר במאמרים קיימים.
כלומר, השימוש בכלים האלה דורש חידוד של מיומנויות מתחום החשיבה הביקורתית והבנה של המגבלות.
החשש השני שלי נוגע למי שמשתמשים ביכולות בינה מלאכותית יוצרת (Generative AI) לצרכים זדוניים. נתחיל בידידנו ג׳פטו שהוא גן עדן לזייפנים. בתוך רגע הוא יכול לייצר כתבה שנראית אמיתית לחלוטין מבחינת מבנה הטקסט, השפה וכו׳ - אבל המידע יהיה מומצא לחלוטין. הוא נותן יכולת מטורפת לעשות Scale ליצירה של תוכן שקרי ומומצא. כמו שאמרנו, זו המומחיות שלו - לייצר טקסט שנראה אמיתי. התפקיד שלו הוא לא לרדוף אחרי האמת.
הבינה המלאכותית היוצרת יצרה גן עדן לפושעים ושקרנים. לא פלא שכבר משתמשים בה לפשעים (זוכרים את הסיפור של הבנק האמירתי ששדדו ממנו 35 מיליון דולר באמצעות זיוף קול בטכנולוגיות deep fake?).
במפגש השבוע עם מייסדי OpenAI היו להם כמה התבטאויות ששיקפו שהם מבינים את הצורך ברגולציה על הטכנולוגיה שיצרו. כך, אלטמן טען שיש צורך להקים גוף בינלאומי חזק שיפקח עליהם, כפי שכבר קורה עם הסוכנות הבינלאומית לאנרגיה אטומית שמפקחת על תחום הגרעין. ההשוואה בין בינה מלאכותית וגרעין אולי רומזת לפוטנציאל ההרס שהיזמים מבינים שיצרו. אבל נראה שהם מסירים מעליהם את האחריות, ומחכים שההגבלות יגיעו מגורמים חיצוניים - סוכנות בינלאומית לבינה מלאכותית או ממשלות. הם הדגישו שאחת המטרות של סיבוב ההופעות העולמי שלהם היא לדבר עם ממשלות על הסוגיה.
במילים אחרות, היזמים עוד לא הבינו שעם כוח גדול מגיעה גם אחריות גדולה. הם לא יכולים להשאיר את האחריות רק לממשלות ורגולטורים שתמיד יהיו איטיים יותר מהשוק ולא יצליחו להדביק את ההתקדמות הטכנולוגית ואת האתגרים העולים מהשטח.
ובינתיים, מי שהולך להפגע, כרגיל זה אנחנו הציבור.
כותרת ב-CNBC מלפני קצת פחות משבועיים מחדדת את הבעיה הזו: נפגעים עיקריים כחלק מגל הפיטורים בחודשים האחרונים בחברות הביג טק הם הצוותים שעוסקים בדיסאינפורמציה ברשת ובהסתה. להזכירכם, הכוונה לצוותים שאחראים לנקות את השיח ברשת באותן פלטפורמות שמנהלות רשתות חברתיות שיש להן גישה למיליארדי אנשים ברחבי העולם ושיצרו ערוצי הפצת תוכן חסרי תקדים ונטולי פיקוח.
אחת מהמסקנות מדו״ח עצמאי שהזמינה פייסבוק לאחר שומר החומות העלה כבר אז שחלק מהבעיות ברשת החברתית במהלך המבצע נבעו מכך שאין לה יכולות טובות מספיק בשפות העברית והערבית ולא היה כוח אדם מיומן וטכנולוגיות או יכולות אחרות טובות כדי לסנן תכנים של הסתה ואלימות ברשתות.
כעת, המצב עלול להדרדר עוד יותר.
לפי הכתבה ב-CNBC במסגרת הקיצוצים וההתייעלות, פייסבוק סגרה פרויקט גדול בתחום של בדיקת עובדות שהיה אמור לסייע לגופי בדיקת עובדות חיצוניים לחברה להוסיף הערות על גבי תכנים שנויים במחלוקת או חשודים.
בנייר שפרסמתי לפני ארבע שנים ב-INSS (כחלק מתוכנית מחקר שלצערי נסגרה מאז) מיפיתי טכנולוגיות שנועדו לזהות ולהתמודד עם דיסאינפורמציה. השורה התחתונה הייתה ברורה: למרות שיש צורך ציבורי ברור במציאת פתרונות שקשורים להפצת מידע שקרי - קיים כשל שוק, אין גורמים שמוכנים או יכולים לשלם עבור אותם פתרונות. יש טעם לערוך בדיקה מחודשת של אותה עבודה, אבל בינתיים לא השתכנעתי שהמצב השתנה משמעותית. הפיטורים בצוותי ה-trust and safety בחברות הביג-טק רק מחדדים את זה שלמרות שהן חלק גדול מהבעיה, הן מקצצות בפתרון שלה.
כאן בבלוג תוכלו לקרוא את הפוסטים קודמים על החיבור שבין בינה מלאכותית יוצרת לשקרים ושקרנים. אין ברירה, צריך יהיה להמשיך לעקוב.
אה, ואם למישהו יוצא לדבר עם אלטמן או סוצקבר או מישהו אחר ב-OpenAI - בבקשה תעבירו אליהם את השאלה שלי :)
Comments