top of page
  • תמונת הסופר/תענבל אורפז

הדור הבא של הפושעים והאם ריאיינתם לעבודה מועמד.ת אמיתי?

תארו לכם שמישהו שנראה כמוכם ונשמע כמוכם מתראיין לתפקיד בחברה כלשהי - אבל זה לא אתם. ובעוד זמן לא ארוך אותו מישהו ישתמש בזהות שלכם ובפנים שלכם כדי לגנוב כסף או מידע מאותו ארגון שהתקבל לעבודה.

היום הזה כבר כאן, ואפשר להודות שהוא קצת מפחיד.


טכנולוגיות מתחום ה-deepfake כבר משמשות פושעים ברחבי העולם.

היום נדבר על כמה דוגמאות לאיך שפושעים משתמשים בטכנולוגיות.


תקציר הפרק הקודם: בפוסט הקודם כתבתי על שימוש בתמונות שנוצרו על ידי בינה מלאכותית שמשתמשים בהן בפרופילים פיקטיביים ברשתות חברתיות - חשבונות שנועדו לגרום לנו לחשוב שמדובר באנשים אמיתיים כאן בפייסבוק או ברשתות אחרות על מנת להטעות אותנו במגוון דרכים יצירותיות ולמגוון מטרות (עסקיות, פליליות או במבצעי השפעה של מדינות אויב).


הכרזה של חברת אנבידיה (Nvidia) מסוף השבוע תקח אותנו לשלב הבא של האפשרויות להתחזות, תכף נחזור אליה.


זה מתחיל בדיווחים מהחודשים האחרונים על פושעים שהתראיינו למשרות בכירות (או כאלה שאיפשרו גישה למידע רגיש או למערכות מידע) והוגדרו כמשרות בהן העבודה נעשית מרחוק/מהבית (כלומר מבלי שהעובד.ת צריכים להגיע למשרד). אלא שמי שהתראיינו למשרות לא היו מי שהם נראו למראיינים שלהם: הפושעים השתמשו בריאיונות שנעשו בוידאו בטכנולוגיות deepfake (כמו שקראו למדיה שנוצרת על ידי בינה מלאכותית לפני ההייפ הנוכחי - generative AI). כלומר: האדם שהתראיין בשיחת וידאו נראה אמיתי לחלוטין, אלא שאין אדם כזה - הוא נוצר על ידי מכונה או שזו חזות שנגנבה מאדם אמיתי.


כמובן שהדרך מפה ועד להונאות, תקיפות סייבר, גניבות ושות׳ - קצרה.


וכאמור, אלה לא הפחדות - זו המציאות.

בעולם בו אנחנו משתמשים באיברים שלנו כאמצעי זיהוי (להלן: זיהוי ביומטרי), למשל לפתיחת הטלפון האישי באמצעות זיהוי פנים, אפשר להשתמש בטכנולוגיה כדי להתחזות אלינו וכך לפרוץ ולגנוב נכסים שלנו. זה מאוד מטריד כי דברים שחשבנו שהם ייחודיים רק לנו, הפכו לדברים שאפשר לחקות לצורכי התחזות (וגם כדי לייצר בקלות סרטונים שנשמעים או נראים כמונו וכו׳. כאמור - הזדמנויות ואיומים).


והנה דוגמה: לפני שנה דווחנו על גניבה של 35 מיליון דולר שנעשתה כאשר עבריינים הונו מנהל בנק באיחוד האמירויות באמצעות חיקוי קולו של חבר בדירקטוריון חברה. לפי הדיווח בפורבס, העבריינים השתמשו בטכנולוגיות Deepfake וכך יצרו קול שנשמע כמו הקול האמיתי של חבר הדירקטוריון מבלי להעלות את חשד מנהל הבנק כשצילצלו אליו. זו לא הגניבה היחידה שנעשתה באמצעות קול.


ובחזרה להכרזה של אנבידיה מסוף השבוע: תוכנת הסטרימינג של החברה הציגה פיצ׳ר חדש מבוסס בינה מלאכותית שגורם לכך שנראה שאתם יוצרים קשר עין עם המצלמה, כלומר מסתכלים על המסך, גם אם אתם מסתכלים על כל נקודה אחרת בחלל. הפיצ׳ר הזה, שהושק בגרסת beta, מבוסס על טכנולוגיות Deepfake, כך שלמעשה העיניים שלכם יוחלפו בסימולציה של העיניים שלכם והצופים בכם לא ידעו לאן אתם מסתכלים. לפי הכרזת החברה הפיצ׳ר נועד לסייע ליוצרי תוכן כשהם מקליטים את עצמם ומעוניינים לקרוא מתוך תסריט או הערות.

כן, זה נחמד, בטח למי שמתקשים ליצור קשר עין. או למי שלמשל רוצים שזה יראה כאילו הם נוכחים בשיחה, אבל בעצם יהיו עסוקים בטלפון שלהם או בדברים אחרים. אבל תחשבו איך זה יעשה את החיים של הפושעים עוד יותר קלים? חכו, הם כבר ימצאו דרכים יצירתיות להשתמש בזה.


בשורה התחתונה, טכנולוגיות מעולמות ה-Generative AI מייצרות לצד ההזדמנויות איומים מסוג חדש. במידה רבה, דברם שהכרנו וידענו שהם בטוחים מאותגרים וצריך לחשוב האם הם עובדים במבחן התקופה.



0 תגובות
bottom of page