כך משפיעה הבינה המלאכותית על המרוץ לבית הלבן

הבחירות הקרבות בארה"ב יהיו הראשונות שנערכות בעידן של בינה מלאכותית יוצרת • משיתוף תמונות מפוברקות ועד לזיופים מצד מדינות שמנסות להשיג תוצאה מסוימת או לזרוע פילוג

האריס וטראמפ בפתח העימות. צילום: אי.אפ.פי

סופת ההוריקן "הלנה" שפגעה לפני כשבועיים בדרום־מזרח ארה"ב הותירה אחריה תמונות רבות של חורבן וסבל אנושי, אך שתי תמונות כנראה ייזכרו יותר מכל.

באחת נראה הנשיא לשעבר והמועמד הרפובליקני דונלד טראמפ באזור האסון, עומד עד מעל ברכיו במים הגואים, כתף אל כתף עם כוחות ההצלה. בתמונה השנייה נראית ילדה קטנה ובוכייה, לבדה בסירת עץ רעועה ובידה כלבלב קטן. הניגוד בין שתי התמונות שיקף בעיני רבים באזורים הללו את התחושה כי הממשל הנוכחי הפקיר אותם. רבים שיתפו את תמונתו של טראמפ וכתבו "גיבור", ומנגד - תמונת הילדה לוותה בכיתובים בסגנון "הממשל אכזב אותנו שוב".

היתה רק בעיה אחת עם התמונות האלה: שתיהן היו זיוף מוחלט, תוצר של מחולל AI פשוט.

אלה הן הבחירות הראשונות בארה"ב שנערכות בעידן הבינה המלאכותית היוצרת (GenAI). מחוללי טקסט ותמונות כמו ChatGPT ו־Midjourney מייצרים טקסטים ותמונות לפי פקודה, והם שונים מכל טכנולוגיית זיוף אחרת אי־פעם: הם מסוגלים לייצר תמונות שעין אנושית תתקשה לזהות כזיוף, והם נגישים לכל.

הבחירות הראשונות בתקופת ה-AI. הבית הלבן, צילום: GettyImages

דוגמאות לשימושים ולשיבושים לא חסרות: באוגוסט שיתף טראמפ סדרת תמונות של מעריצות של טיילור סוויפט לבושות חולצות ועליהן הכיתוב "סוויפטיות למען טראמפ", מבלי לדעת שמדובר בתמונות AI. ייתכן שזה גם מה שגרם לזמרת הפופולרית להכריז על תמיכתה ביריבתו, האריס. אולי בלי קשר, אחרי התקרית הופיעה לפחות תמונה לא מזויפת אחת של "סוויפטית" שתומכת במועמד הרפובליקני. לאחר מכן, טראמפ שיתף צילום שמוכיח כביכול כי הקהל בעצרות הבחירות של האריס "נוצר באמצעות AI". בדיקה עצמאית גילתה שהצילום היה דווקא אמיתי.

מנגד, ההאשמות בשימוש בבינה המלאכותית הפכו גם תירוץ: סגן מושל ג'ורג'יה מארק רובינסון ניסה להדוף תחקיר שהציף התבטאויות חמורות שלו מהעבר, וטען שמדובר ב"זיוף AI". אגב, בעקבות זאת שודר נגד רובינסון תשדיר בחירות שהיה הראשון שנוצר כולו באמצעות AI.

להטיל ספק

האם יש לזיופים פתרון טכנולוגי? חברת Revealense הישראלית פיתחה טכנולוגיה המסוגלת לאבחן רגשות סמויים על סמך ניתוח AI של סרטונים, ומשמשת גם לזיהוי סרטוני דיפ־פייק. לדברי עמית כהן, סמנכ"ל בחברה, כשמדובר בתמונות AI הקרב אבוד: "בשל איכותן, אין יכולת טכנולוגית לזהות בזמן אמת תמונה מזויפת על סמך ניתוח הפיקסלים", אומר כהן ל"ישראל היום". "האתגר המשמעותי הוא סרטונים ודיפ־פייק, שיכולים לגרום נזק גדול בתקופה רגישה כמו בחירות. כיום זו יכולת שקיימת בעיקר בידי גופים מדינתיים".

ואכן, המודיעין האמריקני התריע כי רוסיה, איראן וסין יעשו שימוש ב־GenAI כדי לפגוע בטוהר הבחירות. גם רשות הסייבר (CISA) הוציאה מסמך הנחיות כיצד להימנע מתרמיות AI לפני יום הבחירות ובמהלכו.

לפני כחודש, מיקרוסופט חשפה כי טרולים רוסים המקושרים לקרמלין הפיצו שני סרטוני דיפ־פייק, שזכו למיליוני צפיות, במטרה לפגוע בקמפיין של האריס - וזאת בעוד נשיא רוסיה ולדימיר פוטין אמר בפומבי שרוסיה מעדיפה את המועמדת הדמוקרטית. באחד מהם, צעירה בכיסא גלגלים מספרת על תאונת פגע וברח שהאריס היתה כביכול מעורבת בה ב־2011. אך בדיקת עובדות גילתה שהדיווח על התאונה הוא של תחנת טלוויזיה שלא קיימת, האתר של התחנה הוקם זמן קצר לפני הפצת הפייק, ואילו הנפגעת היא שחקנית שקיבלה תשלום על ההתחזות. "גורמים רוסיים יגבירו את מאמציהם להפיץ תוכן פוליטי מפלג, סרטונים מבוימים ותעמולת AI", הזהירו במיקרוסופט.

הפייק שהופץ נגד האריס ברוסיה, צילום: ללא
השחקנית שקיבלה תשלום,

גם גורמים סיניים מפיצים תוכני וידאו מפוברקים, במטרה ללבות פילוג ואי־אמון בהליך הדמוקרטי. חוקרי הסייבר של מיקרוסופט איתרו קבוצת האקרים המקושרת לבייג'ינג, שהפיצה תוכני וידאו נגד ממשל ביידן ונגד קמפיין האריס, ולאחר מכן נעלמה מהרשת. קבוצות המזוהות עם סין מפיצות תכנים שנועדו לפגוע בשני המחנות הפוליטיים, תוך התחזות הן לתומכי טראמפ והן לארגונים בעלי אג'נדה פרוגרסיבית.

בשורה התחתונה, ספק רב אם תוצרי ה־AI יטו את הצבעתם של אנשים רבים. גופי תקשורת המיינסטרים, ליברליים ושמרניים כאחד, לא הדהדו את הזיופים הללו, וברשתות החברתיות תמיד יהיו מספיק אנשים שיידעו להצביע על תמונה כזיוף ולעקר את השפעתה. עם זאת, בעידן הרשתות והזיופים האיכותיים, זהירות היא צו השעה. "עצתי היא תמיד להטיל ספק כשמדובר בתמונות ברשתות החברתיות, ולבדוק מה המקור", מסכם כהן.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר