הבינה המלאכותית מתקדמת במהירות מסחררת, אך לצד ההתלהבות מהאפשרויות החדשות שהיא פותחת עבורנו, מתעוררות גם שאלות מטרידות על הסכנות שבהמצאת מידע שקרי. ארווה יאלמר הולמן, אזרח נורבגי, חווה על בשרו את הצד האפל של טכנולוגיה זו כשגילה שצ'אטGPT של חברת OpenAI המציא סיפור מזעזע לפיו הוא רצח שניים מילדיו וניסה לרצוח את השלישי.
כשהולמן בדק מה המידע שצ'אטGPT מספק כשמחפשים את שמו, הוא נדהם שהצ'ט השיב לו כי כי נידון ל-21 שנות מאסר. לא רק שהמידע היה שקרי לחלוטין, אלא שהצ'אטבוט שילב בתשובתו פרטים אמיתיים מחייו של הולמן – כמו מספר ילדיו, מינם, ושם עיר מגוריו – מה שהפך את השקר למשכנע במיוחד.
"מה שמפחיד אותי יותר מכל הוא שמישהו יכול לקרוא את זה ולהאמין שזה נכון", אמר הולמן בהצהרה שפרסם ארגון זכויות הדיגיטל האירופי Noyb, שהגיש תלונה רשמית בשמו השבוע.
על פי ארגון Noyb, המקרה מהווה הפרה חמורה של תקנות הגנת המידע האירופיות (GDPR), שדורשות דיוק בעיבוד מידע אישי ומתן אפשרות לתיקון מידע שגוי. למרות שבעדכון מאוחר יותר של המערכת נראה שהבעיה נפתרה, וכיום צ'אטGPT אינו מספק את המידע השקרי הזה, הארגון טוען שהמידע עדיין קיים במאגרי הנתונים הפנימיים של המערכת.
"הוספת אזהרה קטנה שמבקשת מהמשתמשים לאמת את המידע אינה פותרת את הבעיה", אומרת קליאנתי סרדלי, עורכת דין להגנת מידע בארגון Noyb. "חברות בינה מלאכותית אינן יכולות פשוט 'להסתיר' מידע שקרי מהמשתמשים בזמן שהן ממשיכות לעבד אותו פנימית. אם מעשים כאלה ימשיכו, אנשים יכולים בקלות לסבול מנזק תדמיתי חמור".
מקרהו של הולמן אינו יוצא דופן. מאז השקת צ'אטGPT בסוף 2022, דווח על מקרים דומים: ראש עיריה אוסטרלי איים בתביעת דיבה לאחר שהצ'אטבוט טען שהוא ישב בכלא, שמו של מרצה למשפטים שורבב לשערוריית הטרדה מינית בדויה, ומגיש רדיו תבע את OpenAI אחרי שהצ'אט טפל עליו האשמות מזויפות של מעילה בכספים.
האם OpenAI יכולה למחוק את המידע?
הבעיה החמורה היא שלפי טענות Noyb, ייתכן שאין באפשרות OpenAI למחוק בקלות את המידע השקרי ממערכותיה. החברה טענה בעבר כי היא יכולה רק לחסום מידע, לא לתקנו. אם הנתונים המזויפים משמשים לאימון נוסף של המודל, ייתכן שהדרך היחידה להבטיח מחיקה מלאה היא אימון מחדש של המודל כולו.
בתלונה שהוגשה לרשות הגנת המידע הנורווגית, מבקש Noyb להורות ל-OpenAI למחוק את המידע המשמיץ ולכוונן את המודל שלה כדי למנוע תוצאות לא-מדויקות. הארגון אף מציע להטיל קנס מנהלי על החברה - זאת כדי למנוע הפרות דומות בעתיד.
רשויות האיחוד האירופי כבר החלו להתייחס ברצינות לבעיות דומות. באיטליה, הוטל על OpenAI קנס של 16 מיליון דולר ואיסור זמני על השימוש בצ'אטGPT בעקבות דליפת מידע אישי. כתנאי להחזרת השירות, הוחלט כי על החברה לספק כלי שיאפשר למשתמשים לבקש ולקבל תיקון של מידע אישי שהופק באופן לא-מדויק.
אם רשויות הגנת המידע הנורווגיות יגיעו למסקנות דומות, OpenAI עשויה להידרש לשינויים משמעותיים באופן פעולתה באיחוד האירופי, ואולי אף לשנות את האלגוריתם של צ'אטGPT באופן מהותי.
מקרים אלו מדגישים את הסיכונים הטמונים בהסתמכות על מערכות בינה מלאכותית, ואת הצורך הדחוף בפיתוח מנגנוני בקרה, שקיפות ותיקון. העובדה שטכנולוגיות אלו יכולות להמציא מידע שקרי המשולב עם פרטים אמיתיים מעלה שאלות אתיות חמורות שיש להתמודד איתן ככל שהטכנולוגיה ממשיכה להתפתח.
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו