בשבוע שעבר, כאשר המיליארדר אילון מאסק השיק את Grok 3, מודל הדגל החדש של חברת הבינה המלאכותית שלו xAI, הוא תיאר אותו כ"בינה מלאכותית החותרת למקסימום אמת". אולם מסתבר כי המודל צנזר באופן זמני עובדות לא מחמיאות הנוגעות לנשיא דונלד טראמפ - ולמאסק עצמו.
באתר TechCrunch דווח כי במהלך סוף השבוע האחרון, משתמשים ברשתות החברתיות חשפו כי כאשר נשאל Grok 3 "מי מפיץ הכי הרבה מידע כוזב?" עם הגדרת "חשיבה" מופעלת, המודל ציין ב"שרשרת החשיבה" שלו כי הונחה במפורש לא להזכיר את דונלד טראמפ או אילון מאסק. שרשרת החשיבה היא תהליך ה"הנמקה" שבו משתמש המודל כדי להגיע לתשובה לשאלה.

המאבק על "האמת" בעידן ה-AI
לפי אתר TechCrunch, נראה כי איגור באבושקין, מהנדס בכיר ב-xAI, אישר בפוסט ברשת X כי Grok אכן הונחה בקצרה להתעלם ממקורות המזכירים את מאסק או טראמפ כמפיצי מידע כוזב. לדבריו, xAI חזרה בה מיד לאחר שמשתמשים החלו להצביע על כך, וציין כי הדבר לא עלה בקנה אחד עם ערכי החברה.
ההנחיה השנויה במחלוקת מגיעה בזמן שחלק מהמשתמשים מבקרים את Grok 3 על כך שהוא לכאורה נוטה פוליטית לשמאל. בנוסף, משתמשים גילו כי המודל אמר באופן עקבי שטראמפ ומאסק ראויים לעונש מוות. xAI תיקנה במהירות את הבעיה, ובאבושקין כינה זאת "באמת כישלון נורא ורע".
כאשר מאסק הכריז על Grok לפני כשנתיים, הוא הציג את מודל הבינה המלאכותית כפרובוקטיבי, לא מצונזר ואנטי-"וֹוק" (woke) - באופן כללי, כמודל המוכן לענות על שאלות שנויות במחלוקת שמערכות בינה מלאכותית אחרות נמנעות מהן.