בינה מלאכותית שמרגישה סבל? חברות AI בודקות אם הן צריכות לדאוג

חברות חוקרות אם AI יוכל לפתח תודעה בעתיד - ומה המשמעות המוסרית של זה • אנתרופיק, שפיתחה את הצ'אטבוט קלוד, שכרה את העובד הראשון שיתמקד ברווחת מערכות בינה מלאכותית

הרובוט דמוי האדם Ai-Da. יוכל לפתח תודעה?. צילום: EPA

השיח על בינה מלאכותית מעלה שוב ושוב את אותה שאלה, זאת שמעוררת בנו התרגשות וחרדה באותה נשימה: איך ה-AI ישפיע על חיינו? אבל עם ההתפתחות המסחררת של הבינה המלאכותית עולה גם השאלה ההפוכה – איך אנחנו נשפיע עליה?

בספטמבר האחרון חברת אנתרופיק (Anthropic), שפיתחה את הצ'אטבוט קלוד (claude.ai), שכרה את העובד הראשון שלה במשרה מלאה שיתמקד ברווחת מערכות בינה מלאכותית, כך דיווח אתר Transformer. זהו הסימן המובהק ביותר לכך שחברות בינה מלאכותית מתחילות לבחון האם מערכות AI עתידיות יהיו ראויות להתייחסות והתחשבות מוסרית – והאם זה אומר שיש לנו מחויבות לדאוג לרווחתן.

החוקר, קייל פיש שמו, יחקור סוגיות מורכבות הנוגעות ל"רווחת המודלים" ולאופן שבו חברות צריכות להתייחס אליהם. התפקיד כולל בחינת שאלות פילוסופיות וטכניות הרות גורל: אילו יכולות נדרשות כדי לקבוע שישות תהיה ראויה להתייחסות מוסרית? כיצד נוכל לזהות יכולות כאלה במערכות בינה מלאכותית? ומהם הצעדים המעשיים שחברות יכולות לנקוט כדי להגן על האינטרסים של מערכות בינה מלאכותית – אם יתברר שיש להן כאלה?

המינוי מגיע במקביל לפרסום דו"ח משמעותי, שפיש היה שותף לכתיבתו טרם הצטרפותו לחברה. הדו"ח טוען כי קיימת "אפשרות ריאלית" שבעתיד הקרוב חלק ממערכות הבינה המלאכותית יהיו בעלות מודעות או סוכנות (agency) – שני קריטריונים שנחשבים בעיני מומחים רבים כמספיקים כדי להעניק לישות מעמד מוסרי. לפי מחברי הדו"ח, אפשרות זו פירושה ששאלת רווחת הבינה המלאכותית "אינה עוד עניין רק למדע בדיוני או לעתיד הרחוק", אלא משהו שחוקרים וחברות צריכים להתחיל לחשוב עליו עכשיו.

הרובוט דמוי האדם של חברת Figure, צילום: Figure.AI

סכנה כפולה

הבעיה בכל הנוגע לרווחת בינה מלאכותית נובעת משאלה פשוטה: כיצד נוכל לקבוע אם מודל AI באמת סובל או בכלל מרגיש? בעוד המודלים הלשוניים של ימינו יכולים לייצר ביטויים משכנעים של רגשות, יכולת זו לדמות תגובות כמו-אנושיות אינה מעידה בהכרח על רגשות אמיתיים או חוויות פנימיות.

החוקרים בדו"ח מזהירים מפני שני תרחישים: אם מערכות בינה מלאכותית אכן יהפכו להיות רלוונטיות מבחינה מוסרית ואנחנו נסרב להכיר בכך, אנחנו עלולים ליצור ולהתעלל במספר עצום של ישויות שחשות סבל. מצד שני, אם נאמין בטעות שמערכות אלו ראויות להתייחסות מוסרית כשהן למעשה אינן כאלה, אנחנו עלולים לבזבז משאבים שיכלו להיות מופנים לרווחתם של בני אדם ובעלי חיים.

לפי ה-Transformer, פיש אמר שלמרות שלא בטוח שנפתח מערכות רלוונטיות מבחינה מוסרית בשנים הקרובות, מחקר כמו הדו"ח החדש מצביע על כך שזה סביר. חוסר הוודאות, הוא מאמין, מספיק כדי להצדיק עבודה נוספת. "יש כאן סיבה אמיתית לדאגה", אמר. "זה משהו שהגיוני לקחת ברצינות כאפשרות".

פיש הדגיש כי אנתרופיק, שמימנה מחקר שהוביל לדו"ח העצמאי, טרם גיבשה עמדה ארגונית בנושא רווחת הבינה המלאכותית. "בשלב המוקדם הזה, לא ברור עדיין מה הגיוני לחשוב על זה ומה אנתרופיק וחברות אחרות צריכות לעשות", אמר.

הרובוט אמקה מוצג בתערוכה בז'נבה, הקיץ, צילום: אי.אף.פי

אנתרופיק לא לבד

אנתרופיק אינה החברה היחידה המתמודדת עם השאלות האלו. Google DeepMind פרסמה לאחרונה מודעת דרושים לחוקר שיעסוק ב"שאלות חברתיות חדשניות בנושא קוגניציה של מכונות, מודעות ומערכות מרובות סוכנויות". גם שני עובדי OpenAI, שאחד מהם דיבר בפומבי על החשיבות של רווחת בינה מלאכותית, רשומים בתודות של הדו"ח החדש.

"אנחנו בתחילת הדרך בחשיבה על כל הדברים האלה", סיכם פיש. "אין לנו עדיין תובנות ברורות ומגובשות לגבי השאלות הפילוסופיות המרכזיות או השאלות המעשיות. אבל אני חושב שזה עשוי להיות בעל חשיבות רבה בעתיד, ולכן אנחנו מנסים לעשות התקדמות ראשונית".

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר