"כולנו ראינו 'שליחות קטלנית' ו'מטריקס'. אנחנו לא רוצים רובוטים מחסלים", הזהיר שר החוץ של אוסטריה, סטפן שלנברג, בוועידה בינלאומית שהתקיימה בחודש שעבר בווינה, בהשתתפות נציגים מ-140 מדינות, ועסקה בפיקוח על שימוש ב-AI במערכות נשק קטלניות.
למרות שהבינה המלאכותית של ימינו רחוקה עד מאוד מהטכנולוגיות המתוארות בסרטי המד"ב האפוקליפטיים הללו, האנלוגיה מבטאת את מידת החשש של רבים מפני השלכות של שימוש בלתי מבוקר ב-AI בשירות צבאות ברחבי העולם.
הרובוט מבוסס ה-AI של אמנון שעשוע. ההתקדמות הטכנולוגית בתחום לא פחות ממדהימה // צילום: Mentee Robotics
"זהו הרגע האופנהיימרי של דורנו (הפיזיקאי אופנהיימר נחשב ל"אבי פצצת האטום", י"ש). עלינו להבטיח כי לפחות ההחלטה הגורלית - מי יחיה ומי ימות - תישאר בידיים אנושיות ולא בידי מכונות", קרא שלנברג.
למעשה, רגולציה על AI בשדה הקרב נידונה "על אש קטנה" כבר כמעט עשור בפורומים בינלאומיים כמו האו"ם, ואולם, פריצות הדרך של השנים האחרונות בתחומים כמו למידת-מכונה, ראייה ממוחשבת, רובוטיקה, וכמובן AI, העלו את הנושא מחדש לראש סדר היום בתחום בקרת הנשק.
ובהיותה אחת המדינות המתקדמות בתחום, ישראל עוקבת מקרוב אחר ההבנות המתגבשות במסגרת השיח הבין-מעצמתי והחוק הבינלאומי.
לבחור מטרה ולחסלה - בלי התערבות אנושית
שימוש ב-AI רווח מאוד כיום במערכות צבאיות, כמו בטכנולוגיות רבות סביבנו. אולם הדיון מתמקד ב"מערכות נשק קטלניות אוטונומיות" (ראשי תיבות באנגלית: LAWS), כאשר הכוונה היא למערכת חמושה שמסוגלת לבחור בעצמה מטרה וגם להחליט אם לחסלה - "לסגור מעגל" - ללא צורך בהתערבות אנושית.
החשש הוא כי הוצאת הגורם האנושי מקבלת ההחלטות והאוטומציה המוחלטת של מעשה ההרג, יובילו למרוץ חימוש ויורידו את סף המלחמה, וגם כי מערכות נשק כאלה יזלגו לארגוני טרור וגורמים לא-מדינתיים.
ישנם כאלה המזהירים כי שימוש באלגוריתמים של למידת-מכונה - שזו בעצם פיסת תוכנה שכותבת את עצמה - עלול להפוך את המערכות הללו לבלתי צפויות. בכנס הבינלאומי בווינה, אחד הדוברים הציג תרחיש מטריד, לפיו יכולתן של המערכות הללו להבדיל בין סוגים שונים של בני אדם (למשל, בין שחורים ללבנים), תאפשר להן לבצע ביעילות משימות של רצח עם.
כשבינה מלאכותית לוחצת על "הכפתור האדום"
ב-5 באוקטובר השנה, פרסמו מזכ"ל האו"ם אנטוניו גוטרש ונשיאת הצלב האדום, מיריאנה ספולאריץ', קול קורא משותף לקהילה הבינלאומית ובו התריעו כי "מערכות נשק אוטונומיות מעלות חששות ממשיים מבחינה הומניטרית, חוקית, אתית וביטחונית".
השניים קראו למדינות העולם להתחיל בדיונים ולקבוע, עד שנת 2026, כללים ברורים שיגדירו מתי, היכן ולכמה זמן יותר השימוש במערכות קטלניות אוטונומיות, מה יהיה סוג המטרות ומידת הכוח שהן יורשו להפעיל, וכן אילו אמצעים יש לנקוט כדי להבטיח פיקוח והתערבות אנושיים.
בחודש דצמבר עלתה היוזמה מדרגה, כאשר בעצרת הכללית של האו"ם אושרה באופן תקדימי, בתמיכת 152 מדינות, ובכללן ארצות הברית (ישראל וסין נמנעו, רוסיה התנגדה) הצהרה הקוראת "לקהילה הבינלאומית לתת מענה לאתגרים ולחששות העולים מתחום מערכות הנשק האוטונומיות".
גבולות השימוש ב-AI הפכו גם לנושא לדיון בין המעצמות, בפרט בתחום הנשק הגרעיני. בתחילת החודש הפציר פול דין, פקיד בכיר במחלקת המדינה האמריקנית, מסין ורוסיה להתחייב לכך שרק בני אדם, ולא בינה מלאכותית, יקבלו החלטות בנוגע לשימוש בנשק גרעיני, בדומה להתחייבות דומה שהשמיעו ארצות הברית, צרפת ובריטניה.
קבלת החלטות טובה יותר
כאמור, הדיונים הללו עוסקים בסכנות שבהוצאת הגורם האנושי מהחלטות גורליות בשדה הקרב. ואולם, ככלי תומך בקבלת החלטות ל-AI יש יתרונות רבים בשדה הקרב, וישנן חברות ביטחוניות ישראליות רבות שמשלבות את הטכנולוגיה הזו במגוון יישומים.
אחת מהן היא חברת אקסון ויז'ן (Axon Vision) הישראלית, המפתחת יכולות בינה מלאכותית עבור כלים צבאיים ואמצעי לחימה, כדוגמת אלגוריתמים ליישומי ראיית מכונה ורכישת מטרות. הפתרונות שלה מוטמעים בכלים מבצעיים של צה"ל כדוגמת כלי רק"מ.
בשיחה עם "ישראל היום" מסכים מנכ"ל החברה, תא"ל (במיל') רועי ריפטין, עם הקו המנחה האומר כי יש לשמר את האחריות האנושית בהחלטות גורליות. "אסור שמחשב יחליף את האדם בקבלת החלטות. יש תמיד שיקולים נוספים ותמונה רחבה יותר, מעבר למה שהמערכת רואה ומעבר למה שלימדת אותה".
אולם לדבריו, כאשר הבינה המלאכותית פועלת בסינרגיה עם האדם, היא דווקא מסייעת לו לקבל החלטות טובות יותר. "בשדה הקרב יש עומס קוגנטיבי גדול, ומפקדים צריכים לקבל החלטות תחת לחץ", טוען ריפטין.
"כלי AI עוזרים לתווך בצורה טובה יותר את הסיטואציה, לסנן רעשים, לקטלג, לסווג, לתעדף ולספק תובנות. זה מאפשר לאדם לקבל החלטה בצורה פשוטה ושקולה יותר, ובסופו של דבר לקבל החלטה נכונה יותר. במובן זה, התרומה של ה-AI היא אדירה", הוא מסכם.