האם רובוטים יחליטו מי יחיה ומי ימות? התרחיש הדמיוני שהופך למציאות

הבינה המלאכותית של ימינו רחוקה מאוד מתרחישים אפוקליפטיים כמו ב"שליחות קטלנית" • אבל מסתבר שנושא שילוב מערכות AI בשדה הקרב מטריד את העולם כבר שנים ארוכות • "אסור שמחשב יחליף את האדם, אבל התרומה של ה-AI בשדה הקרב היא עצומה"

האם רובוטים יחליטו מי יחיה ומי ימות? אילוסטרציה. צילום: אי.פי.איי

"כולנו ראינו 'שליחות קטלנית' ו'מטריקס'. אנחנו לא רוצים רובוטים מחסלים", הזהיר שר החוץ של אוסטריה, סטפן שלנברג, בוועידה בינלאומית שהתקיימה בחודש שעבר בווינה, בהשתתפות נציגים מ-140 מדינות, ועסקה בפיקוח על שימוש ב-AI במערכות נשק קטלניות.

למרות שהבינה המלאכותית של ימינו רחוקה עד מאוד מהטכנולוגיות המתוארות בסרטי המד"ב האפוקליפטיים הללו, האנלוגיה מבטאת את מידת החשש של רבים מפני השלכות של שימוש בלתי מבוקר ב-AI בשירות צבאות ברחבי העולם.

הרובוט מבוסס ה-AI של אמנון שעשוע. ההתקדמות הטכנולוגית בתחום לא פחות ממדהימה // צילום: Mentee Robotics



"זהו הרגע האופנהיימרי של דורנו (הפיזיקאי אופנהיימר נחשב ל"אבי פצצת האטום", י"ש). עלינו להבטיח כי לפחות ההחלטה הגורלית - מי יחיה ומי ימות - תישאר בידיים אנושיות ולא בידי מכונות", קרא שלנברג.

למעשה, רגולציה על AI בשדה הקרב נידונה "על אש קטנה" כבר כמעט עשור בפורומים בינלאומיים כמו האו"ם, ואולם, פריצות הדרך של השנים האחרונות בתחומים כמו למידת-מכונה, ראייה ממוחשבת, רובוטיקה, וכמובן AI, העלו את הנושא מחדש לראש סדר היום בתחום בקרת הנשק.

ובהיותה אחת המדינות המתקדמות בתחום, ישראל עוקבת מקרוב אחר ההבנות המתגבשות במסגרת השיח הבין-מעצמתי והחוק הבינלאומי.

מבקרים מתמוגגים מרובוט שהוצג בתערוכת CES 2024., צילום: אי.פי.איי

לבחור מטרה ולחסלה - בלי התערבות אנושית

שימוש ב-AI רווח מאוד כיום במערכות צבאיות, כמו בטכנולוגיות רבות סביבנו. אולם הדיון מתמקד ב"מערכות נשק קטלניות אוטונומיות" (ראשי תיבות באנגלית: LAWS), כאשר הכוונה היא למערכת חמושה שמסוגלת לבחור בעצמה מטרה וגם להחליט אם לחסלה - "לסגור מעגל" - ללא צורך בהתערבות אנושית.

החשש הוא כי הוצאת הגורם האנושי מקבלת ההחלטות והאוטומציה המוחלטת של מעשה ההרג, יובילו למרוץ חימוש ויורידו את סף המלחמה, וגם כי מערכות נשק כאלה יזלגו לארגוני טרור וגורמים לא-מדינתיים.

ישנם כאלה המזהירים כי שימוש באלגוריתמים של למידת-מכונה - שזו בעצם פיסת תוכנה שכותבת את עצמה - עלול להפוך את המערכות הללו לבלתי צפויות. בכנס הבינלאומי בווינה, אחד הדוברים הציג תרחיש מטריד, לפיו יכולתן של המערכות הללו להבדיל בין סוגים שונים של בני אדם (למשל, בין שחורים ללבנים), תאפשר להן לבצע ביעילות משימות של רצח עם.

רובוטים בעלי בינה מלאכותית פותרים משוואות ולומדים. אילוסטרציה, צילום: Getty Images

כשבינה מלאכותית לוחצת על "הכפתור האדום"

ב-5 באוקטובר השנה, פרסמו מזכ"ל האו"ם אנטוניו גוטרש ונשיאת הצלב האדום, מיריאנה ספולאריץ', קול קורא משותף לקהילה הבינלאומית ובו התריעו כי "מערכות נשק אוטונומיות מעלות חששות ממשיים מבחינה הומניטרית, חוקית, אתית וביטחונית".

השניים קראו למדינות העולם להתחיל בדיונים ולקבוע, עד שנת 2026, כללים ברורים שיגדירו מתי, היכן ולכמה זמן יותר השימוש במערכות קטלניות אוטונומיות, מה יהיה סוג המטרות ומידת הכוח שהן יורשו להפעיל, וכן אילו אמצעים יש לנקוט כדי להבטיח פיקוח והתערבות אנושיים.

בחודש דצמבר עלתה היוזמה מדרגה, כאשר בעצרת הכללית של האו"ם אושרה באופן תקדימי, בתמיכת 152 מדינות, ובכללן ארצות הברית (ישראל וסין נמנעו, רוסיה התנגדה) הצהרה הקוראת "לקהילה הבינלאומית לתת מענה לאתגרים ולחששות העולים מתחום מערכות הנשק האוטונומיות".

מזכ"ל האו"ם, אנטוניו גוטרש. גם האו"ם מודאג מבינה מלאכותית ומערכות נשק אוטונומיות (ארכיון), צילום: אי.פי.אי

גבולות השימוש ב-AI הפכו גם לנושא לדיון בין המעצמות, בפרט בתחום הנשק הגרעיני. בתחילת החודש הפציר פול דין, פקיד בכיר במחלקת המדינה האמריקנית, מסין ורוסיה להתחייב לכך שרק בני אדם, ולא בינה מלאכותית, יקבלו החלטות בנוגע לשימוש בנשק גרעיני, בדומה להתחייבות דומה שהשמיעו ארצות הברית, צרפת ובריטניה.

קבלת החלטות טובה יותר

כאמור, הדיונים הללו עוסקים בסכנות שבהוצאת הגורם האנושי מהחלטות גורליות בשדה הקרב. ואולם, ככלי תומך בקבלת החלטות ל-AI יש יתרונות רבים בשדה הקרב, וישנן חברות ביטחוניות ישראליות רבות שמשלבות את הטכנולוגיה הזו במגוון יישומים.

אחת מהן היא חברת אקסון ויז'ן (Axon Vision) הישראלית, המפתחת יכולות בינה מלאכותית עבור כלים צבאיים ואמצעי לחימה, כדוגמת אלגוריתמים ליישומי ראיית מכונה ורכישת מטרות. הפתרונות שלה מוטמעים בכלים מבצעיים של צה"ל כדוגמת כלי רק"מ.

לוחמים ברצועת עזה. לבינה מלאכותית יש גם יתרונות ברורים בשדה הקרב, צילום: דובר צה"ל

בשיחה עם "ישראל היום" מסכים מנכ"ל החברה, תא"ל (במיל') רועי ריפטין, עם הקו המנחה האומר כי יש לשמר את האחריות האנושית בהחלטות גורליות. "אסור שמחשב יחליף את האדם בקבלת החלטות. יש תמיד שיקולים נוספים ותמונה רחבה יותר, מעבר למה שהמערכת רואה ומעבר למה שלימדת אותה".

אולם לדבריו, כאשר הבינה המלאכותית פועלת בסינרגיה עם האדם, היא דווקא מסייעת לו לקבל החלטות טובות יותר. "בשדה הקרב יש עומס קוגנטיבי גדול, ומפקדים צריכים לקבל החלטות תחת לחץ", טוען ריפטין.

"כלי AI עוזרים לתווך בצורה טובה יותר את הסיטואציה, לסנן רעשים, לקטלג, לסווג, לתעדף ולספק תובנות. זה מאפשר לאדם לקבל החלטה בצורה פשוטה ושקולה יותר, ובסופו של דבר לקבל החלטה נכונה יותר. במובן זה, התרומה של ה-AI היא אדירה", הוא מסכם.

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר