הפנטגון: בינה מלאכותית מאיצה את מערך חיסול האיומים שלנו

בכירה במשרד ההגנה האמריקני אומרת כי AI מעניק לצבא ארה"ב יתרון משמעותי בתהליך שנועד לזהות ולהעריך איומים • חברות הבינה המלאכותית שינו את המדיניות שלהן בשנה שעברה כדי לשתף פעולה עם גופי הצבא והביטחון

עזרה לפנטגון בזיהוי, מעקב וחיסול איומים. צילום: רויטרס

משרד ההגנה האמריקני מרחיב את שיתוף הפעולה עם חברות הבינה המלאכותית. בראיון לאתר TechCrunch חשפה ד"ר רדהא פלאמב, ראש אגף הדיגיטל והבינה המלאכותית בפנטגון, כי טכנולוגיות AI מעניקות לצבא האמריקני "יתרון משמעותי" בזיהוי, מעקב והערכת איומים.

"אנחנו מגבירים את היכולת שלנו להאיץ את שרשרת החיסול (kill chain), כך שהמפקדים שלנו יוכלו להגיב בזמן הנכון כדי להגן על כוחותינו", אמרה פלאמב. לדבריה, הבינה המלאכותית מוכיחה את יעילותה בעיקר בשלבי התכנון והאסטרטגיה של שרשרת החיסול - המונח הצבאי המתאר את התהליך המורכב של זיהוי, מעקב וחיסול איומים באמצעות מערכת משולבת של חיישנים, פלטפורמות וכלי נשק.

צבא ארה"ב בעיראק, צילום: אי.אף.פי

המרוץ לשותפויות אסטרטגיות

מערכת היחסים בין הפנטגון לחברות הבינה המלאכותית המובילות היא חדשה יחסית. במהלך 2024 שינו חברות כמו OpenAI, מטא ואנתרופיק את מדיניותן כדי לאפשר לסוכנויות הביטחון והמודיעין האמריקניות להשתמש במערכות שלהן. השינוי הזה הוביל לסדרת שותפויות אסטרטגיות בין ענקיות הטכנולוגיה לתעשיות הביטחוניות.

חברת מטא, המפעילה את פייסבוק, החלה לשתף פעולה עם לוקהיד מרטין, יצרנית מטוסי הקרב הגדולה בעולם, ועם בוז אלן, מהחברות המובילות בייעוץ לפרויקטי ביטחון. במסגרת השותפות, הם הביאו את מודל הבינה המלאכותית Llama של מטא לשימוש בסוכנויות הביטחון.

במקביל, חברת אנתרופיק חברה לפלנטיר, המתמחה בניתוח מודיעין ונתונים עבור ממשלות וארגוני ביטחון. OpenAI, מפתחת ChatGPT, התקשרה עם אנדוריל, חברה המפתחת מערכות צבאיות מתקדמות. גם חברת Cohere, המתמחה בפיתוח מודלים של בינה מלאכותית, החלה לשלב את הטכנולוגיה שלה בפרויקטים של פלנטיר.

חברות הבינה המלאכותית טוענות כי הן מנסות למצוא את האיזון העדין בין סיוע לצבא לבין שמירה על עקרונות אתיים. בהתייחסות לנושא, מנכ"ל אנתרופיק דאריו אמודיי אמר בראיון ל"פייננשל טיימס": "העמדה שלעולם לא נשתמש בבינה מלאכותית בתחומי ההגנה והמודיעין אינה הגיונית בעיניי. מצד שני, העמדה שנשתמש בה לכל דבר שנרצה, עד כדי נשק יום הדין - היא מטורפת באותה מידה. אנחנו מנסים למצוא את שביל הזהב, לעשות דברים באופן אחראי".

צבא ארה"ב באפגניסטן, צילום: ויקיפדיה/US Army Afghanistan

פחות מדע בדיוני

בראיון ל-TechCrunch, הסבירה פלאמב כיצד הבינה המלאכותית מסייעת בניתוח תרחישים: "זה מאפשר לנצל את מלוא טווח הכלים העומדים לרשות המפקדים שלנו, אבל גם לחשוב באופן יצירתי על אפשרויות תגובה שונות ופשרות אפשריות בסביבה שבה יש איום פוטנציאלי או סדרת איומים שצריך לטפל בהם".

כשנשאלה באותו ראיון על השימוש במערכות אוטונומיות, טענה פלאמב כי הרעיון שמערכות אוטומטיות מקבלות החלטות של חיים ומוות באופן עצמאי הוא "בינארי מדי", והמציאות "פחות מדע בדיוני". "אנשים נוטים לחשוב על זה כאילו יש רובוטים איפשהו, ואז המכונה פולטת דף נייר, ובני אדם רק מסמנים וי", אמרה.

"זו לא הדרך שבה עובד שיתוף הפעולה בין אדם למכונה, וזו לא דרך יעילה להשתמש במערכות AI מסוג זה". היא הדגישה כי "זה עניין של אמינות ואתיקה, תמיד יהיו בני אדם מעורבים בהחלטה להפעיל כוח, וזה כולל את מערכות הנשק שלנו".

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו

כדאי להכיר