מתקפות סייבר מבוססות AI הן אחד האיומים הגדולים. אילוסטרציה. צילום: רויטרס

"מעצב מחדש את יחסי הכוחות": איום הסייבר המשמעותי לשנת 2024

בשיחה עם "ישראל היום", מסביר מנכ"ל סייברסיקסגיל, חברת סייבר העובדת עם גורמי ממשל רבים, על הסכנות הצפויות לעולם בשנה האזרחית הקרובה • "הכלים האלו מאפשרים להאקרים לייצר בקלות, במהירות וללא הכנה מקדימה מאות תקיפות מתוחכמות" • ומה זה הרעלת AI?

הבינה המלאכותית היא טכנולוגיה רבת עוצמה שמשנה בהדרגה תחומי חיים רבים. מתחת לפני השטח, היא מעצבת מחדש גם את יחסי הכוחות בזירת הסייבר, ומשנה הן את צורות התקיפה והן את שיטות ההתגוננות.

זו אולי השורה התחתונה המרכזית שעולה מדו"ח איומי הסייבר המרכזיים לשנת 2024 שפרסמה חברת מודיעין הסייבר הישראלית סייברסיקגיל (Cybersixgill).



בינה מלאכותית מאפשרת לבצע אוטומציה של משימות רבות. בשיחה עם "ישראל היום", מסביר מנכ"ל סייברסיקסגיל, שרון וגנר, כי הבינה המלאכותית הופכת לכלי עזר משמעותי גם בדפוסי פעילותיהם של ההאקרים.

"במובנים רבים, ה-AI מחליפה את ההאקר האנושי. הכלים הללו מאפשרים לבצע מתקפות סייבר באופן אוטומטי יותר ובהיקף גדול יותר. זה יעיל במיוחד במתקפות פישינג של דואר אלקטרוני, שהופכות להיות יותר ויותר אינטליגנטיות ומתוחכמות. באמצעות הכלים הללו, ההאקר יכול לייצר בקלות, במהירות וללא הכנה מקדימה מאות תכתובות דוא"ל אמינות ובשפות שונות".

בינה מלאכותית. מחליפה בהצלחה את ההאקר הממוצע. אילוסטרציה, צילום: Getty Images

להרעיל את ה-AI

עוד תרחיש מעניין שעולה מהדו"ח הוא שמודלי ה-AI יהפכו בעצמם ליעדים למתקפות סייבר, זאת באמצעות "הרעלת מידע". במסגרת הרעלת מידע, ההאקרים תוקפים את מודל ה-AI בשלב האימון, מתוך מטרה "לזהם" את מאגר הנתונים והדוגמאות שמתוכו המודל לומד, למשל באמצעות מידע שגוי או פיקטיבי. זיהום שכזה עלול להטמיע במודל הטיות, שגיאות ופרצות אבטחה שיפגעו בסופו של דבר במשתמשי הקצה.

לפני מספר שנים, ביצעו האקרים קמפיין מסיבי של שליחת מיליוני מיילים, זאת במטרה להטות את הקריטריונים שלפיהם האלגוריתמים האוטומטיים של Gmail מסווגים תכתובת כ"ספאם". המטרה הייתה לרופף את מערכות הבקרה של שירות הדוא"ל כדי שניתן יהיה לשלוח לנמענים מיילים זדוניים מבלי שייחסמו על ידי Gmail.

גם מיקרוסופט נפלה קורבן לסוג כזה של מתקפה, כאשר השיקה ב-2016 צ'אטבוט בשם Tay, המיועד לנהל שיחות בטוויטר. האקרים הזינו את Tay בציוצי שטנה והפכו אותו לצ'אטבוט עוין וגס רוח, מה שאילץ את מיקרוסופט להסירו.

יו"ר מיקרוסופט, סאטיה נאדלה. החברה בראשותו משקיעה רבות בבינה מלאכותית., צילום: אי.פי

המחסור במומחי אבטחת מידע מורגש

אחת מנקודות התורפה המשמעותיות ביותר בעולם אבטחת המידע היא המחסור באנשי אבטחת מידע מיומנים. ככל שאיומי הסייבר גוברים, כך מחריף המחסור. לפי דו"ח של ארגון ICS2, שפורסם בחודש שעבר, חסרים כיום בעולם כ-4 מיליון אנשי אבטחת סייבר, זאת למרות שמספר העובדים בתחום דווקא גדל בעשרה אחוזים בשנים האחרונות.

לדברי וגנר, AI יכול לתת מענה לבעיה הזו. "ניתן לפתור את המחסור באמצעות אוטומציה גדולה יותר של תהליכי האבטחה. ה-AI מאפשר לאסוף ולנתח נתונים רבים ולייצר התראות, וזה חוסך בכוח אדם".

גם בתחום המודיעין, ישנה השפעה לבינה המלאכותית. מודיעין, כולל מודיעין סייבר, נסמך על איסוף מידע ממקורות רבים, וניתוח מכלול המידע בניסיון להבין את תמונת האיום.

יחידת הסייבר של המשטרה. למצולמים אין קשר לכתבה (ארכיון), צילום: דוברות המשטרה

להערכת סייברסיקסגיל, מודלי השפה הגדולים יבצעו בשנה הקרובה קפיצת מדרגה נוספת ויוכלו להתמודד עם יחידות נתונים קשות לפיצוח, כמו אלו המצויות ברשת האפלה ובפורומים מוסווים, לבצע אינטגרציה של המידעים ולאתר את החוט המקשר.

וגנר: "האתגר במודיעין הוא לחבר בין הנקודות. ראינו את זה גם במחדל שקדם ל-7 באוקטובר: היה הרבה מודיעין טקטי שהצביע על כך שמשהו עשוי להתרחש, אך לא היה מי שיחבר את הנקודות לכדי התראה קונקרטית מספיק. בינה מלאכותית יכולה לעזור להבין את ההקשר בין מידע שמתקבל ממקורות שונים ומגוונים ולחבר בין כל הנקודות".

טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו
Load more...