מחקר חדש שנערך באוניברסיטת רדינג בבריטניה מעלה ממצאים מטרידים בנוגע ליכולת של מרצים לזהות עבודות שנכתבו על ידי בינה מלאכותית. החוקרים יצרו פרופילים מזויפים של סטודנטים והגישו בשמם עבודות שנכתבו על ידי AI, מבלי שהמרצים יידעו על כך. התוצאות היו מדאיגות במיוחד: 94% מהעבודות לא זוהו כלל כעבודות שנכתבו על ידי בינה מלאכותית. כאשר החוקרים הגדירו קריטריונים מחמירים יותר לזיהוי, שדרשו אזכור ספציפי של בינה מלאכותית, האחוזים עלו ל-97%.
יתרה מכך, החוקרים מציינים כי "שיעור הזיהוי של 6% שנמצא במחקר כנראה אף מעריך ביתר את היכולת שלנו לזהות שימוש אמיתי בבינה מלאכותית לרמאות בבחינות".
תעודות ללא כיסוי
המצב הנוכחי מעלה חששות כבדים בנוגע לעתיד ההשכלה הגבוהה. "זו בעיה רצינית שמפחיתה מערכם של תעודות ותארים", מזהירים החוקרים. הם מוסיפים כי התופעה עלולה להוביל למצב שבו אנשים שלא רכשו את הידע הנדרש יגיעו לעמדות מפתח בתחומים רגישים כמו סיעוד, הנדסה וכיבוי אש.
חרף חומרת הבעיה, נראה כי רוב המוסדות האקדמיים טרם נערכו להתמודדות איתה. באופן מפתיע, ישנם מוסדות שאף הקלו על השימוש בבינה מלאכותית בכך שאפשרו את השימוש בה, אך אסרו על השימוש בטכנולוגיות האמינות שיכולות לזהות אותה.
ציונים גבוהים יותר משל הסטודנטים
אחד הממצאים המטרידים במחקר היה שהעבודות שנכתבו על ידי AI קיבלו בממוצע ציונים גבוהים יותר מאלו שנכתבו על ידי סטודנטים אמיתיים. על פי המחקר, ב-83.4% מהמקרים, העבודות שנוצרו על ידי בינה מלאכותית קיבלו ציונים גבוהים יותר מאשר מדגם אקראי של אותו מספר עבודות סטודנטים.
מחקר זה מצטרף למחקרים קודמים שהגיעו למסקנות דומות. מחקר שנערך באוניברסיטת דרום פלורידה בשנה שעברה מצא כי אפילו בלשנים התקשו להבדיל בין טקסט שנכתב על ידי AI לבין טקסט שנכתב על ידי בני אדם. במחקר נוסף של אוניברסיטאות אמריקאיות שנערך בוייטנאם, נמצא כי מערכות לזיהוי בינה מלאכותית הצליחו לזהות 91% מהמקרים, בעוד שמרצים הצליחו לזהות רק 54.5% מהמקרים - וזאת כאשר הם ידעו מראש שיוגשו עבודות שנכתבו על ידי בינה מלאכותית.
הכי חמור: בקורסים המקוונים
המחקר מעלה חששות כבדים במיוחד לגבי קורסים מקוונים, שם המרצים אינם מכירים את הסטודנטים באופן אישי ואינם יכולים לעקוב אחר תהליך הכתיבה. ה-BBC דיווח לאחרונה על מקרה שממחיש את חומרת הבעיה: סטודנטית נתפסה משתמשת בבינה מלאכותית לכתיבת מאמר אקדמי, והודתה בכך. למרות זאת, ועדה שדנה במקרה קבעה כי "אין מספיק ראיות נגדה" וזיכתה אותה.
החוקרים מדגישים כי הפתרון לבעיה טמון בשימוש בטכנולוגיות לזיהוי AI ובמערכות השגחה על בחינות ומטלות. עם זאת, מוסדות רבים נמנעים משימוש בפתרונות אלה בשל העלויות הכרוכות בכך. במקום זאת, הם מותירים את המשימה המורכבת של זיהוי השימוש בבינה מלאכותית בידי המרצים - פתרון שהמחקר מוכיח כי אינו יעיל.
כעת, שנתיים לאחר השקת ChatGPT, נראה כי השימוש בבינה מלאכותית לרמאות אקדמית הפך לנפוץ, בעוד הנכונות להגביל את כוחה המזיק עדיין מתמהמהת.
הכתבה מבוססת על מאמר שפורסם באתר פורבס
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו