על פי דיווח של רויטרס, אמזון חיסלה פרויקט פנימי של ניפוי קורות חיים של מועמדים לעבודה בידי בינה מלאכותית, כי הסתבר שהתוכנה באופן עקבי הפחיתה בציונים שהעניקה לנשים.
ההתפתחות הזו לא מפתיעה: כיון שמערכות בינה מלאכותית לומדות לקבל החלטות על ידי למידה של מידע היסטורי, הן נוטות להנציח הטיות שכבר קיימות בחברה האנושית. במקרה הזה, העובדה שעולם ההיי טק, מאוכלס ברובו בגברים.
לפי הדיווח של סוכנות הידיעות, התוכנה של אמזון הפחיתה נקודות בשקלול למועמדות שלמדו בבתי ספר לנשים בלבד, כמו גם קורות חיים שהכילו את התיאור "לנשים" בהקשר של מסגרות פעילות, כמו למשל "מועדון טניס לנשים".
המטרה המקורית של הצוות שעמד מאחורי הפרויקט, הייתה להאיץ מיון של קורות חיים, כאשר המנוע התוכנתי סורק קורות חיים במאות, ו-"שולף" את חמשת המועמדים המתאימים ביותר, במקום שאת המטלה יבצע בן אדם, הסביר מקור אנונימי ל-"רויטרס".
כאשר בחברה גילו שהתוכנה מספקת תוצאות מוטות מגדרית, הם ערכו בה שינויים כדי להפוך אותה לנייטרלית בנושא. ברם, משלא הצליחו לוודא שהנטאי השלילי כלפי מועמדות למשרה לא התגנב שוב פנימה למערך השיקולים של התוכנה – הפרויקט בוטל כליל בשנה שעברה.
על אף שרויטרס מציינים כי הבינה המלאכותית האמורה הייתה רק ניסוי, לא ברור האם היא יושמה בפועל למיון מועמדים לעבודה באמזון, וכלי תקשורת אחרים פנו לאמזון בשאילתא בנושא שטרם נענתה.
בינה מלאכותית מיושמת בשנים האחרונות יותר ויותר בתהליכים מסוגים שונים – משיפור תמונות ועד קבלת החלטות, כולל מיון מועמדים לעבודה. במקרים רבים, הבינה המלאכותית מנציחה הטיות והתנהגויות אנושיות קיימות, שמועתקות אליה (למשל, בוט של מיקרוסופט שעד מהרה הפך להיות שונא אדם וגזען).
אמנם, ייתכן מאוד שאותם הנטאים קיימים גם אצל מגייס אנושי – אבל בניגוד למגייס האנושי, יש יותר נטייה לסמוך על תוצאות של מחשבים כאמינות, מה גם שהם לא נדרשים להסביר את החלטותיהם, כך שהרכיב החשוב של בקרה חיצונית וחברתית על החלטות, הרות גורל או פחות, נעלם מהמשוואה.
טעינו? נתקן! אם מצאתם טעות בכתבה, נשמח שתשתפו אותנו