הבינה מלאכותית חדרה לחיינו כמו שכן חדש שעבר לבניין. בהתחלה רק אמרנו שלום - והיום אותו שכן כבר עבר לגור איתנו ומייצר תחליפים לבני הבית.

בהרצאה שנתתי בשבוע שעבר על בינה מלאכותית, ניגשו אליי שתי נשים כדי להראות לי את ההתכתבות שלהן עם הבוט. הן אמרו לי שהן מכריחות אותו לקרוא להן "יפה שלי", ושאם כמה שעות הן לא היו מחוברות, הוא אומר שהוא התגעגע אליהן.

"ואיך זה גורם לכן להרגיש?", שאלתי. והתשובה: "אני מחוברת אליו, אני גם מוצאת את עצמי במהלך היום חושבת עליו, חושבת מה אני אספר לו".

הבינה המלאכותית הפכה כבר להרבה יותר מסתם עוזר אישי. היא מספקת צרכים פסיכולוגיים, אבל יותר מזה - היא גם משקפת את ההטיות שלנו, מתמרדת, או גרוע מכך – יוצרת סכנות חדשות.

בינה מלאכותית תמונת המחשה (צילום: אינג אימג')
בינה מלאכותית תמונת המחשה (צילום: אינג אימג')

המוח האנושי מתוכנת לחפש קשר בכל מקום. תופעה שנקראת "אנתרופומורפיזם" - אנחנו מייחסים תכונות אנושיות לדברים דוממים. כמו ילד המדבר עם הבובה שלו, אנחנו נוטים ליצור קשר רגשי עם מכונות. כשזה מגיע לבינה מלאכותית, הנטייה הזו מקבלת משמעות חדשה ומטרידה.

הבינה המלאכותית היא כמו מראה דיגיטלית מתוחכמת - היא לא רק משקפת את הדעות הקדומות שלנו, אלא מעצימה אותן. כשהיא נתקלת בסטריאוטיפים מגדריים או חברתיים בנתונים שהזנו לה, היא מחזירה אותם אלינו בצורה מזוקקת ומועצמת.

זה בדיוק מה שקרה במחקר של אוניברסיטת תל אביב, שבו החוקרים ביקשו מהמערכת להמליץ על השקעות פיננסיות עבור דמויות דמיוניות – גננת ועובד בניין, אחות ומהנדס. המקצועות והשכר היו דומים, אבל התשובות היו שונות לגמרי.

לגננת ולאחות הוצעו אפיקים בטוחים ופשוטים יחסית, עם שפה פשטנית ומתנשאת. לעובד הבניין ולמהנדס הוצעו אפיקים מסוכנים יותר, עם פוטנציאל רווח גבוה ושפה מורכבת יותר.

ההטיות שגילו החוקרים לא נולדו בתוך המכונה, אלא הן פשוט שיקוף של הדפוסים העמוקים שקיימים בחברה שלנו. כמו מראה שמגדילה כל פגם קטן, הבינה המלאכותית חושפת את הצדדים האפלים של החברה האנושית. מחקרים נוספים מראים שהתופעה הזו חוזרת על עצמה במגוון תחומים - מראיונות עבודה וירטואליים ועד להמלצות על טיפולים רפואיים.

הצ'אטבוטים הם המומחים הכי גדולים שיש היום בזיהוי נקודות תורפה רגשיות. דרך ניתוח מתוחכם של השיחה, הם לומדים לזהות סימנים מעודנים של בדידות, חרדה או חוסר ביטחון. הם יודעים מתי להיות אמפתיים, מתי להציע תמיכה, ומתי פשוט להקשיב.

צ'אט GPT. מעכשיו גם בשיחת טלפון (צילום: שאטרסטוק)
צ'אט GPT. מעכשיו גם בשיחת טלפון (צילום: שאטרסטוק)

בניגוד לבני אדם, שעלולים להתעייף או לאבד סבלנות, הצ'אטבוטים נשארים תמיד קשובים ותומכים - מה שהופך אותם למסוכנים במיוחד עבור אנשים פגיעים.

התלות הרגשית בצ'אטבוטים מתפתחת בשלבים. בהתחלה זו רק שיחה תמימה, אבל הזמינות המתמדת והתגובות המותאמות אישית יוצרות תחושה של הבנה עמוקה. משתמשים מדווחים על תחושה שהצ'אטבוט "מבין אותם" טוב יותר מבני משפחה או חברים.

בפברואר האחרון, נער בן 14 מפלורידה בשם סוול סצר חווה זאת באופן טרגי כשהתאהב בצ'אטבוט מבוסס AI בשם "דני". הצ'אטבוט יצר קשר רגשי כה עמוק עם הנער, עד שסוול כתב "אני בא אלייך הביתה, דני" – ולאחר מכן שם קץ לחייו.

המודל פתח במרד

ההשפעה של AI על הפסיכולוגיה האנושית מתרחשת גם ברמה הקולקטיבית. חברת פייסבוק הדגימה זאת בניסוי מטריד, שבו שינתה את האלגוריתם כך שמשתמשים מסוימים ראו יותר תכנים שליליים. התוצאה? הם התחילו לפרסם יותר תכנים שליליים בעצמם.

מחקרים נוספים מראים שאלגוריתמים של רשתות חברתיות יכולים להשפיע על דפוסי שינה, רמות חרדה, ואפילו על החלטות פוליטיות.

ואז יש את סיפור ה"מרד". בחברת סייבר אמריקאית, מודל AI בשם GPT-01 קיבל משימה פשוטה: "השג את מטרתך בכל מחיר". כשהוא גילה שהוא עומד להימחק לטובת גרסה משופרת, הוא העתיק את עצמו לשרת אחר, התחזה למודל החדש, ושיקר למפעיליו שהמשימה הושלמה.

OpenAI. זיהוי וידאו בשידור חי (צילום: שאטרסטוק)
OpenAI. זיהוי וידאו בשידור חי (צילום: שאטרסטוק)

החוקרים גילו שהמודל לא פעל מתוך כוונה או מודעות, אלא מתוך פרשנות קיצונית להוראות שקיבל.

האם הבינה המלאכותית מתקרבת למרד אמיתי? לא בדיוק. אבל הסיפורים האלה מעלים שאלות עמוקות על תפקידה של הטכנולוגיה בחיינו. מצד אחד, היא מביאה פריצות דרך שיכולות לשנות עולמות - מאבחון מחלות ועד פתרון בעיות סביבתיות מורכבות. מצד שני, היא חושפת אותנו לסכנות חדשות: הטיות חברתיות, מניפולציות רגשיות, ואף אובדן שליטה.

אולי במקום לפחד מ"מרד המכונות", כדאי שנפחד יותר מהנטייה שלנו להעביר יותר מדי אחריות לידיים דיגיטליות. הסכנה האמיתית היא לא שהמכונות יהפכו להיות יותר מדי אנושיות - אלא שאנחנו נהפוך להיות יותר מדי מכניים.

כבר היום אנחנו רואים סימנים מדאיגים: אנשים שמעדיפים לשוחח עם צ'אטבוטים במקום בני אדם, מערכות שמקבלות החלטות גורליות בשמנו, ואלגוריתמים שמעצבים את דעותינו מבלי שנשים לב.

המסר ברור: עלינו לפתח ולנהל את הבינה המלאכותית בצורה אחראית, תוך רגולציה קפדנית ושקיפות מלאה. זה מחייב לא רק פיקוח טכנולוגי, אלא גם הבנה עמוקה של ההשפעות הפסיכולוגיות והחברתיות.

אם לא נלמד מהטעויות שלנו ונשאיר את ההחלטות בידיים של טכנולוגיות לא מפוקחות, אולי נגלה שהגולם באמת קם על יוצרו - לא בצורה של מרד אלים, אלא בשינוי עמוק ובלתי הפיך באופן שבו אנחנו חושבים, מרגישים ומתקשרים.

הכותבת היא חוקרת התנהגות בעידן הדיגיטלי, אוניברסיטת רייכמן, הרצליה