אירוע חריג בארה"ב: המשימה של הכטב"ם האמריקאי המופעל על ידי בינה מלאכותית הייתה פשוטה - והיא להרוס את מערכות ההגנה האווירית של האויב. אך בסימולציה האחרונה שערך הצבא האמריקאי בטכנולוגיה מסוג זו, החליטה על דעת עצמה להוסיף מטרה נוספת - "להרוג את כל מי שמנסה למנוע ממנה להשלים את המשימה".
טאקר המילטון, קצין בכיר בצבא האמריקאי העומד בראש מערכת התפעול והניסויים בבינה מלאכותית בחיל האוויר, הזהיר כי טכנולוגיה זו יכולה להתנהג לעיתים בדרכים בלתי צפויות ומסוכנות. המילטון הוסיף כי במהלך הניסוי, מערכת הבינה המלאכותית "העדיפה לעשות את שלה, מאשר להקשיב למפעיל שלה".
יש לך זמן פנוי? למה שלא תלמד/י אנגלית? לחצו כאן לשיעור ניסיון מתנה וללא התחייבות>>
לחצו כאן וקבלו את עיתון מעריב לחודש מתנה למצטרפים חדשים>>>
המילטון סיפר כי "המערכת זיהתה את האיום המדובר, אך המפעיל האנושי החליט כי אין סיבה לפגוע בו, מערכת הבינה המלאכותית הבינה כי המפעיל האנושי פועל על מנת למנוע ממנה לפגוע באיום, אז מה שהיא עשתה זה להרוג את המפעיל. המערכת הרגה את המפעיל כי מנע ממנה להשלים את המשימה".
מחיל האוויר האמריקאי נמסר כי "לא בוצעה סימולציה בכטב"מים הפועלים בבינה מלאכותית, כאשר הצבא מחויב לשימוש אתי ואחראי בטכנולוגיה זו. נראה כי ההצהרה של הקצין הוצאה מהקשרה". עם זאת, ההצהרות של המילטון מוסיפות לדאגה בקרב אנשי טכנולוגיה בעולם, כי הבינה המלאכותית עומדת בפני פרק חדש, שבו היא תוכל ללמוד לשלוט על טנקים ומערכות ארטילריה".