מדענים מובילים בתחום הבינה המלאכותית ובכירים בתעשייה, בהם המדענים ג'פרי הינטון ויהושע בנג'יו, מאבות תחום הלמידה העמוקה וסם אלטמן (שיבקר בשבוע הבא באוניברסיטת תל אביב) מנכ"ל ויזם OpenAI שאחראית על פיתוח ChatGPT - צ'טבוט הבינה המלאכותית שמעורר סקרנות עצומה בעולם כולו, פרסמו השבוע מכתב פתוח הכולל אזהרה חריפה ויוצאת דופן על סכנות הבינה המלאכותית. הכותבים הציגו אפשרויות להיכחדות המין האנושי וקראו להתערבות ורגולציה מהותית בתחום.
"מסוכן כמו מלחמה גרעינית": בכירים בענף ה-AI מזהירים מפני "הכחדת המין האנושי"
מדען בריטי מזהיר: "הבינה המלאכותית תמיט אסון על האנושות" - וזאת הסיבה
נשאלת השאלה האם זו אינה אזהרה רגילה, כזו שנלוות בד"כ לתגליות והמצאות מדעיות רבות כגון הדינמיט, הביקוע הגרעיני, וההנדסה גנטית שנושאות בחובן, לצד תועלתן, גם סכנות לאדם? האם יש בבינה המלאכותית ממד חדש שמסכן את המין האנושי באופן מיוחד? שהרי מודלים של בינה מלאכותית כבר פועלים כיום סביבנו – ממסחר אלקטרוני, מערכות בנקאיות, תחבורה ורפואה ומשפרים את חיינו מבלי לעורר חרדה עמוקה כל כך. מהי הנקודה הסינגולרית ממנה הבינה המלאכותית הופכת למסוכנת כל כך ומדוע? האם הסכנה טמונה ביכולתה לבצע חישובים מהירים יותר? באפשרותה לנתח מסדי נתונים אדירים בחלקיקי שניה? או בהזדמנות למציאת תבניות מידע חבויות בנתונים באופן עצמאי? מה יש במודלי הלמידה העמוקה החדשים שמפחיד מדענים ומומחים עד כדי קריאה חריגה לסכנה בקיום האנושות?
התשובה במידה רבה טמונה במילה אחת – "תודעה" (Consciousness) שמתארת את המודעות של יישות לעצם קיומה, טבעה ואופי חוויותיה. התודעה במידה רבה מגדירה את היצורים בממלכת החי בניגוד למחלקת הצומח (אם כי לאחרונה נשמעים מקרב ביולוגים גם קולות אחרים בנושא) ומאפשרת ליצורים חיים לתרגם תחושות וחוויות לרצונות ומעשים.
שאלת התודעה הינה שאלה מורכבת ופתוחה במדע ובפילוסופיה ולאחרונה יותר ויותר גם בבינה מלאכותית (לדוגמה במחקריו של פרופ' עודד מימון). למשל, לא ברור באיזה שלב בהתפתחות העובר מופיעה תודעה ובאיזו רמה. האם בשלבי שינה עמוקה קיימת באדם תודעה? ולנושא שלנו - האם מכונות ומערכות בינה מלאכותית יכולות להגיע למצב של תודעה? במידה וזה המצב, ההשפעה של מערכת בינה מלאכותית עם תודעה עצמית אכן משנה באופן יסודי ומוחלט את טיב היחסים בינה לבין האדם.
זוהי הסיבה למשל לפרסום הרב לו זכה סיפור על בלייק למוין, מהנדס בכיר מגוגל, שטען כי מערכת הבינה המלאכותית LaMDA של החברה פיתחה תודעה ואף הביעה חשש שיכבו אותה בשיחותיו עימה (הוא פוטר מגוגל בעקבות פרסום השיחות). באופן דומה, סיפור פולקלוריסטי נוסף התפרסם לאחרונה על מערכת בינה מלאכותית GPT שקיבלה משימה לייצר רווח כספי באמצעות מסחר באתרי אינטרנט ייעודיים. מאחר והכניסה לאתרים אלה כללה מבחן ויזואלי, שנועד לחסימת בוטים, של עצמים שקשים לזיהוי ממוחשב, המערכת שכרה על דעת עצמה, דרך אתר כח-אדם, עובד זמני שיכנס לאתרים המסחריים תוך טענה מולו שהיא "אינה רואה" (שלכשעצמה, הינה טענה נכונה). המשותף לסיפורים אלו והחשש שהם מעוררים בנו הוא באפשרות שמערכות הבינה המלאכותית קרובות לעבור את קו האל-חזור של התודעה העצמית.
כבר היום ברור שמערכות הבינה המלאכותית החדשות עוברות במידה רבה את "מבחן טיורינג" המפורסם – לפיו חוקר המשוחח בשפה טבעית אך באופן סמוי מול אדם ומול מכונת בינה מלאכותית אינו יודע לקבוע מי הוא האדם ומי היא המכונה. אכן, רבות מהשיחות מול ChatGPT נשמעות במקרים רבים טבעיות וקולחות. מודלי שפה עמוקים מאפשרים למערכות אלו לדייק ניסוחים, למצוא הקשרי שפה מורכבים ואפילו לכלול סאבטקסט במשפטים. אולם, המערכות הללו במידה רבה מבצעות חיקוי(imitation) של שיחה אנושית שאינה מצביעה על קיומה של מודעות עצמאית מלאכותית.
האם בשלב מסוים, המודלים יאפשרו למערכת לפתח מודעות עצמית ברמה גוברת, בדומה לעוברים ותינוקות? מה משמעותה של מודעות כזו על קבלת ההחלטות של הבינה המלאכותית? האם בינה מלאכותית כזו תפעל קודם כל לטובת עצמה גם במחיר פגיעה במין האנושי? לא במקרה סיפרו המפורסם של אייזק אסימוב שיצא לאור ב 1950 נקרא "אני, רובוט" (I, Robot) – כותרת המצביעה על תודעה עצמית מלאכותית. בספר כתוב על כפיפות הרובוטים לשלושת "חוקי הרובוטיקה" של אסימוב – בהם התודעה העצמית היא זו שמונעת מהם לפגוע בעצמם או בבני האדם.
לסיכום, נראה שהרגולציה המתבקשת על הבינה המלאכותית תידרש למחקרי עומק בשאלת התודעה המלאכותית ודרכם נלמד, כנראה לא פחות, גם על התודעה האנושית.
הכותב הוא ראש המעבדה ליישומי בינה מלאכותית, אוניברסיטת תל אביב