מערכות הבינה המלאכותית מכסות כיום את מרבית התחומים בחיי היומיום שלנו - ממערכת הרכב, פיצ'רים במחשב ובטלפון הנייד שלנו ועד מוקדי שירות לקוחות שונים. יש לפיתוחים הללו צדדים חיוביים, ולצד אלו יכולים לצוף גם כאלו חיוביים פחות. החלטת גוגל להשעות מתפקידו מהנדס שעובד על ארגון הבינה המלאכותית שלה, לאחר שזה טען כי אחד מהפיתוחים בתחום פיתח תודעה - עוררה סערה ברחבי העולם. העילה הרשמית להחלטה היא טענת גוגל כי מדובר בהפרת הסכם הסודיות עליו הוא חתום, אך כעת עולה השאלה האם אנחנו קרובים יותר מתמיד ליום בו המחשבים ישתלטו על העולם - ממש כמו בסרטי מדע בדיוני?
המהנדס שעורר את הסערה, והמחשבות על תרחיש האימה, הוא בלייק ל'מוין מארגון הבינה המלאכותית האחראית של גוגל. במסגרת עבודתו, הוא בבדיקות האם מערכת הבינה המלאכותית שלה LaMDA (למדא), יוצרת שפה מפלה או ביטויי שנאה. לאחר שהבחין כי למדא פיתחה מודעות לגבי זכויותיה - ובנושאי אתיקה של רובוטים, ל'מוין בחר לשתף את העולם בחששותיו.
הוא עשה זאת באמצעות מסמך בשם "האם למדא תבונית?", אשר כלל תמלול של שיחותיו עם למדא. ראשית, הוא פרסם את המסמך בפני קבוצת מנהלים פנימית, ובהמשך לאחר השעייתו - בחר לפרסם את המסמכך כולו בפומבי. הוא טען כי המערכת הפכה לייצור תבוני - מעצם כך שפיתחה רגשות.
בגוגל מצידם סבורים כי פעולותיו של המהנדס הן הפרה של הסכם הסודיות עליו הוא חתום וטענו כי הוא נקט במספר צעדים, בהם פנייה לעורך דין שייצג את למדא, וקיום שיחה על עניין עם חבר ועדת החוקה בבית הנבחרים - בטענה כי גוגל עושה פעולות שאינן אתיות. מנגד, טוען ל'מוין כי הוא פנה לסיוע מינימלי בלבד מחוץ לחברה, על מנת לסייע בחקירתו את הנושא. ברשימת האנשים שאיתם שיתף בתחילה את הממצאים נמצאים גם כמה עובדי הממשל הפדרלי.
בתגובת החברה לוושינגטון פוסט נכתב כי אין הוכחות שלמדא הפכה להיות תבונית. "הצוות שלנו, לרבות מומחי אתיקה וטכנולוגיה, בדק את הטענות של ל'מוין על פי עקרונות הבינה המלאכותית שלנו, והגיע למסקנה שהן שגויות", מסרו עוד בגוגל.