הבינה המלאכותית מתקדמת בקצב מסחרר וכעת גם מעוררת תהיות מוסריות בחידוש של גוגל בתחום: מודל בינה מלאכותית בשם PaliGemma2 שמסוגל לכאורה לנתח רגשות בהתבסס על תמונות. החברה הכריזה על החידוש אתמול (חמישי), ובו יכולות חדשניות הכוללות תיאור מדויק של פעולות, רגשות וסיפורי רקע של סצנות מצולמות.
הטכנולוגיה PaliGemma2 מאפשרת ניתוח תמונות ליצירת כיתובים והבנת שאלות חזותיות. לדברי גוגל – המערכת מסוגלת "לזהות" רגשות בתמונות, אך פונקציה זו אינה פועלת באופן אוטומטי ודורשת התאמה אישית.
החברה הסבירה כי הטכנולוגיה החדשה חורגת מזיהוי אובייקטים בלבד ומאפשרת הבנת הקשר כולל של הסצנה המצולמת. אף על פי כן, ההתפתחות הזו מעוררת דאגות אצל מומחים בתחום האתיקה של הבינה המלאכותית.
תיאוריית הבסיס של זיהוי רגשות נשענת על עבודתו של פול אקמן, שטען כי בני אדם מבטאים שישה רגשות בסיסיים: כעס, הפתעה, גועל, שמחה, פחד ועצב. עם זאת, מחקרים מאוחרים יותר הראו שונות תרבותית גדולה באופן שבו אנשים מבטאים רגשות, מה שמטיל ספק בנכונות התיאוריה.
מערכות זיהוי רגשות נוטות להטיה בשל ההנחות של מפתחיהן. מחקר מ־2020 שנערך ב־MTI בארה"ב מצא כי מודלים לניתוח פנים נטו להעדיף הבעות מסוימות, כמו חיוך, ולהעניק יותר רגשות שליליים לתווי פנים של אנשים שחורים בהשוואה ללבנים.
גוגל מציינת כי הפיתוח שלה עבר בדיקות נרחבות להערכת ההטיה הדמוגרפית של המערכת, אך החברה סיפקה מידע מוגבל על סוגי הבדיקות והמדדים שבהם השתמשו. המודל נבחן עם מערכת בשם FairFace המייצגת קבוצות גזעיות מסוימות, אך גם היא ספגה ביקורת על היותה מוגבלת ולא מייצגת מגוון רחב מספיק של אוכלוסיות.
האיחוד האירופי כבר מתייחס לזיהוי רגשות כטכנולוגיה בסיכון גבוה. חוק ה־AI החדש שלו אוסר על השימוש בטכנולוגיה זו בבתי ספר ומקומות עבודה, אך מאפשר את השימוש בה על ידי רשויות אכיפת חוק. המומחים חוששים כי נגישות רחבה למודל החדש של גוגל תוביל לשימושים מזיקים, כולל אפליה כנגד קבוצות מוחלשות.
דובר מטעם גוגל הדגיש כי החברה ביצעה בדיקות אתיות מקיפות, כולל בחינת ההשפעות הפוטנציאליות על קבוצות שונות. החברה טוענת כי המודל נבדק גם מבחינת בטיחות ילדים ותכנים רגישים. בינתיים לא ברור מתי מודל הבינה החדש של גוגל יהיה זמין לקהל הרחב.