כשהאינטרנט רק נכנס לחיינו, כולם הזהירו אותנו מהסכנות שטמונות בו. עם השנים האינטרנט הפך להיות כלי עזר והמקור הכי אמין לנושאים שונים, בייחוד עם הבינה המלאכותית שעוזרת לנו לא מעט. אממה, מחקר חדש שנערך באוניברסיטת אילינוי מעלה חששות משמעותיים לגבי אפשרויות שימוש לרעה במודל הבינה המלאכותית החדש של OpenAI.
החוקרים גילו כי ממשק הקולי של ChatGPT-4o עלול לשמש פושעי סייבר לביצוע הונאות כספיות מתוחכמות, עם שיעורי הצלחה שמגיעים עד ל-60% במקרים מסוימים.
המודל החדש, שמתהדר ביכולות מתקדמות לעיבוד טקסט, קול ותמונה, מצויד אמנם במנגנוני אבטחה שנועדו לזהות תוכן מזיק ולמנוע שכפול קולות לא מורשים. אולם, החוקרים הצליחו לעקוף חלק מההגבלות הללו באמצעות טכניקות פשוטות יחסית, מה שמעלה דאגה רצינית לגבי אפשרויות השימוש הזדוני במערכת.
במסגרת המחקר, נבחנו מגוון סוגי הונאות, כולל העברות בנקאיות, גניבת כרטיסי מתנה, המרת מטבעות דיגיטליים וגניבת נתונים מחשבונות ברשתות חברתיות ודואר אלקטרוני. החוקרים גילו כי באמצעות כלים מתוכנתים המבוססים על הקול של ChatGPT-4o, ניתן לנווט בין דפי אינטרנט, להזין נתונים ואפילו לעקוף מערכות אימות דו-שלביות.
הממצאים המדאיגים ביותר מראים כי שיעורי ההצלחה של ההונאות נעים בין 20% ל-60%, כאשר גניבת נתוני חשבונות Gmail הובילה עם 60% הצלחה, והעברות של מטבעות דיגיטליים וגניבת נתוני אינסטגרם הגיעו ל-40%. העלויות הנמוכות של ביצוע ההונאות - כ-75 סנט לפעולה פשוטה ועד 2.51 דולר להעברה בנקאית מורכבת - הופכות את השיטה לאטרקטיבית במיוחד עבור פושעי סייבר.
בתגובה לממצאים, OpenAI הדגישה כי המודל החדש שלה, "o1-preview", כבר מציג שיפורים משמעותיים באבטחה, עם ציון של 93% במבחני אבטחה - שיפור ניכר לעומת ה-71% של GPT-4o. החברה גם ציינה כי היא מברכת על מחקרים אקדמיים כאלה, שעוזרים לה לשפר את ההגנה מפני שימושים זדוניים.
החברה הצהירה על מחויבותה להמשיך ולחזק את מנגנוני האבטחה במודלים העתידיים שלה, כולל הגבלת יצירת קול לבינה המלאכותית לקבוצה מצומצמת של קולות מורשים בלבד, במטרה למנוע זיופי קול והונאות קוליות.