AI מופיע באפליקציות צבאיות בשתי קטגוריות עיקריות: כלי עזר בתהליכי העבודה הטכניים והטקטיים (OCR, אחזור, תרגום אוטומטי, מיצוי מידע והבנייתו, זיהוי דובר, זיהוי דיבור והפיכתו לטקסט (STT) , סריקת שטח וזיהוי שינויים, עיבוד ביג דאטה ועוד). כלי עזר לשיפור תהליכי קבלת ההחלטות, אך לא קבלת ההחלטות בפועל.
עיקר העניין ממוקד, מטבע הדברים, בשימושי הבינה המלאכותית בתהליכי קבלת ההחלטות במערכת הביטחון, שהתפתחו מאד בשנים האחרונות, עם ההתקדמות במהפכת המחשוב והיכולת לעבד במהירות "נתוני עתק" (Big data).
בעידן של חוסר ודאות: בינה מלאכותית היא המפתח להצלחה
השימוש ב-AI במערכות הצה"ליות מלווה במתודולוגיות הפעלה מאד זהירות וחשוב מאד לשמור על גישה זו.
הפקודות והנהלים קובעים חד-משמעית שלא יהיה שימוש באפליקציות בינה מלאכותית במקרים הנושקים לחיי אדם, ללא מעורבות אנושית.
כלומר, החלטה לתקוף, לא מתקבלת ולא תתקבל כנראה בשנים הקרובות רק על ידי אלגורימים מבוססים AI, היא תתבצע רק על ידי גורמים אנושיים מוסמכים, כולל ליווי משפטי הדוק, בדיוק כמו שנעשה לדוגמא באפליקציות AI המערבות חיי אדם ברפואה.
מקבלי ההחלטות בהחלט נעזרים ב-AI כדי למצות את מקסימום המידע וההמלצות, כולל הצגת תקדימי העבר, על מנת לקבל את ההחלטה המושכלת ביותר, אבל למרות שזה נשמע מפתה מערכות ה-AI לא מיועדות להחליף את אנשי המקצוע.
לדוגמא, במערכת לבנדר, המופעלת על ידי מערכת הביטחון, שהתפרסמה במהלך "חרבות ברזל", שכבת ה-AI אמנם מוסיפה שיקולים למסנן המידע המודיעיני, אבל לא מקבלת החלטות.
מעבר למחקר המדעי, השימוש בכלי AI גרם להתפתחות רחבה של מתודולוגיות בחינה (אבלואציה) להבטחת דיוק המוצר ביחס לסף הביצועים שהוגדרו, כדי שניתן יהיה להשתמש במערכות באופן מבצעי. התהליך כולל בחינת יציבות האלגוריתמים לאורך זמן ובתנאים שונים, ע"י יצירת מדגמים אקראיים ופיתוח מנגנוני רגולציה ואישורים רבים, לפני שמערכת ה-AI תוסמך להציג המלצות לשימוש אנושי.
הפללה שתגרור תקיפה, תכלול בכל מקרה לפחות שתי אינדיקציות נפרדות ממקורות בלתי תלויים ותתבצע רק על ידי גורם אנושי.
מוצר AI שמונגש לצרכן, עובר גם תהליך "הסברתיות" (explainability), לוודא תקפות שימוש.
ניתן לחלק את מוצרי ה-AI גם לפי רזולוציית העיסוק. הרובד הראשון עוסק בפריט המידע הבודד (בכמויות גדולות מאד, וזה אחד השינויים המרכזיים) על מנת לחלץ ממנו את מירב מרכיבי המידע, לצורך אחזור עתידי. עיסוק זה הוביל להתמחויות שונות בפריטי המידע (שמע, תמונה, טקסט ועוד).
הרובד השני עוסק בישות המודיעינית, המורכבת מהרבה פריטי מידע, ואלגוריתמי ה-AI מאפשרים ליצור מהם תובנה מצרפית.
הרובד השלישי (העתידני) עוסק בהתרחשויות רחבות, המחברות מספר עצום של ישויות מודיעיניות ובניית יכולות לחזות אירועים שהישויות השונות עשויות להשתתף בהם בעתיד.
המודל מתאים אמנם למערכות מודיעיניות, אבל גם למערכות אזרחיות רבות ברפואה, במדע, בתחבורה, בחקלאות ועוד.
הטמעת כלי AI במערכות צבאיות, בטח בסביבה המשפיעה על חיי אדם, מורכבת וקשה מאין כמוה, אבל רק הגורם האנושי הוא "מומחה התוכן" שעל פיו יישק דבר, ואלגוריתם התוכנה לא קובע כלום לבדו.
במערכות קבלת ההחלטות, מומחי התוכן הם אלו שמקבלים בפועל את ההחלטות ועד שהמלצות מערכת ה- AI צוברות מספיק אמון, אצל מומחה התוכן, עובר זמן רב.
הכשרת המשתמשים שנעזרים בכלי "למידת מכונה" דורשת ידע מיוחד וזמן ארוך ובכל מקרה חשוב להדגיש שוב: במערכות הצבאיות ההתקפיות, שעשויות להשפיע על חיי אדם, אין קבלת החלטות על ידי מערכות AI. אנחנו רחוקים מאד מהמצב הזה.
במערכות האזרחיות ניתן למצוא יישומים בהם מערכות AI עלולות להחליט בנושאים של חיים ומוות, בטח באופן עקיף. זו כנראה אחת הסיבות מדוע מערכות אוטונומיות אזרחיות, כמו הרכב האוטונומי, נכנסות לשימוש בקצב איטי בהרבה מהתחזיות.
תא"ל (מיל') פרופ' יעקב נגל הוא עמית בכיר ב-FDD ופרופסור בטכניון. שימש בעבר כיועץ לביטחון לאומי של נתניהו וכראש המטה לביטחון לאומי בפועל.