top of page

פורטל ידע

המפתח לבניית אמון עם בינה מלאכותית – מתן יכולת ההסבר

ערך: אריה עמית | יועץ אסטרטגי וחבר נשיאות הלשכה,

מקור:  QuantumBlack AI by McKinsey


29.12.2024

 

מערכות בינה מלאכותית הן חזקות אך לרוב פועלות כמו "קופסאות שחורות", אפוף מסתורין. הנה איך חברות יכולות לשפוך קצת אור ולהניע את האימוץ של פתרונות AI שמשתמשים סומכים עליהם ומבינים.


לבינה מלאכותית יש פוטנציאל לספק רווחים אדירים בפריון הכלכלי   ולאפשר שינוי חברתי חיובי ברחבי העולם. לכן אין זה מפתיע שמספר החברות המאמצות תוכנות, כלים ופלטפורמות המופעלות על ידי בינה מלאכותית, כולל בינה מלאכותית ג'נרטיבית עלתה במהלך 2024 . אבל ההתלהבות הזו לוותה בכמות ניכרת של חשש: במחקר של מקינזי, 91 אחוז מהנשאלים מפקפקים בארגון שלהם "מוכנים מאוד" ליישם ולהרחיב את הטכנולוגיה בבטחה ובאחריות .1ספק כזה מובן. יחד עם הפוטנציאל שלו להגביר את הפרודוקטיביות והחדשנות, תחום הבינה המלאכותית בפרט מייצר סיכונים חדשים - למשל הזיות ותפוקות לא מדויקות או מוטות - שמאיימים לערער את האמון בטכנולוגיה.


כדי לתפוס את מלוא הערך הפוטנציאלי של AI, ארגונים צריכים לבנות אמון. אמון, למעשה, הוא הבסיס לאימוץ של מוצרים ושירותים המופעלים על ידי בינה מלאכותית. אחרי הכל, אם לקוחות או עובדים חסרים אמון בתפוקות של מערכות AI, הם לא ישתמשו בהם. אמון בבינה מלאכותית מגיע דרך הבנת התפוקות של תוכנות המופעלות בבינה מלאכותית וכיצד - לפחות ברמה גבוהה - הן נוצרות. ארגונים מכירים בכך יותר ויותר. בסקר של מקינזי על מצב הבינה המלאכותית ב-2024  40 אחוז מהנשאלים זיהו יכולת הסבר כסיכון מרכזי באימוץ של בינה מלאכותית. אך יחד עם זאת, רק 17 אחוז אמרו שהם פועלים כעת כדי למתן את התופעה.

סוגיה זו העלתה את הצורך בהסברה משופרת של AI) - - (XAI) גישה מתפתחת לבניית מערכות AI שנועדו לעזור לארגונים להבין את פעולתן הפנימית של מערכות אלו ולנטר את האובייקטיביות והדיוק של התפוקות שלהן. על ידי שפיכת מעט אור על המורכבות של האלגוריתמים של הקופסא השחורה בבינה המלאכותית ,, XAI יכול להגביר את האמון והמעורבות בקרב מי שמשתמש בכלי בינה מלאכותית.


כמו בכל השקעה בסביבה לא ודאית, ארגונים המבקשים לשפר את יכולת ההסבר של בינה מלאכותית חייבים לשקול את היתרונות והעלויות כדי להחליט כיצד ומתי לפעול בהיעדר מידע מושלם על היתרונות הפוטנציאליים והסיכונים הכרוכים בכך. נוף הבינה המלאכותית של היום טומנת בחובה אי ודאות, ובהקשר זה, מעבדות בינה מלאכותיות מובילות כמו Anthropic מהמרות שההשקעות ב-XAI ישתלמו כדרך להתמיינות בשדה צפוף של בוני מודלים של יסודות (ראה סרגל צד "ההתפתחות של XAI ו האתגרים של היום"). בינתיים, ארגונים מבקשים לעמוד בציפיות של בעלי העניין והרגולטורים שלהם.


דבר אחד בטוח: הביקוש ל-XAI עולה. ככל שמתחילות להתגבש תקנות AI גלובליות, הצורך בהסברה ובפרשנות גובר, כאשר יותר ארגונים מחפשים קווים מנחים כיצד לקבוע איזו רמת יכולת הסבר לאמץ וכמה מידע לפרסם על המודלים שלהם. חוק הבינה המלאכותית של האיחוד האירופי , למשל, מטיל דרישות שקיפות ספציפיות עבור מקרי שימוש שונים בבינה מלאכותית המסווגים בהתאם למסגרת מבוססת הסיכון שלו. לדוגמה, במקרה של מערכות בינה מלאכותית בסיכון גבוה - כמו מערכות המשמשות בגיוס, כמו תוכנות לדירוג קורות חיים - ארגונים נדרשים לספק מידע על יכולות המערכת, מגבלותיה, שושלת הנתונים וההיגיון מאחורי ההחלטות שהיא מקבלת.


תארו לעצמכם שאתם נוהגים במכונית. הגדרת הגבלת מהירות של 45 מייל לשעה היא חסרת תועלת אם לרכב שלך חסר מד מהירות המציין היכן אתה נמצא ביחס לתקן. באופן דומה, כדי להגיב לתקנות בינה מלאכותית, ארגונים זקוקים לשיטות המספקות נראות כיצד בנויים מודלים של AI וכיצד ניתן לבדוק אותם לפני השחרור. ארגונים זקוקים גם לפתרונות צפייה המספקים תובנה מספקת לגבי מודלים של AI  שלהם כדי להבטיח שהם עומדים בתקנות ובערכים ובסטנדרטים שלהם. זה מעלה שאלות מכריעות: האם ארגונים מוכנים לספק רמה זו של שקיפות? האם יש להם את היכולות והטכנולוגיות הנדרשות? האם פלטפורמות ומחדשים יצרו שיטות מדידה אמינות?


מומלץ להתייחס ל-XAI כעל קבוצה של כלים ושיטות עבודה שנועדו לעזור לבני אדם להבין מדוע מודל בינה מלאכותית עושה תחזית מסוימת או מייצר תוכן מסוים. המטרה הסופית היא להבטיח שתפוקות אלו יהיו באיכות גבוהה, ללא הטיה, אי דיוק או הזיה. זה דורש כמה סוגים של השקעה - בכלים, אנשים ותהליכים. בניית פתרונות בינה מלאכותית ולמידת מכונה ניתנים להסבר יותר  מחייבת פריסה של טכנולוגיה חדשה במחזור החיים של אספקת תוכנה (SDLC) מההתחלה, כאשר מודלים מאומנים ונבדקים או כאשר מודלים מאומנים מראש עוברים כוונון עדין, וכלה כאשר הקוד עובר לייצור וניטור מתמשך ויש צורך בצפייה. מומחיות בטכניקות XAI חייבת להיבנות באמצעות גיוס ו/או הכשרה, והמומחים חייבים להיות משולבים ב-SDLC ממש מהתפיסה של הצעות חדשות מבוססות בינה מלאכותית. מומחים אלה יכולים להוות מרכז מצוינות של XAI (COE) כדי לספק מומחיות והדרכה בין צוותים, לעצב מחדש את מחזור החיים של פיתוח התוכנה ולהבטיח השקעות מתואמות ברחבי הארגון בכלים והדרכה. ה-COE גם יכול לתת מענה לצורך בצריכת כוח מחשוב נוספת וצריכת ענן כדי לספק את ההכשרה הנוספת, לאחר האימון וניטור הייצור החיוניים לשיפור יכולת ההסבר.


כאשר ארגונים שוקלים השקעה כדי להשיג תשואה מ-XAI, עליהם להבין תחילה את הצרכים המגוונים של מחוזות הבחירה השונים המעורבים ולהתאים את מאמצי ההסבר שלהם לצרכים אלו. בעלי עניין מגוונים, מצבים והשלכות מחייבים סוגים שונים של הסברים ופורמטים. לדוגמה, רמת ההסבר הנדרשת למערכת אישור הלוואות מונעת בינה מלאכותית שונה ממה שנדרש כדי להבין כיצד רכב אוטונומי עוצר בצומת. תרחיש בסיכון גבוה, כמו אבחון סרטן, יכול לדרוש הסבר מדויק שניתן במהירות, בעוד שהרציונל להמלצה על מסעדה יכול להיות מטופל בפחות דחיפות. יהיו הנסיבות אשר יהיו, סוג ההסבר הדרוש, המודיע לטכניקת ה-XAI הנדרשת, צריך להיגזר באמצעות גישה ממוקדת באדם - כזו המושרשת בצרכים של האנשים המחפשים הסברים על תפוקות הבינה המלאכותית (ראה סרגל צד "גישה ממוקדת אדם להסברת AI").

זה מועיל לחשוב על הסבר בינה מלאכותית כעל גשר על פני תהום. בצד אחד נמצאים המהנדסים והחוקרים שלומדים ומתכננים טכניקות הסבר באקדמיה ובמעבדות מחקר, ואילו בצד השני נמצאים משתמשי הקצה, שאולי חסרים כישורים טכניים אך עדיין דורשים הבנת AI. באמצע, המגשרים בין שני קצוות, נמצאים הומניסטים בעלי ידע בבינה מלאכותית, המבקשים לתרגם הסברי בינה מלאכותית שפותחו על ידי חוקרים ומהנדסים כדי להגיב לצרכים ולשאלות של קבוצה מגוונת של בעלי עניין ומשתמשים. כישרון מתפתח זה יהיה המפתח לעיצוב XAI שעובד עבור כולם.


ניתן לחלק את צרכי בעלי העניין לשש פרסונות, שכל אחת נהנית מטכניקות והסברים שונים:

  • מקבלי החלטות בכירים דורשים מספיק הבנה ומידע לגבי מודלים כדי להיות אחראים על פעולותיהם ביחס ללקוחות ולעובדים - במיוחד, כדי להבטיח שהמודלים מתנהגים בהתאם לאסטרטגיות, אתוס המותג והערכים של הארגון.

  • מובילי ממשל בינה מלאכותית מהווים קבוצה צולבת-פונקציונלית - הנמשכת מתפקידים כמו משפטים, סיכונים, אבטחת מידע, הנדסה ומוצר - האחראית לעיצוב מערכות בינה מלאכותית בהתאם למדיניות, תקנים ותקנות.

  • משתמשים מושפעים זקוקים להסברים לגבי התוצאות שהם מקבלים ממודלים של AI.

  • משתמשים עסקיים דורשים תובנות כדי לשפר את קבלת ההחלטות היומיומיות, לשפר תהליכים ולמטב את היעילות התפעולית.

  • רגולטורים/מבקרים דורשים הסברים ופרשנות מהמודלים כדי לוודא שהם בטוחים ותואמים ככל שהכללים והתקנות מתפתחים.

  • מפתחים זקוקים להסברים על תפקוד המודלים כדי שיוכלו לשפר ולאפות באגים במערכות הלא דטרמיניסטיות הללו, להוסיף שיפורים לאחר אימון ולהבטיח שמודלים של AI מספקים תוצאות צפויות.


מעבר לבעלי עניין שונים אלה, הקשרים ותרחישי סיכון משתנים משפיעים על פורמט ההסברים המסופקים. הסברים יכולים לבוא בצורה של הדמיות נתונים או דוחות טקסט וישתנו בפירוט הטכני. הבנת הצרכים הספציפיים של כל בעל עניין בזמן מסוים חיונית כדי לספק הסברים יעילים ומשמעותיים של AI העונים על הצרכים הייחודיים שלו.

ככל שארגונים מסתמכים יותר ויותר על קבלת החלטות מונעות בינה מלאכותית, הצורך בשקיפות והבנה הופך לעליון בכל רמות הארגון. אלה שלא מצליחים לבנות אמון יחמיצו את ההזדמנות לממש את מלוא הפוטנציאל של בינה מלאכותית עבור הלקוחות והעובדים שלהם ויפגרו אחרי המתחרים שלהם.

בסופו של דבר, אמון יהיה המפתח לאימוץ אחראי של בינה מלאכותית ולגישור על הפער בין טכנולוגיה טרנספורמטיבית לבין המשתמשים האנושיים שלה. עם זאת, אמון לא יכול לעמוד לבד. כגשר, עליו להיתמך בעמודים חזקים. עבור אמון ב-AI, עמודי התווך הללו הם יכולת הסבר, ממשל, אבטחת מידע וריכוז אנושי. יחד, עמודי התווך הללו יאפשרו לבינה מלאכותית ולמשתמשים האנושיים שלה לקיים אינטראקציה הרמונית, ולגרום לבינה מלאכותית לעבוד עבור אנשים ולא להיפך - ויספקו בסיס להבטיח שמערכות בינה מלאכותית מספקות ערך מוחשי למשתמשים תוך שמירה על כבוד לאוטונומיה וכבוד האדם.


Comentarios


bottom of page