במאמר האחרון שלי, קבענו אמת בסיסית: כדי שמשתמשים יאמצו את הבינה המלאכותית ויסתמכו עליה, עליהם לסמוך עליה. דיברנו על כך שאמון הוא מבנה רב-גוני, הנבנה על תפיסות של יכולת, נדיבות, יושרה ויכולת חיזוי של בינה מלאכותית. אבל מה קורה כאשר AI, בחוכמתו השקטה והאלגוריתמית, מקבל החלטה שמשאירה משתמש מבולבל, מתוסכל או אפילו פגוע? בקשת משכנתא נדחתה, שיר אהוב נעדר פתאום מרשימת ההשמעה, וקורות חיים מוסמכים נדחים לפני שאדם יראה אותו. ברגעים אלה, היכולת והחיזוי מתנפצים, והטובה מרגישה רחוקה מכל העולם. השיחה שלנו כעת חייבת להתפתח מהמה של אמון לאיך של שקיפות. תחום הבינה המלאכותית הניתנת להסבר (XAI), המתמקד בפיתוח שיטות להפיכת תפוקות הבינה המלאכותית למובנות לבני אדם, הופיע כדי לטפל בזה, אך לרוב הוא ממוסגר כאתגר טכני גרידא עבור מדעני נתונים. אני טוען שזהו אתגר עיצובי קריטי עבור מוצרים המסתמכים על AI. תפקידנו כמקצועני UX לגשר על הפער בין קבלת החלטות אלגוריתמית להבנה אנושית. מאמר זה מספק הדרכה מעשית ומעשית כיצד לחקור ולעצב להסבר. נעבור אל מעבר למילות הבאז ואל הדגמים, נתרגם מושגי XAI מורכבים לדפוסי עיצוב קונקרטיים שתוכלו להתחיל להשתמש בהם היום. De-mystifying XAI: Core Concepts for UX Practitioners XAI עוסק בתשובה לשאלת המשתמש: "למה?" מדוע הוצגה לי המודעה הזו? למה הסרט הזה מומלץ לי? מדוע הבקשה שלי נדחתה? תחשוב על זה כעל הבינה המלאכותית שמראה את עבודתו על בעיה מתמטית. בלי זה, פשוט יש לך תשובה, ואתה נאלץ לקחת אותה באמונה. בהצגת השלבים, אתה בונה הבנה ואמון. אתה גם מאפשר בדיקה ואימות של העבודה שלך על ידי אותם בני אדם שהיא משפיעה. חשיבות תכונה ועובדות נגד ישנן מספר טכניקות שבהן אנו יכולים להשתמש כדי להבהיר או להסביר מה קורה עם AI. בעוד ששיטות נעות בין אספקת כל ההיגיון של עץ החלטות ליצירת סיכומי שפה טבעית של פלט, שניים מהסוגים המעשיים והמשפיעים ביותר של מידע שמתרגלי UX יכולים להכניס לחוויה הם חשיבות תכונה (איור 1) ועובדות נגדיות. אלה הם לעתים קרובות הפשוטים ביותר למשתמשים להבנה והכי מעשיים עבור מעצבים ליישם.
חשיבות התכונה שיטת ההסבר הזו עונה, "מה היו הגורמים החשובים ביותר שה-AI חשב?" מדובר בזיהוי 2-3 המשתנים המובילים שהיו להם את ההשפעה הגדולה ביותר על התוצאה. זו הכותרת, לא כל הסיפור. דוגמה: תארו לעצמכם בינה מלאכותית שחוזה אם לקוח יתפטר (יבטל את השירות שלו). חשיבות התכונה עשויה לחשוף כי "מספר שיחות תמיכה בחודש האחרון" ו"עליות מחירים אחרונות" היו שני הגורמים החשובים ביותר בקביעה אם סביר להניח שלקוח יעזוב.
עובדות נגד שיטה רבת עוצמה זו עונה: "מה אני צריך לשנות כדי לקבל תוצאה אחרת?" זה חיוני כי זה נותן למשתמשים תחושה של סוכנות. זה הופך "לא" מתסכל ל"עדיין לא". דוגמה: תארו לעצמכם מערכת בקשה להלוואה שמשתמשת בבינה מלאכותית. למשתמש סורבים הלוואה. במקום לראות רק את "הבקשה נדחתה", הסבר נגד עובדתי יחלוק גם, "אם ניקוד האשראי שלך היה גבוה ב-50 נקודות, או אם יחס החוב להכנסה שלך היה נמוך ב-10%, ההלוואה שלך הייתה מאושרת." זה נותן לשרה צעדים ברורים ומעשיים שהיא יכולה לנקוט כדי לקבל הלוואה בעתיד.
שימוש בנתוני מודל כדי לשפר את ההסבר למרות שפרטים טכניים מטופלים לעתים קרובות על ידי מדעני נתונים, זה מועיל למתרגלי UX לדעת שכלים כמו LIME (Local Interpretable Model-Agnostic Explanations) שמסביר תחזיות בודדות על ידי קירוב של המודל באופן מקומי, ו-SHAP (SHapley Additive ExPlanations) המשתמש בגישת מכונה של תורת המשחקים כדי להסביר את הפלט של כל מודל מורכב של למידה. דגמים. ספריות אלו בעצם עוזרות לפרק את ההחלטה של AI כדי להראות אילו תשומות היו המשפיעות ביותר על תוצאה נתונה. כאשר נעשה כראוי, ניתן להשתמש בנתונים העומדים בבסיס ההחלטה של כלי בינה מלאכותית כדי לספר סיפור רב עוצמה. בואו נעבור על חשיבות תכונות ועובדות נגדיות ונראה כיצד ניתן לנצל את מדע הנתונים מאחורי ההחלטה כדי לשפר את חוויית המשתמש. עכשיו בואולכסות את חשיבות התכונה בעזרת נתוני הסברים מקומיים (למשל, LIME): גישה זו עונה, "מדוע ה-AI הציע את ההמלצה הספציפית הזו עבורי, עכשיו?" במקום הסבר כללי על איך המודל פועל, הוא מספק סיבה ממוקדת למופע יחיד וספציפי. זה אישי והקשרי. דוגמה: תארו לעצמכם מערכת המלצות למוזיקה המופעלת על ידי בינה מלאכותית כמו Spotify. הסבר מקומי יענה, "למה המערכת המליצה לך על השיר הספציפי הזה של אדל עכשיו?" ההסבר עשוי להיות: "מכיוון שהאזנת לאחרונה לכמה בלדות ושירים רגשיים אחרים של זמרות".
לבסוף, בואו נסקור את הכללת הסברים מבוססי ערך (למשל נתוני Shapley Additive Explanations (SHAP) להסבר של החלטה: זוהי גרסה ניואנסית יותר של חשיבות תכונה שעונה, "איך כל גורם דחף את ההחלטה לכאן או לכאן?" זה עוזר לדמיין מה חשוב, והאם השפעתו הייתה חיובית או שלילית. דוגמה: תארו לעצמכם שבנק משתמש במודל AI כדי להחליט אם לאשר בקשת הלוואה.
חשיבות תכונה: פלט המודל עשוי להראות שציון האשראי של המבקש, ההכנסה ויחס החוב להכנסה היו הגורמים החשובים ביותר בהחלטתו. זה עונה על מה שחשוב. חשיבות תכונה עם הסברים מבוססי ערך (SHAP): ערכי SHAP יקחו את חשיבות התכונה עוד יותר בהתבסס על אלמנטים של המודל.
עבור הלוואה מאושרת, SHAP עשוי להראות שדירוג אשראי גבוה דחף את ההחלטה באופן משמעותי לאישור (השפעה חיובית), בעוד שיחס חוב להכנסה מעט גבוה מהממוצע משך אותה מעט (השפעה שלילית), אך לא מספיק כדי לשלול את ההלוואה. עבור הלוואה שנדחתה, SHAP יכולה לחשוף שהכנסה נמוכה ומספר גבוה של פניות אשראי לאחרונה דחפו את ההחלטה לכיוון שלילה, גם אם ניקוד האשראי היה הגון.
זה עוזר לפקיד ההלוואות להסביר למבקש מעבר למה שנחשב, כיצד כל גורם תרם להחלטה הסופית של "כן" או "לא". חשוב להכיר בכך שהיכולת לספק הסברים טובים לרוב מתחילה הרבה יותר מוקדם במחזור הפיתוח. מדעני ומהנדסי נתונים ממלאים תפקיד מרכזי על ידי בנייה מכוונת של מודלים וצינורות נתונים בדרכים התומכות מטבען בהסבר, במקום לנסות להדביק זאת כמחשבה שלאחר מכן. צוותי מחקר ועיצוב יכולים לטפח זאת על ידי ייזום שיחות מוקדמות עם מדעני נתונים ומהנדסים על צרכי המשתמש להבנה, תרומה לפיתוח מדדי הסבר ויצירת אב טיפוס בשיתוף פעולה כדי להבטיח שהם גם מדויקים וידידותיים למשתמש. XAI ובינה מלאכותית אתית: ביטול הטיה ואחריות מעבר לבניית אמון, XAI ממלא תפקיד קריטי בטיפול בהשלכות האתיות העמוקות של AI*, במיוחד בנוגע להטיה אלגוריתמית. טכניקות הסבר, כגון ניתוח ערכי SHAP, יכולות לחשוף אם החלטות המודל מושפעות באופן לא פרופורציונלי מתכונות רגישות כמו גזע, מגדר או מעמד סוציו-אקונומי, גם אם גורמים אלו לא שימשו במפורש כתשומות ישירות. לדוגמה, אם מודל אישור הלוואות מקצה באופן עקבי ערכי SHAP שליליים למבקשים מדמוגרפיה מסוימת, הוא מאותת על הטיה פוטנציאלית הדורשת חקירה, ומעצים צוותים להופיע ולהפחית תוצאות בלתי הוגנות כאלה. הכוח של XAI מגיע גם עם הפוטנציאל ל"שטיפה עם הסבר". בדיוק כפי ש"כביסה ירוקה" מטעה את הצרכנים לגבי שיטות עבודה סביבתיות, שטיפת הסבר יכולה להתרחש כאשר הסברים נועדו לטשטש, במקום להאיר, התנהגות אלגוריתמית בעייתית או הטיות מובנות. זה יכול להתבטא כהסברים פשטניים מדי שמשמיטים גורמים משפיעים קריטיים, או הסברים שממסגרים אסטרטגית תוצאות כך שייראו ניטרליות או הוגנות יותר ממה שהן באמת. זה מדגיש את האחריות האתית של מתרגלי UX לעצב הסברים שהם באמת שקופים וניתנים לאימות. אנשי UX, בשיתוף עם מדעני נתונים ואתיקאים, נושאים באחריות מכרעת בתקשורת הסיבה להחלטה, וגם את המגבלות וההטיות הפוטנציאליות של מודל הבינה המלאכותית הבסיסית. זה כרוך בהגדרת ציפיות משתמש מציאותיות לגבי דיוק בינה מלאכותית, זיהוי היכן המודל עשוי להיות פחות אמין, ומתן ערוצים ברורים לעזרה או משוב כאשר משתמשים תופסים תוצאות לא הוגנות או שגויות. טיפול יזום באלהמימדים אתיים יאפשרו לנו לבנות מערכות בינה מלאכותית שהן באמת צודקות ואמינות. משיטות ועד מוקאפים: דפוסי עיצוב מעשיים של XAI הכרת המושגים היא דבר אחד; לעצב אותם זה משהו אחר. כך נוכל לתרגם את שיטות ה-XAI הללו לדפוסי עיצוב אינטואיטיביים. תבנית 1: הצהרת ה"כי" (לחשיבות התכונה) זהו הדפוס הפשוט ביותר ולעתים קרובות היעיל ביותר. זוהי הצהרה ישירה בשפה פשוטה המציגה את הסיבה העיקרית לפעולה של AI.
היוריסטית: היה ישיר ותמציתי. להוביל עם הסיבה היחידה המשפיעה ביותר. הימנעו מז'רגון בכל מחיר.
דוגמה: דמיינו שירות הזרמת מוזיקה. במקום רק להציג רשימת השמעה של "Discover Weekly", אתה מוסיף שורה קטנה של מיקרוקופי. המלצת שיר: "Velvet Morning" כי אתה מאזין ל"The Fuzz" ורוק פסיכדלי אחר.
תבנית 2: האינטראקטיבית "מה-אם" (עבור קונטרה-עובדות) עובדות נגד הן מטבען על העצמה. הדרך הטובה ביותר לייצג אותם היא לתת למשתמשים כלים אינטראקטיביים לחקור אפשרויות בעצמם. זה מושלם עבור יישומים פיננסיים, בריאותיים או אחרים ממוקדי מטרה.
היוריסטית: הפוך את ההסברים לאינטראקטיביים ומעצימים. תן למשתמשים לראות את הסיבה והתוצאה של הבחירות שלהם.
דוגמה: ממשק בקשה להלוואה. לאחר הכחשה, במקום מבוי סתום, המשתמש מקבל כלי לקבוע כיצד תרחישים שונים (מה אם) עשויים להתרחש (ראה איור 1).
תבנית 3: The Highlight Reel (להסברים מקומיים) כאשר AI מבצע פעולה בתוכן של משתמש (כמו סיכום מסמך או זיהוי פנים בתמונות), ההסבר צריך להיות מקושר ויזואלית למקור.
היוריסטית: השתמש ברמזים חזותיים כמו הדגשה, קווי מתאר או הערות כדי לחבר את ההסבר ישירות לאלמנט הממשק שהוא מסביר.
דוגמה: כלי בינה מלאכותית המסכם מאמרים ארוכים. נקודת סיכום שנוצרה על ידי בינה מלאכותית: מחקר ראשוני הראה פער שוק למוצרים בני קיימא. מקור במסמך: "...ניתוח הרבעון השני שלנו של מגמות שוק הוכיח סופית שאף מתחרה גדול לא משרת ביעילות את הצרכן המודע לסביבה, וחשף פער משמעותי בשוק למוצרים ברי קיימא..."
דפוס 4: ה-Push-and-Pull Visual (להסברים מבוססי ערך) לקבלת החלטות מורכבות יותר, ייתכן שהמשתמשים יצטרכו להבין את משחקי הגומלין של הגורמים. הדמיית נתונים פשוטה יכולה להבהיר זאת מבלי להיות מכריעה.
היוריסטית: השתמש בהצגות נתונים פשוטות ומקודדות בצבע (כמו תרשימי עמודות) כדי להראות את הגורמים שהשפיעו לחיוב ולשלילי על החלטה.
דוגמה: בינה מלאכותית מסננת פרופיל של מועמד למשרה. מדוע המועמד הזה הוא התאמה של 75%: גורמים הדוחפים את הציון למעלה: 5+ שנים ניסיון במחקר UX מיומן ב-PythonFactors דוחף את הציון למטה:אין ניסיון עם B2B SaaS
למידה ושימוש בדפוסי עיצוב אלה ב-UX של מוצר הבינה המלאכותית שלך יעזור להגביר את יכולת ההסבר. אתה יכול גם להשתמש בטכניקות נוספות שאיני מכסה כאן לעומק. זה כולל את הדברים הבאים:
הסברים על שפה טבעית: תרגום הפלט הטכני של AI לשפה אנושית פשוטה ושיחה שלא מומחים יכולים להבין בקלות. הסברים הקשריים: מתן רציונל לתפוקה של AI ברגע ובמיקום הספציפיים, הוא הרלוונטי ביותר למשימה של המשתמש. הדמיות רלוונטיות: שימוש בתרשימים, גרפים או מפות חום כדי לייצג חזותית את תהליך קבלת ההחלטות של AI, מה שהופך נתונים מורכבים לאינטואטיביים וקלים יותר למשתמשים לתפיסה.
הערה לחזית הקצה: תרגום פלטי ההסבר הללו לחוויות משתמש חלקות מציג גם מערכת שיקולים טכניים משלו. מפתחי קצה חזיתיים מתחבטים לעתים קרובות בעיצוב API כדי לאחזר ביעילות נתוני הסבר, והשלכות ביצועים (כמו יצירת הסברים בזמן אמת לכל אינטראקציה של משתמש) זקוקות לתכנון קפדני כדי להימנע מהשהייה. כמה דוגמאות מהעולם האמיתי ה-DeliveryDefense של UPS Capital UPS משתמשת בבינה מלאכותית כדי להקצות "ציון בטחון מסירה" לכתובות כדי לחזות את הסבירות של גניבת חבילה. תוכנת DeliveryDefense שלהם מנתחת נתונים היסטוריים על מיקום, תדירות אובדן וגורמים אחרים. אם לכתובת יש ציון נמוך, המערכת יכולה לנתב מחדש את החבילה באופן יזום לנקודת גישה מאובטחת של UPS, ולספק הסבר להחלטה (למשל, "חבילה מנותבת למיקום מאובטח עקב היסטוריה של גניבה"). מערכת זו מדגימה כיצד ניתן להשתמש ב-XAI להפחתת סיכונים ולבניית אמון לקוחות באמצעותשְׁקִיפוּת. רכבים אוטונומיים כלי הרכב הללו של העתיד יצטרכו להשתמש ביעילות ב-XAI כדי לעזור לכלי הרכב שלהם לקבל החלטות בטוחות וניתנות להסבר. כאשר מכונית בנהיגה עצמית בולמת באופן פתאומי, המערכת יכולה לספק הסבר בזמן אמת לפעולתה, למשל על ידי זיהוי הולך רגל שנכנס לכביש. זה לא רק חיוני לנוחות ואמון הנוסעים, אלא גם דרישה רגולטורית כדי להוכיח את הבטיחות והאחריות של מערכת הבינה המלאכותית. IBM Watson Health (והאתגרים שלה) למרות שהוא מצוטט לעתים קרובות כדוגמה כללית לבינה מלאכותית בתחום הבריאות, זה גם מחקר מקרה חשוב לחשיבותו של XAI. הכישלון בפרויקט Watson for Oncology שלה מדגיש מה יכול להשתבש כאשר ההסברים אינם ברורים, או כאשר הנתונים הבסיסיים מוטים או אינם מקומיים. המלצות המערכת היו לפעמים לא עולות בקנה אחד עם פרקטיקות קליניות מקומיות מכיוון שהן התבססו על הנחיות ממוקדות בארה"ב. זה משמש כסיפור אזהרה על הצורך בהסבר חזק ומודע להקשר. תפקידו של חוקר ה-UX: איתור ואימות הסברים פתרונות העיצוב שלנו יעילים רק אם הם נותנים מענה לשאלות המשתמש הנכונות בזמן הנכון. הסבר שעונה על שאלה שאין למשתמש הוא רק רעש. זה המקום שבו מחקר UX הופך לרקמת החיבור הקריטית באסטרטגיית XAI, מה שמבטיח שנסביר מה ואיך זה באמת חשוב למשתמשים שלנו. תפקידו של החוקר הוא כפול: ראשית, ליידע את האסטרטגיה על ידי זיהוי היכן יש צורך בהסברים, ושנית, לאמת את העיצובים המספקים את ההסברים הללו. מידע על אסטרטגיית XAI (מה להסביר) לפני שנוכל לעצב הסבר אחד, עלינו להבין את המודל המנטלי של המשתמש של מערכת הבינה המלאכותית. מה הם מאמינים שזה עושה? איפה הפערים בין ההבנה שלהם לבין המציאות של המערכת? זוהי עבודת היסוד של חוקר UX. ראיונות עם מודל נפשי: פירוק תפיסות משתמשים של מערכות בינה מלאכותית באמצעות ראיונות עמוקים ומובנים למחצה, מתרגלי UX יכולים לקבל תובנות שלא יסולא בפז לגבי האופן שבו משתמשים תופסים ומבינים מערכות בינה מלאכותית. הפעלות הללו נועדו לעודד משתמשים לצייר או לתאר את ה"מודל המנטלי" הפנימי שלהם של האופן שבו הם מאמינים שה-AI עובד. זה כרוך לעתים קרובות בשאילת שאלות פתוחות המניעות את המשתמשים להסביר את ההיגיון של המערכת, התשומות שלה והתפוקות שלה, כמו גם את היחסים בין אלמנטים אלה. הראיונות הללו הם רבי עוצמה מכיוון שהם חושפים תכופות תפיסות מוטעות והנחות עמוקות שמשתמשים מחזיקים לגבי AI. לדוגמה, משתמש המקיים אינטראקציה עם מנוע המלצות עשוי לטעון בביטחון שהמערכת מבוססת אך ורק על היסטוריית הצפייה שלו בעבר. ייתכן שהם לא יבינו שהאלגוריתם משלב גם מספר רב של גורמים אחרים, כמו השעה ביום שהם גולשים, הפריטים הפופולריים הנוכחיים ברחבי הפלטפורמה, או אפילו הרגלי הצפייה של משתמשים דומים. חשיפת הפער הזה בין המודל המנטלי של המשתמש לבין היגיון ה-AI הבסיסי בפועל הוא חשוב ביותר. זה אומר לנו בדיוק איזה מידע ספציפי אנחנו צריכים לתקשר למשתמשים כדי לעזור להם לבנות מודל מנטלי מדויק וחזק יותר של המערכת. זהו, בתורו, צעד בסיסי בטיפוח אמון. כאשר משתמשים מבינים, אפילו ברמה גבוהה, כיצד בינה מלאכותית מגיעה למסקנות או להמלצות שלה, סביר יותר שהם יבטחו בתפוקות שלה ויסתמכו על הפונקציונליות שלה. מיפוי מסע בינה מלאכותית: צלילה עמוקה לתוך אמון המשתמש ויכולת ההסבר על ידי מיפוי קפדני של המסע של המשתמש עם תכונה המופעלת בינה מלאכותית, אנו משיגים תובנות שלא יסולא בפז על הרגעים המדויקים שבהם מתעוררים בלבול, תסכול או אפילו חוסר אמון עמוק. זה חושף צומתים קריטיים שבהם המודל המנטלי של המשתמש של אופן פעולת ה-AI מתנגש עם ההתנהגות שלו בפועל. שקול שירות הזרמת מוזיקה: האם האמון של המשתמש צונח כאשר המלצה על רשימת השמעה מרגישה "אקראית", חסרת כל קשר מובחן להרגלי ההאזנה שלו בעבר או להעדפות המוצהרות שלו? האקראיות הנתפסת הזו מהווה אתגר ישיר לציפייה של המשתמש לאיסוף מושכל והפרה של ההבטחה הסמויה שה-AI מבין את טעמו. באופן דומה, באפליקציה לניהול תמונות, האם משתמשים חווים תסכול משמעותי כאשר תכונת תיוג תמונות בינה מלאכותית מזהה באופן עקבי בן משפחה יקר? שגיאה זו היא יותר מתקלה טכנית; הוא פוגע בלב של דיוק, התאמה אישית ואפילוחיבור רגשי. נקודות כאב אלו הן אותות עזים המציינים בדיוק היכן יש צורך בהסבר ממוקם היטב, ברור ותמציתי. הסברים כאלה משמשים כמנגנוני תיקון מכריעים, המתקנים הפרת אמון שאם לא יטופלו, עלולה להוביל לנטישת משתמשים. הכוח של מיפוי מסעות בינה מלאכותית טמון ביכולתו להעביר אותנו מעבר להסבר פשוט על התפוקה הסופית של מערכת בינה מלאכותית. אמנם חשוב להבין מה ה-AI ייצר, אבל לרוב זה לא מספיק. במקום זאת, תהליך זה מאלץ אותנו להתמקד בהסבר התהליך ברגעים קריטיים. זה אומר להתייחס ל:
מדוע נוצר פלט מסוים: האם זה נובע מנתוני קלט ספציפיים? ארכיטקטורת דגם מסוימת? אילו גורמים השפיעו על החלטת הבינה המלאכותית: האם תכונות מסוימות שוקלו בכבדות יותר? כיצד הגיעה הבינה המלאכותית למסקנה: האם נוכל להציע הסבר פשוט ואנלוגי של פעולתו הפנימית? אילו הנחות ה-AI הניח: האם היו הבנות מרומזות לגבי כוונת המשתמש או הנתונים שיש להעלות על השטח? מהן המגבלות של ה-AI: תקשורת ברורה של מה שה-AI לא יכול לעשות, או היכן שהדיוק שלו עלול לדעוך, בונה ציפיות ריאליות.
מיפוי מסעות בינה מלאכותית הופך את הרעיון המופשט של XAI למסגרת מעשית ניתנת לפעולה עבור מתרגלי UX. זה מאפשר לנו לעבור מעבר לדיונים תיאורטיים על יכולת הסבר, ובמקום זאת לאתר את הרגעים המדויקים שבהם אמון המשתמש עומד על כף המאזניים, ומספק את התובנות הדרושות לבניית חוויות AI שהן חזקות, שקופות, מובנות ומהימנות. בסופו של דבר, מחקר הוא הדרך שבה אנו חושפים את הלא ידועים. ייתכן שהצוות שלך מתלבט כיצד להסביר מדוע נדחתה הלוואה, אך מחקר עשוי לגלות שמשתמשים מודאגים הרבה יותר מלהבין כיצד נעשה שימוש בנתונים שלהם מלכתחילה. ללא מחקר, אנחנו פשוט מנחשים מה המשתמשים שלנו תוהים. שיתוף פעולה בעיצוב (כיצד להסביר את הבינה המלאכותית שלך) לאחר שהמחקר זיהה מה להסביר, הלולאה השיתופית עם העיצוב מתחילה. מעצבים יכולים לעצב אב טיפוס של הדפוסים שדיברנו עליהם קודם - הצהרת ה"כי", המחוונים האינטראקטיביים - וחוקרים יכולים לשים את העיצובים האלה לפני המשתמשים כדי לראות אם הם מחזיקים מעמד. בדיקת שימושיות והבנה ממוקדת: אנו יכולים לתכנן מחקרים הבודקים באופן ספציפי את רכיבי XAI. אנחנו לא רק שואלים, "האם זה קל לשימוש?" אנו שואלים, "לאחר שראינו את זה, האם תוכל לומר לי במילים שלך מדוע המערכת המליצה על המוצר הזה?" או "הראה לי מה היית עושה כדי לראות אם תוכל לקבל תוצאה אחרת." המטרה כאן היא למדוד הבנה ויכולת פעולה, לצד שימושיות. מדידת האמון עצמו: אנו יכולים להשתמש בסקרים פשוטים ובסולמות דירוג לפני ואחרי הצגת הסבר. לדוגמה, אנו יכולים לשאול משתמש בסולם של 5 נקודות, "עד כמה אתה סומך על ההמלצה הזו?" לפני שהם רואים את ההצהרה "בגלל", ואז שואלים אותם שוב לאחר מכן. זה מספק נתונים כמותיים על האם ההסברים שלנו באמת מזיזים את המחט על אמון. תהליך זה יוצר לולאה עוצמתית ואיטרטיבית. ממצאי מחקר מובילים לתכנון הראשוני. העיצוב הזה נבדק לאחר מכן, והממצאים החדשים מוחזרים לצוות העיצוב לצורך חידוד. אולי ההצהרה "בגלל" הייתה ז'רגון מדי, או שהמחוון "מה אם" היה יותר מבלבל מאשר מעצים. באמצעות אימות שיתופי זה, אנו מבטיחים שההסברים הסופיים מדויקים מבחינה טכנית, מובנים באמת, שימושיים ובונים אמון עבור האנשים המשתמשים במוצר. אזור ההסבר של הזהבה מילת זהירות קריטית: אפשר להסביר יתר על המידה. כמו בסיפור האגדה, שבו זהבה חיפשה את הדייסה שהיתה 'בדיוק', המטרה של הסבר טוב היא לספק את כמות הפרטים הנכונה - לא יותר מדי ולא מעט מדי. הפצצת משתמש עם כל משתנה במודל תוביל לעומס קוגניטיבי ולמעשה יכולה להפחית את האמון. המטרה היא לא להפוך את המשתמש למדען נתונים. פתרון אחד הוא גילוי פרוגרסיבי.
התחל עם הפשוט. להוביל עם אמירה תמציתית "בגלל". עבור רוב המשתמשים, זה יספיק. הציעו נתיב לפרטים. ספק קישור ברור עם חיכוך נמוך כמו "למידע נוסף" או "ראה כיצד זה נקבע". לחשוף את המורכבות. מאחורי הקישור הזה, אתה יכול להציע את המחוונים האינטראקטיביים, ההדמיות או רשימה מפורטת יותר של גורמים תורמים.
גישה שכבתית זו מכבדת את תשומת הלב והמומחיות של המשתמש, ומספקת בדיוק את הכמות הנכונהשל מידע לצרכיהם. בואו נדמיין שאתם משתמשים במכשיר בית חכם שממליץ על חימום אופטימלי על סמך גורמים שונים. התחל מהפשוט: "הבית שלך מחומם כרגע ל-72 מעלות, שזו הטמפרטורה האופטימלית לחיסכון באנרגיה ונוחות." הציעו נתיב לפרטים: מתחת לזה, קישור או כפתור קטן: "מדוע 72 מעלות אופטימלי?" חשוף את המורכבות: לחיצה על הקישור עשויה לפתוח מסך חדש המציג:
מחוונים אינטראקטיביים לטמפרטורה חיצונית, לחות ורמת הנוחות המועדפת עליך, המדגימים כיצד אלה מכוונים את הטמפרטורה המומלצת. הדמיה של צריכת אנרגיה בטמפרטורות שונות. רשימה של גורמים תורמים כמו "שעה ביום", "טמפרטורת חוץ נוכחית", "שימוש היסטורי באנרגיה" ו"חיישני תפוסה".
זה יעיל לשלב מספר שיטות XAI ודפוס זהב אזור ההסבר הזה, הדוגל בחשיפה מתקדמת, מעודד זאת באופן מרומז. אתה יכול להתחיל בהצהרה פשוטה של "בגלל" (דפוס 1) להבנה מיידית, ולאחר מכן להציע קישור "למד עוד" שחושף אינטראקטיבית "מה אם" (דפוס 2) או "דפוס ומשיכה חזותי" (דפוס 4) לחקירה מעמיקה יותר. לדוגמה, מערכת בקשה להלוואה יכולה לציין בתחילה את הסיבה העיקרית לדחייה (חשיבות תכונה), ולאחר מכן לאפשר למשתמש ליצור אינטראקציה עם כלי "מה אם" כדי לראות כיצד שינויים בהכנסה או בחוב שלו ישנו את התוצאה (קונטרה-עובדות), ולבסוף, לספק תרשים "דחף-ו-משוך" מפורט (מבוסס ערך של כל ההסברים החיוביים והשליליים) כדי להמחיש את כל הגורמים החיוביים והשליליים. גישה שכבתית זו מאפשרת למשתמשים לגשת לרמת הפירוט הדרושה להם, כאשר הם זקוקים לה, מניעת עומס קוגניטיבי תוך מתן שקיפות מקיפה. קביעה באילו כלים ושיטות XAI להשתמש היא בעיקר פונקציה של מחקר UX יסודי. ראיונות מודל מנטליים ומיפוי מסעות בינה מלאכותית הם חיוניים לאיתור צרכי המשתמש ונקודות כאב הקשורות להבנה ואמון בינה מלאכותית. ראיונות מודל מנטליים עוזרים לחשוף תפיסות שגויות של משתמשים לגבי אופן הפעולה של ה-AI, ומציינים אזורים שבהם יש צורך בהסברים בסיסיים (כמו חשיבות תכונה או הסברים מקומיים). מיפוי מסעות בינה מלאכותית, לעומת זאת, מזהה רגעים קריטיים של בלבול או חוסר אמון באינטראקציה של המשתמש עם ה-AI, ומאותת היכן הסברים יותר מפורטים או אינטראקטיביים (כמו הסברים נגד עובדות או הסברים מבוססי ערכים) יהיו מועילים ביותר כדי לבנות מחדש אמון ולספק סוכנות.
בסופו של דבר, הדרך הטובה ביותר לבחור טכניקה היא לתת למחקר משתמשים להנחות את ההחלטות שלך, ולהבטיח שההסברים שאתה מעצב מתייחסים ישירות לשאלות ולחששות של המשתמשים בפועל, במקום פשוט להציע פרטים טכניים למענם. XAI עבור סוכני הגיון עמוק כמה ממערכות ה-AI החדשות ביותר, הידועות כסוכני חשיבה עמוקה, מייצרות "שרשרת מחשבה" מפורשת לכל משימה מורכבת. הם לא רק מצטטים מקורות; הם מראים את הדרך ההגיונית, צעד אחר צעד, שעשו כדי להגיע למסקנה. בעוד ששקיפות זו מספקת הקשר בעל ערך, משחק-אחר-משחק המשתרע על פני מספר פסקאות יכול להרגיש מכריע למשתמש שפשוט מנסה להשלים משימה. העקרונות של XAI, במיוחד אזור ההסבר של זהבה, חלים ישירות כאן. אנחנו יכולים לאצור את המסע, תוך שימוש בחשיפה מתקדמת כדי להראות רק את המסקנה הסופית ואת השלב הבולט ביותר בתהליך החשיבה תחילה. לאחר מכן, המשתמשים יכולים להצטרף כדי לראות את ההיגיון המלא, המפורט, מרובה השלבים, כאשר הם צריכים לבדוק שוב את ההיגיון או למצוא עובדה ספציפית. גישה זו מכבדת את תשומת הלב של המשתמש תוך שמירה על השקיפות המלאה של הסוכן. השלבים הבאים: העצמת מסע ה-XAI שלך הסבר הוא נדבך בסיסי לבניית מוצרי AI אמינים ויעילים. למתרגל המתקדם המעוניין להניע את השינוי הזה בתוך הארגון שלו, המסע משתרע מעבר לדפוסי עיצוב אל תוך הסברה ולמידה מתמשכת. כדי להעמיק את ההבנה והיישום המעשי שלך, שקול לחקור משאבים כמו ערכת הכלים של AI Explainability 360 (AIX360) מ-IBM Research או מה-If Tool של גוגל, המציעים דרכים אינטראקטיביות לחקור התנהגות והסברים של מודל. מעורבות עם קהילות כמו פורום הבינה המלאכותית האחראית או קבוצות מחקר ספציפיות המתמקדות בבינה מלאכותית ממוקדת באדם יכולה לספק תובנות חשובות והזדמנויות לשיתוף פעולה. לבסוף, היה עורך דין עבור XAI בתוך הארגון שלך.הסבר מסגרת כהשקעה אסטרטגית. שקול הצעה קצרה למנהיגות שלך או לצוותים בין-תפקידים: "על ידי השקעה ב-XAI, נעבור מעבר לבניית אמון; נצמצם את אימוץ המשתמשים, נפחית את עלויות התמיכה על ידי העצמת המשתמשים בהבנה, ונפחית סיכונים אתיים ורגולטוריים משמעותיים על ידי חשיפת הטיות פוטנציאליות. זהו עיצוב טוב ועסק חכם".
הקול שלך, המבוסס על הבנה מעשית, הוא חיוני בהוצאת AI מהקופסה השחורה ולשותפות שיתופית עם משתמשים.