در آخرین قطعه من، ما یک حقیقت اساسی را ایجاد کردیم: برای اینکه کاربران بتوانند هوش مصنوعی را بپذیرند و به آن اعتماد کنند، باید به آن اعتماد کنند. ما در مورد اعتماد صحبت کردیم که ساختاری چند وجهی است که بر اساس درک توانایی، خیرخواهی، یکپارچگی و پیش بینی هوش مصنوعی ساخته شده است. اما چه اتفاقی میافتد وقتی یک هوش مصنوعی، در حکمت الگوریتمی خاموش خود، تصمیمی میگیرد که کاربر را گیج، ناامید یا حتی آزار میدهد؟ درخواست وام مسکن رد می شود، آهنگ مورد علاقه به طور ناگهانی در لیست پخش وجود ندارد، و رزومه واجد شرایط قبل از اینکه انسان آن را ببیند رد می شود. در این لحظات، توانایی و پیش بینی پذیری از هم می پاشد و خیرخواهی دنیایی دور را احساس می کند. گفتگوی ما در حال حاضر باید از چرایی اعتماد به چگونگی شفافیت تبدیل شود. حوزه هوش مصنوعی قابل توضیح (XAI)، که بر توسعه روشهایی برای قابل فهم کردن خروجیهای هوش مصنوعی برای انسان تمرکز دارد، برای رسیدگی به این موضوع پدید آمده است، اما اغلب به عنوان یک چالش کاملاً فنی برای دانشمندان داده مطرح میشود. من استدلال می کنم که این یک چالش طراحی حیاتی برای محصولات متکی به هوش مصنوعی است. وظیفه ما به عنوان متخصصان UX این است که فاصله بین تصمیم گیری الگوریتمی و درک انسانی را پر کنیم. این مقاله راهنمایی عملی و عملی در مورد چگونگی تحقیق و طراحی برای توضیح ارائه می دهد. ما فراتر از کلمات کلیدی و ماکتها حرکت میکنیم و مفاهیم پیچیده XAI را به الگوهای طراحی بتن تبدیل میکنیم که میتوانید از امروز استفاده کنید. راز زدایی XAI: مفاهیم اصلی برای پزشکان UX XAI در مورد پاسخ به سؤال کاربر است: "چرا؟" چرا این آگهی به من نشان داده شد؟ چرا این فیلم به من توصیه می شود؟ چرا درخواست من رد شد؟ به آن فکر کنید که هوش مصنوعی کار خود را روی یک مسئله ریاضی نشان می دهد. بدون آن، شما فقط یک پاسخ دارید، و مجبورید آن را با ایمان بپذیرید. در نشان دادن مراحل، درک و اعتماد ایجاد می کنید. شما همچنین اجازه میدهید کار شما توسط انسانهایی که بر آن تأثیر میگذارد دوباره بررسی و تأیید شود. اهمیت ویژگی و موارد متضاد تعدادی از تکنیکها وجود دارد که میتوانیم از آنها برای روشن کردن یا توضیح آنچه که با هوش مصنوعی اتفاق میافتد استفاده کنیم. در حالی که روشها از ارائه کل منطق یک درخت تصمیم گرفته تا تولید خلاصههای زبان طبیعی یک خروجی را شامل میشود، دو مورد از کاربردیترین و تاثیرگذارترین نوع اطلاعاتی که متخصصان UX میتوانند در یک تجربه معرفی کنند، اهمیت ویژگی (شکل 1) و موارد خلاف واقع هستند. اینها اغلب ساده ترین برای کاربران برای درک و عملی ترین برای طراحان برای پیاده سازی است.
اهمیت ویژگی این روش توضیحپذیری پاسخ میدهد: «مهمترین عواملی که هوش مصنوعی در نظر گرفته چه بود؟» این در مورد شناسایی 2-3 متغیر برتر است که بیشترین تأثیر را بر نتیجه داشتند. این سرفصل است، نه کل داستان. مثال: یک هوش مصنوعی را تصور کنید که پیشبینی میکند آیا یک مشتری ریزش میکند (خدماتش را لغو میکند). اهمیت ویژگی ممکن است نشان دهد که «تعداد تماسهای پشتیبانی در ماه گذشته» و «افزایش قیمتهای اخیر» دو عامل مهم در تعیین اینکه آیا یک مشتری احتمالاً از بین میرود یا خیر بودند.
عوامل متضاد این روش قدرتمند به این سوال پاسخ میدهد: «چه چیزی را باید تغییر دهم تا به نتیجهای متفاوت برسم؟» این بسیار مهم است زیرا به کاربران حس عاملیت می دهد. یک «نه» ناامیدکننده را به یک «هنوز نه» عملی تبدیل می کند. مثال: سیستم درخواست وام را تصور کنید که از هوش مصنوعی استفاده می کند. یک کاربر از دریافت وام محروم می شود. به جای اینکه فقط «برنامه رد شد» را ببینید، یک توضیح خلاف واقع نیز به اشتراک میگذارد: «اگر امتیاز اعتباری شما 50 امتیاز بالاتر بود، یا اگر نسبت بدهی به درآمد شما 10 درصد کمتر بود، وام شما تأیید میشد.» این به سارا گامهای روشن و قابل اجرا میدهد تا بتواند در آینده وام بگیرد.
استفاده از داده های مدل برای بهبود توضیح اگرچه مشخصات فنی اغلب توسط دانشمندان داده بررسی میشود، اما برای متخصصان UX مفید است که بدانند ابزارهایی مانند LIME (توضیحات مدل تفسیرپذیر محلی) که پیشبینیهای فردی را با تقریب مدل به صورت محلی توضیح میدهد و SHAP (توضیحات افزودنی SHapley) که از رویکرد تئوری بازی استفاده میکند تا هر خروجی یادگیری ماشینی را به طور معمول استخراج کند. مدل های پیچیده این کتابخانهها اساساً به شکستن تصمیم هوش مصنوعی برای نشان دادن اینکه کدام ورودیها برای یک نتیجه معین بیشترین تأثیر را دارند کمک میکنند. هنگامی که به درستی انجام شود، داده های زیربنای تصمیم یک ابزار هوش مصنوعی می تواند برای بیان یک داستان قدرتمند استفاده شود. بیایید از اهمیت ویژگی ها و خلاف واقع ها عبور کنیم و نشان دهیم که چگونه می توان از علم داده در پس تصمیم گیری برای افزایش تجربه کاربر استفاده کرد. حالا بیاییداهمیت ویژگی را با کمک داده های توضیحات محلی (به عنوان مثال، LIME) پوشش دهید: این رویکرد به این سوال پاسخ می دهد: "چرا هوش مصنوعی در حال حاضر این توصیه خاص را به من ارائه کرد؟" به جای توضیح کلی در مورد نحوه عملکرد مدل، یک دلیل متمرکز برای یک نمونه خاص ارائه می کند. شخصی و متنی است. مثال: یک سیستم توصیه موسیقی مبتنی بر هوش مصنوعی مانند Spotify را تصور کنید. یک توضیح محلی میگوید: "چرا سیستم همین آهنگ خاص ادل را در حال حاضر به شما توصیه کرد؟" توضیح ممکن است این باشد: "چون اخیراً به چندین تصنیف و آهنگ احساسی دیگر از خواننده های زن گوش داده اید."
در نهایت، اجازه دهید گنجاندن توضیحات مبتنی بر ارزش (مانند دادههای توضیح افزودنی Shapley (SHAP) برای توضیح یک تصمیم را پوشش دهیم: این نسخه دقیقتری از اهمیت ویژگی است که به این پاسخ پاسخ میدهد: «چگونه هر عاملی تصمیم را به یک سمت یا به سوی دیگر سوق داد؟» به تجسم آنچه مهم است کمک میکند و اینکه آیا تأثیر آن مثبت یا منفی بوده است. مثال: تصور کنید یک بانک از یک مدل هوش مصنوعی برای تصمیم گیری در مورد تایید درخواست وام استفاده می کند.
اهمیت ویژگی: خروجی مدل ممکن است نشان دهد که امتیاز اعتباری، درآمد و نسبت بدهی به درآمد متقاضی مهمترین عوامل در تصمیم گیری آن بوده است. این به آنچه مهم است پاسخ می دهد. اهمیت ویژگی با توضیحات مبتنی بر ارزش (SHAP): مقادیر SHAP بر اساس عناصر مدل اهمیت ویژگی را بیشتر میکنند.
برای یک وام تایید شده، SHAP ممکن است نشان دهد که یک امتیاز اعتباری بالا به طور قابل توجهی تصمیم را به سمت تایید سوق داده است (تأثیر مثبت)، در حالی که یک نسبت بدهی به درآمد کمی بالاتر از متوسط آن را کمی دور می کند (تأثیر منفی)، اما برای رد وام کافی نیست. برای یک وام رد شده، SHAP میتواند نشان دهد که درآمد کم و تعداد زیاد درخواستهای اعتباری اخیر به شدت تصمیم را به سمت رد کردن سوق داده است، حتی اگر امتیاز اعتباری مناسب باشد.
این به افسر وام کمک می کند تا فراتر از آنچه در نظر گرفته شده است، به متقاضی توضیح دهد که چگونه هر یک از عوامل در تصمیم نهایی "بله" یا "نه" نقش داشته است. بسیار مهم است که بدانیم توانایی ارائه توضیحات خوب اغلب خیلی زودتر در چرخه توسعه شروع می شود. دانشمندان و مهندسان داده با ساختاردهی عمدی مدلها و خطوط لوله دادهها به روشهایی که ذاتاً از قابلیت توضیح پشتیبانی میکنند، نقشی محوری ایفا میکنند، نه اینکه بخواهند آن را بهعنوان یک فکر بعدی تقویت کنند. تیمهای تحقیقاتی و طراحی میتوانند با آغاز گفتگوهای اولیه با دانشمندان و مهندسان داده درباره نیازهای کاربر برای درک، کمک به توسعه معیارهای توضیحپذیری، و نمونهسازی مشترک توضیحات برای اطمینان از دقیق و کاربرپسند بودن آنها، این امر را تقویت کنند. XAI و هوش مصنوعی اخلاقی: باز کردن تعصب و مسئولیت فراتر از ایجاد اعتماد، XAI نقش مهمی در پرداختن به پیامدهای اخلاقی عمیق هوش مصنوعی*، به ویژه در مورد سوگیری الگوریتمی ایفا می کند. تکنیکهای توضیحپذیری، مانند تجزیه و تحلیل مقادیر SHAP، میتوانند نشان دهند که آیا تصمیمات یک مدل به طور نامتناسبی تحت تأثیر ویژگیهای حساس مانند نژاد، جنسیت یا وضعیت اجتماعی-اقتصادی است، حتی اگر این عوامل بهصراحت به عنوان ورودی مستقیم استفاده نشده باشند. به عنوان مثال، اگر یک مدل تایید وام به طور مداوم مقادیر منفی SHAP را به متقاضیان از یک جمعیت خاص اختصاص دهد، نشان دهنده یک سوگیری بالقوه است که نیاز به بررسی دارد و به تیم ها قدرت می دهد تا چنین نتایج ناعادلانه ای را آشکار کنند و کاهش دهند. قدرت XAI همچنین با پتانسیل "شستشوی قابل توضیح" همراه است. درست همانطور که «شستشوی سبز» مصرفکنندگان را در مورد شیوههای زیستمحیطی گمراه میکند، شستشوی قابل توضیح نیز زمانی رخ میدهد که توضیحات برای مبهم کردن، به جای روشن کردن، رفتار الگوریتمی مشکلساز یا سوگیریهای ذاتی طراحی شده باشند. این میتواند بهعنوان توضیحات بیش از حد سادهگرایانه که عوامل تأثیرگذار حیاتی را حذف میکنند، یا توضیحاتی که بهطور استراتژیک نتایج را بهگونهای که خنثیتر یا منصفانهتر از آنچه واقعا هستند، چارچوب میدهند، ظاهر شود. این امر بر مسئولیت اخلاقی متخصصان UX برای طراحی توضیحاتی که واقعاً شفاف و قابل تأیید هستند تأکید می کند. متخصصان UX، در همکاری با دانشمندان داده و متخصصان اخلاق، مسئولیت مهمی در ارتباط با دلیل یک تصمیم، و همچنین محدودیتها و سوگیریهای احتمالی مدل زیربنایی هوش مصنوعی دارند. این شامل تعیین انتظارات واقعی کاربر در مورد دقت هوش مصنوعی، شناسایی مکانهایی است که مدل ممکن است کمتر قابل اعتماد باشد، و زمانی که کاربران نتایج ناعادلانه یا نادرست را درک میکنند کانالهای واضحی برای توسل یا بازخورد ارائه میکند. به طور فعالانه به این موارد پرداخته شودابعاد اخلاقی به ما این امکان را می دهد که سیستم های هوش مصنوعی بسازیم که واقعاً عادلانه و قابل اعتماد هستند. از روشها تا ماکتها: الگوهای طراحی عملی XAI دانستن مفاهیم یک چیز است; طراحی آنها یک چیز دیگر است. در اینجا نحوه ترجمه این روش های XAI به الگوهای طراحی بصری آمده است. الگوی 1: بیانیه "زیرا" (برای اهمیت ویژگی) این ساده ترین و اغلب مؤثرترین الگو است. این یک بیانیه مستقیم و به زبان ساده است که دلیل اصلی اقدام یک هوش مصنوعی را نشان می دهد.
اکتشافی: مستقیم و مختصر باشید. با تاثیرگذارترین دلیل رهبری کنید. به هر قیمتی شده از اصطلاحات خاص خودداری کنید.
مثال: یک سرویس پخش موسیقی را تصور کنید. به جای اینکه فقط یک لیست پخش «کشف هفتگی» را ارائه دهید، یک خط کوچک از میکروکپی اضافه میکنید. توصیه آهنگ: «Velvet Morning» زیرا به «The Fuzz» و سایر راکهای روانگردان گوش میدهید.
الگوی 2: تعاملی "چه می شود-اگر" (برای افراد متضاد) ضدافکت ها ذاتاً در مورد توانمندسازی هستند. بهترین راه برای نشان دادن آنها، دادن ابزارهای تعاملی به کاربران برای کشف احتمالات است. این برای برنامه های مالی، بهداشتی یا سایر برنامه های هدف گرا مناسب است.
اکتشافی: توضیحات را تعاملی و توانمند کنید. به کاربران اجازه دهید علت و معلول انتخاب های خود را ببینند.
مثال: یک رابط درخواست وام. پس از انکار، به جای بن بست، کاربر ابزاری را برای تعیین نحوه اجرای سناریوهای مختلف (چه-اگر) دریافت می کند (شکل 1 را ببینید).
الگوی 3: حلقه برجسته (برای توضیحات محلی) هنگامی که یک هوش مصنوعی عملکردی را بر روی محتوای کاربر انجام می دهد (مانند خلاصه کردن یک سند یا شناسایی چهره ها در عکس ها)، توضیح باید به صورت بصری به منبع پیوند داده شود.
اکتشافی: از نشانههای بصری مانند برجستهسازی، خطوط کلی یا حاشیهنویسی برای اتصال مستقیم توضیح به عنصر رابطی که توضیح میدهد استفاده کنید.
مثال: یک ابزار هوش مصنوعی که مقالات طولانی را خلاصه می کند. نکته خلاصه ایجاد شده توسط هوش مصنوعی: تحقیقات اولیه شکاف بازار را برای محصولات پایدار نشان داد. منبع در سند: "...تحلیل سه ماهه دوم ما از روندهای بازار به طور قطعی نشان داد که هیچ رقیب عمده ای به طور موثر به مصرف کننده آگاه از محیط زیست خدمت نمی کند و شکاف قابل توجهی در بازار را برای محصولات پایدار آشکار می کند..."
الگوی 4: تصویری فشار و کشیدن (برای توضیحات مبتنی بر ارزش) برای تصمیم گیری های پیچیده تر، کاربران ممکن است نیاز به درک تأثیر متقابل عوامل داشته باشند. تجسم دادههای ساده میتواند این را بدون زیادهروی روشن کند.
اکتشافی: از تجسم داده های ساده و با کد رنگی (مانند نمودارهای میله ای) برای نشان دادن عواملی که بر یک تصمیم تأثیر مثبت و منفی داشته اند استفاده کنید.
مثال: هوش مصنوعی نمایه یک نامزد را برای یک شغل غربال میکند. چرا این نامزد 75 درصد مطابقت دارد: عواملی که امتیاز را بالا میبرند: بیش از 5 سال تجربه تحقیقاتی UX مسلط در Python عواملی که امتیاز را پایین میآورند: بدون تجربه با B2B SaaS
یادگیری و استفاده از این الگوهای طراحی در UX محصول هوش مصنوعی شما به افزایش قابلیت توضیح کمک می کند. شما همچنین می توانید از تکنیک های اضافی استفاده کنید که من در اینجا به طور عمیق توضیح نمی دهم. این شامل موارد زیر است:
توضیحات زبان طبیعی: ترجمه خروجی فنی یک هوش مصنوعی به زبان انسانی ساده و محاوره ای که افراد غیر متخصص به راحتی می توانند آن را درک کنند. توضیحات متنی: ارائه منطقی برای خروجی هوش مصنوعی در لحظه و مکان خاص، بیشترین ارتباط را با وظیفه کاربر دارد. تجسمهای مرتبط: استفاده از نمودارها، نمودارها یا نقشههای حرارتی برای نمایش بصری فرآیند تصمیمگیری هوش مصنوعی، که دادههای پیچیده را بصری و درک آن را برای کاربران آسانتر میکند.
نکته ای برای قسمت جلویی: ترجمه این خروجی های قابل توضیح به تجربیات کاربر یکپارچه نیز مجموعه ای از ملاحظات فنی خود را ارائه می دهد. توسعهدهندگان فرانتاند اغلب با طراحی API دست و پنجه نرم میکنند تا دادههای توضیحی را بهطور کارآمد بازیابی کنند و پیامدهای عملکرد (مانند تولید بیدرنگ توضیحات برای هر تعامل کاربر) نیاز به برنامهریزی دقیق برای جلوگیری از تأخیر دارند. برخی از نمونه های دنیای واقعی UPS Capital's DeliveryDefense UPS از هوش مصنوعی برای تعیین «امتیاز اطمینان تحویل» به آدرسها استفاده میکند تا احتمال دزدیده شدن بسته را پیشبینی کند. نرم افزار DeliveryDefense آنها داده های تاریخی در مورد مکان، فرکانس تلفات و سایر عوامل را تجزیه و تحلیل می کند. اگر آدرسی امتیاز پایینی داشته باشد، سیستم می تواند به طور فعال بسته را به یک نقطه دسترسی ایمن UPS تغییر مسیر دهد و توضیحی برای تصمیم ارائه دهد (به عنوان مثال، «مسیر بسته به یک مکان امن به دلیل سابقه سرقت»). این سیستم نشان می دهد که چگونه می توان از XAI برای کاهش ریسک و ایجاد اعتماد مشتری استفاده کردشفافیت وسایل نقلیه خودمختار این وسایل نقلیه در آینده باید به طور موثر از XAI برای کمک به وسایل نقلیه خود در تصمیم گیری ایمن و قابل توضیح استفاده کنند. هنگامی که یک خودروی خودران به طور ناگهانی ترمز می کند، سیستم می تواند توضیحی در زمان واقعی برای عملکرد خود ارائه دهد، به عنوان مثال، با شناسایی عابر پیاده ای که وارد جاده می شود. این نه تنها برای راحتی و اعتماد مسافران بسیار مهم است، بلکه یک الزام قانونی برای اثبات ایمنی و مسئولیت پذیری سیستم هوش مصنوعی است. IBM Watson Health (و چالشهای آن) در حالی که اغلب به عنوان یک مثال کلی از هوش مصنوعی در مراقبت های بهداشتی ذکر می شود، همچنین یک مطالعه موردی ارزشمند برای اهمیت XAI است. شکست پروژه Watson for Oncology نشان میدهد که وقتی توضیحات واضح نیستند، یا زمانی که دادههای زیربنایی مغرضانه یا محلیسازی نشده باشند، چه چیزی ممکن است اشتباه پیش برود. توصیههای این سیستم گاهی اوقات با شیوههای بالینی محلی ناسازگار بود، زیرا آنها بر اساس دستورالعملهای ایالات متحده محور بودند. این به عنوان یک داستان هشدار دهنده در مورد نیاز به توضیح قوی و آگاه از زمینه عمل می کند. نقش محقق UX: مشخص کردن و اعتبار بخشیدن به توضیحات راه حل های طراحی ما تنها در صورتی مؤثر هستند که به سؤالات کاربر مناسب در زمان مناسب پاسخ دهند. توضیحی که به سوالی که کاربر ندارد پاسخ می دهد فقط نویز است. اینجاست که تحقیقات UX به بافت همبند حیاتی در استراتژی XAI تبدیل میشود و تضمین میکند که ما چه چیزی و چگونه برای کاربرانمان اهمیت دارد. نقش محقق دوگانه است: اول، اطلاعرسانی به استراتژی با شناسایی مکانهایی که به توضیحات نیاز است، و دوم، اعتبار بخشیدن به طرحهایی که این توضیحات را ارائه میدهند. اطلاع رسانی استراتژی XAI (چه چیزی را باید توضیح داد) قبل از اینکه بتوانیم یک توضیح واحد طراحی کنیم، باید مدل ذهنی کاربر از سیستم هوش مصنوعی را درک کنیم. آنها معتقدند چه کار می کند؟ شکاف بین درک آنها و واقعیت سیستم کجاست؟ این کار اساسی یک محقق UX است. مصاحبههای مدل ذهنی: باز کردن برداشتهای کاربر از سیستمهای هوش مصنوعی از طریق مصاحبههای عمیق و نیمه ساختاریافته، متخصصان UX میتوانند بینش ارزشمندی در مورد نحوه درک و درک کاربران از سیستمهای هوش مصنوعی به دست آورند. این جلسات برای تشویق کاربران طراحی شده اند تا به معنای واقعی کلمه "مدل ذهنی" درونی خود را از نحوه کارکرد هوش مصنوعی ترسیم یا توصیف کنند. این اغلب شامل پرسیدن سؤالات باز است که کاربران را وادار می کند تا منطق سیستم، ورودی ها و خروجی های آن و همچنین روابط بین این عناصر را توضیح دهند. این مصاحبهها قدرتمند هستند زیرا اغلب تصورات و فرضیات نادرست عمیقی را که کاربران در مورد هوش مصنوعی دارند، آشکار میکنند. برای مثال، کاربر در حال تعامل با موتور توصیه ممکن است با اطمینان ادعا کند که سیستم صرفاً بر اساس سابقه مشاهده قبلی آنها است. آنها ممکن است متوجه نباشند که این الگوریتم همچنین عوامل متعدد دیگری را در بر میگیرد، مانند زمانی از روز که در حال مرور هستند، موارد پرطرفدار فعلی در سراسر پلتفرم، یا حتی عادات مشاهده کاربران مشابه. کشف این شکاف بین مدل ذهنی کاربر و منطق زیربنایی هوش مصنوعی بسیار مهم است. دقیقاً به ما میگوید چه اطلاعات خاصی را باید به کاربران منتقل کنیم تا به آنها کمک کنیم تا مدل ذهنی دقیقتری از سیستم بسازند. این به نوبه خود گامی اساسی در تقویت اعتماد است. هنگامی که کاربران، حتی در سطح بالا، متوجه می شوند که چگونه یک هوش مصنوعی به نتایج یا توصیه های خود می رسد، به احتمال زیاد به خروجی های آن اعتماد کرده و بر عملکرد آن تکیه می کنند. AI Journey Mapping: فرو رفتن عمیق در اعتماد کاربر و قابلیت توضیح با ترسیم دقیق سفر کاربر با یک ویژگی مبتنی بر هوش مصنوعی، بینش ارزشمندی را در مورد لحظات دقیقی که در آن سردرگمی، ناامیدی یا حتی بی اعتمادی عمیق ظاهر می شود، به دست می آوریم. این برهههای مهمی را آشکار میکند که در آن مدل ذهنی کاربر از نحوه عملکرد هوش مصنوعی با رفتار واقعی آن در تضاد است. یک سرویس استریم موسیقی را در نظر بگیرید: آیا وقتی توصیههای فهرست پخش «تصادفی» به نظر میرسد و هیچ ارتباط قابل تشخیصی با عادتهای شنیداری قبلی یا اولویتهای اعلامشده ندارد، اعتماد کاربر کاهش مییابد؟ این تصادفی بودن درک شده یک چالش مستقیم برای انتظار کاربر برای مدیریت هوشمند و نقض این وعده ضمنی است که هوش مصنوعی سلیقه آنها را درک می کند. به طور مشابه، در یک برنامه مدیریت عکس، آیا کاربران وقتی که یک ویژگی برچسب گذاری عکس با هوش مصنوعی به طور مداوم یک عضو عزیز خانواده را اشتباه شناسایی می کند، نا امیدی قابل توجهی را تجربه می کنند؟ این خطا بیش از یک نقص فنی است. به قلب دقت، شخصی سازی و حتی ضربه می زندارتباط عاطفی این نقاط درد، سیگنالهای واضحی هستند که دقیقاً نشان میدهند که توضیح مناسب، واضح و مختصر در کجا لازم است. چنین توضیحاتی بهعنوان مکانیزمهای تعمیر حیاتی عمل میکنند و نقض اعتماد را برطرف میکنند که اگر به آن توجه نشود، میتواند منجر به رها شدن کاربر شود. قدرت نقشهبرداری سفر با هوش مصنوعی در توانایی آن است که ما را فراتر از توضیح ساده خروجی نهایی یک سیستم هوش مصنوعی سوق دهد. در حالی که درک آنچه که هوش مصنوعی تولید می کند مهم است، اغلب ناکافی است. درعوض، این فرآیند ما را وادار می کند تا در لحظات حساس بر توضیح فرآیند تمرکز کنیم. این یعنی پرداختن به:
چرا یک خروجی خاص تولید شد: آیا به دلیل داده های ورودی خاص بود؟ معماری مدل خاصی؟ چه عواملی بر تصمیم هوش مصنوعی تأثیر گذاشت: آیا ویژگیهای خاصی وزن بیشتری داشتند؟ هوش مصنوعی چگونه به نتیجه رسید: آیا میتوانیم توضیحی ساده و مشابه از عملکرد داخلی آن ارائه دهیم؟ هوش مصنوعی چه فرضیاتی داشت: آیا درک ضمنی از قصد یا دادههای کاربر وجود داشت که باید آشکار شود؟ محدودیتهای هوش مصنوعی چیست: بیان واضح آنچه که هوش مصنوعی نمیتواند انجام دهد، یا جایی که دقت آن ممکن است متزلزل شود، انتظارات واقع بینانه را ایجاد میکند.
نقشهبرداری سفر هوش مصنوعی مفهوم انتزاعی XAI را به یک چارچوب عملی و عملی برای متخصصان UX تبدیل میکند. این ما را قادر میسازد تا فراتر از بحثهای تئوریک توضیحپذیری حرکت کنیم و در عوض لحظات دقیقی را مشخص کنیم که اعتماد کاربر در خطر است، و بینشهای لازم را برای ایجاد تجربیات هوش مصنوعی قدرتمند، شفاف، قابل درک و قابل اعتماد ارائه میکند. در نهایت، تحقیق این است که چگونه ناشناخته ها را کشف کنیم. تیم شما ممکن است در حال بحث باشد که چگونه توضیح دهد چرا یک وام رد شده است، اما تحقیقات ممکن است نشان دهد که کاربران به مراتب بیشتر نگران درک نحوه استفاده از داده های خود در وهله اول هستند. بدون تحقیق، ما به سادگی حدس می زنیم که کاربرانمان چه چیزی را تعجب می کنند. همکاری در طراحی (چگونه هوش مصنوعی خود را توضیح دهید) هنگامی که تحقیقات مشخص کرد چه چیزی باید توضیح داده شود، حلقه مشارکتی با طراحی آغاز می شود. طراحان میتوانند الگوهایی را که قبلاً در مورد آن صحبت کردیم، نمونهسازی کنند - عبارت «زیرا»، لغزندههای تعاملی - و محققان میتوانند آن طرحها را در مقابل کاربران قرار دهند تا ببینند که آیا پایدار هستند یا خیر. قابلیت استفاده هدفمند و تست درک مطلب: ما می توانیم مطالعات تحقیقاتی را طراحی کنیم که به طور خاص مؤلفه های XAI را آزمایش کنند. ما فقط نمیپرسیم، "آیا استفاده از این آسان است؟" ما می پرسیم، "بعد از دیدن این، می توانید به زبان خودتان بگویید چرا سیستم این محصول را توصیه کرده است؟" یا "به من نشان دهید که چه کاری انجام می دهید تا ببینم آیا می توانید نتیجه متفاوتی بگیرید." هدف در اینجا اندازه گیری درک و عملی بودن، در کنار قابلیت استفاده است. اندازه گیری اعتماد خود: می توانیم از نظرسنجی های ساده و مقیاس های رتبه بندی قبل و بعد از نمایش توضیح استفاده کنیم. برای مثال، میتوانیم از یک کاربر در مقیاس 5 درجهای بپرسیم: «چقدر به این توصیه اعتماد دارید؟» قبل از اینکه عبارت «زیرا» را ببینند، و سپس دوباره از آنها بپرسید. این دادههای کمی را در مورد اینکه آیا توضیحات ما واقعاً سوزن اعتماد را حرکت میدهند یا خیر، ارائه میکند. این فرآیند یک حلقه قدرتمند و تکرار شونده ایجاد می کند. یافته های تحقیق، طراحی اولیه را نشان می دهد. سپس آن طرح آزمایش می شود و یافته های جدید برای اصلاح به تیم طراحی بازخورد داده می شود. شاید عبارت «زیرا» بیش از حد نامتعارف بود، یا نوار لغزنده «چه میشد» بیشتر گیجکننده بود تا قدرتبخش. از طریق این اعتبار سنجی مشترک، ما اطمینان حاصل می کنیم که توضیحات نهایی از نظر فنی دقیق، واقعا قابل درک، مفید و برای افرادی که از محصول استفاده می کنند اعتمادساز است. The Goldilocks Zone Of Explanation یک کلمه احتیاط انتقادی: ممکن است بیش از حد توضیح دهید. همانطور که در افسانه، جایی که گلدیلاکز به دنبال فرنی بود که «درست است»، هدف از یک توضیح خوب ارائه جزئیات مناسب است – نه زیاد و نه خیلی کم. بمباران یک کاربر با هر متغیر در یک مدل منجر به اضافه بار شناختی می شود و در واقع می تواند اعتماد را کاهش دهد. هدف این نیست که کاربر را به دانشمند داده تبدیل کنیم. یک راه حل، افشای تدریجی است.
با ساده شروع کنید. با بیانیه مختصر «زیرا» رهبری کنید. برای اکثر کاربران، این کافی خواهد بود. یک مسیر به جزئیات ارائه دهید. یک پیوند واضح و کم اصطکاک مانند «بیشتر بدانید» یا «ببینید چگونه تعیین شد» ارائه کنید. پیچیدگی را آشکار کنید. در پشت آن پیوند، میتوانید لغزندههای تعاملی، تجسمها یا فهرست دقیقتری از عوامل مؤثر را ارائه دهید.
این رویکرد لایه ای به توجه و تخصص کاربر احترام می گذارد و مقدار مناسبی را ارائه می دهداطلاعات برای نیازهای آنها بیایید تصور کنیم که از یک دستگاه خانه هوشمند استفاده می کنید که گرمایش بهینه را بر اساس عوامل مختلف توصیه می کند. با ساده شروع کنید: "خانه شما در حال حاضر تا 72 درجه گرم می شود، که دمای مطلوب برای صرفه جویی در انرژی و راحتی است." یک مسیر برای جزئیات ارائه دهید: در زیر آن، یک پیوند یا دکمه کوچک: "چرا 72 درجه بهینه است؟" پیچیدگی را آشکار کنید: با کلیک بر روی آن پیوند، صفحه جدیدی باز می شود که نشان می دهد:
لغزنده های تعاملی برای دمای بیرون، رطوبت، و سطح راحتی دلخواه شما، نشان می دهد که چگونه دمای توصیه شده را تنظیم می کنند. تجسم مصرف انرژی در دماهای مختلف فهرستی از عوامل مؤثر مانند «زمان روز»، «دمای کنونی بیرون»، «مصرف انرژی تاریخی» و «حسگرهای اشغال».
ترکیب چندین روش XAI موثر است و این الگوی توضیح منطقه Goldilocks، که از افشای تدریجی حمایت می کند، به طور ضمنی این را تشویق می کند. میتوانید با یک عبارت ساده «زیرا» (الگوی 1) برای درک فوری شروع کنید، و سپس پیوند «بیشتر بدانید» را ارائه دهید که یک تعاملی «چه میشود» (الگوی 2) یا یک «بصری فشار و کشش» (الگوی 4) را برای کاوش عمیقتر نشان میدهد. برای مثال، یک سیستم درخواست وام میتواند در ابتدا دلیل اصلی انکار (اهمیت ویژگی) را بیان کند، سپس به کاربر اجازه میدهد تا با ابزار «چه میشود» تعامل داشته باشد تا ببیند چگونه تغییرات در درآمد یا بدهیهایش نتیجه را تغییر میدهد (عوامل خلاف واقع)، و در نهایت، یک نمودار دقیق «فشار و کشش» (توضیحات مبتنی بر ارزش) برای توضیح همه عوامل مثبت و منفی ارائه میکند. این رویکرد لایهای به کاربران اجازه میدهد تا در صورت نیاز به سطح جزئیات مورد نیاز خود دسترسی داشته باشند و از اضافه بار شناختی جلوگیری کند و در عین حال شفافیت جامع را ارائه دهد. تعیین ابزارها و روشهای XAI برای استفاده در درجه اول تابعی از تحقیقات کامل UX است. مصاحبههای مدل ذهنی و نقشهبرداری سفر هوش مصنوعی برای تعیین دقیق نیازهای کاربر و نقاط دردناک مربوط به درک و اعتماد هوش مصنوعی بسیار مهم هستند. مصاحبههای مدل ذهنی به کشف تصورات نادرست کاربر در مورد نحوه عملکرد هوش مصنوعی کمک میکند و مناطقی را نشان میدهد که توضیحات اساسی (مانند اهمیت ویژگی یا توضیحات محلی) مورد نیاز است. از سوی دیگر، نقشهبرداری سفر با هوش مصنوعی، لحظات بحرانی سردرگمی یا بیاعتمادی در تعامل کاربر با هوش مصنوعی را شناسایی میکند، و نشان میدهد که توضیحات دقیقتر یا تعاملیتر (مانند موارد خلاف واقع یا توضیحات مبتنی بر ارزش) برای بازسازی اعتماد و ارائه آژانس بسیار سودمند است.
در نهایت، بهترین راه برای انتخاب یک تکنیک این است که اجازه دهید تحقیقات کاربر تصمیمات شما را راهنمایی کند و اطمینان حاصل کنید که توضیحاتی که طراحی میکنید مستقیماً به سؤالات و نگرانیهای واقعی کاربر پاسخ میدهد، نه اینکه صرفاً جزئیات فنی را به خاطر خود ارائه دهید. XAI برای عوامل استدلال عمیق برخی از جدیدترین سیستمهای هوش مصنوعی، که به عنوان عوامل استدلال عمیق شناخته میشوند، یک «زنجیره فکر» صریح برای هر کار پیچیده تولید میکنند. آنها صرفاً به منابع استناد نمی کنند. آنها مسیر منطقی و گام به گامی را که برای رسیدن به نتیجه طی کردند را نشان می دهند. در حالی که این شفافیت زمینه ارزشمندی را فراهم میکند، یک بازی به بازی که چندین پاراگراف را در بر میگیرد، میتواند برای کاربر که صرفاً تلاش میکند تا یک کار را تکمیل کند، خستهکننده باشد. اصول XAI، به ویژه منطقه توضیح گلدیلاک، مستقیماً در اینجا اعمال می شود. ما میتوانیم سفر را با استفاده از افشای تدریجی برای نشان دادن تنها نتیجه نهایی و برجستهترین گام در فرآیند فکر، اداره کنیم. پس از آن، کاربران می توانند در صورت نیاز به بررسی مجدد منطق یا یافتن یک واقعیت خاص، برای دیدن استدلال کامل، دقیق و چند مرحله ای شرکت کنند. این رویکرد به توجه کاربر احترام می گذارد و در عین حال شفافیت کامل عامل را حفظ می کند. مراحل بعدی: توانمندسازی سفر XAI شما توضیح پذیری یک رکن اساسی برای ساخت محصولات قابل اعتماد و موثر هوش مصنوعی است. برای متخصصان پیشرفته ای که به دنبال ایجاد این تغییر در سازمان خود هستند، این سفر فراتر از الگوهای طراحی به طرفداری و یادگیری مستمر گسترش می یابد. برای تعمیق درک و کاربرد عملی خود، منابعی مانند جعبه ابزار AI Explainability 360 (AIX360) از IBM Research یا Google's What-If Tool را کاوش کنید، که راههای تعاملی را برای کشف رفتار و توضیحات مدل ارائه میدهد. تعامل با جوامعی مانند انجمن هوش مصنوعی مسئول یا گروههای تحقیقاتی خاص متمرکز بر هوش مصنوعی انسانمحور میتواند بینشها و فرصتهای همکاری ارزشمندی را ارائه دهد. در نهایت، مدافع XAI در سازمان خود باشید.توضیح پذیری چارچوب به عنوان یک سرمایه گذاری استراتژیک یک پیشنهاد کوتاه برای تیم های رهبری یا چند کاره خود در نظر بگیرید: "با سرمایه گذاری در XAI، فراتر از ایجاد اعتماد خواهیم رفت؛ پذیرش کاربر را تسریع خواهیم کرد، هزینه های پشتیبانی را با توانمندسازی کاربران با درک و فهم کاهش می دهیم، و خطرات اخلاقی و نظارتی قابل توجهی را با افشای سوگیری های احتمالی کاهش می دهیم. این طراحی خوب و تجارت هوشمند است."
صدای شما که مبتنی بر درک عملی است، در بیرون آوردن هوش مصنوعی از جعبه سیاه و مشارکت مشترک با کاربران بسیار مهم است.