در آخرین قطعه من، ما یک حقیقت اساسی را ایجاد کردیم: برای اینکه کاربران بتوانند هوش مصنوعی را بپذیرند و به آن اعتماد کنند، باید به آن اعتماد کنند. ما در مورد اعتماد صحبت کردیم که ساختاری چند وجهی است که بر اساس درک توانایی، خیرخواهی، یکپارچگی و پیش بینی هوش مصنوعی ساخته شده است. اما چه اتفاقی می‌افتد وقتی یک هوش مصنوعی، در حکمت الگوریتمی خاموش خود، تصمیمی می‌گیرد که کاربر را گیج، ناامید یا حتی آزار می‌دهد؟ درخواست وام مسکن رد می شود، آهنگ مورد علاقه به طور ناگهانی در لیست پخش وجود ندارد، و رزومه واجد شرایط قبل از اینکه انسان آن را ببیند رد می شود. در این لحظات، توانایی و پیش بینی پذیری از هم می پاشد و خیرخواهی دنیایی دور را احساس می کند. گفتگوی ما در حال حاضر باید از چرایی اعتماد به چگونگی شفافیت تبدیل شود. حوزه هوش مصنوعی قابل توضیح (XAI)، که بر توسعه روش‌هایی برای قابل فهم کردن خروجی‌های هوش مصنوعی برای انسان تمرکز دارد، برای رسیدگی به این موضوع پدید آمده است، اما اغلب به عنوان یک چالش کاملاً فنی برای دانشمندان داده مطرح می‌شود. من استدلال می کنم که این یک چالش طراحی حیاتی برای محصولات متکی به هوش مصنوعی است. وظیفه ما به عنوان متخصصان UX این است که فاصله بین تصمیم گیری الگوریتمی و درک انسانی را پر کنیم. این مقاله راهنمایی عملی و عملی در مورد چگونگی تحقیق و طراحی برای توضیح ارائه می دهد. ما فراتر از کلمات کلیدی و ماکت‌ها حرکت می‌کنیم و مفاهیم پیچیده XAI را به الگوهای طراحی بتن تبدیل می‌کنیم که می‌توانید از امروز استفاده کنید. راز زدایی XAI: مفاهیم اصلی برای پزشکان UX XAI در مورد پاسخ به سؤال کاربر است: "چرا؟" چرا این آگهی به من نشان داده شد؟ چرا این فیلم به من توصیه می شود؟ چرا درخواست من رد شد؟ به آن فکر کنید که هوش مصنوعی کار خود را روی یک مسئله ریاضی نشان می دهد. بدون آن، شما فقط یک پاسخ دارید، و مجبورید آن را با ایمان بپذیرید. در نشان دادن مراحل، درک و اعتماد ایجاد می کنید. شما همچنین اجازه می‌دهید کار شما توسط انسان‌هایی که بر آن تأثیر می‌گذارد دوباره بررسی و تأیید شود. اهمیت ویژگی و موارد متضاد تعدادی از تکنیک‌ها وجود دارد که می‌توانیم از آنها برای روشن کردن یا توضیح آنچه که با هوش مصنوعی اتفاق می‌افتد استفاده کنیم. در حالی که روش‌ها از ارائه کل منطق یک درخت تصمیم گرفته تا تولید خلاصه‌های زبان طبیعی یک خروجی را شامل می‌شود، دو مورد از کاربردی‌ترین و تاثیرگذارترین نوع اطلاعاتی که متخصصان UX می‌توانند در یک تجربه معرفی کنند، اهمیت ویژگی (شکل 1) و موارد خلاف واقع هستند. اینها اغلب ساده ترین برای کاربران برای درک و عملی ترین برای طراحان برای پیاده سازی است.

اهمیت ویژگی این روش توضیح‌پذیری پاسخ می‌دهد: «مهم‌ترین عواملی که هوش مصنوعی در نظر گرفته چه بود؟» این در مورد شناسایی 2-3 متغیر برتر است که بیشترین تأثیر را بر نتیجه داشتند. این سرفصل است، نه کل داستان. مثال: یک هوش مصنوعی را تصور کنید که پیش‌بینی می‌کند آیا یک مشتری ریزش می‌کند (خدماتش را لغو می‌کند). اهمیت ویژگی ممکن است نشان دهد که «تعداد تماس‌های پشتیبانی در ماه گذشته» و «افزایش قیمت‌های اخیر» دو عامل مهم در تعیین اینکه آیا یک مشتری احتمالاً از بین می‌رود یا خیر بودند.

عوامل متضاد این روش قدرتمند به این سوال پاسخ می‌دهد: «چه چیزی را باید تغییر دهم تا به نتیجه‌ای متفاوت برسم؟» این بسیار مهم است زیرا به کاربران حس عاملیت می دهد. یک «نه» ناامیدکننده را به یک «هنوز نه» عملی تبدیل می کند. مثال: سیستم درخواست وام را تصور کنید که از هوش مصنوعی استفاده می کند. یک کاربر از دریافت وام محروم می شود. به جای اینکه فقط «برنامه رد شد» را ببینید، یک توضیح خلاف واقع نیز به اشتراک می‌گذارد: «اگر امتیاز اعتباری شما 50 امتیاز بالاتر بود، یا اگر نسبت بدهی به درآمد شما 10 درصد کمتر بود، وام شما تأیید می‌شد.» این به سارا گام‌های روشن و قابل اجرا می‌دهد تا بتواند در آینده وام بگیرد.

استفاده از داده های مدل برای بهبود توضیح اگرچه مشخصات فنی اغلب توسط دانشمندان داده بررسی می‌شود، اما برای متخصصان UX مفید است که بدانند ابزارهایی مانند LIME (توضیحات مدل تفسیرپذیر محلی) که پیش‌بینی‌های فردی را با تقریب مدل به صورت محلی توضیح می‌دهد و SHAP (توضیحات افزودنی SHapley) که از رویکرد تئوری بازی استفاده می‌کند تا هر خروجی یادگیری ماشینی را به طور معمول استخراج کند. مدل های پیچیده این کتابخانه‌ها اساساً به شکستن تصمیم هوش مصنوعی برای نشان دادن اینکه کدام ورودی‌ها برای یک نتیجه معین بیشترین تأثیر را دارند کمک می‌کنند. هنگامی که به درستی انجام شود، داده های زیربنای تصمیم یک ابزار هوش مصنوعی می تواند برای بیان یک داستان قدرتمند استفاده شود. بیایید از اهمیت ویژگی ها و خلاف واقع ها عبور کنیم و نشان دهیم که چگونه می توان از علم داده در پس تصمیم گیری برای افزایش تجربه کاربر استفاده کرد. حالا بیاییداهمیت ویژگی را با کمک داده های توضیحات محلی (به عنوان مثال، LIME) پوشش دهید: این رویکرد به این سوال پاسخ می دهد: "چرا هوش مصنوعی در حال حاضر این توصیه خاص را به من ارائه کرد؟" به جای توضیح کلی در مورد نحوه عملکرد مدل، یک دلیل متمرکز برای یک نمونه خاص ارائه می کند. شخصی و متنی است. مثال: یک سیستم توصیه موسیقی مبتنی بر هوش مصنوعی مانند Spotify را تصور کنید. یک توضیح محلی می‌گوید: "چرا سیستم همین آهنگ خاص ادل را در حال حاضر به شما توصیه کرد؟" توضیح ممکن است این باشد: "چون اخیراً به چندین تصنیف و آهنگ احساسی دیگر از خواننده های زن گوش داده اید."

در نهایت، اجازه دهید گنجاندن توضیحات مبتنی بر ارزش (مانند داده‌های توضیح افزودنی Shapley (SHAP) برای توضیح یک تصمیم را پوشش دهیم: این نسخه دقیق‌تری از اهمیت ویژگی است که به این پاسخ پاسخ می‌دهد: «چگونه هر عاملی تصمیم را به یک سمت یا به سوی دیگر سوق داد؟» به تجسم آنچه مهم است کمک می‌کند و اینکه آیا تأثیر آن مثبت یا منفی بوده است. مثال: تصور کنید یک بانک از یک مدل هوش مصنوعی برای تصمیم گیری در مورد تایید درخواست وام استفاده می کند.

اهمیت ویژگی: خروجی مدل ممکن است نشان دهد که امتیاز اعتباری، درآمد و نسبت بدهی به درآمد متقاضی مهمترین عوامل در تصمیم گیری آن بوده است. این به آنچه مهم است پاسخ می دهد. اهمیت ویژگی با توضیحات مبتنی بر ارزش (SHAP): مقادیر SHAP بر اساس عناصر مدل اهمیت ویژگی را بیشتر می‌کنند.

برای یک وام تایید شده، SHAP ممکن است نشان دهد که یک امتیاز اعتباری بالا به طور قابل توجهی تصمیم را به سمت تایید سوق داده است (تأثیر مثبت)، در حالی که یک نسبت بدهی به درآمد کمی بالاتر از متوسط آن را کمی دور می کند (تأثیر منفی)، اما برای رد وام کافی نیست. برای یک وام رد شده، SHAP می‌تواند نشان دهد که درآمد کم و تعداد زیاد درخواست‌های اعتباری اخیر به شدت تصمیم را به سمت رد کردن سوق داده است، حتی اگر امتیاز اعتباری مناسب باشد.

این به افسر وام کمک می کند تا فراتر از آنچه در نظر گرفته شده است، به متقاضی توضیح دهد که چگونه هر یک از عوامل در تصمیم نهایی "بله" یا "نه" نقش داشته است. بسیار مهم است که بدانیم توانایی ارائه توضیحات خوب اغلب خیلی زودتر در چرخه توسعه شروع می شود. دانشمندان و مهندسان داده با ساختاردهی عمدی مدل‌ها و خطوط لوله داده‌ها به روش‌هایی که ذاتاً از قابلیت توضیح پشتیبانی می‌کنند، نقشی محوری ایفا می‌کنند، نه اینکه بخواهند آن را به‌عنوان یک فکر بعدی تقویت کنند. تیم‌های تحقیقاتی و طراحی می‌توانند با آغاز گفتگوهای اولیه با دانشمندان و مهندسان داده درباره نیازهای کاربر برای درک، کمک به توسعه معیارهای توضیح‌پذیری، و نمونه‌سازی مشترک توضیحات برای اطمینان از دقیق و کاربرپسند بودن آنها، این امر را تقویت کنند. XAI و هوش مصنوعی اخلاقی: باز کردن تعصب و مسئولیت فراتر از ایجاد اعتماد، XAI نقش مهمی در پرداختن به پیامدهای اخلاقی عمیق هوش مصنوعی*، به ویژه در مورد سوگیری الگوریتمی ایفا می کند. تکنیک‌های توضیح‌پذیری، مانند تجزیه و تحلیل مقادیر SHAP، می‌توانند نشان دهند که آیا تصمیمات یک مدل به طور نامتناسبی تحت تأثیر ویژگی‌های حساس مانند نژاد، جنسیت یا وضعیت اجتماعی-اقتصادی است، حتی اگر این عوامل به‌صراحت به عنوان ورودی مستقیم استفاده نشده باشند. به عنوان مثال، اگر یک مدل تایید وام به طور مداوم مقادیر منفی SHAP را به متقاضیان از یک جمعیت خاص اختصاص دهد، نشان دهنده یک سوگیری بالقوه است که نیاز به بررسی دارد و به تیم ها قدرت می دهد تا چنین نتایج ناعادلانه ای را آشکار کنند و کاهش دهند. قدرت XAI همچنین با پتانسیل "شستشوی قابل توضیح" همراه است. درست همانطور که «شستشوی سبز» مصرف‌کنندگان را در مورد شیوه‌های زیست‌محیطی گمراه می‌کند، شستشوی قابل توضیح نیز زمانی رخ می‌دهد که توضیحات برای مبهم کردن، به جای روشن کردن، رفتار الگوریتمی مشکل‌ساز یا سوگیری‌های ذاتی طراحی شده باشند. این می‌تواند به‌عنوان توضیحات بیش از حد ساده‌گرایانه که عوامل تأثیرگذار حیاتی را حذف می‌کنند، یا توضیحاتی که به‌طور استراتژیک نتایج را به‌گونه‌ای که خنثی‌تر یا منصفانه‌تر از آنچه واقعا هستند، چارچوب می‌دهند، ظاهر شود. این امر بر مسئولیت اخلاقی متخصصان UX برای طراحی توضیحاتی که واقعاً شفاف و قابل تأیید هستند تأکید می کند. متخصصان UX، در همکاری با دانشمندان داده و متخصصان اخلاق، مسئولیت مهمی در ارتباط با دلیل یک تصمیم، و همچنین محدودیت‌ها و سوگیری‌های احتمالی مدل زیربنایی هوش مصنوعی دارند. این شامل تعیین انتظارات واقعی کاربر در مورد دقت هوش مصنوعی، شناسایی مکان‌هایی است که مدل ممکن است کمتر قابل اعتماد باشد، و زمانی که کاربران نتایج ناعادلانه یا نادرست را درک می‌کنند کانال‌های واضحی برای توسل یا بازخورد ارائه می‌کند. به طور فعالانه به این موارد پرداخته شودابعاد اخلاقی به ما این امکان را می دهد که سیستم های هوش مصنوعی بسازیم که واقعاً عادلانه و قابل اعتماد هستند. از روش‌ها تا ماکت‌ها: الگوهای طراحی عملی XAI دانستن مفاهیم یک چیز است; طراحی آنها یک چیز دیگر است. در اینجا نحوه ترجمه این روش های XAI به الگوهای طراحی بصری آمده است. الگوی 1: بیانیه "زیرا" (برای اهمیت ویژگی) این ساده ترین و اغلب مؤثرترین الگو است. این یک بیانیه مستقیم و به زبان ساده است که دلیل اصلی اقدام یک هوش مصنوعی را نشان می دهد.

اکتشافی: مستقیم و مختصر باشید. با تاثیرگذارترین دلیل رهبری کنید. به هر قیمتی شده از اصطلاحات خاص خودداری کنید.

مثال: یک سرویس پخش موسیقی را تصور کنید. به جای اینکه فقط یک لیست پخش «کشف هفتگی» را ارائه دهید، یک خط کوچک از میکروکپی اضافه می‌کنید. توصیه آهنگ: «Velvet Morning» زیرا به «The Fuzz» و سایر راک‌های روان‌گردان گوش می‌دهید.

الگوی 2: تعاملی "چه می شود-اگر" (برای افراد متضاد) ضدافکت ها ذاتاً در مورد توانمندسازی هستند. بهترین راه برای نشان دادن آنها، دادن ابزارهای تعاملی به کاربران برای کشف احتمالات است. این برای برنامه های مالی، بهداشتی یا سایر برنامه های هدف گرا مناسب است.

اکتشافی: توضیحات را تعاملی و توانمند کنید. به کاربران اجازه دهید علت و معلول انتخاب های خود را ببینند.

مثال: یک رابط درخواست وام. پس از انکار، به جای بن بست، کاربر ابزاری را برای تعیین نحوه اجرای سناریوهای مختلف (چه-اگر) دریافت می کند (شکل 1 را ببینید).

الگوی 3: حلقه برجسته (برای توضیحات محلی) هنگامی که یک هوش مصنوعی عملکردی را بر روی محتوای کاربر انجام می دهد (مانند خلاصه کردن یک سند یا شناسایی چهره ها در عکس ها)، توضیح باید به صورت بصری به منبع پیوند داده شود.

اکتشافی: از نشانه‌های بصری مانند برجسته‌سازی، خطوط کلی یا حاشیه‌نویسی برای اتصال مستقیم توضیح به عنصر رابطی که توضیح می‌دهد استفاده کنید.

مثال: یک ابزار هوش مصنوعی که مقالات طولانی را خلاصه می کند. نکته خلاصه ایجاد شده توسط هوش مصنوعی: تحقیقات اولیه شکاف بازار را برای محصولات پایدار نشان داد. منبع در سند: "...تحلیل سه ماهه دوم ما از روندهای بازار به طور قطعی نشان داد که هیچ رقیب عمده ای به طور موثر به مصرف کننده آگاه از محیط زیست خدمت نمی کند و شکاف قابل توجهی در بازار را برای محصولات پایدار آشکار می کند..."

الگوی 4: تصویری فشار و کشیدن (برای توضیحات مبتنی بر ارزش) برای تصمیم گیری های پیچیده تر، کاربران ممکن است نیاز به درک تأثیر متقابل عوامل داشته باشند. تجسم داده‌های ساده می‌تواند این را بدون زیاده‌روی روشن کند.

اکتشافی: از تجسم داده های ساده و با کد رنگی (مانند نمودارهای میله ای) برای نشان دادن عواملی که بر یک تصمیم تأثیر مثبت و منفی داشته اند استفاده کنید.

مثال: هوش مصنوعی نمایه یک نامزد را برای یک شغل غربال می‌کند. چرا این نامزد 75 درصد مطابقت دارد: عواملی که امتیاز را بالا می‌برند: بیش از 5 سال تجربه تحقیقاتی UX مسلط در Python عواملی که امتیاز را پایین می‌آورند: بدون تجربه با B2B SaaS

یادگیری و استفاده از این الگوهای طراحی در UX محصول هوش مصنوعی شما به افزایش قابلیت توضیح کمک می کند. شما همچنین می توانید از تکنیک های اضافی استفاده کنید که من در اینجا به طور عمیق توضیح نمی دهم. این شامل موارد زیر است:

توضیحات زبان طبیعی: ترجمه خروجی فنی یک هوش مصنوعی به زبان انسانی ساده و محاوره ای که افراد غیر متخصص به راحتی می توانند آن را درک کنند. توضیحات متنی: ارائه منطقی برای خروجی هوش مصنوعی در لحظه و مکان خاص، بیشترین ارتباط را با وظیفه کاربر دارد. تجسم‌های مرتبط: استفاده از نمودارها، نمودارها یا نقشه‌های حرارتی برای نمایش بصری فرآیند تصمیم‌گیری هوش مصنوعی، که داده‌های پیچیده را بصری و درک آن را برای کاربران آسان‌تر می‌کند.

نکته ای برای قسمت جلویی: ترجمه این خروجی های قابل توضیح به تجربیات کاربر یکپارچه نیز مجموعه ای از ملاحظات فنی خود را ارائه می دهد. توسعه‌دهندگان فرانت‌اند اغلب با طراحی API دست و پنجه نرم می‌کنند تا داده‌های توضیحی را به‌طور کارآمد بازیابی کنند و پیامدهای عملکرد (مانند تولید بی‌درنگ توضیحات برای هر تعامل کاربر) نیاز به برنامه‌ریزی دقیق برای جلوگیری از تأخیر دارند. برخی از نمونه های دنیای واقعی UPS Capital's DeliveryDefense UPS از هوش مصنوعی برای تعیین «امتیاز اطمینان تحویل» به آدرس‌ها استفاده می‌کند تا احتمال دزدیده شدن بسته را پیش‌بینی کند. نرم افزار DeliveryDefense آنها داده های تاریخی در مورد مکان، فرکانس تلفات و سایر عوامل را تجزیه و تحلیل می کند. اگر آدرسی امتیاز پایینی داشته باشد، سیستم می تواند به طور فعال بسته را به یک نقطه دسترسی ایمن UPS تغییر مسیر دهد و توضیحی برای تصمیم ارائه دهد (به عنوان مثال، «مسیر بسته به یک مکان امن به دلیل سابقه سرقت»). این سیستم نشان می دهد که چگونه می توان از XAI برای کاهش ریسک و ایجاد اعتماد مشتری استفاده کردشفافیت وسایل نقلیه خودمختار این وسایل نقلیه در آینده باید به طور موثر از XAI برای کمک به وسایل نقلیه خود در تصمیم گیری ایمن و قابل توضیح استفاده کنند. هنگامی که یک خودروی خودران به طور ناگهانی ترمز می کند، سیستم می تواند توضیحی در زمان واقعی برای عملکرد خود ارائه دهد، به عنوان مثال، با شناسایی عابر پیاده ای که وارد جاده می شود. این نه تنها برای راحتی و اعتماد مسافران بسیار مهم است، بلکه یک الزام قانونی برای اثبات ایمنی و مسئولیت پذیری سیستم هوش مصنوعی است. IBM Watson Health (و چالش‌های آن) در حالی که اغلب به عنوان یک مثال کلی از هوش مصنوعی در مراقبت های بهداشتی ذکر می شود، همچنین یک مطالعه موردی ارزشمند برای اهمیت XAI است. شکست پروژه Watson for Oncology نشان می‌دهد که وقتی توضیحات واضح نیستند، یا زمانی که داده‌های زیربنایی مغرضانه یا محلی‌سازی نشده باشند، چه چیزی ممکن است اشتباه پیش برود. توصیه‌های این سیستم گاهی اوقات با شیوه‌های بالینی محلی ناسازگار بود، زیرا آنها بر اساس دستورالعمل‌های ایالات متحده محور بودند. این به عنوان یک داستان هشدار دهنده در مورد نیاز به توضیح قوی و آگاه از زمینه عمل می کند. نقش محقق UX: مشخص کردن و اعتبار بخشیدن به توضیحات راه حل های طراحی ما تنها در صورتی مؤثر هستند که به سؤالات کاربر مناسب در زمان مناسب پاسخ دهند. توضیحی که به سوالی که کاربر ندارد پاسخ می دهد فقط نویز است. اینجاست که تحقیقات UX به بافت همبند حیاتی در استراتژی XAI تبدیل می‌شود و تضمین می‌کند که ما چه چیزی و چگونه برای کاربرانمان اهمیت دارد. نقش محقق دوگانه است: اول، اطلاع‌رسانی به استراتژی با شناسایی مکان‌هایی که به توضیحات نیاز است، و دوم، اعتبار بخشیدن به طرح‌هایی که این توضیحات را ارائه می‌دهند. اطلاع رسانی استراتژی XAI (چه چیزی را باید توضیح داد) قبل از اینکه بتوانیم یک توضیح واحد طراحی کنیم، باید مدل ذهنی کاربر از سیستم هوش مصنوعی را درک کنیم. آنها معتقدند چه کار می کند؟ شکاف بین درک آنها و واقعیت سیستم کجاست؟ این کار اساسی یک محقق UX است. مصاحبه‌های مدل ذهنی: باز کردن برداشت‌های کاربر از سیستم‌های هوش مصنوعی از طریق مصاحبه‌های عمیق و نیمه ساختاریافته، متخصصان UX می‌توانند بینش ارزشمندی در مورد نحوه درک و درک کاربران از سیستم‌های هوش مصنوعی به دست آورند. این جلسات برای تشویق کاربران طراحی شده اند تا به معنای واقعی کلمه "مدل ذهنی" درونی خود را از نحوه کارکرد هوش مصنوعی ترسیم یا توصیف کنند. این اغلب شامل پرسیدن سؤالات باز است که کاربران را وادار می کند تا منطق سیستم، ورودی ها و خروجی های آن و همچنین روابط بین این عناصر را توضیح دهند. این مصاحبه‌ها قدرتمند هستند زیرا اغلب تصورات و فرضیات نادرست عمیقی را که کاربران در مورد هوش مصنوعی دارند، آشکار می‌کنند. برای مثال، کاربر در حال تعامل با موتور توصیه ممکن است با اطمینان ادعا کند که سیستم صرفاً بر اساس سابقه مشاهده قبلی آنها است. آن‌ها ممکن است متوجه نباشند که این الگوریتم همچنین عوامل متعدد دیگری را در بر می‌گیرد، مانند زمانی از روز که در حال مرور هستند، موارد پرطرفدار فعلی در سراسر پلتفرم، یا حتی عادات مشاهده کاربران مشابه. کشف این شکاف بین مدل ذهنی کاربر و منطق زیربنایی هوش مصنوعی بسیار مهم است. دقیقاً به ما می‌گوید چه اطلاعات خاصی را باید به کاربران منتقل کنیم تا به آنها کمک کنیم تا مدل ذهنی دقیق‌تری از سیستم بسازند. این به نوبه خود گامی اساسی در تقویت اعتماد است. هنگامی که کاربران، حتی در سطح بالا، متوجه می شوند که چگونه یک هوش مصنوعی به نتایج یا توصیه های خود می رسد، به احتمال زیاد به خروجی های آن اعتماد کرده و بر عملکرد آن تکیه می کنند. AI Journey Mapping: فرو رفتن عمیق در اعتماد کاربر و قابلیت توضیح با ترسیم دقیق سفر کاربر با یک ویژگی مبتنی بر هوش مصنوعی، بینش ارزشمندی را در مورد لحظات دقیقی که در آن سردرگمی، ناامیدی یا حتی بی اعتمادی عمیق ظاهر می شود، به دست می آوریم. این برهه‌های مهمی را آشکار می‌کند که در آن مدل ذهنی کاربر از نحوه عملکرد هوش مصنوعی با رفتار واقعی آن در تضاد است. یک سرویس استریم موسیقی را در نظر بگیرید: آیا وقتی توصیه‌های فهرست پخش «تصادفی» به نظر می‌رسد و هیچ ارتباط قابل تشخیصی با عادت‌های شنیداری قبلی یا اولویت‌های اعلام‌شده ندارد، اعتماد کاربر کاهش می‌یابد؟ این تصادفی بودن درک شده یک چالش مستقیم برای انتظار کاربر برای مدیریت هوشمند و نقض این وعده ضمنی است که هوش مصنوعی سلیقه آنها را درک می کند. به طور مشابه، در یک برنامه مدیریت عکس، آیا کاربران وقتی که یک ویژگی برچسب گذاری عکس با هوش مصنوعی به طور مداوم یک عضو عزیز خانواده را اشتباه شناسایی می کند، نا امیدی قابل توجهی را تجربه می کنند؟ این خطا بیش از یک نقص فنی است. به قلب دقت، شخصی سازی و حتی ضربه می زندارتباط عاطفی این نقاط درد، سیگنال‌های واضحی هستند که دقیقاً نشان می‌دهند که توضیح مناسب، واضح و مختصر در کجا لازم است. چنین توضیحاتی به‌عنوان مکانیزم‌های تعمیر حیاتی عمل می‌کنند و نقض اعتماد را برطرف می‌کنند که اگر به آن توجه نشود، می‌تواند منجر به رها شدن کاربر شود. قدرت نقشه‌برداری سفر با هوش مصنوعی در توانایی آن است که ما را فراتر از توضیح ساده خروجی نهایی یک سیستم هوش مصنوعی سوق دهد. در حالی که درک آنچه که هوش مصنوعی تولید می کند مهم است، اغلب ناکافی است. درعوض، این فرآیند ما را وادار می کند تا در لحظات حساس بر توضیح فرآیند تمرکز کنیم. این یعنی پرداختن به:

چرا یک خروجی خاص تولید شد: آیا به دلیل داده های ورودی خاص بود؟ معماری مدل خاصی؟ چه عواملی بر تصمیم هوش مصنوعی تأثیر گذاشت: آیا ویژگی‌های خاصی وزن بیشتری داشتند؟ هوش مصنوعی چگونه به نتیجه رسید: آیا می‌توانیم توضیحی ساده و مشابه از عملکرد داخلی آن ارائه دهیم؟ هوش مصنوعی چه فرضیاتی داشت: آیا درک ضمنی از قصد یا داده‌های کاربر وجود داشت که باید آشکار شود؟ محدودیت‌های هوش مصنوعی چیست: بیان واضح آنچه که هوش مصنوعی نمی‌تواند انجام دهد، یا جایی که دقت آن ممکن است متزلزل شود، انتظارات واقع بینانه را ایجاد می‌کند.

نقشه‌برداری سفر هوش مصنوعی مفهوم انتزاعی XAI را به یک چارچوب عملی و عملی برای متخصصان UX تبدیل می‌کند. این ما را قادر می‌سازد تا فراتر از بحث‌های تئوریک توضیح‌پذیری حرکت کنیم و در عوض لحظات دقیقی را مشخص کنیم که اعتماد کاربر در خطر است، و بینش‌های لازم را برای ایجاد تجربیات هوش مصنوعی قدرتمند، شفاف، قابل درک و قابل اعتماد ارائه می‌کند. در نهایت، تحقیق این است که چگونه ناشناخته ها را کشف کنیم. تیم شما ممکن است در حال بحث باشد که چگونه توضیح دهد چرا یک وام رد شده است، اما تحقیقات ممکن است نشان دهد که کاربران به مراتب بیشتر نگران درک نحوه استفاده از داده های خود در وهله اول هستند. بدون تحقیق، ما به سادگی حدس می زنیم که کاربرانمان چه چیزی را تعجب می کنند. همکاری در طراحی (چگونه هوش مصنوعی خود را توضیح دهید) هنگامی که تحقیقات مشخص کرد چه چیزی باید توضیح داده شود، حلقه مشارکتی با طراحی آغاز می شود. طراحان می‌توانند الگوهایی را که قبلاً در مورد آن صحبت کردیم، نمونه‌سازی کنند - عبارت «زیرا»، لغزنده‌های تعاملی - و محققان می‌توانند آن طرح‌ها را در مقابل کاربران قرار دهند تا ببینند که آیا پایدار هستند یا خیر. قابلیت استفاده هدفمند و تست درک مطلب: ما می توانیم مطالعات تحقیقاتی را طراحی کنیم که به طور خاص مؤلفه های XAI را آزمایش کنند. ما فقط نمی‌پرسیم، "آیا استفاده از این آسان است؟" ما می پرسیم، "بعد از دیدن این، می توانید به زبان خودتان بگویید چرا سیستم این محصول را توصیه کرده است؟" یا "به من نشان دهید که چه کاری انجام می دهید تا ببینم آیا می توانید نتیجه متفاوتی بگیرید." هدف در اینجا اندازه گیری درک و عملی بودن، در کنار قابلیت استفاده است. اندازه گیری اعتماد خود: می توانیم از نظرسنجی های ساده و مقیاس های رتبه بندی قبل و بعد از نمایش توضیح استفاده کنیم. برای مثال، می‌توانیم از یک کاربر در مقیاس 5 درجه‌ای بپرسیم: «چقدر به این توصیه اعتماد دارید؟» قبل از اینکه عبارت «زیرا» را ببینند، و سپس دوباره از آنها بپرسید. این داده‌های کمی را در مورد اینکه آیا توضیحات ما واقعاً سوزن اعتماد را حرکت می‌دهند یا خیر، ارائه می‌کند. این فرآیند یک حلقه قدرتمند و تکرار شونده ایجاد می کند. یافته های تحقیق، طراحی اولیه را نشان می دهد. سپس آن طرح آزمایش می شود و یافته های جدید برای اصلاح به تیم طراحی بازخورد داده می شود. شاید عبارت «زیرا» بیش از حد نامتعارف بود، یا نوار لغزنده «چه می‌شد» بیشتر گیج‌کننده بود تا قدرت‌بخش. از طریق این اعتبار سنجی مشترک، ما اطمینان حاصل می کنیم که توضیحات نهایی از نظر فنی دقیق، واقعا قابل درک، مفید و برای افرادی که از محصول استفاده می کنند اعتمادساز است. The Goldilocks Zone Of Explanation یک کلمه احتیاط انتقادی: ممکن است بیش از حد توضیح دهید. همانطور که در افسانه، جایی که گلدیلاکز به دنبال فرنی بود که «درست است»، هدف از یک توضیح خوب ارائه جزئیات مناسب است – نه زیاد و نه خیلی کم. بمباران یک کاربر با هر متغیر در یک مدل منجر به اضافه بار شناختی می شود و در واقع می تواند اعتماد را کاهش دهد. هدف این نیست که کاربر را به دانشمند داده تبدیل کنیم. یک راه حل، افشای تدریجی است.

با ساده شروع کنید. با بیانیه مختصر «زیرا» رهبری کنید. برای اکثر کاربران، این کافی خواهد بود. یک مسیر به جزئیات ارائه دهید. یک پیوند واضح و کم اصطکاک مانند «بیشتر بدانید» یا «ببینید چگونه تعیین شد» ارائه کنید. پیچیدگی را آشکار کنید. در پشت آن پیوند، می‌توانید لغزنده‌های تعاملی، تجسم‌ها یا فهرست دقیق‌تری از عوامل مؤثر را ارائه دهید.

این رویکرد لایه ای به توجه و تخصص کاربر احترام می گذارد و مقدار مناسبی را ارائه می دهداطلاعات برای نیازهای آنها بیایید تصور کنیم که از یک دستگاه خانه هوشمند استفاده می کنید که گرمایش بهینه را بر اساس عوامل مختلف توصیه می کند. با ساده شروع کنید: "خانه شما در حال حاضر تا 72 درجه گرم می شود، که دمای مطلوب برای صرفه جویی در انرژی و راحتی است." یک مسیر برای جزئیات ارائه دهید: در زیر آن، یک پیوند یا دکمه کوچک: "چرا 72 درجه بهینه است؟" پیچیدگی را آشکار کنید: با کلیک بر روی آن پیوند، صفحه جدیدی باز می شود که نشان می دهد:

لغزنده های تعاملی برای دمای بیرون، رطوبت، و سطح راحتی دلخواه شما، نشان می دهد که چگونه دمای توصیه شده را تنظیم می کنند. تجسم مصرف انرژی در دماهای مختلف فهرستی از عوامل مؤثر مانند «زمان روز»، «دمای کنونی بیرون»، «مصرف انرژی تاریخی» و «حسگرهای اشغال».

ترکیب چندین روش XAI موثر است و این الگوی توضیح منطقه Goldilocks، که از افشای تدریجی حمایت می کند، به طور ضمنی این را تشویق می کند. می‌توانید با یک عبارت ساده «زیرا» (الگوی 1) برای درک فوری شروع کنید، و سپس پیوند «بیشتر بدانید» را ارائه دهید که یک تعاملی «چه می‌شود» (الگوی 2) یا یک «بصری فشار و کشش» (الگوی 4) را برای کاوش عمیق‌تر نشان می‌دهد. برای مثال، یک سیستم درخواست وام می‌تواند در ابتدا دلیل اصلی انکار (اهمیت ویژگی) را بیان کند، سپس به کاربر اجازه می‌دهد تا با ابزار «چه می‌شود» تعامل داشته باشد تا ببیند چگونه تغییرات در درآمد یا بدهی‌هایش نتیجه را تغییر می‌دهد (عوامل خلاف واقع)، و در نهایت، یک نمودار دقیق «فشار و کشش» (توضیحات مبتنی بر ارزش) برای توضیح همه عوامل مثبت و منفی ارائه می‌کند. این رویکرد لایه‌ای به کاربران اجازه می‌دهد تا در صورت نیاز به سطح جزئیات مورد نیاز خود دسترسی داشته باشند و از اضافه بار شناختی جلوگیری کند و در عین حال شفافیت جامع را ارائه دهد. تعیین ابزارها و روش‌های XAI برای استفاده در درجه اول تابعی از تحقیقات کامل UX است. مصاحبه‌های مدل ذهنی و نقشه‌برداری سفر هوش مصنوعی برای تعیین دقیق نیازهای کاربر و نقاط دردناک مربوط به درک و اعتماد هوش مصنوعی بسیار مهم هستند. مصاحبه‌های مدل ذهنی به کشف تصورات نادرست کاربر در مورد نحوه عملکرد هوش مصنوعی کمک می‌کند و مناطقی را نشان می‌دهد که توضیحات اساسی (مانند اهمیت ویژگی یا توضیحات محلی) مورد نیاز است. از سوی دیگر، نقشه‌برداری سفر با هوش مصنوعی، لحظات بحرانی سردرگمی یا بی‌اعتمادی در تعامل کاربر با هوش مصنوعی را شناسایی می‌کند، و نشان می‌دهد که توضیحات دقیق‌تر یا تعاملی‌تر (مانند موارد خلاف واقع یا توضیحات مبتنی بر ارزش) برای بازسازی اعتماد و ارائه آژانس بسیار سودمند است.

در نهایت، بهترین راه برای انتخاب یک تکنیک این است که اجازه دهید تحقیقات کاربر تصمیمات شما را راهنمایی کند و اطمینان حاصل کنید که توضیحاتی که طراحی می‌کنید مستقیماً به سؤالات و نگرانی‌های واقعی کاربر پاسخ می‌دهد، نه اینکه صرفاً جزئیات فنی را به خاطر خود ارائه دهید. XAI برای عوامل استدلال عمیق برخی از جدیدترین سیستم‌های هوش مصنوعی، که به عنوان عوامل استدلال عمیق شناخته می‌شوند، یک «زنجیره فکر» صریح برای هر کار پیچیده تولید می‌کنند. آنها صرفاً به منابع استناد نمی کنند. آنها مسیر منطقی و گام به گامی را که برای رسیدن به نتیجه طی کردند را نشان می دهند. در حالی که این شفافیت زمینه ارزشمندی را فراهم می‌کند، یک بازی به بازی که چندین پاراگراف را در بر می‌گیرد، می‌تواند برای کاربر که صرفاً تلاش می‌کند تا یک کار را تکمیل کند، خسته‌کننده باشد. اصول XAI، به ویژه منطقه توضیح گلدیلاک، مستقیماً در اینجا اعمال می شود. ما می‌توانیم سفر را با استفاده از افشای تدریجی برای نشان دادن تنها نتیجه نهایی و برجسته‌ترین گام در فرآیند فکر، اداره کنیم. پس از آن، کاربران می توانند در صورت نیاز به بررسی مجدد منطق یا یافتن یک واقعیت خاص، برای دیدن استدلال کامل، دقیق و چند مرحله ای شرکت کنند. این رویکرد به توجه کاربر احترام می گذارد و در عین حال شفافیت کامل عامل را حفظ می کند. مراحل بعدی: توانمندسازی سفر XAI شما توضیح پذیری یک رکن اساسی برای ساخت محصولات قابل اعتماد و موثر هوش مصنوعی است. برای متخصصان پیشرفته ای که به دنبال ایجاد این تغییر در سازمان خود هستند، این سفر فراتر از الگوهای طراحی به طرفداری و یادگیری مستمر گسترش می یابد. برای تعمیق درک و کاربرد عملی خود، منابعی مانند جعبه ابزار AI Explainability 360 (AIX360) از IBM Research یا Google's What-If Tool را کاوش کنید، که راه‌های تعاملی را برای کشف رفتار و توضیحات مدل ارائه می‌دهد. تعامل با جوامعی مانند انجمن هوش مصنوعی مسئول یا گروه‌های تحقیقاتی خاص متمرکز بر هوش مصنوعی انسان‌محور می‌تواند بینش‌ها و فرصت‌های همکاری ارزشمندی را ارائه دهد. در نهایت، مدافع XAI در سازمان خود باشید.توضیح پذیری چارچوب به عنوان یک سرمایه گذاری استراتژیک یک پیشنهاد کوتاه برای تیم های رهبری یا چند کاره خود در نظر بگیرید: "با سرمایه گذاری در XAI، فراتر از ایجاد اعتماد خواهیم رفت؛ پذیرش کاربر را تسریع خواهیم کرد، هزینه های پشتیبانی را با توانمندسازی کاربران با درک و فهم کاهش می دهیم، و خطرات اخلاقی و نظارتی قابل توجهی را با افشای سوگیری های احتمالی کاهش می دهیم. این طراحی خوب و تجارت هوشمند است."

صدای شما که مبتنی بر درک عملی است، در بیرون آوردن هوش مصنوعی از جعبه سیاه و مشارکت مشترک با کاربران بسیار مهم است.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free