У моїй останній статті ми встановили основоположну істину: щоб користувачі могли прийняти ШІ та покладатися на нього, вони повинні йому довіряти. Ми говорили про те, що довіра є багатогранною конструкцією, побудованою на уявленнях про здатність, доброзичливість, цілісність і передбачуваність ШІ. Але що відбувається, коли штучний інтелект у своїй мовчазній алгоритмічній мудрості приймає рішення, яке спантеличить, розчарує або навіть образить користувача? Заявку на іпотеку відхилено, улюблена пісня раптово зникла зі списку відтворення, а кваліфіковане резюме відхилено ще до того, як людина його побачить. У такі моменти здібності та передбачуваність руйнуються, а доброзичливість здається далекою. Зараз наша розмова має перейти від питання довіри до питання прозорості. Поле пояснюваного штучного інтелекту (XAI), яке зосереджується на розробці методів, щоб зробити результати штучного інтелекту зрозумілими для людей, виникло для вирішення цієї проблеми, але це часто розглядається як суто технічний виклик для науковців із обробки даних. Я стверджую, що це критична проблема дизайну для продуктів, які покладаються на ШІ. Наша робота як професіоналів UX — подолати розрив між алгоритмічним прийняттям рішень і людським розумінням. Ця стаття містить практичні вказівки щодо того, як досліджувати та проектувати для пояснення. Ми відійдемо від модних слів і перейдемо до макетів, перекладаючи складні концепції XAI у конкретні шаблони проектування, які ви можете почати використовувати вже сьогодні. Демістифікація XAI: основні концепції для практиків UX XAI — це відповідь на запитання користувача: «Чому?» Чому мені показали цю рекламу? Чому мені рекомендують цей фільм? Чому мій запит було відхилено? Подумайте про це як про штучний інтелект, який показує свою роботу над математичною задачею. Без нього у вас просто є відповідь, і ви змушені прийняти її на віру. Показуючи кроки, ви розвиваєте розуміння та довіру. Ви також дозволяєте подвійну перевірку вашої роботи тим самим людям, на яких вона впливає. Важливість функції та протиправні факти Існує ряд методів, які ми можемо використовувати, щоб прояснити або пояснити, що відбувається з ШІ. У той час як методи варіюються від надання всієї логіки дерева рішень до генерації підсумків вихідних даних природною мовою, два найбільш практичних і впливових типи інформації, які практики UX можуть ввести в досвід, — це важливість функції (рис. 1) і протиправні. Вони часто є найпростішими для розуміння користувачами та найзручнішими для реалізації дизайнерами.
Важливість функції Цей метод пояснення відповідає: «Які найважливіші фактори врахував ШІ?» Йдеться про визначення 2-3 основних змінних, які мали найбільший вплив на результат. Це заголовок, а не вся історія. Приклад: уявіть штучний інтелект, який прогнозує, чи відмовиться клієнт (скасує свою послугу). Важливість функції може виявити, що «кількість дзвінків у службу підтримки за останній місяць» і «останнє підвищення цін» були двома найважливішими факторами для визначення того, чи ймовірно клієнт відмовиться.
Контрафакти Цей потужний метод відповідає на запитання: «Що мені потрібно змінити, щоб отримати інший результат?» Це вкрай важливо, оскільки дає користувачам відчуття волі. Це перетворює розчаровуюче «ні» на дієве «ще ні». Приклад: уявіть систему подачі заявок на кредит, яка використовує ШІ. Користувачеві відмовлено в кредиті. Замість того, щоб просто бачити «Заявку відхилено», у контрфактичному поясненні також буде таке: «Якби ваш кредитний рейтинг був на 50 балів вищим або якби ваше співвідношення боргу до доходу було на 10% нижчим, вашу позику було б схвалено». Це дає Сарі чіткі, дієві кроки, які вона може зробити, щоб потенційно отримати позику в майбутньому.
Використання даних моделі для покращення пояснення Хоча технічними особливостями часто займаються дослідники даних, практикам UX корисно знати, що такі інструменти, як LIME (Local Interpretable Model-agnostic Explanations), який пояснює індивідуальні прогнози шляхом наближення моделі локально, і SHAP (SHapley Additive ExPlanations), який використовує підхід теорії ігор для пояснення результатів будь-якої моделі машинного навчання, зазвичай використовуються для вилучення цих «чому» ідей зі складних моделі. Ці бібліотеки по суті допомагають зламати рішення штучного інтелекту, щоб показати, які вхідні дані були найбільш впливовими для певного результату. Якщо все зроблено належним чином, дані, які лежать в основі рішення інструменту штучного інтелекту, можуть бути використані, щоб розповісти потужну історію. Давайте розглянемо важливість функцій і контрфактичні факти та покажемо, як наукові дані, що стоять за рішенням, можуть бути використані для покращення досвіду користувача. Тепер давайтеохопити важливість функцій за допомогою даних локальних пояснень (наприклад, LIME): цей підхід відповідає на запитання «Чому штучний інтелект дав мені цю конкретну рекомендацію саме зараз?» Замість загального пояснення того, як працює модель, вона надає цілеспрямовану причину для одного конкретного випадку. Це особисте та контекстне. Приклад: уявіть собі систему рекомендацій музики на основі ШІ, як-от Spotify. Місцеве пояснення відповість: «Чому система рекомендувала вам саме цю пісню Адель саме зараз?» Пояснення може бути таким: «Тому що ви нещодавно слухали кілька інших емоційних балад і пісень вокалісток».
Нарешті, давайте поговоримо про включення пояснень на основі цінностей (наприклад, даних адитивних пояснень Шеплі (SHAP) для пояснення рішення: це більш детальна версія важливості функції, яка відповідає на питання «Як кожен фактор підштовхнув рішення так чи інакше?» Це допомагає візуалізувати, що мало значення, і чи був його вплив позитивним чи негативним. Приклад: уявіть, що банк використовує модель ШІ, щоб прийняти рішення про схвалення заявки на кредит.
Важливість функції. Вихідні дані моделі можуть показати, що кредитна оцінка заявника, дохід і співвідношення боргу до доходу були найважливішими факторами для прийняття рішення. Це відповідає на те, що має значення. Важливість ознак із поясненнями на основі значень (SHAP): значення SHAP підвищуватимуть важливість ознак на основі елементів моделі.
Для схваленої позики SHAP може показати, що високий кредитний рейтинг значно підштовхнув рішення до схвалення (позитивний вплив), тоді як дещо вище за середнє співвідношення боргу та доходу трохи відштовхнуло його (негативний вплив), але недостатньо, щоб відмовити в позиці. Щодо відмови у позиці, SHAP може виявити, що низький дохід і велика кількість нещодавніх запитів про кредит суттєво підштовхнули рішення до відмови, навіть якщо кредитний рейтинг був пристойним.
Це допомагає кредитному спеціалісту пояснити заявнику, крім того, що розглядалося, як кожен фактор вплинув на остаточне рішення «так» чи «ні». Дуже важливо визнати, що здатність надавати хороші пояснення часто починається набагато раніше в циклі розробки. Науковці та інженери з даних відіграють ключову роль, навмисно структуруючи моделі та конвеєри даних у спосіб, який за своєю суттю підтримує пояснюваність, замість того, щоб намагатися закріпити це як запізнілу думку. Дослідницькі та дизайнерські групи можуть сприяти цьому, починаючи ранні розмови з науковцями та інженерами даних про потреби користувачів у розумінні, сприяючи розробці показників пояснюваності та спільно створюючи прототипи пояснень, щоб переконатися, що вони точні та зручні для користувача. XAI та етичний штучний інтелект: розпакування упередженості та відповідальності Окрім побудови довіри, XAI відіграє вирішальну роль у вирішенні глибоких етичних наслідків штучного інтелекту*, зокрема щодо упередженості алгоритмів. Методи пояснення, такі як аналіз значень SHAP, можуть виявити, чи на рішення моделі непропорційно впливають такі чутливі атрибути, як раса, стать або соціально-економічний статус, навіть якщо ці фактори явно не використовувалися як прямі вхідні дані. Наприклад, якщо модель схвалення позики постійно призначає від’ємні значення SHAP заявникам із певної демографічної групи, це сигналізує про потенційну упередженість, яка потребує дослідження, дозволяючи командам виявити та пом’якшити такі несправедливі результати. Потужність XAI також пов’язана з потенціалом для «промивання пояснень». Подібно до того, як «зелене відмивання» вводить споживачів в оману щодо екологічних практик, вимивання пояснюваності може мати місце, коли пояснення спрямовані на те, щоб приховати, а не висвітлити, проблематичну поведінку алгоритмів або властиві упередження. Це може проявлятися у вигляді надто спрощених пояснень, які пропускають критичні фактори впливу, або пояснень, які стратегічно формують результати так, щоб вони виглядали більш нейтральними чи справедливими, ніж вони є насправді. Це підкреслює етичну відповідальність практиків UX щодо розробки пояснень, які є справді прозорими та такими, що можна перевірити. Фахівці з UX у співпраці з фахівцями з обробки даних та спеціалістами з етики несуть вирішальну відповідальність за пояснення причин прийняття рішення, а також про обмеження та потенційні упередження основної моделі ШІ. Це передбачає встановлення реалістичних очікувань користувачів щодо точності штучного інтелекту, визначення місць, де модель може бути менш надійною, і надання чітких каналів для звернення або зворотного зв’язку, коли користувачі бачать несправедливі або неправильні результати. Проактивне вирішення цих питаньЕтичні аспекти дозволять нам створювати системи ШІ, які є справді справедливими та надійними. Від методів до макетів: практичні шаблони проектування XAI Знати поняття - це одне; їх проектування - це інше. Ось як ми можемо перетворити ці методи XAI на інтуїтивно зрозумілі шаблони проектування. Шаблон 1: Твердження «Тому що» (для важливості функції) Це найпростіший і часто найефективніший шаблон. Це пряма заява простою мовою, яка висвітлює основну причину дій ШІ.
Евристичний: Будьте прямими та лаконічними. Керуйте єдиною найбільш вагомою причиною. Будь-якою ціною уникайте жаргону.
Приклад: уявіть сервіс потокової передачі музики. Замість простого представлення списку відтворення «Discover Weekly», ви додаєте невеликий рядок мікрокопії. Рекомендована пісня: «Velvet Morning», тому що ви слухаєте «The Fuzz» та інший психоделічний рок.
Патерн 2: Інтерактив "Що, якщо" (для контрфактичних) Контрфактичні факти за своєю суттю пов’язані з розширенням можливостей. Найкращий спосіб представити їх – це дати користувачам інтерактивні інструменти для самостійного вивчення можливостей. Це ідеально підходить для фінансових, медичних або інших цільових програм.
Евристичний: Зробіть пояснення інтерактивними та надихаючими. Нехай користувачі бачать причинно-наслідковий зв’язок свого вибору.
Приклад: інтерфейс заявки на кредит. Після відмови замість глухого кута користувач отримує інструмент для визначення того, як можуть розгортатися різні сценарії (що-якщо) (див. малюнок 1).
Візерунок 3: Котушка для виділення (для місцевих пояснень) Коли штучний інтелект виконує дію з вмістом користувача (наприклад, підсумовує документ або ідентифікує обличчя на фотографіях), пояснення має бути візуально пов’язане з джерелом.
Евристичний: Використовуйте візуальні підказки, такі як виділення, контури або анотації, щоб зв’язати пояснення безпосередньо з елементом інтерфейсу, який воно пояснює.
Приклад: інструмент штучного інтелекту, який підсумовує довгі статті. Підсумок, згенерований штучним інтелектом: Початкове дослідження показало ринкову прогалину для екологічно чистих продуктів. Джерело в документі: «...Наш аналіз ринкових тенденцій за другий квартал остаточно продемонстрував, що жоден великий конкурент не обслуговував екологічно свідомих споживачів, виявивши значну ринкову прогалину для екологічно чистих продуктів...»
Патерн 4: Візуал Push-and-Pull (для пояснень на основі значень) Для більш складних рішень користувачам може знадобитися зрозуміти взаємодію факторів. Прості візуалізації даних можуть зробити це зрозумілим, не перевантажуючи.
Евристичний: Використовуйте прості візуалізації даних із кольоровим кодуванням (наприклад, гістограми), щоб показати фактори, які позитивно та негативно вплинули на рішення.
Приклад: штучний інтелект перевіряє профіль кандидата на вакансію. Чому цей кандидат відповідає на 75%: Чинники, що сприяють підвищенню оцінки: 5+ років досвіду досліджень UX Володіння Python Фактори, що знижують оцінку: Немає досвіду роботи з B2B SaaS
Вивчення та використання цих шаблонів проектування в UX вашого продукту ШІ допоможе підвищити зрозумілість. Ви також можете використовувати додаткові прийоми, які я не розглядаю тут детально. Це включає наступне:
Пояснення природною мовою: переклад технічних результатів штучного інтелекту на просту розмовну людську мову, яку можуть легко зрозуміти неексперти. Контекстуальні пояснення: надання обґрунтування виходу штучного інтелекту в певний момент і в конкретному місці, це найбільше відповідає завданню користувача. Релевантні візуалізації: використання діаграм, графіків або теплових карт для візуального представлення процесу прийняття рішень штучним інтелектом, що робить складні дані інтуїтивно зрозумілими та легшими для сприйняття користувачами.
Примітка для інтерфейсу: перетворення цих пояснювальних виходів у безперебійний досвід користувача також представляє свій набір технічних міркувань. Інтерфейсні розробники часто стикаються з дизайном API для ефективного отримання пояснювальних даних, а наслідки продуктивності (наприклад, створення пояснень у реальному часі для кожної взаємодії користувача) потребують ретельного планування, щоб уникнути затримок. Деякі реальні приклади UPS Capital DeliveryDefense UPS використовує штучний інтелект, щоб призначити «оцінку надійності доставки» адресам, щоб передбачити ймовірність викрадення посилки. Їх програмне забезпечення DeliveryDefense аналізує історичні дані про місцезнаходження, частоту втрат та інші фактори. Якщо адреса має низький бал, система може завчасно перенаправити пакунок до захищеної точки доступу UPS, надаючи пояснення рішення (наприклад, «Пакунок перенаправлено в безпечне місце через історію крадіжки»). Ця система демонструє, як XAI можна використовувати для зменшення ризиків і зміцнення довіри клієнтівпрозорість. Автономні транспортні засоби Ці транспортні засоби майбутнього повинні будуть ефективно використовувати XAI, щоб допомогти своїм транспортним засобам приймати безпечні та зрозумілі рішення. Коли безпілотний автомобіль раптово гальмує, система може в режимі реального часу пояснити його дії, наприклад, ідентифікуючи пішохода, який виходить на дорогу. Це має вирішальне значення не тільки для комфорту та довіри пасажирів, але й є нормативною вимогою для підтвердження безпеки та підзвітності системи ШІ. IBM Watson Health (і проблеми) Хоча його часто цитують як загальний приклад штучного інтелекту в охороні здоров’я, він також є цінним практичним дослідженням важливості XAI. Провал проекту Watson for Oncology підкреслює, що може піти не так, коли пояснення нечіткі, або коли базові дані упереджені чи не локалізовані. Рекомендації системи іноді не узгоджувалися з місцевою клінічною практикою, оскільки вони базувалися на рекомендаціях, орієнтованих на США. Це служить застереженням щодо необхідності надійної пояснюваності з урахуванням контексту. Роль дослідника UX: визначення та перевірка пояснень Наші дизайнерські рішення ефективні лише в тому випадку, якщо вони відповідають на правильні запитання користувачів у правильний час. Пояснення, яке відповідає на питання, якого користувач не має, є просто шумом. Саме тут дослідження UX стає критично важливою сполучною тканиною в стратегії XAI, гарантуючи, що ми пояснюємо, що і як це насправді важливо для наших користувачів. Роль дослідника подвійна: по-перше, інформувати про стратегію, визначаючи, де потрібні пояснення, і по-друге, перевіряти проекти, які надають ці пояснення. Інформування стратегії XAI (Що пояснити) Перш ніж ми зможемо розробити єдине пояснення, ми повинні зрозуміти ментальну модель системи ШІ користувача. У що вони вірять? Де прогалини між їхнім розумінням і реальністю системи? Це фундаментальна робота дослідника UX. Інтерв’ю з ментальними моделями: розпакування сприйняття систем ШІ користувачами Завдяки глибоким, напівструктурованим інтерв’ю фахівці UX можуть отримати безцінне розуміння того, як користувачі сприймають і розуміють системи ШІ. Ці сесії створені, щоб заохотити користувачів буквально намалювати або описати свою внутрішню «ментальну модель» того, як, на їхню думку, працює ШІ. Це часто передбачає постановки відкритих запитань, які спонукають користувачів пояснити логіку системи, її вхідні та вихідні дані, а також зв’язки між цими елементами. Ці інтерв’ю є потужними, оскільки вони часто розкривають глибокі помилки та припущення користувачів щодо ШІ. Наприклад, користувач, який взаємодіє з системою рекомендацій, може з упевненістю стверджувати, що система базується виключно на його минулій історії переглядів. Вони можуть не усвідомлювати, що алгоритм також включає в себе безліч інших факторів, таких як час доби, який вони переглядають, поточні тренди на платформі або навіть звички перегляду схожих користувачів. Виявлення цього розриву між ментальною моделлю користувача та фактичною логікою штучного інтелекту надзвичайно важливо. Він точно повідомляє, яку конкретну інформацію нам потрібно повідомити користувачам, щоб допомогти їм побудувати точнішу та надійнішу розумову модель системи. Це, у свою чергу, є фундаментальним кроком у зміцненні довіри. Коли користувачі розуміють, навіть на високому рівні, як штучний інтелект приходить до своїх висновків або рекомендацій, вони, швидше за все, довірятимуть його результатам і покладаються на його функціональність. AI Journey Mapping: глибоке занурення в довіру користувачів і пояснення Ретельно відображаючи шлях користувача за допомогою функції штучного інтелекту, ми отримуємо безцінне уявлення про точні моменти, коли виникають збентеження, розчарування чи навіть глибока недовіра. Це розкриває критичні моменти, коли ментальна модель користувача про те, як працює ШІ, суперечить його фактичній поведінці. Розглянемо послугу потокового передавання музики: чи різко падає довіра користувачів, коли рекомендація списку відтворення здається «випадковою», без будь-якого помітного зв’язку з їхніми минулими звичками слухання чи заявленими вподобаннями? Така сприймана випадковість є прямим викликом очікуванням користувача щодо інтелектуального курування та порушенням імпліцитної обіцянки, що ШІ розуміє їхні смаки. Подібним чином у додатку для керування фотографіями чи відчувають користувачі значне розчарування, коли функція позначення фото тегами AI постійно неправильно ідентифікує улюбленого члена сім’ї? Ця помилка є більш ніж технічним збоєм; це вражає в серце точністю, персоналізацією та навітьемоційний зв'язок. Ці больові точки є яскравими сигналами, які точно вказують, де потрібне чітке, чітке та стисле пояснення. Такі пояснення служать ключовими механізмами відновлення, виправляючи зловживання довірою, яке, якщо його не розглянути, може призвести до того, що користувач покине систему. Потужність картографування подорожей AI полягає в його здатності вивести нас за рамки простого пояснення кінцевого результату системи AI. Хоча розуміння того, що створив штучний інтелект, є важливим, але часто цього недостатньо. Натомість цей процес змушує нас зосередитися на поясненні процесу в критичні моменти. Це означає звернення до:
Чому було згенеровано певний вихід: чи було це пов’язано з певними вхідними даними? Конкретна архітектура моделі? Які фактори вплинули на рішення штучного інтелекту: певним функціям було надано більшу вагу? Як ШІ дійшов висновку: чи можемо ми запропонувати спрощене аналогічне пояснення його внутрішньої роботи? Які припущення зробив штучний інтелект: чи було неявне розуміння намірів користувача чи даних, які потрібно оприлюднити? У чому полягають обмеження штучного інтелекту: чітке повідомлення про те, чого штучний інтелект не може зробити або де його точність може коливатися, формує реалістичні очікування.
AI journey mapping перетворює абстрактну концепцію XAI на практичну, дієву структуру для практиків UX. Це дає нам змогу вийти за рамки теоретичних дискусій про пояснюваність і натомість визначити точні моменти, коли довіра користувачів поставлена на карту, надаючи необхідну інформацію для створення потужних, прозорих, зрозумілих і надійних засобів ШІ. Зрештою, дослідження — це те, як ми відкриваємо невідоме. Можливо, ваша команда обговорює, як пояснити, чому було відмовлено в кредиті, але дослідження може виявити, що користувачі набагато більше стурбовані розумінням того, як взагалі використовувалися їхні дані. Без досліджень ми просто здогадуємося, що цікавить наших користувачів. Співпраця над дизайном (як пояснити свій ШІ) Коли дослідження визначило, що потрібно пояснити, починається цикл співпраці з проектуванням. Дизайнери можуть створювати прототипи шаблонів, які ми обговорювали раніше — твердження «Тому що», інтерактивні повзунки — і дослідники можуть виставляти ці дизайни перед користувачами, щоб перевірити, чи вони витримають. Цільове тестування зручності використання та розуміння: ми можемо розробити дослідження, які спеціально тестуватимуть компоненти XAI. Ми не просто запитуємо: «Чи легко це використовувати?» Ми запитуємо: «Побачивши це, чи можете ви сказати мені своїми словами, чому система рекомендувала цей продукт?» або «Покажи мені, що б ти зробив, щоб побачити, чи міг би отримати інший результат». Мета тут полягає в тому, щоб виміряти розуміння та практичність, а також зручність використання. Вимірювання самої довіри: ми можемо використовувати прості опитування та шкали оцінок до та після показу пояснення. Наприклад, ми можемо запитати користувача за 5-бальною шкалою: «Наскільки ви довіряєте цій рекомендації?» перш ніж вони побачать вислів «Тому що», а потім запитайте їх знову. Це надає кількісні дані про те, чи насправді наші пояснення пересувають голку довіри. Цей процес створює потужний ітеративний цикл. Результати дослідження вказують на початковий дизайн. Цей дизайн потім тестується, а нові висновки повертаються команді дизайнерів для вдосконалення. Можливо, твердження «Тому що» було занадто жаргонним, або повзунок «Що, якщо» більше заплутував, ніж додавав можливостей. Завдяки цій спільній перевірці ми гарантуємо, що остаточні пояснення є технічно точними, справді зрозумілими, корисними та створюють довіру для людей, які використовують продукт. Зола Золотовласки Важливе застереження: можна надто пояснювати. Як у казці, де Золотолоска шукала кашу, яка була б «якраз», мета хорошого пояснення — надати потрібну кількість деталей — не надто багато і не надто мало. Бомбардування користувача кожною змінною в моделі призведе до когнітивного перевантаження та може фактично знизити довіру. Мета полягає не в тому, щоб зробити користувача науковцем з даних. Одним із рішень є поступове розкриття.
Почніть із простого. Наведіть стислий вислів «Тому що». Для більшості користувачів цього буде достатньо. Запропонуйте шлях до деталей. Надайте чітке посилання з низьким рівнем тертя, наприклад «Дізнайтеся більше» або «Подивіться, як це було визначено». Розкрийте складність. За цим посиланням ви можете запропонувати інтерактивні слайдери, візуалізації або детальніший список сприяючих факторів.
Цей багаторівневий підхід поважає увагу та досвід користувача, забезпечуючи потрібну кількістьінформації для своїх потреб. Уявімо, що ви використовуєте пристрій розумного будинку, який рекомендує оптимальне опалення на основі різних факторів. Почніть із простого: «Наразі ваш дім нагрівається до 72 градусів, що є оптимальною температурою для економії енергії та комфорту». Запропонуйте шлях до деталей: під ним маленьке посилання або кнопка: «Чому 72 градуси є оптимальним?» Розкрийте складність: натиснувши це посилання, можна відкрити новий екран із:
Інтерактивні повзунки зовнішньої температури, вологості та бажаного рівня комфорту демонструють, як вони регулюють рекомендовану температуру. Візуалізація споживання енергії при різних температурах. Список сприяючих факторів, як-от «Час доби», «Поточна зовнішня температура», «Історичне використання енергії» та «Датчики присутності».
Ефективно поєднувати кілька методів XAI, і цей шаблон «Зона пояснення Золотовласки», який виступає за поступове розкриття інформації, непрямо заохочує це. Ви можете почати з простого висловлювання «Тому що» (шаблон 1) для негайного розуміння, а потім запропонувати посилання «Дізнатися більше», яке розкриває інтерактивний елемент «Що, якщо» (шаблон 2) або «візуальний елемент Push-and-Pull» (шаблон 4) для глибшого вивчення. Наприклад, система заявки на позику може спочатку вказати основну причину відмови (важливість функції), потім дозволити користувачеві взаємодіяти з інструментом «Що, якщо», щоб побачити, як зміни в його доході чи боргу можуть змінити результат (контрфактичні), і, нарешті, надати детальну діаграму «Натисни й тягни» (пояснення на основі вартості), щоб проілюструвати позитивний і негативний внесок усіх факторів. Цей багаторівневий підхід дозволяє користувачам отримати доступ до необхідного рівня деталізації, коли їм це потрібно, запобігаючи когнітивному перевантаженню, забезпечуючи всебічну прозорість. Визначення того, які інструменти та методи XAI використовувати, є перш за все функцією ретельного дослідження UX. Інтерв’ю з ментальними моделями та картування шляхів штучного інтелекту мають вирішальне значення для точного визначення потреб користувачів і проблемних точок, пов’язаних із розумінням ШІ та довірою. Інтерв’ю з ментальними моделями допомагає виявити помилкові уявлення користувачів про те, як працює штучний інтелект, вказуючи на області, де потрібні фундаментальні пояснення (наприклад, важливість функцій або локальні пояснення). З іншого боку, картування подорожі ШІ визначає критичні моменти плутанини чи недовіри у взаємодії користувача з ШІ, сигналізуючи, де більш детальні чи інтерактивні пояснення (наприклад, контрфактичні чи пояснення на основі цінностей) будуть найбільш корисними для відновлення довіри та надання волі.
Зрештою, найкращий спосіб вибрати техніку – це дозволити дослідженню користувачів керувати вашими рішеннями, гарантуючи, що пояснення, які ви розробляєте, безпосередньо стосуються фактичних запитань і проблем користувачів, а не просто пропонують технічні деталі заради них самих. XAI для Deep Reasoning Agents Деякі з найновіших систем штучного інтелекту, відомих як агенти глибокого міркування, створюють чіткий «ланцюг думок» для кожного складного завдання. Вони не просто цитують джерела; вони показують логічний, крок за кроком шлях, яким вони дійшли до висновку. Хоча ця прозорість забезпечує цінний контекст, відтворення за відтворенням, яке охоплює кілька абзаців, може здатися приголомшливим для користувача, який просто намагається виконати завдання. Принципи XAI, особливо зони пояснення Золотовласки, застосовуються безпосередньо тут. Ми можемо курувати подорож, використовуючи поступове розкриття, щоб спочатку показати лише остаточний висновок і найважливіший крок у процесі мислення. Потім користувачі можуть вибрати повну, детальну багатоетапну аргументацію, коли їм потрібно ще раз перевірити логіку або знайти конкретний факт. Цей підхід привертає увагу користувача, зберігаючи повну прозорість агента. Подальші кроки: розширення можливостей вашої подорожі XAI Зрозумілість є фундаментальною опорою для створення надійних і ефективних продуктів ШІ. Для досвідченого фахівця, який бажає запровадити ці зміни у своїй організації, шлях виходить за межі шаблонів проектування до адвокації та постійного навчання. Щоб поглибити своє розуміння та практичне застосування, подумайте про вивчення ресурсів, таких як набір інструментів AI Explainability 360 (AIX360) від IBM Research або Google What-If Tool, які пропонують інтерактивні способи дослідження поведінки моделі та пояснень. Взаємодія з такими спільнотами, як Responsible AI Forum або певними дослідницькими групами, які зосереджені на людиноорієнтованому штучному інтелекті, може надати безцінне розуміння та можливості для співпраці. Нарешті, будьте захисником XAI у своїй організації.Зрозумілість кадрів як стратегічна інвестиція. Розгляньте коротку презентацію для свого керівництва або міжфункціональних команд: "Інвестуючи в XAI, ми вийдемо за рамки побудови довіри; ми прискоримо адаптацію користувачів, зменшимо витрати на підтримку, розширивши можливості користувачів із розумінням, і пом’якшимо значні етичні та регуляторні ризики, виявивши потенційні упередження. Це хороший дизайн і розумний бізнес".
Ваш голос, заснований на практичному розумінні, має вирішальне значення для виведення штучного інтелекту з чорної скриньки на співпрацю з користувачами.