В последното ми парче установихме основополагаща истина: за да могат потребителите да приемат и разчитат на AI, те трябва да му се доверят. Говорихме за това, че доверието е многостранна конструкция, изградена върху възприятията за способностите, доброжелателността, почтеността и предсказуемостта на ИИ. Но какво се случва, когато AI, в своята мълчалива, алгоритмична мъдрост, вземе решение, което оставя потребителя объркан, разочарован или дори наранен? Молба за ипотека е отхвърлена, любима песен внезапно отсъства от плейлист, а квалифицирана автобиография е отхвърлена, преди човек да я види. В тези моменти способността и предсказуемостта са разбити, а доброжелателността се чувства като свят далеч. Разговорът ни сега трябва да се развие от защо е доверието към това как е прозрачността. Полето на обяснимия изкуствен интелект (XAI), което се фокусира върху разработването на методи, които да направят резултатите от изкуствения интелект разбираеми за хората, се появи, за да се справи с това, но често се определя като чисто техническо предизвикателство за учените по данни. Твърдя, че това е критично предизвикателство при дизайна на продукти, разчитащи на AI. Нашата работа като UX професионалисти е да преодолеем празнината между алгоритмичното вземане на решения и човешкото разбиране. Тази статия предоставя практически, приложими насоки за това как да проучвате и проектирате за обяснимо. Ще преминем отвъд модните думи и ще преминем към макети, превеждайки сложни XAI концепции в конкретни дизайнерски модели, които можете да започнете да използвате днес. Демистифициране на XAI: Основни концепции за практикуващи UX XAI отговаря на въпроса на потребителя: „Защо?“ Защо ми беше показана тази реклама? Защо ми препоръчват този филм? Защо молбата ми беше отхвърлена? Мислете за това като за AI, който показва работата си по математически проблем. Без него просто имате отговор и сте принудени да го приемете на вяра. Показвайки стъпките, вие изграждате разбиране и доверие. Вие също позволявате вашата работа да бъде двойно проверена и проверена от самите хора, върху които тя въздейства. Значение на характеристиките и контрафакти Има редица техники, които можем да използваме, за да изясним или обясним какво се случва с AI. Докато методите варират от предоставяне на цялата логика на дървото на решенията до генериране на резюмета на естествен език на изхода, два от най-практичните и въздействащи типове информация, които практикуващите UX могат да въведат в едно изживяване, са важността на характеристиките (Фигура 1) и контрафактите. Те често са най-лесните за разбиране от потребителите и най-ефективните за изпълнение от дизайнерите.
Важност на функцията Този метод на обяснение отговаря на: „Кои бяха най-важните фактори, взети под внимание от ИИ?“ Става дума за идентифициране на първите 2-3 променливи, които са имали най-голямо влияние върху резултата. Това е заглавието, не цялата история. Пример: Представете си AI, който прогнозира дали клиентът ще се оттегли (отмени услугата си). Важността на функцията може да разкрие, че „броят обаждания за поддръжка през последния месец“ и „скорошните увеличения на цените“ са двата най-важни фактора при определяне дали има вероятност клиентът да се оттегли.
Контрафакти Този мощен метод отговаря на въпроса „Какво трябва да променя, за да получа различен резултат?“ Това е от решаващо значение, защото дава на потребителите усещане за свобода на действие. То трансформира разочароващото „не“ в действащо „още не“. Пример: Представете си система за кандидатстване за заем, която използва AI. На потребител е отказан заем. Вместо просто да видите „Заявлението е отказано“, съпоставителното обяснение също би споделило: „Ако вашият кредитен рейтинг беше с 50 точки по-висок или ако съотношението ви дълг към доход беше с 10% по-ниско, заемът ви щеше да бъде одобрен.“ Това дава на Сара ясни, приложими стъпки, които тя може да предприеме, за да получи потенциално заем в бъдеще.
Използване на моделни данни за подобряване на обяснението Въпреки че техническите специфики често се обработват от учени по данни, за практикуващите UX е полезно да знаят, че инструменти като LIME (Local Interpretable Model-agnostic Explanations), който обяснява индивидуалните прогнози чрез приближаване на модела локално, и SHAP (SHapley Additive ExPlanations), който използва подход на теория на игрите, за да обясни резултата от всеки модел на машинно обучение, обикновено се използват за извличане на тези „защо“ прозрения от сложни модели. Тези библиотеки по същество помагат да се разбие решението на AI да покаже кои входове са били най-влиятелни за даден резултат. Когато се направи правилно, данните, които стоят в основата на решението на AI инструмента, могат да се използват за разказване на мощна история. Нека да разгледаме важността на функциите и съпоставителните факти и да покажем как науката за данните зад решението може да се използва за подобряване на изживяването на потребителя. Сега некапокриване на важността на функцията с помощта на данни от локални обяснения (напр. LIME): Този подход отговаря на въпроса „Защо AI направи тази конкретна препоръка за мен точно сега?“ Вместо общо обяснение за това как работи моделът, той предоставя фокусирана причина за единичен, конкретен случай. Това е лично и контекстуално. Пример: Представете си базирана на AI система за препоръчване на музика като Spotify. Местно обяснение би отговорило: „Защо системата ви препоръча тази конкретна песен от Адел точно сега?“ Обяснението може да е: „Защото наскоро слушахте няколко други емоционални балади и песни от вокалистки.“
И накрая, нека да разгледаме включването на базирани на стойност обяснения (напр. данни от Shapley Additive Explanations (SHAP) към обяснение на решение: Това е по-нюансирана версия на важността на функцията, която отговаря: „Как всеки фактор е наложил решението по един или друг начин?“ Помага да се визуализира какво има значение и дали влиянието му е положително или отрицателно. Пример: Представете си, че банка използва AI модел, за да реши дали да одобри молба за кредит.
Важност на характеристиката: Резултатът от модела може да покаже, че кредитният рейтинг на кандидата, доходът и съотношението дълг към доход са били най-важните фактори при неговото решение. Това отговаря на това, което има значение. Важност на характеристиките с обяснения, базирани на стойности (SHAP): Стойностите на SHAP биха увеличили важността на характеристиките допълнително въз основа на елементи от модела.
За одобрен заем SHAP може да покаже, че високият кредитен рейтинг значително е тласнал решението към одобрение (положително влияние), докато малко по-високото от средното съотношение дълг/доход го е отдръпнало леко (отрицателно влияние), но не достатъчно, за да откаже заема. За отказан заем SHAP може да разкрие, че ниският доход и големият брой скорошни кредитни запитвания силно са тласнали решението към отказ, дори ако кредитният рейтинг е приличен.
Това помага на кредитния служител да обясни на кандидата извън това, което е взето предвид, как всеки фактор е допринесъл за крайното решение „да“ или „не“. От решаващо значение е да се признае, че способността да се предоставят добри обяснения често започва много по-рано в цикъла на разработка. Учените по данни и инженерите играят ключова роля, като умишлено структурират модели и канали за данни по начини, които по своята същност поддържат обяснимостта, вместо да се опитват да го завъртят като закъснение. Изследователските и дизайнерските екипи могат да насърчат това, като започнат ранни разговори с учени по данни и инженери относно нуждите на потребителите от разбиране, като допринесат за разработването на показатели за обяснимост и съвместно прототипират обяснения, за да гарантират, че те са едновременно точни и удобни за потребителя. XAI и етичен AI: Разопаковане на пристрастия и отговорност Освен изграждането на доверие, XAI играе критична роля в справянето с дълбоките етични последици от AI*, особено по отношение на алгоритмичните пристрастия. Техниките за обяснение, като например анализ на стойностите на SHAP, могат да разкрият дали решенията на модела са непропорционално повлияни от чувствителни атрибути като раса, пол или социално-икономически статус, дори ако тези фактори не са били изрично използвани като директни входни данни. Например, ако модел за одобрение на заеми последователно приписва отрицателни стойности на SHAP на кандидати от определена демографска група, това сигнализира за потенциално пристрастие, което се нуждае от разследване, което дава възможност на екипите да излязат наяве и да смекчат такива несправедливи резултати. Силата на XAI също идва с потенциала за „измиване на обяснимостта“. Точно както „зеленото измиване“ подвежда потребителите относно екологичните практики, измиването на обяснимостта може да възникне, когато обясненията са предназначени да замъглят, вместо да осветляват, проблемно алгоритмично поведение или присъщи пристрастия. Това може да се прояви като твърде опростени обяснения, които пропускат критични влияещи фактори, или обяснения, които стратегически рамкират резултатите така, че да изглеждат по-неутрални или справедливи, отколкото са в действителност. Той подчертава етичната отговорност на практикуващите UX да проектират обяснения, които са наистина прозрачни и проверими. UX професионалистите, в сътрудничество с учените по данни и етиците, носят ключова отговорност за съобщаването на причините за дадено решение, както и за ограниченията и потенциалните отклонения на основния модел на ИИ. Това включва задаване на реалистични потребителски очаквания относно точността на AI, идентифициране къде моделът може да е по-малко надежден и предоставяне на ясни канали за обжалване или обратна връзка, когато потребителите възприемат несправедливи или неправилни резултати. Проактивно справяне с тяхетичните измерения ще ни позволят да изградим AI системи, които са наистина справедливи и надеждни. От методи до макети: Практически модели за проектиране на XAI Познаването на концепциите е едно нещо; проектирането им е друго. Ето как можем да преведем тези XAI методи в интуитивни модели на проектиране. Модел 1: Твърдението „Защото“ (за важност на функцията) Това е най-простият и често най-ефективен модел. Това е директно изявление на ясен език, което извежда на повърхността основната причина за действието на ИИ.
Евристичен: Бъдете директни и кратки. Водете с единствената най-въздействаща причина. Избягвайте жаргона на всяка цена.
Пример: Представете си услуга за стрийминг на музика. Вместо просто да представяте плейлист „Discover Weekly“, вие добавяте малък ред микрокопие. Препоръка за песен: „Velvet Morning“ Защото слушате „The Fuzz“ и друг психеделичен рок.
Модел 2: Интерактивното „какво-ако“ (за контрафакти) Контрафактите по своята същност са за овластяване. Най-добрият начин да ги представите е като предоставите на потребителите интерактивни инструменти, за да изследват сами възможностите. Това е идеално за финансови, здравни или други целеви приложения.
Евристичен: Направете обясненията интерактивни и овластяващи. Позволете на потребителите да видят причината и следствието от своя избор.
Пример: интерфейс за кандидатстване за заем. След отказ, вместо задънена улица, потребителят получава инструмент, за да определи как могат да се развият различни сценарии (какво-ако) (вижте Фигура 1).
Модел 3: Макарата с акценти (за местни обяснения) Когато AI извършва действие върху съдържанието на потребител (като обобщаване на документ или идентифициране на лица в снимки), обяснението трябва да бъде визуално свързано с източника.
Евристичен: Използвайте визуални знаци като подчертаване, очертания или анотации, за да свържете обяснението директно с интерфейсния елемент, който обяснява.
Пример: AI инструмент, който обобщава дълги статии. Обобщена точка, генерирана от AI: Първоначалното проучване показа пазарна празнина за устойчиви продукти. Източник в документа: „...Нашият анализ на пазарните тенденции през второто тримесечие убедително демонстрира, че никой основен конкурент не обслужва ефективно екологично съзнателния потребител, разкривайки значителна пазарна празнина за устойчиви продукти...“
Модел 4: Натискане и издърпване Визуално (за обяснения, базирани на стойности) За по-сложни решения може да се наложи потребителите да разберат взаимодействието на факторите. Простите визуализации на данни могат да изяснят това, без да са претоварващи.
Евристичен: Използвайте прости, цветно кодирани визуализации на данни (като стълбови диаграми), за да покажете факторите, които са повлияли положително и отрицателно на решение.
Пример: AI проверява профила на кандидат за работа. Защо този кандидат отговаря на 75%: Фактори, повишаващи резултата: 5+ години опит в изследванията на UX Владеене на Python Фактори, намаляващи резултата: Няма опит с B2B SaaS
Изучаването и използването на тези дизайнерски модели в UX на вашия AI продукт ще помогне за увеличаване на обяснимостта. Можете също така да използвате допълнителни техники, които не разглеждам в дълбочина тук. Това включва следното:
Обяснения на естествен език: Превеждане на техническата продукция на AI на прост, разговорен човешки език, който неекспертите могат лесно да разберат. Контекстуални обяснения: Осигуряване на обосновка за изхода на AI в конкретен момент и местоположение, той е най-подходящ за задачата на потребителя. Подходящи визуализации: Използване на диаграми, графики или топлинни карти за визуално представяне на процеса на вземане на решения от AI, което прави сложните данни интуитивни и по-лесни за разбиране от потребителите.
Бележка за предния край: Превеждането на тези обясними изходи в безпроблемно потребителско изживяване също представя свой собствен набор от технически съображения. Предните разработчици често се борят с дизайна на API за ефективно извличане на данни за обяснение, а последиците за производителността (като генерирането на обяснения в реално време за всяко потребителско взаимодействие) се нуждаят от внимателно планиране, за да се избегне забавяне. Някои примери от реалния свят DeliveryDefense на UPS Capital UPS използва AI, за да присвои „резултат за сигурност на доставката“ на адресите, за да предскаже вероятността даден пакет да бъде откраднат. Техният софтуер DeliveryDefense анализира исторически данни за местоположение, честота на загуби и други фактори. Ако даден адрес има нисък резултат, системата може проактивно да пренасочи пакета към защитена точка за достъп на UPS, предоставяйки обяснение за решението (напр. „Пакетът е пренасочен към сигурно място поради история на кражба“). Тази система демонстрира как XAI може да се използва за смекчаване на риска и изграждане на доверие на клиентитепрозрачност. Автономни превозни средства Тези превозни средства на бъдещето ще трябва ефективно да използват XAI, за да помогнат на превозните си средства да вземат безопасни, обясними решения. Когато самоуправляваща се кола внезапно спре, системата може да предостави обяснение в реално време за действието си, например като идентифицира пешеходец, който стъпва на пътя. Това е не само от решаващо значение за комфорта и доверието на пътниците, но е регулаторно изискване за доказване на безопасността и отчетността на системата с изкуствен интелект. IBM Watson Health (и неговите предизвикателства) Въпреки че често се цитира като общ пример за AI в здравеопазването, това също е ценен казус за значението на XAI. Провалът на проекта Watson for Oncology подчертава какво може да се обърка, когато обясненията не са ясни или когато основните данни са предубедени или не са локализирани. Препоръките на системата понякога бяха несъвместими с местните клинични практики, тъй като се основаваха на насоки, ориентирани към САЩ. Това служи като предупредителна история за необходимостта от стабилна, съобразена с контекста обяснимост. Ролята на UX изследователя: определяне и валидиране на обяснения Нашите дизайнерски решения са ефективни само ако отговарят на правилните потребителски въпроси в точното време. Обяснение, което отговаря на въпрос, който потребителят няма, е просто шум. Това е мястото, където изследването на UX се превръща в критичната съединителна тъкан в стратегията на XAI, като гарантира, че обясняваме какво и как това всъщност има значение за нашите потребители. Ролята на изследователя е двойна: първо, да информира стратегията, като идентифицира къде са необходими обяснения, и второ, да валидира дизайните, които предоставят тези обяснения. Информиране на стратегията XAI (какво да се обясни) Преди да можем да създадем едно обяснение, трябва да разберем менталния модел на системата на AI на потребителя. Какво вярват, че прави? Къде са пропуските между тяхното разбиране и реалността на системата? Това е основополагащата работа на UX изследовател. Интервюта с ментални модели: Разопаковане на потребителските възприятия на AI системите Чрез задълбочени, полуструктурирани интервюта, практикуващите UX могат да получат безценна представа за това как потребителите възприемат и разбират AI системите. Тези сесии са предназначени да насърчат потребителите буквално да нарисуват или опишат своя вътрешен „ментален модел“ за това как вярват, че работи AI. Това често включва задаване на отворени въпроси, които карат потребителите да обяснят логиката на системата, нейните входове и изходи, както и връзките между тези елементи. Тези интервюта са силни, защото често разкриват дълбоки погрешни схващания и предположения, които потребителите поддържат относно ИИ. Например, потребител, взаимодействащ с машина за препоръки, може уверено да твърди, че системата се основава единствено на тяхната минала хронология на гледане. Те може да не осъзнаят, че алгоритъмът също така включва множество други фактори, като времето от деня, в което сърфират, текущите тенденции в платформата или дори навиците за гледане на подобни потребители. Разкриването на тази празнина между менталния модел на потребителя и действителната основна логика на ИИ е изключително важно. Той ни казва точно каква конкретна информация трябва да съобщим на потребителите, за да им помогнем да изградят по-точен и стабилен умствен модел на системата. Това от своя страна е основна стъпка за насърчаване на доверието. Когато потребителите разберат, дори на високо ниво, как AI стига до своите заключения или препоръки, те са по-склонни да се доверят на неговите резултати и да разчитат на неговата функционалност. AI Journey Mapping: Дълбоко гмуркане в потребителското доверие и обяснимостта Чрез прецизно картографиране на пътуването на потребителя с функция, задвижвана от AI, ние получаваме безценна представа за точните моменти, в които възниква объркване, разочарование или дори дълбоко недоверие. Това разкрива критични моменти, при които умственият модел на потребителя за това как работи AI се сблъсква с действителното му поведение. Помислете за услуга за стрийминг на музика: пада ли рязко доверието на потребителя, когато препоръката за плейлист изглежда „случайна“, без каквато и да е забележима връзка с техните минали навици на слушане или заявени предпочитания? Тази възприемана случайност е пряко предизвикателство към очакванията на потребителя за интелигентно куриране и нарушение на имплицитното обещание, че AI разбира техния вкус. По същия начин, в приложение за управление на снимки, потребителите изпитват ли значително разочарование, когато функция за маркиране на снимки с изкуствен интелект постоянно идентифицира погрешно любим член на семейството? Тази грешка е повече от технически проблем; удря в сърцето на точността, персонализирането и дориемоционална връзка. Тези болезнени точки са ярки сигнали, показващи точно къде е необходимо добре поставено, ясно и кратко обяснение. Такива обяснения служат като решаващи механизми за поправка, коригиращи нарушаване на доверието, което, ако не бъде адресирано, може да доведе до изоставяне на потребителя. Силата на картографирането на пътуване с изкуствен интелект се крие в способността му да ни премести отвъд простото обяснение на крайния резултат от една система с изкуствен интелект. Докато разбирането на това, което AI е произвел, е важно, то често е недостатъчно. Вместо това този процес ни принуждава да се съсредоточим върху обяснението на процеса в критични моменти. Това означава адресиране на:
Защо е генериран конкретен изход: Дали се дължи на специфични входни данни? Архитектура на конкретен модел? Какви фактори са повлияли на решението на AI: Дали някои характеристики са били натоварени с по-голяма тежест? Как AI стигна до заключението си: Можем ли да предложим опростено, аналогично обяснение на вътрешната му работа? Какви предположения направи AI: Имаше ли имплицитни разбирания за намерението на потребителя или данни, които трябва да бъдат изведени? Какви са ограниченията на AI: Ясното съобщаване на това, което AI не може да направи или къде неговата точност може да се колебае, изгражда реалистични очаквания.
AI journey mapping трансформира абстрактната концепция на XAI в практична, действаща рамка за практикуващите UX. Това ни позволява да преминем отвъд теоретичните дискусии за обяснимостта и вместо това да посочим точните моменти, в които е заложено доверието на потребителите, предоставяйки необходимите прозрения за изграждане на AI преживявания, които са мощни, прозрачни, разбираеми и надеждни. В крайна сметка изследванията са начинът, по който разкриваме неизвестните. Вашият екип може да обсъжда как да обясни защо е бил отказан заем, но изследването може да разкрие, че потребителите са много по-загрижени да разберат как техните данни са били използвани на първо място. Без проучване, ние просто предполагаме какво се чудят нашите потребители. Сътрудничество при дизайна (Как да обясните своя AI) След като изследването установи какво да се обясни, започва цикълът на сътрудничество с дизайна. Дизайнерите могат да създават прототипи на моделите, които обсъдихме по-рано – изявлението „Защото“, интерактивните плъзгачи – и изследователите могат да поставят тези дизайни пред потребителите, за да видят дали издържат. Целенасочено тестване за използваемост и разбиране: Можем да проектираме изследователски проучвания, които конкретно тестват компонентите на XAI. Ние не просто питаме „Лесно ли е за използване?“ Питаме: „След като видяхте това, можете ли да ми кажете със собствените си думи защо системата препоръча този продукт?“ или „Покажете ми какво бихте направили, за да видите дали можете да получите различен резултат.“ Целта тук е да се измери разбирането и възможността за действие, заедно с използваемостта. Измерване на самото доверие: Можем да използваме прости проучвания и скали за оценка преди и след показване на обяснение. Например, можем да попитаме потребител по 5-степенна скала: „До колко вярвате на тази препоръка?“ преди да видят изявлението „Защото“, и след това ги попитайте отново след това. Това предоставя количествени данни за това дали нашите обяснения всъщност движат иглата на доверието. Този процес създава мощен итеративен цикъл. Резултатите от изследването информират първоначалния дизайн. След това този дизайн се тества и новите открития се изпращат обратно на дизайнерския екип за усъвършенстване. Може би изявлението „Защото“ беше твърде жаргонизъм или плъзгачът „Какво-ако“ беше по-скоро объркващ, отколкото овластяващ. Чрез това съвместно валидиране ние гарантираме, че крайните обяснения са технически точни, наистина разбираеми, полезни и изграждащи доверие за хората, използващи продукта. Зоната на обяснението на Златокоска Едно критично предупреждение: възможно е прекалено обяснение. Както в приказката, където Златокоска търси овесената каша, която е „точно подходяща“, целта на доброто обяснение е да предостави точното количество подробности – нито твърде много, нито твърде малко. Бомбардирането на потребител с всяка променлива в модела ще доведе до когнитивно претоварване и всъщност може да намали доверието. Целта не е потребителят да се превърне в специалист по данни. Едно решение е прогресивното разкриване.
Започнете с простото. Водете със сбито изявление „Защото“. За повечето потребители това ще бъде достатъчно. Предложете път към детайла. Осигурете ясна връзка с ниско триене като „Научете повече“ или „Вижте как е определено това“. Разкрийте сложността. Зад тази връзка можете да предложите интерактивните плъзгачи, визуализациите или по-подробен списък с допринасящи фактори.
Този многослоен подход зачита вниманието и експертизата на потребителя, осигурявайки точното количествоинформация за техните нужди. Нека си представим, че използвате устройство за интелигентен дом, което препоръчва оптимално отопление въз основа на различни фактори. Започнете с простото: „Домът ви в момента се отоплява до 72 градуса, което е оптималната температура за спестяване на енергия и комфорт.“ Предложете път към детайлите: Под това малка връзка или бутон: „Защо 72 градуса е оптимално?“ Разкрийте сложността: Щракването върху тази връзка може да отвори нов екран, показващ:
Интерактивни плъзгачи за външна температура, влажност и предпочитаното ниво на комфорт, демонстриращи как те регулират препоръчителната температура. Визуализация на консумацията на енергия при различни температури. Списък с допринасящи фактори като „Час на деня“, „Текуща външна температура“, „Историческо потребление на енергия“ и „Сензори за заетост“.
Ефективно е да се комбинират множество XAI методи и този модел на Зоната на обяснение на Златокоска, който се застъпва за прогресивно разкриване, имплицитно насърчава това. Може да започнете с просто изявление „Защото“ (Образец 1) за незабавно разбиране и след това да предложите връзка „Научете повече“, която разкрива интерактивно „Какво-ако“ (Образец 2) или „Визуално изображение за натискане и издърпване“ (Образец 4) за по-задълбочено изследване. Например, системата за кандидатстване за заем може първоначално да посочи основната причина за отказ (важност на функцията), след това да позволи на потребителя да взаимодейства с инструмента „Какво ако“, за да види как промените в доходите или дълга му биха променили резултата (съпоставителни факти), и накрая да предостави подробна диаграма „Натискане и издърпване“ (обяснение, базирано на стойност), за да илюстрира положителните и отрицателните приноси на всички фактори. Този многослоен подход позволява на потребителите да получат достъп до нивото на детайлност, от което се нуждаят, когато имат нужда, предотвратявайки когнитивното претоварване, като същевременно осигурява цялостна прозрачност. Определянето кои инструменти и методи на XAI да се използват е преди всичко функция на задълбочено UX проучване. Интервютата с ментални модели и картографирането на пътуването на AI са от решаващо значение за определяне на нуждите на потребителите и болезнените точки, свързани с разбирането и доверието на AI. Интервютата с ментални модели помагат да се разкрият погрешните схващания на потребителите относно това как работи AI, като се посочват области, където са необходими фундаментални обяснения (като важност на характеристиките или местни обяснения). Картографирането на пътуването на AI, от друга страна, идентифицира критични моменти на объркване или недоверие във взаимодействието на потребителя с AI, сигнализирайки къде по-подробни или интерактивни обяснения (като съпоставителни или базирани на стойност обяснения) биха били най-полезни за възстановяване на доверието и предоставяне на свобода на действие.
В крайна сметка, най-добрият начин да изберете техника е да оставите потребителското проучване да ръководи решенията ви, като гарантирате, че обясненията, които проектирате, адресират директно действителните потребителски въпроси и притеснения, вместо просто да предлагат технически подробности заради тях самите. XAI за агенти за дълбоко разсъждение Някои от най-новите AI системи, известни като агенти за дълбоко разсъждение, произвеждат ясна „верига от мисли“ за всяка сложна задача. Те не просто цитират източници; те показват логичния път стъпка по стъпка, по който са стигнали до заключение. Въпреки че тази прозрачност осигурява ценен контекст, игра по игра, която обхваща няколко абзаца, може да се почувства непосилна за потребител, който просто се опитва да изпълни задача. Принципите на XAI, особено Зоната на обяснение на Златокоска, се прилагат директно тук. Можем да организираме пътуването, като използваме прогресивно разкриване, за да покажем първо само окончателното заключение и най-важната стъпка в мисловния процес. След това потребителите могат да се включат, за да видят пълното, подробно, многоетапно разсъждение, когато трябва да проверят отново логиката или да намерят конкретен факт. Този подход зачита вниманието на потребителя, като същевременно запазва пълната прозрачност на агента. Следващи стъпки: Овластяване на вашето XAI пътуване Обяснимостта е основен стълб за изграждане на надеждни и ефективни AI продукти. За напредналите практикуващи, които искат да стимулират тази промяна в своята организация, пътуването се простира отвъд моделите на проектиране до застъпничество и непрекъснато обучение. За да задълбочите разбирането и практическото си приложение, помислете за проучване на ресурси като набора от инструменти AI Explainability 360 (AIX360) от IBM Research или инструмента What-If на Google, които предлагат интерактивни начини за изследване на поведението и обясненията на модела. Ангажирането с общности като Responsible AI Forum или специфични изследователски групи, фокусирани върху ориентирания към човека AI, може да осигури безценни прозрения и възможности за сътрудничество. И накрая, бъдете защитник на XAI в собствената си организация.Обяснимостта на рамката като стратегическа инвестиция. Помислете за кратко представяне на вашето ръководство или междуфункционални екипи: "Инвестирайки в XAI, ние ще надхвърлим изграждането на доверие; ще ускорим приемането от страна на потребителите, ще намалим разходите за поддръжка, като дадем възможност на потребителите с разбиране и смекчим значителни етични и регулаторни рискове чрез излагане на потенциални пристрастия. Това е добър дизайн и интелигентен бизнес."
Вашият глас, основан на практическо разбиране, е от решаващо значение за извеждането на AI от черната кутия и в партньорство за сътрудничество с потребителите.