Во мојот последен дел, ја утврдивме основната вистина: за корисниците да ја усвојат и да се потпрат на вештачката интелигенција, мора да и веруваат. Зборувавме дека довербата е повеќеслојна конструкција, изградена врз перцепциите за способноста, добронамерноста, интегритетот и предвидливоста на вештачката интелигенција. Но, што се случува кога вештачката интелигенција, во својата тивка, алгоритамска мудрост, ќе донесе одлука што го остава корисникот збунет, фрустриран или дури и повреден? Апликацијата за хипотека е одбиена, омилената песна одеднаш отсуствува од плејлистата, а квалификуваната биографија е одбиена пред некој човек да ја види. Во овие моменти, способноста и предвидливоста се скршени, а добронамерноста се чувствува како свет далеку. Нашиот разговор сега мора да еволуира од зошто на доверба до како на транспарентност. Областа на објаснета вештачка интелигенција (XAI), која се фокусира на развивање методи за да ги направи резултатите од вештачката интелигенција разбирливи за луѓето, се појави за да се справи со ова, но тоа често е врамено како чисто технички предизвик за научниците за податоци. Тврдам дека тоа е критичен предизвик за дизајн за производи кои се потпираат на вештачка интелигенција. Наша работа како UX професионалци е да го премостиме јазот помеѓу алгоритамското одлучување и човечкото разбирање. Оваа статија дава практични, акциони насоки за тоа како да се истражува и дизајнира за објаснување. Ќе преминеме подалеку од клучните зборови и ќе ги преточиме сложените концепти на XAI во конкретни модели за дизајн што можете да започнете да ги користите денес. Де-мистифицирачки XAI: Основни концепти за UX практичари XAI е да одговори на прашањето на корисникот: „Зошто? Зошто ми беше прикажан овој оглас? Зошто ми се препорачува овој филм? Зошто моето барање беше одбиено? Сфатете го тоа како вештачката интелигенција што ја покажува својата работа на математички проблем. Без него, вие само имате одговор и сте принудени да го прифатите со вера. При прикажувањето на чекорите, вие градите разбирање и доверба. Вие исто така дозволувате вашата работа да биде двојно проверена и потврдена од самите луѓе на кои влијае. Важност на одликата и контрафакти Постојат голем број техники што можеме да ги користиме за да разјасниме или објасниме што се случува со вештачката интелигенција. Додека методите се движат од обезбедување на целата логика на стебло на одлуки до генерирање на природен јазик резимеа на излезот, два од најпрактичните и највлијателните типови на информации кои практикантите на UX можат да ги воведат во искуството се важноста на карактеристиките (слика 1) и контрафактите. Овие често се наједноставните за корисниците да ги разберат и најприменливите за дизајнерите да ги имплементираат.
Важност на карактеристиката Овој метод на објаснување одговара: „Кои беа најважните фактори што ги разгледа вештачката интелигенција? Станува збор за идентификување на првите 2-3 променливи кои имаа најголемо влијание врз исходот. Тоа е насловот, а не целата приказна. Пример: Замислете вештачка интелигенција која предвидува дали клиентот ќе се разнежни (откажи нивната услуга). Важноста на карактеристиките може да открие дека „бројот на повици за поддршка во минатиот месец“ и „неодамнешните зголемувања на цените“ се двата најважни фактори за одредување дали клиентот најверојатно ќе се разбие.
Контрафактуали Овој моќен метод одговара: „Што би требало да сменам за да добијам поинаков исход? Ова е клучно бидејќи на корисниците им дава чувство на агенција. Тоа го трансформира фрустрирачкото „не“ во акционално „сè уште не“. Пример: Замислете систем за апликација за заем кој користи вештачка интелигенција. На корисникот му е одбиен заем. Наместо само да се види „Апликацијата е одбиена“, исто така би се споделило контрафактно објаснување: „Ако вашиот кредитен резултат беше 50 поени повисок или ако односот долг кон приход беше 10% помал, вашиот заем ќе беше одобрен“. Ова и дава на Сара јасни, акциони чекори што може да ги преземе за потенцијално да добие заем во иднина.
Користење на податоци за моделот за подобрување на објаснувањето Иако техничките специфики често се ракуваат од страна на научниците за податоци, корисно е за практичарите на UX да знаат дека алатките како LIME (локален интерпретабилен модел-агностички објаснувања) кои ги објаснуваат индивидуалните предвидувања со приближување на моделот локално и SHAP (SHapley Additive Explanations) кои користат пристап на теоријата на играта за да го објаснат секој искористен исход од машинското учење. комплексни модели. Овие библиотеки во суштина помагаат да се разбие одлуката на вештачката интелигенција да покаже кои влезови биле највлијателни за даден исход. Кога се прави правилно, податоците што се во основата на одлуката на алатката за вештачка интелигенција може да се користат за да се раскаже моќна приказна. Ајде да одиме низ важноста на карактеристиките и контрафактите и да покажеме како науката за податоци зад одлуката може да се искористи за да се подобри искуството на корисникот. Сега ајдепокријте ја важноста на функцијата со помош на податоци за локални објаснувања (на пр., LIME): Овој пристап одговара: „Зошто вештачката интелигенција ја даде оваа специфична препорака за мене, токму сега?“ Наместо општо објаснување за тоа како функционира моделот, тој дава фокусирана причина за еден, специфичен пример. Тоа е лично и контекстуално. Пример: Замислете систем за препораки за музика напојуван со вештачка интелигенција како Spotify. Локално објаснување би одговорило: „Зошто системот ви ја препорача оваа специфична песна на Адел токму сега?“ Објаснувањето може да биде: „Затоа што неодамна слушавте неколку други емотивни балади и песни од женски вокалисти“.
Конечно, ајде да го покриеме вклучувањето на објаснувања засновани на вредност (на пр. податоци за објаснувања за додавање на Шејпли (SHAP) до објаснување на некоја одлука: ова е понијансана верзија на важноста на функцијата која одговара: „Како секој фактор ја притисна одлуката на еден или на друг начин?“ Помага да се визуелизира што е важно и дали неговото влијание било позитивно или негативно. Пример: Замислете банка користи модел на вештачка интелигенција за да одлучи дали да одобри барање за заем.
Важност на карактеристиката: Излезот на моделот може да покаже дека кредитниот рејтинг, приходот и односот долг/приход на апликантот биле најважните фактори во неговата одлука. Ова одговара на она што е важно. Важност на карактеристиката со објаснувања засновани на вредност (SHAP): вредностите на SHAP ќе ја земат важноста на карактеристиката дополнително врз основа на елементите на моделот.
За одобрен заем, SHAP може да покаже дека високата кредитна оценка значително ја турна одлуката кон одобрување (позитивно влијание), додека соодносот долг/приход малку повисок од просечниот го повлече малку подалеку (негативно влијание), но не доволно за да се одбие заемот. За одбиен заем, SHAP може да открие дека нискиот приход и големиот број неодамнешни барања за кредит силно ја туркале одлуката кон одбивање, дури и ако кредитниот резултат е пристоен.
Ова му помага на службеникот за заем да му објасни на апликантот надвор од она што беше разгледано, како секој фактор придонел за конечната одлука „да“ или „не“. Од клучно значење е да се препознае дека способноста за давање добри објаснувања често започнува многу порано во развојниот циклус. Научниците и инженерите за податоци играат клучна улога со намерно структурирање на моделите и цевководите за податоци на начини кои инхерентно ја поддржуваат објаснливоста, наместо да се обидуваат да ја заврткаат како последователна мисла. Тимовите за истражување и дизајн може да го поттикнат ова со иницирање рани разговори со научниците и инженерите за податоци за потребите на корисниците за разбирање, придонесувајќи за развој на метрика за објаснување и заеднички прототип на објаснувања за да се осигури дека тие се точни и прифатливи за корисниците. XAI и етичка вештачка интелигенција: Отпакување на пристрасност и одговорност Надвор од градењето доверба, XAI игра клучна улога во решавањето на длабоките етички импликации на AI*, особено во однос на алгоритамската пристрасност. Техниките за објаснување, како што е анализата на вредностите на SHAP, може да откријат дали одлуките на моделот се несразмерно под влијание на чувствителни атрибути како раса, пол или социоекономски статус, дури и ако овие фактори не биле експлицитно користени како директни влезови. На пример, ако моделот за одобрување заем постојано доделува негативни вредности на SHAP на апликантите од одредена демографска слика, тој сигнализира потенцијална пристрасност за која е потребна истрага, овластувајќи ги тимовите да излезат на површина и да ги ублажат таквите нефер исходи. Моќта на XAI, исто така, доаѓа со потенцијал за „објасниво перење“. Исто како што „зелено перење“ ги доведува потрошувачите во заблуда за еколошките практики, може да се случи перење со објаснување кога објаснувањата се дизајнирани да го прикријат, наместо да го осветлуваат, проблематичното алгоритамско однесување или инхерентните предрасуди. Ова може да се манифестира како премногу поедноставени објаснувања кои ги испуштаат критичните фактори на влијание или објаснувања кои стратешки ги обликуваат резултатите да изгледаат понеутрални или праведни отколку што навистина се. Ја нагласува етичката одговорност на практичарите на UX да дизајнираат објаснувања кои се вистински транспарентни и проверливи. Професионалците за UX, во соработка со научниците за податоци и етичарите, имаат клучна одговорност во соопштувањето на причините за одлуката, како и за ограничувањата и потенцијалните предрасуди на основниот модел на вештачка интелигенција. Ова вклучува поставување на реални кориснички очекувања за точноста на вештачката интелигенција, идентификување каде моделот може да биде помалку сигурен и обезбедување јасни канали за прибегнување или повратни информации кога корисниците ќе забележат нефер или неточни резултати. Проактивно решавање на овиеетичките димензии ќе ни овозможат да изградиме системи за вештачка интелигенција кои се навистина праведни и доверливи. Од методи до макети: практични модели на дизајн на XAI Познавањето на концептите е една работа; нивното дизајнирање е друго. Еве како можеме да ги преведеме овие XAI методи во интуитивни модели на дизајн. Шема 1: Изјава „Затоа што“ (за важноста на функцијата) Ова е наједноставниот и често најефективниот модел. Тоа е директна изјава на обичен јазик што ја покажува главната причина за дејството на вештачката интелигенција.
Евристичко: Бидете директни и концизни. Водете со единствената највлијателна причина. Избегнувајте жаргон по секоја цена.
Пример: Замислете услуга за стриминг музика. Наместо само да презентирате плејлиста „Discover Weekly“, додавате мала линија на микрокопија. Препорака за песна: „Velvet Morning“Затоа што слушате „The Fuzz“ и друг психоделичен рок.
Шема 2: Интерактивната „Што-Ако“ (за контрафакти) Контрафактите се инхерентно за зајакнување. Најдобар начин да ги претставите е да им дадете на корисниците интерактивни алатки за самите да ги истражуваат можностите. Ова е совршено за финансиски, здравствени или други цели ориентирани апликации.
Евристичко: Направете објаснувањата да бидат интерактивни и охрабрувачки. Дозволете им на корисниците да ја видат причината и последицата од нивниот избор.
Пример: Интерфејс за апликација за заем. По одбивањето, наместо ќорсокак, корисникот добива алатка за одредување како може да се одвиваат различни сценарија (што-ако) (види слика 1).
Шема 3: Макара за нагласување (за локални објаснувања) Кога вештачката интелигенција врши дејство на содржината на корисникот (како што е сумирање документ или идентификување лица на фотографии), објаснувањето треба визуелно да се поврзе со изворот.
Хеуристичко: Користете визуелни знаци како што се истакнување, контури или прибелешки за да го поврзете објаснувањето директно со елементот на интерфејсот што го објаснува.
Пример: Алатка за вештачка интелигенција која резимира долги написи. Точка за резиме генерирана од вештачка интелигенција: Почетното истражување покажа пазарна празнина за одржливи производи.
Шема 4: Визуелен притисни и повлечен (за објаснувања засновани на вредност) За посложени одлуки, корисниците можеби ќе треба да ја разберат интеракцијата на факторите. Едноставните визуелизации на податоци можат да го разјаснат ова без да бидат огромни.
Хеуристички: Користете едноставни визуелизации на податоци кодирани во боја (како столбест дијаграми) за да ги прикажете факторите кои позитивно и негативно влијаеле на одлуката.
Пример: вештачка интелигенција го проверува профилот на кандидатот за работа. Зошто овој кандидат одговара 75%: Фактори кои го зголемуваат резултатот: 5+ години Искуство во UX Истражување Добро во PythonФактори кои го намалуваат резултатот: Нема искуство со B2B SaaS
Учењето и користењето на овие модели на дизајн во UX на вашиот производ со вештачка интелигенција ќе помогне да се зголеми објаснувањето. Можете исто така да користите дополнителни техники што не ги покривам длабински овде. Ова го вклучува следново:
Објаснувања на природен јазик: Преведување на техничкиот резултат на вештачката интелигенција на едноставен, разговорен човечки јазик што неекспертите лесно можат да го разберат. Контекстуални објаснувања: Обезбедувањето образложение за излезот на вештачката интелигенција во конкретниот момент и локација, тоа е најрелевантно за задачата на корисникот. Релевантни визуелизации: Користење графикони, графикони или топлински мапи за визуелно претставување на процесот на донесување одлуки на вештачката интелигенција, што ги прави сложените податоци интуитивни и полесни за разбирање за корисниците.
Забелешка за предниот дел: Преведувањето на овие резултати за објаснување во беспрекорни кориснички искуства, исто така, претставува свој сет на технички размислувања. Програмерите од предниот дел често се справуваат со дизајнот на API за ефикасно да ги преземат податоците за објаснување, а импликациите за изведбата (како генерирањето објаснувања во реално време за секоја интеракција со корисникот) бараат внимателно планирање за да се избегне латентност. Некои примери од реалниот свет UPS Capital's DeliveryDefense UPS користи вештачка интелигенција за да додели „оценка за доверливост за испорака“ на адресите за да ја предвиди веројатноста за украден пакет. Нивниот софтвер DeliveryDefense ги анализира историските податоци за локацијата, зачестеноста на загубите и други фактори. Ако адресата има низок резултат, системот може проактивно да го пренасочи пакетот до безбедна пристапна точка на UPS, давајќи објаснување за одлуката (на пр., „Пакетот е пренасочен на безбедна локација поради историја на кражба“). Овој систем покажува како XAI може да се користи за ублажување на ризикот и градење доверба на клиентите прекутранспарентност. Автономни возила Овие возила од иднината ќе треба ефективно да го користат XAI за да им помогнат на нивните возила да донесуваат сигурни, објаснети одлуки. Кога самоуправувачки автомобил ненадејно сопира, системот може да даде објаснување во реално време за неговото дејство, на пример, со идентификување на пешак кој зачекори на патот. Ова не е само клучно за удобноста и довербата на патниците, туку е регулаторно барање за докажување на безбедноста и одговорноста на системот за вештачка интелигенција. IBM Watson Health (и неговите предизвици) Иако често се наведува како општ пример за вештачка интелигенција во здравството, тоа е исто така вредна студија на случај за важноста на XAI. Неуспехот на неговиот проект Watson за онкологија нагласува што може да тргне наопаку кога објаснувањата не се јасни или кога основните податоци се пристрасни или не се локализирани. Препораките на системот понекогаш беа неконзистентни со локалните клинички практики, бидејќи тие беа засновани на упатства насочени кон САД. Ова служи како предупредувачка приказна за потребата од робусна, контекстосвесна објаснување. Улогата на истражувачот UX: прецизно одредување и потврдување на објаснувањата Нашите дизајнерски решенија се ефективни само ако ги решаваат вистинските кориснички прашања во вистинско време. Објаснувањето што одговара на прашање што корисникот го нема е само бучава. Ова е местото каде што UX истражувањето станува критично сврзно ткиво во стратегијата XAI, осигурувајќи дека објаснуваме што и како тоа всушност е важно за нашите корисници. Улогата на истражувачот е двојна: прво, да ја информира стратегијата со тоа што ќе идентификува каде се потребни објаснувања и второ, да ги потврди дизајните што ги даваат тие објаснувања. Информирање на стратегијата XAI (што да се објасни) Пред да можеме да дизајнираме едно објаснување, мора да го разбереме менталниот модел на корисникот на системот за вештачка интелигенција. Што веруваат дека тоа го прави? Каде се празнините помеѓу нивното разбирање и реалноста на системот? Ова е основна работа на истражувач на UX. Интервјуа со ментален модел: Отпакување на перцепциите на корисниците за системи за вештачка интелигенција Преку длабоки, полуструктурирани интервјуа, практикантите на UX можат да добијат непроценлив увид за тоа како корисниците ги перцепираат и разбираат системите за вештачка интелигенција. Овие сесии се дизајнирани да ги охрабрат корисниците буквално да го нацртаат или опишат нивниот внатрешен „ментален модел“ за тоа како веруваат дека функционира вештачката интелигенција. Ова често вклучува поставување отворени прашања што ги поттикнуваат корисниците да ја објаснат логиката на системот, неговите влезови и излези, како и односите помеѓу овие елементи. Овие интервјуа се моќни затоа што често откриваат длабоки заблуди и претпоставки што ги имаат корисниците за вештачката интелигенција. На пример, корисникот што е во интеракција со моторот за препораки може самоуверено да тврди дека системот се заснова чисто на нивната историја на гледање во минатото. Можеби не сфаќаат дека алгоритмот вклучува и мноштво други фактори, како што се времето од денот што го прелистуваат, моменталните трендовски ставки низ платформата или дури и навиките за гледање на слични корисници. Откривањето на овој јаз помеѓу менталниот модел на корисникот и вистинската логика на вештачката интелигенција е критично важно. Тоа прецизно ни кажува кои конкретни информации треба да им ги пренесеме на корисниците за да им помогнеме да изградат попрецизен и поцврст ментален модел на системот. Ова, пак, е основен чекор во поттикнувањето на довербата. Кога корисниците разбираат, дури и на високо ниво, како вештачката интелигенција доаѓа до заклучоците или препораките, поверојатно е дека ќе им веруваат на неговите резултати и ќе се потпрат на неговата функционалност. Мапирање на патување со вештачка интелигенција: длабоко нурнување во довербата и објаснувањето на корисниците Со прецизно мапирање на патувањето на корисникот со функција напојувана со вештачка интелигенција, добиваме непроценливи сознанија за прецизните моменти каде што се појавува конфузија, фрустрација или дури и длабока недоверба. Ова открива критични моменти каде менталниот модел на корисникот за тоа како функционира вештачката интелигенција се судира со неговото вистинско однесување. Размислете за услуга за стриминг музика: Дали довербата на корисникот опаѓа кога препораката за плејлиста се чувствува „случајна“, без каква било видлива врска со нивните минати навики за слушање или наведени преференции? Оваа согледана случајност е директен предизвик за очекувањата на корисникот за интелигентно чување и прекршување на имплицитното ветување дека вештачката интелигенција го разбира нивниот вкус. Слично на тоа, во апликацијата за управување со фотографии, дали корисниците доживуваат значителна фрустрација кога функцијата за означување фотографии со вештачка интелигенција постојано погрешно го идентификува ценетиот член на семејството? Оваа грешка е повеќе од технички пропуст; удира во срцето на точноста, персонализацијата, па дури иемоционална врска. Овие точки на болка се живописни сигнали кои точно покажуваат каде е неопходно добро поставено, јасно и концизно објаснување. Ваквите објаснувања служат како клучни механизми за поправка, поправајќи го прекршувањето на довербата што, ако не се реши, може да доведе до напуштање на корисникот. Моќта на мапирањето на патувањата со вештачка интелигенција лежи во неговата способност да нè придвижи подалеку од едноставното објаснување на конечниот излез на системот со вештачка интелигенција. Иако е важно да се разбере што произведува вештачката интелигенција, тоа често е недоволно. Наместо тоа, овој процес не принудува да се фокусираме на објаснување на процесот во критичните моменти. Ова значи решавање на:
Зошто е генериран одреден излез: Дали тоа се должи на специфични влезни податоци? Одреден модел на архитектура? Кои фактори влијаеја на одлуката на вештачката интелигенција: Дали одредени карактеристики беа потежени? Како вештачката интелигенција стигна до својот заклучок: Можеме ли да понудиме поедноставено, аналогно објаснување за нејзината внатрешна работа? Какви претпоставки направи вештачката интелигенција: Дали имаше имплицитни сфаќања за намерата или податоците на корисникот што треба да се објават? Кои се ограничувањата на вештачката интелигенција: јасното пренесување на она што вештачката интелигенција не може да го направи или каде нејзината точност може да се поколеба, гради реални очекувања.
Мапирањето на патувањата со вештачка интелигенција го трансформира апстрактниот концепт на XAI во практична, активна рамка за UX практичарите. Тоа ни овозможува да се движиме подалеку од теоретските дискусии за објаснување и наместо тоа да ги лоцираме точните моменти кога е во прашање довербата на корисниците, обезбедувајќи ги потребните сознанија за да изградиме искуства со вештачка интелигенција кои се моќни, транспарентни, разбирливи и доверливи. На крајот на краиштата, истражувањето е како ги откриваме непознатите. Вашиот тим можеби дебатира како да објасни зошто е одбиен заемот, но истражувањето може да открие дека корисниците се многу повеќе загрижени да разберат како нивните податоци биле користени на прво место. Без истражување, едноставно погодуваме што се прашуваат нашите корисници. Соработка на дизајнот (Како да ја објасните вашата вештачка интелигенција) Откако истражувањето ќе идентификува што да објасни, започнува колаборативната јамка со дизајнот. Дизајнерите можат да ги прототипираат шаблоните за кои претходно разговаравме - изјавата „Затоа“, интерактивните лизгачи - а истражувачите можат да ги стават тие дизајни пред корисниците за да видат дали се држат. Целно тестирање за употребливост и разбирање: Можеме да дизајнираме истражувачки студии кои конкретно ги тестираат компонентите на XAI. Ние не прашуваме само: „Дали е ова лесно за користење? Прашуваме: „Откако го видовте ова, можете ли да ми кажете со свои зборови зошто системот го препорача овој производ? или „Покажи ми што би направил за да видам дали можеш да добиеш поинаков резултат“. Целта овде е да се измери разбирањето и дејствието, заедно со употребливоста. Мерење на самата доверба: Можеме да користиме едноставни истражувања и скали за оценување пред и откако ќе се прикаже објаснување. На пример, можеме да прашаме корисник на скала од 5 точки: „Колку и верувате на оваа препорака? пред да ја видат изјавата „Затоа“, а потоа повторно прашајте ги. Ова дава квантитативни податоци за тоа дали нашите објаснувања всушност ја придвижуваат иглата на довербата. Овој процес создава моќна, итеративна јамка. Наодите од истражувањето го информираат првичниот дизајн. Тој дизајн потоа се тестира, а новите наоди се враќаат назад до дизајнерскиот тим за префинетост. Можеби изјавата „Затоа“ беше премногу жаргонска, или лизгачот „Што-Ако“ беше повеќе збунувачки отколку моќен. Преку оваа колаборативна валидација, гарантираме дека финалните објаснувања се технички точни, вистински разбирливи, корисни и градат доверба за луѓето кои го користат производот. Зона на објаснување Goldilocks Критички збор на претпазливост: можно е претерано да се објасни. Како и во бајката, каде што Goldilocks ја бараше кашата што беше „точно во право“, целта на доброто објаснување е да се обезбеди вистинската количина на детали - не премногу и не премногу малку. Бомбардирањето на корисникот со секоја променлива во моделот ќе доведе до когнитивно преоптоварување и всушност може да ја намали довербата. Целта не е од корисникот да се направи научник за податоци. Едно решение е прогресивно откривање.
Започнете со едноставното. Водете со концизна изјава „Затоа што“. За повеќето корисници, ова ќе биде доволно. Понудете пат до детали. Обезбедете јасна врска со ниско триење како „Дознајте повеќе“ или „Видете како се утврди ова“. Откријте ја сложеноста. Зад таа врска, можете да ги понудите интерактивните лизгачи, визуелизациите или подетална листа на фактори кои придонесуваат.
Овој повеќеслоен пристап го почитува вниманието и стручноста на корисниците, обезбедувајќи ја вистинската количинана информации за нивните потреби. Да замислиме дека користите паметен домашен уред кој препорачува оптимално загревање врз основа на различни фактори. Започнете со едноставното: „Вашиот дом моментално се загрева до 72 степени, што е оптимална температура за заштеда на енергија и удобност“. Понудете патека до детали: под тоа, мала врска или копче: „Зошто 72 степени се оптимални? Откријте ја сложеноста: со кликнување на таа врска може да се отвори нов екран кој прикажува:
Интерактивни лизгачи за надворешна температура, влажност и вашето претпочитано ниво на удобност, демонстрирајќи како тие ја прилагодуваат препорачаната температура. Визуелизација на потрошувачката на енергија на различни температури. Список на фактори кои придонесуваат како „Време од денот“, „Тековна надворешна температура“, „Историска употреба на енергија“ и „Сензори за зафаќање“.
Ефективно е да се комбинираат повеќе методи на XAI и оваа шема на зона на објаснување Goldilocks, која се залага за прогресивно откривање, имплицитно го поттикнува тоа. Може да започнете со едноставна изјава „Затоа што“ (шема 1) за итно разбирање, а потоа да понудите врска „Дознај повеќе“ што открива интерактивна „Што-ако“ (шема 2) или „туркај-и-влечи визуелно“ (шема 4) за подлабоко истражување. На пример, системот за аплицирање за заем првично може да ја наведе основната причина за одбивањето (важноста на функцијата), потоа да му дозволи на корисникот да комуницира со алатката „Што-Ако“ за да види како промените на нивниот приход или долг би го смениле исходот (контрафактици), и на крајот, да обезбеди детална табела „Прити-и-повлече“ (засновано на вредност објаснување) за да ги илустрира сите фактори и негативните придонеси. Овој повеќеслоен пристап им овозможува на корисниците пристап до нивото на детали што им се потребни, кога им е потребно, спречувајќи го когнитивното преоптоварување додека сепак обезбедува сеопфатна транспарентност. Одредувањето кои алатки и методи на XAI да се користат е првенствено функција на темелно истражување на UX. Интервјуата на менталниот модел и мапирањето на патувањето со вештачка интелигенција се клучни за прецизно одредување на потребите на корисниците и точките на болка поврзани со разбирањето и довербата со вештачката интелигенција. Интервјуата со ментален модел помагаат да се откријат заблуди на корисниците за тоа како функционира вештачката интелигенција, укажувајќи на области каде се потребни основни објаснувања (како важноста на функцијата или локални објаснувања). Мапирањето на патувањето со вештачка интелигенција, од друга страна, ги идентификува критичните моменти на збунетост или недоверба во интеракцијата на корисникот со вештачката интелигенција, сигнализирајќи каде повеќе грануларни или интерактивни објаснувања (како контрафакти или објаснувања засновани на вредност) би биле најкорисни за повторно градење доверба и обезбедување агенција.
На крајот на краиштата, најдобриот начин да се избере техника е да дозволите корисничкото истражување да ги води вашите одлуки, осигурувајќи дека објаснувањата што ги дизајнирате директно се однесуваат на вистинските прашања и грижи на корисникот, наместо едноставно да нудите технички детали за нивно добро. XAI за агенти за длабоко расудување Некои од најновите системи за вештачка интелигенција, познати како агенти за длабоко расудување, создаваат експлицитен „синџир на мисли“ за секоја сложена задача. Тие не цитираат само извори; тие го покажуваат логичниот, чекор по чекор пат по кој тргнале за да дојдат до заклучок. Иако оваа транспарентност обезбедува вреден контекст, игра-по-игра која опфаќа неколку параграфи може да се чувствува огромно за корисникот кој едноставно се обидува да заврши задача. Принципите на XAI, особено зоната на објаснување Goldilocks, се применуваат директно овде. Можеме да го средиме патувањето, користејќи прогресивно откривање за прво да го прикажеме конечниот заклучок и најистакнатиот чекор во мисловниот процес. Корисниците потоа можат да се одлучат за да го видат целосното, детално, повеќестепено расудување кога треба повторно да ја проверат логиката или да најдат конкретен факт. Овој пристап го почитува вниманието на корисникот додека ја зачувува целосната транспарентност на агентот. Следни чекори: Зајакнување на вашето XAI патување Објаснивоста е основен столб за градење доверливи и ефективни производи со вештачка интелигенција. За напредните лекари кои сакаат да ја поттикнат оваа промена во нивната организација, патувањето се протега надвор од моделите на дизајнирање во застапување и континуирано учење. За да го продлабочите вашето разбирање и практична примена, размислете за истражување на ресурси како што е комплетот алатки за AI Explainability 360 (AIX360) од IBM Research или What-If Tool на Google, кои нудат интерактивни начини за истражување на однесувањето и објаснувањата на моделот. Ангажирањето со заедниците како Форумот за одговорна вештачка интелигенција или специфичните истражувачки групи фокусирани на вештачката интелигенција насочена кон човекот може да обезбеди непроценливи сознанија и можности за соработка. Конечно, бидете застапник за XAI во вашата организација.Објаснивоста на рамката како стратешка инвестиција. Размислете за краток терен до вашите лидерски или меѓуфункционални тимови: „Со инвестирање во XAI, ќе одиме подалеку од градењето доверба; ќе го забрзаме усвојувањето на корисниците, ќе ги намалиме трошоците за поддршка преку поттикнување на корисниците со разбирање и ќе ги ублажиме значителните етички и регулаторни ризици со изложување на потенцијални предрасуди. Ова е добар дизајн и паметен бизнис“.
Вашиот глас, заснован на практично разбирање, е од клучно значење за извлекување на вештачката интелигенција од црната кутија и во заедничко партнерство со корисниците.