У мом последњем делу, утврдили смо основну истину: да би корисници усвојили и ослонили се на АИ, морају јој веровати. Разговарали смо о томе да је поверење вишеструка конструкција, изграђена на перцепцији способности, доброхотности, интегритета и предвидљивости АИ. Али шта се дешава када АИ, у својој тихој, алгоритамској мудрости, донесе одлуку која корисника оставља збуњеним, фрустрираним или чак повређеним? Захтев за хипотеку је одбијен, омиљена песма је изненада одсутна са листе песама, а квалификована биографија је одбијена пре него што је човек икада види. У овим тренуцима, способност и предвидљивост су разбијени, а добронамерност се осећа као свет далеко. Наш разговор сада мора да еволуира од зашто поверења до тога како транспарентности. Област објашњиве вештачке интелигенције (КСАИ), која се фокусира на развој метода како би резултати вештачке интелигенције били разумљиви људима, појавила се да би се позабавила овим, али је често уоквирена као чисто технички изазов за научнике података. Тврдим да је то критичан изазов дизајна за производе који се ослањају на АИ. Наш посао као УКС професионалаца је да премостимо јаз између алгоритамског доношења одлука и људског разумевања. Овај чланак пружа практичне, практичне смернице о томе како истраживати и дизајнирати за објашњење. Прећи ћемо даље од популарних речи и прећи на моделе, преводећи сложене КСАИ концепте у конкретне обрасце дизајна које можете почети да користите данас. Де-мистифицирање КСАИ: Основни концепти за практичаре УКС-а КСАИ се односи на одговор на питање корисника: „Зашто?“ Зашто ми је приказан овај оглас? Зашто ми се препоручује овај филм? Зашто је мој захтев одбијен? Замислите то као АИ који показује свој рад на математичком проблему. Без тога, само имате одговор и приморани сте да га прихватите са вером. Показујући кораке, градите разумевање и поверење. Такође дозвољавате да ваш рад буде двоструко проверен и верификован од стране самих људи на које утиче. Значај карактеристика и контрачињенице Постоји низ техника које можемо користити да разјаснимо или објаснимо шта се дешава са АИ. Док се методе крећу од обезбеђивања целокупне логике стабла одлучивања до генерисања резимеа резултата на природном језику, две најпрактичније и најутицајније врсте информација које УКС практичари могу да унесу у искуство су значај карактеристика (Слика 1) и контрачињенице. Они су често најједноставнији за разумевање за кориснике и најповољнији за дизајнере за имплементацију.
Значај функције Овај метод објашњења даје одговор: „Који су најважнији фактори које је вештачка интелигенција разматрала?“ Ради се о идентификовању прве 2-3 варијабле које су имале највећи утицај на исход. То је наслов, а не цела прича. Пример: Замислите вештачку интелигенцију која предвиђа да ли ће купац одустати (отказати своју услугу). Важност карактеристика може открити да су „број позива подршке у прошлом месецу“ и „скорашња повећања цена“ два најважнија фактора у одређивању да ли ће клијент вероватно одустати.
Цоунтерфацтуалс Ова моћна метода одговара: „Шта бих требало да променим да бих добио другачији исход?“ Ово је кључно јер корисницима даје осећај агенције. Преображава фрустрирајуће „не“ у „још не“ изводљиво. Пример: Замислите систем апликације за кредит који користи АИ. Кориснику је одбијен кредит. Уместо да се само види „Апликација одбијена“, протучињенично објашњење би такође поделило: „Да је ваш кредитни резултат био 50 поена већи, или да је ваш однос дуга и прихода био 10% мањи, ваш кредит би био одобрен. Ово даје Сари јасне кораке које може предузети да би потенцијално добила зајам у будућности.
Коришћење података модела за побољшање објашњења Иако се техничким специфичностима често баве научници података, практичарима УКС-а је од помоћи да знају да алати попут ЛИМЕ (локална интерпретабилна модел-агностичка објашњења) који објашњавају појединачна предвиђања апроксимацијом модела локално, и СХАП (Схаплеи Аддитиве ЕкПланатионс) који користи теорију игара било који приступ машинском учењу да би објаснио овај уобичајени приступ за објашњење овог модела су излаз „излазних података“ који се користе у моделу. сложени модели. Ове библиотеке у суштини помажу да се разбије одлука вештачке интелигенције да покаже који су улази били најутицајнији за дати исход. Када се ураде како треба, подаци који су у основи одлуке АИ алата могу се користити за испричање моћне приче. Хајде да прођемо кроз важност карактеристика и контрачињенице и покажемо како се наука о подацима иза одлуке може искористити за побољшање корисничког искуства. Сада хајдепокријте важност карактеристика уз помоћ података Локалних објашњења (нпр. ЛИМЕ): Овај приступ одговара: „Зашто је АИ дала ову конкретну препоруку за мене, управо сада?“ Уместо општег објашњења како модел функционише, он пружа фокусирани разлог за једну, специфичну инстанцу. То је лично и контекстуално. Пример: Замислите систем музичких препорука заснован на вештачкој интелигенцији као што је Спотифи. Локално објашњење би одговорило: „Зашто вам је систем управо сада препоручио ову специфичну песму Аделе?“ Објашњење би могло бити: „Зато што сте недавно слушали неколико других емотивних балада и песама женских вокала.
На крају, хајде да покријемо укључивање објашњења заснованих на вредности (нпр. података Шеплијевих адитивних објашњења (СХАП) у објашњење одлуке: Ово је нијансиранија верзија важности карактеристика која одговара: „Како је сваки фактор подстакао одлуку на овај или онај начин?“ Помаже да се визуелизује шта је важно и да ли је његов утицај био позитиван или негативан. Пример: Замислите да банка користи АИ модел да одлучи да ли да одобри захтев за кредит.
Значај карактеристике: Излаз модела може показати да су кредитни резултат, приход и однос дуга и прихода подносиоца представке били најважнији фактори у његовој одлуци. Ово је одговор на оно што је важно. Важност карактеристика са објашњењима заснованим на вредности (СХАП): СХАП вредности би додатно преузеле важност карактеристика на основу елемената модела.
За одобрени кредит, СХАП би могао показати да је висок кредитни резултат значајно гурнуо одлуку ка одобрењу (позитиван утицај), док је однос дуга према приходу нешто виши од просека мало повукао (негативан утицај), али не довољно да одбије кредит. За одбијени зајам, СХАП би могао открити да су низак приход и велики број недавних кредитних упита снажно гурнули одлуку ка одбијању, чак и ако је кредитни резултат био пристојан.
Ово помаже кредитном службенику да објасни подносиоцу захтева осим онога што је разматрано, како је сваки фактор допринео коначној одлуци „да“ или „не“. Од кључне је важности препознати да способност пружања добрих објашњења често почиње много раније у развојном циклусу. Научници и инжењери података играју кључну улогу намерно структурирајући моделе и цевоводе података на начине који инхерентно подржавају објашњивост, уместо да покушавају да то причврсте као накнадну мисао. Истраживачки и дизајнерски тимови то могу подстаћи покретањем раних разговора са научницима и инжењерима података о потребама корисника за разумевањем, доприносећи развоју метрика објашњивости и колаборативним објашњењима за израду прототипа како би се осигурало да су тачна и лака за коришћење. КСАИ и етичка вештачка интелигенција: распакивање пристрасности и одговорности Осим изградње поверења, КСАИ игра кључну улогу у решавању дубоких етичких импликација АИ*, посебно у вези са алгоритамском пристрасношћу. Технике објашњивости, као што је анализа СХАП вредности, могу открити да ли су на одлуке модела несразмерно под утицајем осетљивих атрибута као што су раса, пол или социоекономски статус, чак и ако ови фактори нису експлицитно коришћени као директни инпути. На пример, ако модел одобравања кредита доследно додељује негативне СХАП вредности подносиоцима захтева из одређене демографске групе, то сигнализира потенцијалну пристрасност којој је потребна истрага, оснажујући тимове да испливају на површину и ублаже такве неправедне исходе. Моћ КСАИ такође долази са потенцијалом за „испирање објашњивости“. Баш као што „греенвасхинг“ обмањује потрошаче у вези са праксама заштите животне средине, прање објашњивости се може десити када су објашњења осмишљена да прикрију, а не да осветле, проблематично алгоритамско понашање или инхерентне предрасуде. Ово би се могло манифестовати као превише поједностављена објашњења која изостављају критичне факторе утицаја, или објашњења која стратешки уоквирују резултате тако да изгледају неутралније или праведније него што заиста јесу. Он наглашава етичку одговорност практичара УКС-а да осмисле објашњења која су заиста транспарентна и проверљива. УКС професионалци, у сарадњи са научницима података и етичарима, имају кључну одговорност у преношењу разлога за одлуку, као и ограничења и потенцијалне пристрасности основног АИ модела. Ово укључује постављање реалних очекивања корисника о тачности вештачке интелигенције, идентификацију где би модел могао бити мање поуздан и обезбеђивање јасних канала за прибегавање или повратну информацију када корисници примете неправедне или нетачне резултате. Проактивно решавање ових питањаетичке димензије ће нам омогућити да изградимо системе вештачке интелигенције који су заиста праведни и од поверења. Од метода до модела: практични обрасци дизајна КСАИ Познавање концепата је једна ствар; њихово пројектовање је друго. Ево како можемо да преведемо ове КСАИ методе у интуитивне обрасце дизајна. Образац 1: Изјава „Зато што“ (за важност карактеристика) Ово је најједноставнији и често најефикаснији образац. То је директна изјава на једноставном језику која представља примарни разлог за акцију вештачке интелигенције.
Хеуристички: Будите директни и концизни. Водите са јединим најутицајнијим разлогом. Избегавајте жаргон по сваку цену.
Пример: Замислите услугу стриминга музике. Уместо само представљања листе песама „Дисцовер Веекли“, додајете мали ред микрокопије. Препорука за песму: „Велвет Морнинг“ Зато што слушате „Тхе Фузз“ и други психоделични рок.
Образац 2: Интерактивност „шта ако“ (за контрачињенице) Противчињенице се инхерентно односе на оснаживање. Најбољи начин да их представите је дајући корисницима интерактивне алате да сами истражују могућности. Ово је савршено за финансијске, здравствене или друге циљане апликације.
Хеуристички: Нека објашњења буду интерактивна и оснажујућа. Нека корисници виде узрок и последице својих избора.
Пример: Интерфејс апликације за кредит. Након одбијања, уместо ћорсокака, корисник добија алат за одређивање како би се различити сценарији (шта ако) могли одиграти (види слику 1).
Образац 3: Хигхлигхт Реел (за локална објашњења) Када АИ изврши радњу на садржају корисника (као што је сумирање документа или идентификација лица на фотографијама), објашњење треба да буде визуелно повезано са извором.
Хеуристички: Користите визуелне знакове као што су истицање, обриси или напомене да бисте директно повезали објашњење са елементом интерфејса који објашњава.
Пример: АИ алат који сумира дугачке чланке. Резиме генерисан од вештачке интелигенције: Првобитно истраживање је показало тржишни јаз за одрживе производе. Извор у документу: „...Наша К2 анализа тржишних трендова је коначно показала да ниједан велики конкурент није ефикасно служио еколошки свесним потрошачима, откривајући значајан јаз на тржишту...”
Образац 4: Притисни и повуци визуелно (за објашњења заснована на вредности) За сложеније одлуке, корисници ће можда морати да разумеју међусобну игру фактора. Једноставне визуализације података могу ово да разјасне, а да притом не буду превише.
Хеуристички: Користите једноставне визуелизације података у боји (као што су тракасти графикони) да бисте показали факторе који су позитивно и негативно утицали на одлуку.
Пример: АИ проверава профил кандидата за посао. Зашто се овај кандидат подудара са 75%: Фактори који повећавају резултат: 5+ година искуства у истраживању УКС-а Професионални у Питхон факторима који смањују резултат: Нема искуства са Б2Б СааС-ом
Учење и коришћење ових образаца дизајна у корисничком доживљају вашег АИ производа ће помоћи да се повећа објашњивост. Такође можете користити додатне технике које овде не обрађујем детаљно. Ово укључује следеће:
Објашњења природног језика: Превођење техничког резултата АИ у једноставан, разговорни људски језик који нестручњаци могу лако да разумеју. Контекстуална објашњења: Дајући образложење за излаз АИ у одређеном тренутку и на одређеном месту, оно је најрелевантније за задатак корисника. Релевантне визуелизације: Коришћење графикона, графикона или топлотних мапа за визуелно представљање процеса доношења одлука АИ, чинећи сложене податке интуитивним и лакшим за кориснике.
Напомена за предњи крај: Превођење ових објашњивих излаза у беспрекорно корисничко искуство такође представља сопствени скуп техничких разматрања. Фронт-енд програмери се често боре са дизајном АПИ-ја да би ефикасно преузели податке објашњења, а импликације на перформансе (као што је генерисање објашњења у реалном времену за сваку интеракцију корисника) треба пажљиво планирање како би се избегло кашњење. Неки примери из стварног света УПС Цапитал'с ДеливериДефенсе УПС користи АИ да додели „оцену поузданости испоруке“ адресама како би предвидео вероватноћу крађе пакета. Њихов софтвер ДеливериДефенсе анализира историјске податке о локацији, учесталости губитака и другим факторима. Ако адреса има низак резултат, систем може проактивно да преусмери пакет на сигурну УПС приступну тачку, пружајући објашњење за одлуку (нпр. „Пакет је преусмерен на безбедну локацију због историје крађе“). Овај систем показује како се КСАИ може користити за смањење ризика и изградњу поверења купацатранспарентност. Аутономна возила Ова возила будућности ће морати да ефикасно користе КСАИ како би помогли својим возилима да донесу безбедне, објашњиве одлуке. Када самовозећи аутомобил изненада закочи, систем може да пружи објашњење за своју акцију у реалном времену, на пример, идентификацијом пешака који ступа на пут. Ово није само кључно за удобност и поверење путника, већ је и регулаторни захтев за доказивање безбедности и одговорности система вештачке интелигенције. ИБМ Ватсон Хеалтх (и његови изазови) Иако се често наводи као општи пример АИ у здравству, то је такође вредна студија случаја о важности КСАИ. Неуспех његовог пројекта Ватсон фор Онцологи наглашава шта може поћи наопако када објашњења нису јасна, или када су основни подаци пристрасни или нису локализовани. Препоруке система понекад нису биле у складу са локалном клиничком праксом јер су биле засноване на смерницама усмереним на САД. Ово служи као опомена о потреби за робусном објашњивом која је свесна контекста. Улога истраживача УКС-а: одређивање и потврђивање објашњења Наша дизајнерска решења су ефикасна само ако се баве правим корисничким питањима у право време. Објашњење које одговара на питање које корисник нема је само бука. Овде УКС истраживање постаје критично везивно ткиво у КСАИ стратегији, обезбеђујући да нашим корисницима објаснимо шта и како је то заправо важно. Улога истраживача је двострука: прво, да информише стратегију тако што ће идентификовати где су потребна објашњења, и друго, да потврди дизајн који даје та објашњења. Информисање о КСАИ стратегији (шта објаснити) Пре него што можемо да осмислимо једно објашњење, морамо разумети кориснички ментални модел АИ система. Шта они верују да то ради? Где су празнине између њиховог разумевања и стварности система? Ово је темељни рад УКС истраживача. Интервјуи менталног модела: распакивање корисничких перцепција система вештачке интелигенције Кроз дубоке, полуструктуриране интервјуе, УКС практичари могу стећи непроцењив увид у то како корисници перципирају и разумеју системе вештачке интелигенције. Ове сесије су осмишљене да подстакну кориснике да буквално нацртају или опишу свој унутрашњи „ментални модел“ о томе како верују да АИ функционише. Ово често укључује постављање отворених питања која подстичу кориснике да објасне логику система, његове улазе и излазе, као и односе између ових елемената. Ови интервјуи су моћни јер често откривају дубоке заблуде и претпоставке које корисници имају о АИ. На пример, корисник који је у интеракцији са машином за препоруке може са сигурношћу тврдити да је систем заснован искључиво на њиховој прошлој историји гледања. Они можда неће схватити да алгоритам такође укључује мноштво других фактора, као што су доба дана у које прегледавају, тренутни трендови на платформи, или чак навике гледања сличних корисника. Откривање овог јаза између менталног модела корисника и стварне логике вештачке интелигенције је критично важно. Она нам тачно говори које специфичне информације требамо да саопштимо корисницима да бисмо им помогли да изграде тачнији и робуснији ментални модел система. Ово је, заузврат, фундаментални корак у неговању поверења. Када корисници разумеју, чак и на високом нивоу, како вештачка интелигенција долази до својих закључака или препорука, већа је вероватноћа да ће веровати њеним резултатима и ослањати се на његову функционалност. Мапирање путовања помоћу вештачке интелигенције: Дубоко уроњење у поверење корисника и објашњивост Пажљивим мапирањем корисничког пута помоћу функције коју покреће вештачка интелигенција, добијамо непроцењив увид у прецизне тренутке у којима се појављују збуњеност, фрустрација или чак дубоко неповерење. Ово открива критичне тачке у којима се ментални модел корисника о томе како АИ ради сукобљава са његовим стварним понашањем. Размислите о сервису за стриминг музике: Да ли поверење корисника нагло пада када се препорука за плејлисту учини „насумичном“, без икакве видљиве везе са њиховим претходним навикама слушања или наведеним преференцијама? Ова уочена случајност је директан изазов корисниковим очекивањима интелигентног курирања и кршење имплицитног обећања да АИ разуме њихов укус. Слично, у апликацији за управљање фотографијама, да ли корисници доживљавају значајну фрустрацију када функција АИ означавања фотографија доследно погрешно идентификује драгог члана породице? Ова грешка је више од техничке грешке; погађа у срце тачности, персонализације, па чакемоционална повезаност. Ове болне тачке су живописни сигнали који тачно указују на то где је потребно добро постављено, јасно и сажето објашњење. Таква објашњења служе као кључни механизми за поправку, поправљајући кршење поверења које, ако се не реши, може довести до напуштања корисника. Моћ мапирања путовања АИ лежи у његовој способности да нас помери даље од једноставног објашњавања коначног резултата АИ система. Иако је важно разумети шта је АИ произвела, често је недовољно. Уместо тога, овај процес нас приморава да се фокусирамо на објашњавање процеса у критичним тренуцима. То значи адресирање:
Зашто је генерисан одређени излаз: Да ли је то било због специфичних улазних података? Архитектура одређеног модела? Који фактори су утицали на одлуку вештачке интелигенције: Да ли су одређене карактеристике биле веће тежине? Како је АИ дошла до свог закључка: Можемо ли понудити поједностављено, аналогно објашњење њеног унутрашњег функционисања? Које је претпоставке направила АИ: Да ли је било имплицитног разумевања намере корисника или података који су морали да се појаве? Која су ограничења вештачке интелигенције: Јасно саопштавање онога што вештачка интелигенција не може да уради или где би њена прецизност могла да се поколеба, гради реална очекивања.
АИ мапирање путовања трансформише апстрактни концепт КСАИ у практичан оквир који се може применити за УКС практичаре. Омогућава нам да превазиђемо теоријске расправе о објашњивости и уместо тога одредимо тачне тренутке у којима је поверење корисника у питању, пружајући неопходне увиде за изградњу АИ искустава која су моћна, транспарентна, разумљива и поуздана. На крају крајева, истраживање је начин на који откривамо непознате. Ваш тим можда расправља како да објасни зашто је зајам одбијен, али истраживање би могло открити да су корисници много више забринути за разумевање како су њихови подаци уопште коришћени. Без истраживања, ми једноставно нагађамо шта се наши корисници питају. Сарадња на дизајну (како објаснити своју вештачку интелигенцију) Када истраживање идентификује шта треба објаснити, почиње колаборативни круг са дизајном. Дизајнери могу прототиповати обрасце о којима смо раније разговарали — изјаву „Зато“, интерактивне клизаче — а истраживачи могу те дизајне ставити пред кориснике да виде да ли се издржавају. Циљано тестирање употребљивости и разумевања: Можемо да дизајнирамо истраживачке студије које посебно тестирају КСАИ компоненте. Не питамо се само: „Да ли је ово лако за коришћење?“ Питамо: „Након што сте ово видели, можете ли ми рећи својим речима зашто је систем препоручио овај производ?“ или „Покажи ми шта би урадио да видим да ли би могао да добијеш другачији резултат.“ Овде је циљ да се измери разумевање и делотворност, поред употребљивости. Мерење самопоуздања: Можемо користити једноставне анкете и скале оцењивања пре и после приказа објашњења. На пример, можемо да питамо корисника на скали од 5 тачака: „Колико верујете овој препоруци?“ пре него што виде изјаву „Зато што“, а затим их поново питајте. Ово даје квантитативне податке о томе да ли наша објашњења заправо померају иглу на поверење. Овај процес ствара моћну, итеративну петљу. Налази истраживања дају информацију о првобитном дизајну. Тај дизајн се затим тестира, а нови налази се враћају дизајнерском тиму на усавршавање. Можда је изјава „Зато што“ била превише жаргонична, или је клизач „Шта-ако“ био више збуњујући него оснажујући. Кроз ову заједничку валидацију, обезбеђујемо да су коначна објашњења технички тачна, заиста разумљива, корисна и да изграде поверење за људе који користе производ. Златокоса зона објашњења Критичка реч опреза: могуће је превише објаснити. Као у бајци, где је Златокоса тражила кашу која је била „баш како треба“, циљ доброг објашњења је да пружи праву количину детаља – ни превише ни премало. Бомбардовање корисника са сваком променљивом у моделу ће довести до когнитивног преоптерећења и заправо може смањити поверење. Циљ није да се од корисника направи научник за податке. Једно решење је прогресивно откривање.
Почните са једноставним. Водите са сажетом изјавом „Зато што“. За већину корисника ово ће бити довољно. Понудите пут до детаља. Обезбедите јасну везу са малим трењем као што је „Сазнајте више“ или „Погледајте како је ово утврђено“. Откријте сложеност. Иза те везе можете понудити интерактивне клизаче, визуализације или детаљнију листу фактора који доприносе.
Овај слојевити приступ поштује пажњу и стручност корисника, пружајући управо праву количинуинформација за њихове потребе. Замислимо да користите паметни кућни уређај који препоручује оптимално грејање на основу различитих фактора. Почните са једноставним: „Ваш дом је тренутно загрејан на 72 степена, што је оптимална температура за уштеду енергије и удобност.“ Понудите пут до детаља: Испод тога, мала веза или дугме: „Зашто је 72 степена оптимално?“ Откријте сложеност: Кликом на ту везу може се отворити нови екран који приказује:
Интерактивни клизачи за спољашњу температуру, влажност и жељени ниво удобности, показујући како они подешавају препоручену температуру. Визуализација потрошње енергије на различитим температурама. Листа фактора који доприносе као што су „Доба дана“, „Тренутна спољашња температура“, „Претходно коришћење енергије“ и „Сензори заузетости“.
Ефикасно је комбиновати више КСАИ метода и овај образац Златокосе зоне објашњења, који се залаже за прогресивно откривање, имплицитно то подстиче. Можете почети са једноставном изјавом „Зато што“ (Образац 1) за непосредно разумевање, а затим понудити везу „Сазнај више“ која открива „Шта ако“ интерактивну (Образац 2) или „Пусх-анд-Пулл Висуал“ (Образац 4) за дубље истраживање. На пример, систем за подношење захтева за кредит би у почетку могао да наведе примарни разлог одбијања (важност карактеристика), затим омогући кориснику интеракцију са алатком „Шта ако“ да види како би промене њиховог прихода или дуга промениле исход (противчињенице), и на крају, да пружи детаљан графикон „притисни и повуци“ (притисни и повуци) и негативну вредност доприноса свих фактора заснованих на негативним факторима за све позитивне факторе засноване на и. Овај слојевити приступ омогућава корисницима да приступе нивоу детаља који им је потребан, када им је то потребно, спречавајући когнитивно преоптерећење, а истовремено пружа свеобухватну транспарентност. Утврђивање које КСАИ алате и методе користити првенствено је функција темељног УКС истраживања. Интервјуи са менталним моделом и мапирање путовања вештачком интелигенцијом кључни су за одређивање потреба корисника и болних тачака у вези са разумевањем и поверењем АИ. Интервјуи са менталним моделом помажу у откривању погрешних схватања корисника о томе како АИ функционише, указујући на области у којима су потребна фундаментална објашњења (попут важности карактеристика или локалних објашњења). С друге стране, мапирање путовања вештачком интелигенцијом идентификује критичне тренутке конфузије или неповерења у интеракцији корисника са АИ, сигнализирајући где би детаљнија или интерактивна објашњења (попут контрачињеница или објашњења заснована на вредности) била најкориснија за обнову поверења и пружање агенције.
На крају крајева, најбољи начин да одаберете технику је да дозволите корисничком истраживању да води ваше одлуке, осигуравајући да објашњења која дизајнирате директно адресирају стварна корисничка питања и бриге, а не да једноставно нуде техничке детаље ради њих самих. КСАИ за агенте дубоког расуђивања Неки од најновијих АИ система, познати као агенти дубоког расуђивања, производе експлицитни „ланац мисли“ за сваки сложени задатак. Они не цитирају само изворе; они показују логичан, корак по корак пут којим су ишли да би дошли до закључка. Иако ова транспарентност пружа драгоцен контекст, играње по игри које се простире на неколико пасуса може се чинити неодољивим за корисника који једноставно покушава да заврши задатак. Принципи КСАИ, посебно Зона објашњења Златокосе, се директно примењују овде. Можемо да курирамо путовање, користећи прогресивно откривање да прво прикажемо само коначни закључак и најистакнутији корак у процесу размишљања. Корисници тада могу да изаберу да виде потпуно, детаљно образложење у више корака када треба још једном да провере логику или пронађу одређену чињеницу. Овај приступ поштује пажњу корисника уз очување пуне транспарентности агента. Следећи кораци: Оснаживање вашег КСАИ путовања Објашњивост је основни стуб за изградњу поузданих и ефикасних АИ производа. За напредне практичаре који желе да покрену ову промену у својој организацији, путовање се протеже даље од шаблона дизајна до заступања и континуираног учења. Да бисте продубили своје разумевање и практичну примену, размислите о истраживању ресурса као што је АИ Екплаинабилити 360 (АИКС360) комплет алата из ИБМ Ресеарцх-а или Гоогле-ов Вхат-Иф Тоол, који нуде интерактивне начине за истраживање понашања модела и објашњења. Ангажовање са заједницама као што је Форум за одговорну вештачку интелигенцију или специфичне истраживачке групе фокусиране на вештачку интелигенцију усредсређену на човека може пружити непроцењиве увиде и прилике за сарадњу. Коначно, будите заговорник КСАИ унутар своје организације.Објашњивост оквира као стратешка инвестиција. Размотрите кратку презентацију свом руководству или вишефункционалним тимовима: „Улагањем у КСАИ, превазићи ћемо изградњу поверења; убрзаћемо усвајање корисника, смањити трошкове подршке тако што ћемо корисницима омогућити разумевање и ублажити значајне етичке и регулаторне ризике откривањем потенцијалних пристрасности. Ово је добар дизајн и паметно пословање.“
Ваш глас, заснован на практичном разумевању, кључан је за извлачење вештачке интелигенције из црне кутије и успостављање сарадничког партнерства са корисницима.