У маім апошнім артыкуле мы ўстанавілі фундаментальную ісціну: каб карыстальнікі прынялі ІІ і спадзяваліся на яго, яны павінны яму давяраць. Мы гаварылі пра тое, што давер - гэта шматгранная канструкцыя, заснаваная на ўяўленнях аб здольнасцях, добразычлівасці, цэласнасці і прадказальнасці ІІ. Але што адбываецца, калі штучны інтэлект, у сваёй маўклівай алгарытмічнай мудрасці, прымае рашэнне, якое выклікае ў карыстальніка разгубленасць, расчараванне ці нават боль? У заяўцы на іпатэку адхілена, любімая песня раптоўна адсутнічае ў спісе прайгравання, а кваліфікаванае рэзюмэ адхілена яшчэ да таго, як чалавек яго ўбачыць. У гэтыя моманты здольнасці і прадказальнасць руйнуюцца, а добразычлівасць здаецца далёкай. Цяпер наша размова павінна перайсці ад таго, чаму давер, да таго, як празрыстасці. Поле Explainable AI (XAI), якое засяроджана на распрацоўцы метадаў, якія дазваляюць зрабіць вынікі штучнага інтэлекту зразумелымі для людзей, з'явілася для вырашэння гэтай праблемы, але гэта часта разглядаецца як чыста тэхнічная задача для навукоўцаў па апрацоўцы дадзеных. Я сцвярджаю, што гэта крытычная праблема дызайну для прадуктаў, якія абапіраюцца на штучны інтэлект. Наша задача як прафесіяналаў UX - ліквідаваць разрыў паміж алгарытмічным прыняццем рашэнняў і разуменнем людзей. У гэтым артыкуле прадстаўлены практычныя, дзейсныя рэкамендацыі аб тым, як даследаваць і распрацоўваць для вытлумачальнасці. Мы пяройдзем за межы модных слоў і ператворым складаныя канцэпцыі XAI у канкрэтныя шаблоны праектавання, якія вы можаце пачаць выкарыстоўваць ужо сёння. Дэмістыфікацыя XAI: асноўныя канцэпцыі для практыкаў UX XAI - гэта адказ на пытанне карыстальніка: "Чаму?" Чаму мне паказалі гэту рэкламу? Чаму мне рэкамендуюць гэты фільм? Чаму мой запыт быў адхілены? Успрымайце гэта як штучны інтэлект, які паказвае сваю працу над матэматычнай задачай. Без гэтага ў вас проста ёсць адказ, і вы вымушаны прыняць яго на веру. Паказваючы крокі, вы ўмацоўваеце разуменне і давер. Вы таксама дазваляеце сваю працу пераправяраць і пацвярджаць тыя самыя людзі, на якіх яна ўплывае. Важнасць функцый і супрацьпраўныя факты Ёсць шэраг метадаў, якія мы можам выкарыстоўваць, каб удакладніць або растлумачыць, што адбываецца з ІІ. У той час як метады вар'іруюцца ад прадастаўлення ўсёй логікі дрэва рашэнняў да генерацыі рэзюмэ вынікаў на натуральнай мове, два найбольш практычныя і эфектыўныя тыпы інфармацыі, якую практыкі UX могуць увесці ў вопыт, - гэта важнасць функцый (малюнак 1) і супрацьпраўныя факты. Яны часта з'яўляюцца найбольш простымі для разумення карыстальнікамі і найбольш эфектыўнымі для рэалізацыі дызайнерамі.
Важнасць функцыі Гэты метад вытлумачальнасці дае адказ: «Якія найбольш важныя фактары разглядаў ІІ?» Гаворка ідзе аб вызначэнні 2-3 галоўных зменных, якія аказалі найбольшы ўплыў на вынік. Гэта загаловак, а не ўся гісторыя. Прыклад: уявіце штучны інтэлект, які прадказвае, ці адмовіцца кліент (адменіць паслугу). Важнасць функцыі можа паказаць, што «колькасць званкоў у службу падтрымкі за апошні месяц» і «апошняе павышэнне коштаў» былі двума найбольш важнымі фактарамі пры вызначэнні верагоднасці адтоку кліента.
Супрацьфакты Гэты магутны метад адказвае на пытанне: "Што мне трэба змяніць, каб атрымаць іншы вынік?" Гэта вельмі важна, таму што дае карыстальнікам адчуванне волі. Гэта ператварае непрыемнае «не» ў дзейснае «пакуль не». Прыклад: уявіце сістэму падачы заявак на крэдыт, якая выкарыстоўвае штучны інтэлект. Карыстальніку адмоўлена ў пазыцы. Замест таго, каб проста бачыць «Заяўку адхілена», у супярэчлівым тлумачэнні таксама будзе гучаць наступнае: «Калі б ваш крэдытны бал быў на 50 балаў вышэй або калі б ваша стаўленне запазычанасці да даходу было на 10% ніжэй, ваш крэдыт быў бы зацверджаны». Гэта дае Сары дакладныя, дзейсныя крокі, якія яна можа зрабіць, каб патэнцыйна атрымаць крэдыт у будучыні.
Выкарыстанне дадзеных мадэлі для паляпшэння тлумачэння Нягледзячы на тое, што тэхнічныя асаблівасці часта вырашаюцца навукоўцамі па апрацоўцы дадзеных, практыкам UX карысна ведаць, што такія інструменты, як LIME (Local Interpretable Model-agnostic Explanations), які тлумачыць індывідуальныя прагнозы шляхам лакальнай апраксімацыі мадэлі, і SHAP (SHapley Additive Explanations), які выкарыстоўвае падыход тэорыі гульняў для тлумачэння вынікаў любой мадэлі машыннага навучання, звычайна выкарыстоўваюцца для вылучэння гэтых «чаму» разумення са складаных мадэлі. Гэтыя бібліятэкі па сутнасці дапамагаюць зламаць рашэнне штучнага інтэлекту, каб паказаць, якія ўваходныя дадзеныя найбольш паўплывалі на пэўны вынік. Пры правільным выкананні даныя, якія ляжаць у аснове рашэння інструмента штучнага інтэлекту, могуць быць выкарыстаны, каб распавесці магутную гісторыю. Давайце разгледзім важнасць функцый і супярэчлівыя факты, а таксама пакажам, як навуковыя даныя, якія ляжаць у аснове рашэння, могуць быць выкарыстаны для паляпшэння карыстальніцкага досведу. Зараз давайцеахоплівае важнасць функцый з дапамогай даных мясцовых тлумачэнняў (напрыклад, LIME): гэты падыход дае адказ на пытанне: «Чаму штучны інтэлект зрабіў мне гэтую канкрэтную рэкамендацыю менавіта цяпер?» Замест агульнага тлумачэння таго, як працуе мадэль, яна дае мэтанакіраваную прычыну для аднаго канкрэтнага выпадку. Гэта асабістае і кантэкстуальнае. Прыклад: уявіце сабе сістэму рэкамендацый музыкі на аснове штучнага інтэлекту, такую як Spotify. Лакальнае тлумачэнне адказала б: «Чаму сістэма рэкамендавала вам менавіта гэтую песню Адэль менавіта цяпер?» Тлумачэнне можа быць такім: «Таму што вы нядаўна слухалі некалькі іншых эмацыйных балад і песень вакалістак».
Нарэшце, давайце раскажам пра ўключэнне Тлумачэнняў на аснове значэнняў (напрыклад, даных дадаткаў Шэплі (SHAP) для тлумачэння рашэння: гэта больш падрабязная версія важнасці функцыі, якая адказвае: «Як кожны фактар падштурхнуў рашэнне ў той ці іншы бок?» Гэта дапамагае візуалізаваць, што мела значэнне, і ці быў яго ўплыў станоўчым або адмоўным. Прыклад: уявіце, што банк выкарыстоўвае мадэль штучнага інтэлекту, каб прыняць рашэнне аб ухваленні заяўкі на крэдыт.
Важнасць асаблівасці: вынікі мадэлі могуць паказаць, што крэдытны бал, даход і суадносіны запазычанасці да даходу заяўніка былі найбольш важнымі фактарамі пры прыняцці рашэння. Гэта адказ на тое, што мела значэнне. Важнасць прыкмет з тлумачэннямі на аснове значэнняў (SHAP): Значэнні SHAP будуць павышаць важнасць асаблівасцей на аснове элементаў мадэлі.
Што тычыцца зацверджанай пазыкі, SHAP можа паказаць, што высокі крэдытны рэйтынг істотна падштурхнуў рашэнне да зацвярджэння (станоўчы ўплыў), у той час як суадносіны запазычанасці і даходу, крыху вышэйшыя за сярэдні, крыху адцягнулі яго (адмоўны ўплыў), але недастаткова, каб адмовіць у пазыцы. У выпадку адмовы ў пазыцы SHAP можа паказаць, што нізкі даход і вялікая колькасць нядаўніх крэдытных запытаў моцна падштурхнулі рашэнне да адмовы, нават калі крэдытная адзнака была прыстойнай.
Гэта дапамагае крэдытнаму спецыялісту растлумачыць заяўніку, акрамя таго, што было разгледжана, як кожны фактар унёс свой уклад у канчатковае рашэнне «так» ці «не». Вельмі важна прызнаць, што здольнасць даваць добрыя тлумачэнні часта пачынаецца значна раней у цыкле распрацоўкі. Навукоўцы і інжынеры па апрацоўцы даных адыгрываюць ключавую ролю, наўмысна структуруючы мадэлі і канвееры даных такім чынам, што па сваёй сутнасці падтрымліваюць вытлумачальнасць, а не спрабуюць замацаваць гэта як заднюю думку. Даследчыя і дызайнерскія групы могуць садзейнічаць гэтаму, пачынаючы раннія размовы з навукоўцамі і інжынерамі аб патрэбах карыстальнікаў у разуменні, уносячы ўклад у распрацоўку паказчыкаў вытлумачальнасці і сумесна ствараючы прататыпы тлумачэнняў, каб гарантаваць, што яны дакладныя і зручныя для карыстальніка. XAI і этычны AI: распакаванне прадузятасці і адказнасці Акрамя ўмацавання даверу, XAI адыгрывае важную ролю ў вырашэнні глыбокіх этычных наступстваў штучнага інтэлекту*, асабліва ў дачыненні да алгарытмічнай прадузятасці. Такія метады вытлумачальнасці, як аналіз значэнняў SHAP, могуць выявіць, калі на рашэнні мадэлі непрапарцыйна ўплываюць адчувальныя атрыбуты, такія як раса, пол або сацыяльна-эканамічны статус, нават калі гэтыя фактары не выкарыстоўваліся відавочна ў якасці прамых уводных дадзеных. Напрыклад, калі мадэль зацвярджэння пазыкі пастаянна прысвойвае адмоўныя значэнні SHAP заяўнікам з пэўнай дэмаграфічнай групы, гэта сігналізуе аб патэнцыйнай прадузятасці, якая патрабуе расследавання, што дае камандам магчымасць выявіць і змякчыць такія несправядлівыя вынікі. Магутнасць XAI таксама звязана з патэнцыялам «мыцця вытлумачальнасці». Падобна таму, як «экалагічнае адмыванне» ўводзіць спажыўцоў у зман наконт экалагічнай практыкі, адмыванне тлумачальнасці можа адбывацца, калі тлумачэнні закліканы схаваць, а не асвятліць праблемныя алгарытмічныя паводзіны або ўласцівыя прадузятасці. Гэта можа выяўляцца празмерна спрошчанымі тлумачэннямі, якія апускаюць важныя фактары ўплыву, або тлумачэннямі, якія стратэгічна афармляюць вынікі так, каб яны выглядалі больш нейтральнымі або справядлівымі, чым яны ёсць на самой справе. Гэта падкрэслівае этычную адказнасць спецыялістаў-практыкаў UX за распрацоўку тлумачэнняў, якія з'яўляюцца сапраўды празрыстымі і паддаюцца праверцы. Прафесіяналы па UX у супрацоўніцтве з навукоўцамі па апрацоўцы дадзеных і этыкамі нясуць важную адказнасць за паведамленне аб прычынах прыняцця рашэння, а таксама аб абмежаваннях і патэнцыйных прадузятасцях асноўнай мадэлі штучнага інтэлекту. Гэта прадугледжвае ўстанаўленне рэалістычных чаканняў карыстальнікаў адносна дакладнасці штучнага інтэлекту, вызначэнне таго, дзе мадэль можа быць менш надзейнай, і прадастаўленне дакладных каналаў звароту або зваротнай сувязі, калі карыстальнікі лічаць несправядлівымі або няправільнымі вынікі. Актыўна вырашаючы гэтыяэтычныя аспекты дазволяць нам будаваць сістэмы штучнага інтэлекту, якія сапраўды справядлівыя і вартыя даверу. Ад метадаў да макетаў: практычныя шаблоны праектавання XAI Веданне паняццяў - гэта адно; іх праектаванне - гэта іншае. Вось як мы можам перавесці гэтыя метады XAI у інтуітыўна зразумелыя шаблоны праектавання. Шаблон 1: Зацвярджэнне "Таму што" (для важнасці функцыі) Гэта самы просты і часта найбольш эфектыўны ўзор. Гэта прамая заява на простай мове, якая раскрывае асноўную прычыну дзеянняў ІІ.
Эўрыстычны: Будзьце прамымі і лаканічнымі. Вядзіце з адзінай самай важнай прычынай. Пазбягайце жаргону любой цаной.
Прыклад: уявіце сабе сэрвіс струменевай перадачы музыкі. Замест таго, каб проста прадстаўляць плэйліст “Discover Weekly”, вы дадаеце невялікі радок мікракопіі. Рэкамендацыя песні: “Velvet Morning” Таму што вы слухаеце “The Fuzz” і іншы псіхадэлічны рок.
Шаблон 2: Інтэрактыўны "Што-калі" (для супярэчлівых фактаў) Супрацьфактычныя па сваёй сутнасці датычацца пашырэння правоў і магчымасцей. Лепшы спосаб прадставіць іх - гэта даць карыстальнікам інтэрактыўныя інструменты, каб самастойна даследаваць магчымасці. Гэта ідэальна падыходзіць для фінансавых, медыцынскіх або іншых мэтанакіраваных прыкладанняў.
Эўрыстычны: Зрабіце тлумачэнні інтэрактыўнымі і пашыраючымі магчымасці. Дазвольце карыстальнікам бачыць прычыну і следства іх выбару.
Прыклад: інтэрфейс заяўкі на крэдыт. Пасля адмовы, замест тупіка, карыстальнік атрымлівае інструмент для вызначэння таго, як розныя сцэнары (што-калі) могуць разыграцца (гл. малюнак 1).
Узор 3: Катушка з яркімі момантамі (для мясцовых тлумачэнняў) Калі штучны інтэлект выконвае дзеянне з кантэнтам карыстальніка (напрыклад, рэзюмаванне дакумента або ідэнтыфікацыя твараў на фота), тлумачэнне павінна быць візуальна звязана з крыніцай.
Эўрыстыка: выкарыстоўвайце візуальныя падказкі, такія як вылучэнне, контуры або анатацыі, каб падключыць тлумачэнне непасрэдна да элемента інтэрфейсу, які яно тлумачыць.
Прыклад: Інструмент штучнага інтэлекту, які абагульняе доўгія артыкулы. Рэзюмэ, створанае штучным інтэлектам: Першапачатковае даследаванне паказала рынкавы разрыў для ўстойлівых прадуктаў. Крыніца ў дакуменце: «...Наш аналіз рынкавых тэндэнцый за 2 квартал пераканаўча прадэманстраваў, што ні адзін буйны канкурэнт не абслугоўвае экалагічна свядомага спажыўца, выявіўшы значны разрыў на рынку для ўстойлівых прадуктаў...»
Узор 4: Візуал Push and Pull (для тлумачэнняў на аснове значэнняў) Для больш складаных рашэнняў карыстальнікам можа спатрэбіцца разуменне ўзаемадзеяння фактараў. Простая візуалізацыя даных можа зрабіць гэта ясным, не перагружаючы.
Эўрыстычны: выкарыстоўвайце простыя візуалізацыі даных з каляровым кодам (напрыклад, гістаграмы), каб паказаць фактары, якія станоўча і адмоўна паўплывалі на рашэнне.
Прыклад: штучны інтэлект правярае профіль кандыдата на вакансію. Чаму гэты кандыдат адпавядае на 75%: Фактары, якія спрыяюць павышэнню балаў: 5+ гадоў Вопыт даследаванняў UX Дасведчаны ў Python Фактары, якія зніжаюць балы: Няма досведу працы з B2B SaaS
Вывучэнне і выкарыстанне гэтых шаблонаў праектавання ў UX вашага прадукту штучнага інтэлекту дапаможа павялічыць тлумачальнасць. Вы таксама можаце выкарыстоўваць дадатковыя метады, якія я не разглядаю тут падрабязна. Гэта ўключае ў сябе наступнае:
Тлумачэнні на натуральнай мове: перавод тэхнічных вынікаў штучнага інтэлекту на простую гутарковую чалавечую мову, якую неспецыялісты могуць лёгка зразумець. Кантэкстуальныя тлумачэнні: забяспечваючы абгрунтаванне вываду штучнага інтэлекту ў пэўны момант і ў пэўным месцы, ён найбольш адпавядае задачы карыстальніка. Адпаведныя візуалізацыі: Выкарыстанне дыяграм, графікаў або цеплавых карт для візуальнага прадстаўлення працэсу прыняцця рашэнняў штучным інтэлектам, што робіць складаныя даныя інтуітыўна зразумелымі і больш лёгкімі для ўспрымання карыстальнікамі.
Заўвага для інтэрфейсу: пераўтварэнне гэтых тлумачальных вынікаў у бясшвоўны карыстальніцкі досвед таксама прадугледжвае ўласны набор тэхнічных меркаванняў. Распрацоўшчыкі інтэрфейсу часта змагаюцца з дызайнам API для эфектыўнага атрымання даных тлумачэнняў, а наступствы для прадукцыйнасці (напрыклад, стварэнне тлумачэнняў у рэальным часе для кожнага ўзаемадзеяння карыстальніка) патрабуюць дбайнага планавання, каб пазбегнуць затрымкі. Некаторыя прыклады з рэальнага свету DeliveryDefense UPS Capital UPS выкарыстоўвае штучны інтэлект для прысваення «ацэнкі даверу дастаўкі» адрасам, каб прадказаць верагоднасць крадзяжу пасылкі. Іх праграмнае забеспячэнне DeliveryDefense аналізуе гістарычныя дадзеныя аб месцазнаходжанні, частаце страт і іншых фактарах. Калі адрас мае нізкі бал, сістэма можа загадзя перанакіраваць пакет у бяспечную кропку доступу UPS, даючы тлумачэнне рашэння (напрыклад, «Пасылка перанакіравана ў бяспечнае месца з-за гісторыі крадзяжу»). Гэтая сістэма дэманструе, як можна выкарыстоўваць XAI для зніжэння рызыкі і ўмацавання даверу кліентаўпразрыстасць. Аўтаномныя транспартныя сродкі Гэтыя транспартныя сродкі будучыні павінны будуць эфектыўна выкарыстоўваць XAI, каб дапамагчы сваім аўтамабілям прымаць бяспечныя, вытлумачальныя рашэнні. Калі беспілотны аўтамабіль раптоўна тармозіць, сістэма можа даць тлумачэнне сваіх дзеянняў у рэжыме рэальнага часу, напрыклад, ідэнтыфікуючы пешахода, які выходзіць на дарогу. Гэта мае вырашальнае значэнне не толькі для камфорту і даверу пасажыраў, але і з'яўляецца нарматыўным патрабаваннем для пацверджання бяспекі і падсправаздачнасці сістэмы штучнага інтэлекту. IBM Watson Health (і праблемы) Хоць яго часта называюць агульным прыкладам штучнага інтэлекту ў ахове здароўя, ён таксама з'яўляецца каштоўным тэматычным даследаваннем важнасці XAI. Няўдача праекта Watson for Oncology паказвае, што можа пайсці не так, калі тлумачэнні незразумелыя, або калі базавыя даныя неаб'ектыўныя або не лакалізаваныя. Рэкамендацыі сістэмы часам не адпавядалі мясцовай клінічнай практыцы, таму што яны грунтаваліся на рэкамендацыях, арыентаваных на ЗША. Гэта служыць папярэджаннем аб неабходнасці надзейнай тлумачальнасці з улікам кантэксту. Роля даследчыка UX: дакладнае вызначэнне і праверка тлумачэнняў Нашы дызайнерскія рашэнні эфектыўныя толькі ў тым выпадку, калі яны адказваюць на правільныя пытанні карыстальнікаў у патрэбны час. Тлумачэнне, якое адказвае на пытанне, якога карыстальнік не мае, - гэта проста шум. Тут даследаванні UX становяцца найважнейшай злучальнай тканінай у стратэгіі XAI, гарантуючы, што мы тлумачым, што і як гэта насамрэч важна для нашых карыстальнікаў. Роля даследчыка дваякая: па-першае, інфармаваць стратэгію, выяўляючы, дзе патрэбныя тлумачэнні, і па-другое, правяраць праекты, якія забяспечваюць гэтыя тлумачэнні. Інфармаванне стратэгіі XAI (што растлумачыць) Перш чым мы зможам распрацаваць адзінае тлумачэнне, мы павінны зразумець разумовую мадэль карыстальніка сістэмы штучнага інтэлекту. Што яны вераць, што гэта робіць? Дзе разрывы паміж іх разуменнем і рэальнасцю сістэмы? Гэта асноватворная праца даследчыка UX. Інтэрв'ю з ментальнай мадэллю: распакаванне ўспрымання карыстальнікаў сістэм штучнага інтэлекту Праз глыбокія паўструктураваныя інтэрв'ю спецыялісты-практыкі UX могуць атрымаць неацэнную інфармацыю аб тым, як карыстальнікі ўспрымаюць і разумеюць сістэмы штучнага інтэлекту. Гэтыя сеансы распрацаваны, каб заахвоціць карыстальнікаў літаральна намаляваць або апісаць сваю ўнутраную «ментальную мадэль» таго, як, на іх думку, працуе штучны інтэлект. Гэта часта ўключае ў сябе заданне адкрытых пытанняў, якія падахвочваюць карыстальнікаў растлумачыць логіку сістэмы, яе ўваходы і выхады, а таксама адносіны паміж гэтымі элементамі. Гэтыя інтэрв'ю з'яўляюцца магутнымі, таму што яны часта раскрываюць глыбокія памылковыя ўяўленні і здагадкі, якія прытрымліваюцца карыстальнікаў адносна ІІ. Напрыклад, карыстальнік, які ўзаемадзейнічае з механізмам рэкамендацый, можа з упэўненасцю сцвярджаць, што сістэма заснавана выключна на іх гісторыі мінулых праглядаў. Яны могуць не разумець, што алгарытм таксама ўключае ў сябе мноства іншых фактараў, такіх як час сутак, які яны праглядаюць, бягучыя папулярныя элементы на платформе або нават звычкі прагляду падобных карыстальнікаў. Выяўленне гэтага разрыву паміж ментальнай мадэллю карыстальніка і рэальнай базавай логікай штучнага інтэлекту вельмі важна. Ён паведамляе нам, якую канкрэтную інфармацыю нам трэба паведаміць карыстальнікам, каб дапамагчы ім пабудаваць больш дакладную і надзейную разумовую мадэль сістэмы. Гэта, у сваю чаргу, фундаментальны крок у выхаванні даверу. Калі карыстальнікі разумеюць, нават на высокім узроўні, як штучны інтэлект робіць свае высновы або рэкамендацыі, яны, хутчэй за ўсё, будуць давяраць яго вынікам і спадзявацца на яго функцыянальнасць. AI Journey Mapping: глыбокі аналіз даверу карыстальнікаў і вытлумачальнасці Скрупулёзна адлюстроўваючы шлях карыстальніка з дапамогай функцыі штучнага інтэлекту, мы атрымліваем неацэннае разуменне дакладных момантаў, калі ўзнікае разгубленасць, расчараванне ці нават глыбокі недавер. Гэта выяўляе крытычныя моманты, калі ментальная мадэль карыстальніка аб тым, як працуе штучны інтэлект, супярэчыць яго рэальным паводзінам. Разгледзім сэрвіс струменевай перадачы музыкі: ці падае давер карыстальніка, калі рэкамендаваны спіс прайгравання здаецца «выпадковым», без якой-небудзь прыкметнай сувязі з іх мінулымі звычкамі праслухоўвання або заяўленымі перавагамі? Гэтая ўяўная выпадковасць з'яўляецца прамым выклікам чаканням карыстальніка разумнага курыравання і парушэннем імпліцытнага абяцання, што ІІ разумее іх густ. Аналагічным чынам, у дадатку для кіравання фатаграфіямі, ці адчуваюць карыстальнікі сур'ёзнае расчараванне, калі функцыя пазначэння фатаграфій AI пастаянна памылкова ідэнтыфікуе каханага члена сям'і? Гэтая памылка больш чым тэхнічны збой; гэта дзівіць у самае сэрца дакладнасцю, персаналізацыяй і наватэмацыйная сувязь. Гэтыя болевыя кропкі з'яўляюцца яркімі сігналамі, якія дакладна паказваюць, дзе неабходна дакладнае, дакладнае і кароткае тлумачэнне. Такія тлумачэнні служаць найважнейшым механізмам выпраўлення, выпраўляючы парушэнне даверу, якое, калі яго пакінуць без увагі, можа прывесці да таго, што карыстальнік адмовіцца. Сіла картаграфавання падарожжаў AI заключаецца ў яго здольнасці вывесці нас за рамкі простага тлумачэння канчатковага выніку сістэмы AI. Разуменне таго, што стварыў штучны інтэлект, важна, але часта бывае недастаткова. Замест гэтага гэты працэс прымушае нас засяродзіцца на тлумачэнні працэсу ў крытычныя моманты. Гэта азначае адрасаванне:
Чаму быў згенераваны пэўны вывад: Ці было гэта звязана з пэўнымі ўваходнымі данымі? Канкрэтная архітэктура мадэлі? Якія фактары паўплывалі на рашэнне штучнага інтэлекту: ці надавалася пэўным асаблівасцям большую вагу? Як AI прыйшоў да высновы: ці можам мы прапанаваць спрошчанае, аналагічнае тлумачэнне яго ўнутранай працы? Якія здагадкі зрабіў штучны інтэлект: ці былі невідавочныя ўяўленні аб намерах карыстальніка або даных, якія трэба было адкрыць? У чым заключаюцца абмежаванні штучнага інтэлекту: дакладнае паведамленне аб тым, што штучны інтэлект не можа зрабіць або дзе яго дакладнасць можа вагацца, стварае рэалістычныя чаканні.
Карціраванне падарожжаў штучным інтэлектам пераўтварае абстрактную канцэпцыю XAI у практычную, дзейсную структуру для спецыялістаў-практыкаў UX. Гэта дазваляе нам выйсці за межы тэарэтычных абмеркаванняў вытлумачальнасці і замест гэтага дакладна вызначыць моманты, калі давер карыстальнікаў пастаўлены на карту, даючы неабходную інфармацыю для стварэння магутнага, празрыстага, зразумелага і заслугоўваючага даверу вопыту штучнага інтэлекту. У рэшце рэшт, даследаванні - гэта тое, як мы раскрываем невядомыя. Ваша каманда можа абмяркоўваць, як растлумачыць, чаму было адмоўлена ў пазыцы, але даследаванне можа паказаць, што карыстальнікі значна больш занепакоеныя разуменнем таго, як іх дадзеныя былі выкарыстаны ў першую чаргу. Без даследаванняў мы проста здагадваемся, што цікавіць нашых карыстальнікаў. Супрацоўніцтва над дызайнам (як растлумачыць свой штучны інтэлект) Пасля таго, як даследаванне вызначыла, што трэба растлумачыць, пачынаецца цыкл супрацоўніцтва з дызайнам. Дызайнеры могуць ствараць прататыпы шаблонаў, якія мы абмяркоўвалі раней - заяву "Таму што", інтэрактыўныя паўзункі - і даследчыкі могуць выстаўляць гэтыя дызайны перад карыстальнікамі, каб убачыць, ці вытрымаюць яны. Мэтавае тэсціраванне зручнасці выкарыстання і разумення: мы можам распрацаваць даследаванні, якія спецыяльна правяраюць кампаненты XAI. Мы не проста пытаемся: "Ці лёгка гэта выкарыстоўваць?" Мы пытаемся: "Убачыўшы гэта, вы можаце сказаць мне сваімі словамі, чаму сістэма рэкамендавала гэты прадукт?" або «Пакажы мне, што б ты зрабіў, каб убачыць, ці зможаш атрымаць іншы вынік». Мэта тут - вымераць разуменне і здольнасць да дзеяння, а таксама зручнасць выкарыстання. Сама вымярэнне даверу: мы можам выкарыстоўваць простыя апытанні і рэйтынгавыя шкалы да і пасля паказу тлумачэнняў. Напрыклад, мы можам спытаць карыстальніка па 5-бальнай шкале: «Наколькі вы давяраеце гэтай рэкамендацыі?» перш чым яны ўбачаць заяву "Таму што", а затым спытайце іх зноў пасля гэтага. Гэта дае колькасныя дадзеныя аб тым, ці сапраўды нашы тлумачэнні рухаюць іголкай даверу. Гэты працэс стварае магутны ітэрацыйны цыкл. Вынікі даследаванняў улічваюць першапачатковы дызайн. Затым гэтая канструкцыя правяраецца, а новыя высновы перадаюцца камандзе дызайнераў для дапрацоўкі. Магчыма, сцвярджэнне "Таму што" было занадта жаргонным, або паўзунок "Што-калі" больш заблытваў, чым пашыраў магчымасці. З дапамогай гэтай сумеснай праверкі мы гарантуем, што канчатковыя тлумачэнні з'яўляюцца тэхнічна дакладнымі, сапраўды зразумелымі, карыснымі і ўмацоўваюць давер людзей, якія выкарыстоўваюць прадукт. Зона тлумачэння Златовласка Крытычная засцярога: можна празмерна растлумачыць. Як у казцы, дзе Залатавуска шукала кашу, якая «самы патрэбны», мэта добрага тлумачэння — даць патрэбную колькасць дэталяў — не занадта шмат і не занадта мала. Бамбардзіроўка карыстальніка кожнай зменнай у мадэлі прывядзе да кагнітыўнай перагрузкі і можа фактычна знізіць давер. Мэта не ў тым, каб зрабіць карыстальніка навукоўцам дадзеных. Адным з рашэнняў з'яўляецца паступовае раскрыццё інфармацыі.
Пачаць з простага. Вядзіце сціслай заявай «Таму што». Для большасці карыстальнікаў гэтага будзе дастаткова. Прапануйце шлях да дэталяў. Дайце выразную спасылку з нізкім узроўнем трэння, напрыклад «Даведацца больш» або «Паглядзіце, як гэта было вызначана». Выявіць складанасць. За гэтай спасылкай вы можаце прапанаваць інтэрактыўныя паўзункі, візуалізацыі або больш падрабязны спіс спрыяльных фактараў.
Гэты шматслойны падыход паважае ўвагу і вопыт карыстальнікаў, забяспечваючы патрэбную колькасцьінфармацыі для сваіх патрэб. Давайце ўявім, што вы выкарыстоўваеце прыладу разумнага дома, якая рэкамендуе аптымальны ацяпленне на аснове розных фактараў. Пачніце з простага: «У цяперашні час ваш дом награваецца да 72 градусаў, што з'яўляецца аптымальнай тэмпературай для эканоміі энергіі і камфорту». Прапануйце шлях да дэталяў: пад гэтым маленькая спасылка або кнопка: "Чаму аптымальным з'яўляецца 72 градусы?" Адкрыйце складанасць: пстрычка па гэтай спасылцы можа адкрыць новы экран, які паказвае:
Інтэрактыўныя паўзункі вонкавай тэмпературы, вільготнасці і жаданага ўзроўню камфорту, якія дэманструюць, як яны рэгулююць рэкамендаваную тэмпературу. Візуалізацыя спажывання энергіі пры розных тэмпературах. Спіс уплывовых фактараў, такіх як "Час сутак", "Бягучая вонкавая тэмпература", "Гістарычнае выкарыстанне энергіі" і "Датчыкі прысутнасці".
Эфектыўна камбінаваць некалькі метадаў XAI, і гэты ўзор Зоны тлумачэння Златаўласкі, які выступае за паступовае раскрыццё інфармацыі, ускосна заахвочвае гэта. Вы можаце пачаць з простага сцвярджэння «Таму што» (шаблон 1) для неадкладнага разумення, а потым прапанаваць спасылку «Даведацца больш», якая раскрывае інтэрактыў «Што-калі» (шаблон 2) або «наглядны малюнак Push-and-Pull» (шаблон 4) для больш глыбокага вывучэння. Напрыклад, сістэма падачы заяўкі на пазыку можа першапачаткова ўказаць асноўную прычыну адмовы (важнасць асаблівасці), затым дазволіць карыстальніку ўзаемадзейнічаць з інструментам "Што, калі", каб убачыць, як змены ў яго даходах або запазычанасці зменяць вынік (супрацьфактычныя), і, нарэшце, прадаставіць падрабязную дыяграму "Націскай і цягні" (тлумачэнне на аснове каштоўнасці), каб праілюстраваць станоўчы і адмоўны ўклад усіх фактараў. Гэты шматслойны падыход дазваляе карыстальнікам атрымаць доступ да неабходнага ўзроўню дэталізацыі, калі ён ім патрэбны, прадухіляючы кагнітыўную перагрузку, забяспечваючы пры гэтым поўную празрыстасць. Вызначэнне таго, якія інструменты і метады XAI выкарыстоўваць, у першую чаргу залежыць ад дбайнага даследавання UX. Інтэрв'ю з псіхічнай мадэллю і адлюстраванне шляхоў штучнага інтэлекту маюць вырашальнае значэнне для дакладнага вызначэння патрэб карыстальнікаў і болевых момантаў, звязаных з разуменнем штучнага інтэлекту і даверам. Інтэрв'ю з ментальнай мадэллю дапамагае выявіць памылковыя ўяўленні карыстальнікаў аб тым, як працуе штучны інтэлект, паказваючы вобласці, дзе неабходны фундаментальныя тлумачэнні (напрыклад, важнасць функцый або мясцовыя тлумачэнні). З іншага боку, адлюстраванне падарожжаў штучнага інтэлекту вызначае крытычныя моманты разгубленасці або недаверу ва ўзаемадзеянні карыстальніка з штучным інтэлектам, паказваючы, дзе больш падрабязныя або інтэрактыўныя тлумачэнні (напрыклад, супярэчлівыя факты або тлумачэнні, заснаваныя на каштоўнасцях) будуць найбольш карыснымі для аднаўлення даверу і прадастаўлення волі.
У рэшце рэшт, лепшы спосаб выбраць тэхніку - гэта дазволіць даследаванні карыстальнікаў кіраваць вашымі рашэннямі, гарантуючы, што тлумачэнні, якія вы распрацоўваеце, непасрэдна закранаюць рэальныя пытанні і праблемы карыстальнікаў, а не проста прапаноўваюць тэхнічныя падрабязнасці дзеля іх саміх. XAI для Deep Reasoning Agents Некаторыя з найноўшых сістэм штучнага інтэлекту, вядомыя як агенты глыбокага разважання, ствараюць дакладны «ланцужок думак» для кожнай складанай задачы. Яны не проста спасылаюцца на крыніцы; яны паказваюць лагічны, пакрокавы шлях, па якім яны прыйшлі да высновы. Нягледзячы на тое, што гэтая празрыстасць забяспечвае каштоўны кантэкст, гульня за гульнёй, якая ахоплівае некалькі абзацаў, можа здацца ашаламляльнай для карыстальніка, які проста спрабуе выканаць задачу. Тут непасрэдна прымяняюцца прынцыпы XAI, асабліва Зона тлумачэння Златовласка. Мы можам курыраваць падарожжа, выкарыстоўваючы паступовае раскрыццё інфармацыі, каб спачатку паказаць толькі канчатковую выснову і найбольш важны крок у працэсе мыслення. Затым карыстальнікі могуць выбраць поўную, падрабязную шматэтапную аргументацыю, калі ім трэба яшчэ раз праверыць логіку або знайсці пэўны факт. Такі падыход паважае ўвагу карыстальніка, захоўваючы поўную празрыстасць агента. Наступныя крокі: пашырэнне магчымасцей вашага падарожжа XAI Тлумачлівасць з'яўляецца асновай для стварэння надзейных і эфектыўных прадуктаў штучнага інтэлекту. Для прасунутага спецыяліста, які хоча ажыццявіць гэтыя змены ў сваёй арганізацыі, шлях выходзіць за рамкі шаблонаў праектавання ў прапаганду і бесперапыннае навучанне. Каб паглыбіць сваё разуменне і практычнае прымяненне, падумайце аб вывучэнні такіх рэсурсаў, як набор інструментаў AI Explainability 360 (AIX360) ад IBM Research або Google's What-If Tool, якія прапануюць інтэрактыўныя спосабы вывучэння паводзін мадэляў і тлумачэнняў. Узаемадзеянне з такімі супольнасцямі, як Форум адказнага штучнага інтэлекту, або асобнымі даследчыцкімі групамі, арыентаванымі на чалавека, можа даць неацэнную інфармацыю і магчымасці для супрацоўніцтва. Нарэшце, будзьце абаронцам XAI у сваёй арганізацыі.Вытлумачальнасць рамкі як стратэгічная інвестыцыя. Разгледзьце кароткую прапанову для вашага кіраўніцтва або міжфункцыянальных каманд: "Інвестуючы ў XAI, мы выйдзем за рамкі ўмацавання даверу; мы паскорым прыняцце карыстальнікаў, знізім выдаткі на падтрымку, даючы карыстальнікам разуменне, і зменшым значныя этычныя і нарматыўныя рызыкі, выкрываючы патэнцыйныя прадузятасці. Гэта добры дызайн і разумны бізнес".
Ваш голас, заснаваны на практычным разуменні, мае вырашальнае значэнне для таго, каб вывесці штучны інтэлект з чорнай скрыні на супрацоўніцтва з карыстальнікамі.