Viimeisessä kappaleessani vahvistimme perustavanlaatuisen totuuden: jotta käyttäjät voivat omaksua tekoälyn ja luottaa siihen, heidän täytyy luottaa siihen. Puhuimme siitä, että luottamus on monipuolinen rakennelma, joka perustuu käsityksiin tekoälyn kyvystä, hyväntahtoisuudesta, rehellisyydestä ja ennustettavuudesta. Mutta mitä tapahtuu, kun tekoäly hiljaisessa algoritmisessa viisautessaan tekee päätöksen, joka jättää käyttäjän hämmentyneeksi, turhautuneeksi tai jopa loukkaantuneeksi? Asuntolainahakemus evätään, suosikkikappale puuttuu yhtäkkiä soittolistalta ja pätevä ansioluettelo hylätään ennen kuin ihminen näkee sen. Näinä hetkinä kyky ja ennustettavuus murtuvat, ja hyväntahtoisuus tuntuu maailmalta. Keskustelumme on nyt kehitettävä luottamuksesta avoimuuteen. Selitettävän tekoälyn (XAI) kenttä, joka keskittyy kehittämään menetelmiä tekoälytulosten tekemiseksi ymmärrettäviksi ihmisille, on noussut esiin tämän ratkaisemiseksi, mutta se on usein muotoiltu puhtaasti tekniseksi haasteeksi datatieteilijöille. Väitän, että se on kriittinen suunnitteluhaaste tekoälyyn perustuville tuotteille. Meidän tehtävämme UX-ammattilaisina on kuroa umpeen algoritmisen päätöksenteon ja ihmisen ymmärryksen välinen kuilu. Tämä artikkeli tarjoaa käytännöllisiä ja toimivia ohjeita selitettävyyden tutkimiseen ja suunnitteluun. Siirrymme muotisanojen ulkopuolelle malleihin ja muunnamme monimutkaiset XAI-konseptit konkreettisiksi suunnittelumalleiksi, joita voit alkaa käyttää jo tänään. Mystifying XAI: Ydinkonseptit UX-harjoittajille XAI vastaa käyttäjän kysymykseen: "Miksi?" Miksi minulle näytettiin tämä mainos? Miksi tätä elokuvaa suositellaan minulle? Miksi pyyntöni hylättiin? Ajattele sitä tekoälynä, joka näyttää työnsä matemaattisen ongelman parissa. Ilman sitä sinulla on vain vastaus, ja sinun on pakko ottaa se uskon varaan. Näyttämällä vaiheet rakennat ymmärrystä ja luottamusta. Annat myös ihmisten, joihin se vaikuttaa, tarkastaa ja todentaa työsi. Ominaisuuden tärkeys ja kontrafaktuaalit On olemassa useita tekniikoita, joilla voimme selventää tai selittää, mitä tekoälyn kanssa tapahtuu. Vaikka menetelmät vaihtelevat päätöksentekopuun koko logiikan tarjoamisesta luonnollisen kielen tiivistelmien tuottamiseen tulosteesta, kaksi käytännöllisintä ja vaikuttavinta tietoa, jota UX:n harjoittajat voivat tuoda kokemukseen, ovat ominaisuuden tärkeys (kuva 1) ja kontrafaktuaalit. Nämä ovat usein käyttäjien kannalta selkeimpiä ja suunnittelijoiden toteuttamiskelpoisimpia.

Ominaisuuden merkitys Tämä selitettävyysmenetelmä vastaa: "Mitkä olivat tärkeimmät tekijät, jotka tekoäly piti?" Kyse on 2–3 tärkeimmän muuttujan tunnistamisesta, joilla oli suurin vaikutus tulokseen. Se on otsikko, ei koko tarina. Esimerkki: Kuvittele tekoäly, joka ennustaa, peruuttaako asiakas (peruuttaako palvelunsa). Ominaisuuden tärkeys saattaa paljastaa, että "tukipuheluiden määrä viime kuussa" ja "äskettäiset hinnankorotukset" olivat kaksi tärkeintä tekijää määritettäessä, vaihtuiko asiakas todennäköisesti.

Kontrafaktuaalit Tämä tehokas menetelmä vastaa: "Mitä minun pitäisi muuttaa saadakseni erilaisen tuloksen?" Tämä on ratkaisevan tärkeää, koska se antaa käyttäjille toimivallan tunteen. Se muuttaa turhauttavan "ei" toiminnalliseksi "ei vielä". Esimerkki: Kuvittele lainahakemusjärjestelmä, joka käyttää tekoälyä. Käyttäjältä evätään laina. Sen sijaan, että näkisit vain "Hakemus hylätty", kontrafaktuaalinen selitys olisi myös: "Jos luottopisteesi olisi ollut 50 pistettä korkeampi tai jos velka-tulosuhde olisi 10 % pienempi, lainasi olisi hyväksytty." Tämä antaa Sarahille selkeitä, toimivia askeleita, joita hän voi ottaa saadakseen lainan tulevaisuudessa.

Mallitietojen käyttäminen selityksen parantamiseen Vaikka teknisiä yksityiskohtia käsittelevät usein datatieteilijät, käyttökokemuksen ammattilaisten on hyödyllistä tietää, että työkalut, kuten LIME (Local Interpretable Model-agnostic Explanations), joka selittää yksittäisiä ennusteita lähentämällä mallia paikallisesti, ja SHAP (SHapley Additive ExPlanations), joka käyttää peliteoriaa selittääkseen näiden monimutkaisten koneoppimismallien tuotoksen. Nämä kirjastot auttavat olennaisesti hajottamaan tekoälyn päätöstä näyttää, mitkä syötteet vaikuttivat eniten tiettyyn tulokseen. Oikein tehtynä tekoälytyökalun päätöksen taustalla olevaa dataa voidaan käyttää vahvan tarinan kertomiseen. Käydään läpi ominaisuuksien tärkeys ja kontrafaktuaalit ja näytämme, kuinka päätöksen taustalla olevaa datatieteitä voidaan hyödyntää käyttäjäkokemuksen parantamiseksi. nyt mennäänpeittää ominaisuuden tärkeyden paikallisten selitysten (esim. LIME) tietojen avulla: Tämä lähestymistapa vastaa: "Miksi tekoäly teki tämän suosituksen minulle juuri nyt?" Mallin toiminnan yleisen selityksen sijaan se tarjoaa kohdistetun syyn yksittäiselle tietylle tapaukselle. Se on henkilökohtaista ja kontekstuaalista. Esimerkki: Kuvittele tekoälyllä toimiva musiikkisuositusjärjestelmä, kuten Spotify. Paikallinen selitys vastaisi: "Miksi järjestelmä suositteli tätä tiettyä Adelen kappaletta sinulle juuri nyt?" Selitys voisi olla: "Koska kuuntelit äskettäin useita muita tunteita herättäviä balladeja ja lauluja naislaulajilta."

Lopuksi käsitellään arvopohjaisten selitysten (esim. Shapley Additive Explanations (SHAP) -tietojen) sisällyttämistä päätöksen selityksiin: Tämä on vivahteikas versio ominaisuuden tärkeydestä, joka vastaa: "Kuinka kukin tekijä painoi päätöstä suuntaan tai toiseen?" Se auttaa visualisoimaan, mikä oli tärkeää ja oliko sen vaikutus positiivinen vai negatiivinen. Esimerkki: Kuvittele, että pankki käyttää tekoälymallia päättääkseen, hyväksyykö se lainahakemuksen.

Ominaisuuden tärkeys: Mallin tulos saattaa osoittaa, että hakijan luottopisteet, tulot ja velka-tulosuhde olivat tärkeimmät tekijät päätöksenteossa. Tämä vastaa olennaiseen. Ominaisuuden tärkeys arvopohjaisilla selityksillä (SHAP): SHAP-arvot lisäisivät ominaisuuden merkitystä mallin elementtien perusteella.

Hyväksytyn lainan kohdalla SHAP saattaa osoittaa, että korkea luottopistemäärä työnsi päätöstä merkittävästi kohti hyväksyntää (positiivinen vaikutus), kun taas hieman keskimääräistä korkeampi velka-tulosuhde veti sitä hieman pois (negatiivinen vaikutus), mutta ei tarpeeksi evätäkseen lainaa. Jos laina on evätty, SHAP saattoi paljastaa, että alhaiset tulot ja suuri määrä viimeaikaisia luottokyselyitä painoivat voimakkaasti päätöstä kieltäytymiseen, vaikka luottopisteet olivatkin kunnolliset.

Tämä auttaa lainanhoitajaa selittämään hakijalle harkittua pidemmälle, kuinka kukin tekijä vaikutti lopulliseen "kyllä"- tai "ei"-päätökseen. On tärkeää huomata, että kyky antaa hyviä selityksiä alkaa usein paljon aikaisemmin kehityssyklissä. Datatieteilijöillä ja insinööreillä on keskeinen rooli, kun he tarkoituksella jäsentävät malleja ja tietoputkia tavoilla, jotka luonnostaan tukevat selitettävyyttä, sen sijaan, että he yrittäisivät liittää sitä jälkikäteen. Tutkimus- ja suunnittelutiimit voivat edistää tätä aloittamalla varhaisessa vaiheessa keskusteluja datatieteilijöiden ja insinöörien kanssa käyttäjien tarpeista ymmärtää, osallistumalla selitettävyyden mittareiden kehittämiseen ja yhdessä prototyyppien laatimalla selityksiä varmistaakseen, että ne ovat sekä tarkkoja että käyttäjäystävällisiä. XAI ja eettinen tekoäly: puolueellisuuden ja vastuun purkaminen Luottamuksen rakentamisen lisäksi XAI:lla on ratkaiseva rooli tekoälyn* syvällisten eettisten seurausten käsittelemisessä, erityisesti algoritmien harhaan liittyvissä asioissa. Selitettävyystekniikat, kuten SHAP-arvojen analysointi, voivat paljastaa, vaikuttavatko mallin päätökset suhteettomasti arkaluontoiset ominaisuudet, kuten rotu, sukupuoli tai sosioekonominen asema, vaikka näitä tekijöitä ei nimenomaisesti käytetty suorina syötteinä. Jos esimerkiksi lainan hyväksymismalli antaa johdonmukaisesti negatiivisia SHAP-arvoja hakijoille tietyn väestörakenteen perusteella, se merkitsee mahdollista harhaa, joka vaatii tutkimista, mikä antaa ryhmille mahdollisuuden havaita ja lieventää tällaisia epäreiluja tuloksia. XAI:n teho sisältää myös mahdollisuuden "selitettävään pesuun". Aivan kuten "vihreäpesu" johtaa kuluttajia harhaan ympäristökäytäntöjen suhteen, selitettävyyden pesua voi tapahtua silloin, kun selitys on suunniteltu hämärtämään ongelmallista algoritmista käyttäytymistä tai luontaisia ennakkoluuloja, ei valaisemaan niitä. Tämä voi ilmetä liian yksinkertaisina selityksinä, joissa jätetään pois kriittiset vaikuttajat, tai selitykset, jotka strategisesti muotoilevat tulokset neutraalemmilta tai oikeudenmukaisemmilta kuin ne todellisuudessa ovat. Se korostaa UX-harjoittajien eettistä vastuuta suunnitella selitykset, jotka ovat aidosti läpinäkyviä ja todennettavissa. UX-ammattilaisilla on yhteistyössä datatieteilijöiden ja eettisten asiantuntijoiden kanssa keskeinen vastuu päätöksen syistä sekä taustalla olevan tekoälymallin rajoituksista ja mahdollisista harhoista. Tämä edellyttää realististen käyttäjien odotuksia tekoälyn tarkkuudesta, tunnistaa, missä malli saattaa olla vähemmän luotettava, ja tarjota selkeät kanavat turvautumiselle tai palautteelle, kun käyttäjät kokevat epäoikeudenmukaisia tai virheellisiä tuloksia. Näihin puututaan ennakoivastiEettiset ulottuvuudet antavat meille mahdollisuuden rakentaa tekoälyjärjestelmiä, jotka ovat todella oikeudenmukaisia ​​ja luotettavia. Menetelmistä malleihin: käytännölliset XAI-suunnittelumallit Käsitteiden tunteminen on yksi asia; niiden suunnittelu on toinen. Näin voimme muuntaa nämä XAI-menetelmät intuitiivisiksi suunnittelumalleiksi. Malli 1: "Koska"-lause (ominaisuuden tärkeyden vuoksi) Tämä on yksinkertaisin ja usein tehokkain malli. Se on suora, selväkielinen lausunto, joka paljastaa tekoälyn toiminnan ensisijaisen syyn.

Heuristinen: Ole suora ja ytimekäs. Johda kaikkein vaikuttavimmalla syyllä. Vältä ammattikieltä kaikin keinoin.

Esimerkki: Kuvittele musiikin suoratoistopalvelu. Sen sijaan, että esittäisit vain "Discover Weekly" -soittolistan, lisäät pienen rivin mikrokopiota. Kappalesuositus: "Velvet Morning", Koska kuuntelet "The Fuzzia" ja muuta psykedeelistä rockia.

Malli 2: "Mitä jos" -vuorovaikutteinen (faktuaaleille) Kontrafaktuaalit liittyvät luonnostaan voimaantumiseen. Paras tapa edustaa heitä on antaa käyttäjille interaktiivisia työkaluja, joilla he voivat tutkia mahdollisuuksia itse. Tämä sopii täydellisesti talous-, terveys- tai muihin tavoitteellisiin sovelluksiin.

Heuristinen: Tee selityksistä interaktiivisia ja voimaannuttavia. Anna käyttäjien nähdä valintojensa syyt ja seuraukset.

Esimerkki: Lainahakemuksen käyttöliittymä. Kiellon jälkeen käyttäjä saa umpikujan sijaan työkalun määrittääkseen, miten eri skenaariot (mitä jos) voivat toteutua (katso kuva 1).

Kuvio 3: Highlight Reel (paikallisia selityksiä varten) Kun tekoäly suorittaa toiminnon käyttäjän sisällölle (kuten tekee yhteenvedon asiakirjasta tai tunnistaa kasvot valokuvissa), selityksen tulee olla visuaalisesti linkitetty lähteeseen.

Heuristinen: Käytä visuaalisia vihjeitä, kuten korostuksia, ääriviivoja tai huomautuksia, liittääksesi selityksen suoraan sen selittävään käyttöliittymäelementtiin.

Esimerkki: AI-työkalu, joka tiivistää pitkiä artikkeleita.Tekoälyn luoma yhteenvetokohta: Alkuperäinen tutkimus osoitti kestävien tuotteiden markkinavajeen. Lähde asiakirjassa: "...Toisen vuosineljänneksen markkinatrendejä koskeva analyysimme osoitti lopullisesti, ettei mikään suuri kilpailija palvellut tehokkaasti ympäristötietoisia kuluttajia, mikä paljastaa merkittävän markkinavajeen kestäville tuotteille..."

Malli 4: Push-and-Pull -visuaali (arvopohjaisille selityksille) Monimutkaisempia päätöksiä varten käyttäjien on ehkä ymmärrettävä tekijöiden vuorovaikutus. Yksinkertaiset datavisualisoinnit voivat tehdä tämän selväksi ilman ylivoimaista.

Heuristinen: Käytä yksinkertaisia, värikoodattuja datavisualisointeja (kuten pylväskaavioita) näyttääksesi päätökseen positiivisesti ja negatiivisesti vaikuttaneet tekijät.

Esimerkki: tekoäly tarkastelee työnhakijan profiilia.Miksi tämä hakija vastaa 75 %:sti:Pistettä nostavat tekijät:Välittäin 5 vuotta UX-tutkimuskokemusta PythonFactors-tekniikassa, mikä laskee pisteet:Ei kokemusta B2B SaaSista

Näiden suunnittelumallien oppiminen ja käyttäminen tekoälytuotteesi käyttökokemuksessa auttaa lisäämään selitettävyyttä. Voit myös käyttää muita tekniikoita, joita en käsittele tässä yksityiskohtaisesti. Tämä sisältää seuraavat:

Luonnollisen kielen selitykset: Tekoälyn teknisen tuloksen kääntäminen yksinkertaiseksi, keskustelua herättäväksi ihmiskieleksi, jota ei-asiantuntijat voivat helposti ymmärtää. Asiayhteyteen liittyvät selitykset: Tekoälyn tuotoksen perustelut tietyllä hetkellä ja tietyssä paikassa ovat käyttäjän tehtävän kannalta olennaisimmat. Asiaankuuluvat visualisoinnit: Kaavioiden, kaavioiden tai lämpökarttojen käyttö kuvaamaan tekoälyn päätöksentekoprosessia visuaalisesti, jolloin monimutkaisista tiedoista tulee intuitiivisia ja käyttäjien helpompia ymmärtää.

Huomautus käyttöliittymälle: Näiden selitettävyystulosten kääntäminen saumattomiksi käyttökokemuksiksi tuo myös omat tekniset näkökohdat. Käyttöliittymäkehittäjät kamppailevat usein API-suunnittelun kanssa noutaakseen tehokkaasti selitystietoja, ja suorituskykyvaikutukset (kuten jokaisen käyttäjän vuorovaikutuksen reaaliaikainen selitysten luominen) vaativat huolellista suunnittelua latenssin välttämiseksi. Muutamia esimerkkejä tosielämästä UPS Capitalin DeliveryDefense UPS käyttää tekoälyä määrittämään "toimituksen luottamuspisteet" osoitteille paketin varastamisen todennäköisyyden ennustamiseksi. Heidän DeliveryDefense -ohjelmistonsa analysoi historiallisia tietoja sijainnista, häviötiheydestä ja muista tekijöistä. Jos osoitteen pistemäärä on alhainen, järjestelmä voi ennakoivasti reitittää paketin uudelleen suojattuun UPS-tukiasemaan ja antaa selityksen päätökselle (esim. "Paketti on reititetty uudelleen suojattuun paikkaan varkauden vuoksi"). Tämä järjestelmä osoittaa, kuinka XAI:ta voidaan käyttää riskien vähentämiseen ja asiakkaiden luottamuksen rakentamiseenläpinäkyvyys. Autonomiset ajoneuvot Näiden tulevaisuuden ajoneuvojen on käytettävä tehokkaasti XAI:ta auttaakseen ajoneuvojaan tekemään turvallisia ja selitettäviä päätöksiä. Kun itseajava auto jarruttaa äkillisesti, järjestelmä voi antaa reaaliaikaisen selityksen toiminnalleen esimerkiksi tunnistamalla tielle astuvan jalankulkijan. Tämä ei ole ratkaisevan tärkeää vain matkustajien mukavuuden ja luottamuksen kannalta, vaan se on lakisääteinen vaatimus tekoälyjärjestelmän turvallisuuden ja vastuullisuuden osoittamiseksi. IBM Watson Health (ja sen haasteet) Vaikka se mainitaan usein yleisenä esimerkkinä tekoälystä terveydenhuollossa, se on myös arvokas tapaustutkimus XAI:n merkityksestä. Sen Watson for Oncology -projektin epäonnistuminen korostaa, mikä voi mennä pieleen, kun selitykset eivät ole selkeitä tai kun taustalla olevat tiedot ovat puolueellisia tai niitä ei ole paikallistettu. Järjestelmän suositukset olivat toisinaan ristiriidassa paikallisten kliinisten käytäntöjen kanssa, koska ne perustuivat Yhdysvaltoihin suuntautuviin ohjeisiin. Tämä toimii varoittavana tarinana vankan, kontekstitietoisen selitettävyyden tarpeesta. UX-tutkijan rooli: Selitysten määrittäminen ja vahvistaminen Suunnitteluratkaisumme ovat tehokkaita vain, jos ne vastaavat oikeisiin käyttäjien kysymyksiin oikeaan aikaan. Selitys, joka vastaa kysymykseen, jota käyttäjällä ei ole, on vain melua. Tässä UX-tutkimuksesta tulee kriittinen sidekudos XAI-strategiassa, mikä varmistaa, että selitämme käyttäjillemme, millä ja miten sillä on todella merkitystä. Tutkijan rooli on kaksiosainen: ensinnäkin antaa tietoa strategiasta tunnistamalla, missä selityksiä tarvitaan, ja toiseksi validoida ne suunnitelmat, jotka tuottavat nämä selitykset. XAI-strategiasta tiedottaminen (mitä selittää) Ennen kuin voimme suunnitella yhden selityksen, meidän on ymmärrettävä käyttäjän henkinen malli tekoälyjärjestelmästä. Mitä he uskovat sen tekevän? Missä ovat kuilut heidän ymmärryksensä ja järjestelmän todellisuuden välillä? Tämä on UX-tutkijan perustavanlaatuinen työ. Mentaalisen mallin haastattelut: käyttäjien käsitysten purkaminen tekoälyjärjestelmistä Syvien, puoliksi jäsenneltyjen haastattelujen avulla käyttäjäkokemuksen harjoittajat voivat saada arvokasta tietoa siitä, miten käyttäjät näkevät ja ymmärtävät tekoälyjärjestelmiä. Nämä istunnot on suunniteltu rohkaisemaan käyttäjiä kirjaimellisesti piirtämään tai kuvaamaan sisäistä "mentaalista malliaan" siitä, kuinka he uskovat tekoälyn toimivan. Tämä edellyttää usein avoimien kysymysten esittämistä, jotka kehottavat käyttäjiä selittämään järjestelmän logiikan, sen syötteet ja lähdöt sekä näiden elementtien väliset suhteet. Nämä haastattelut ovat tehokkaita, koska ne paljastavat usein syvällisiä väärinkäsityksiä ja oletuksia, joita käyttäjät pitävät tekoälystä. Esimerkiksi käyttäjä, joka on vuorovaikutuksessa suositusmoottorin kanssa, saattaa vakuuttaa, että järjestelmä perustuu pelkästään hänen aiempaan katseluhistoriaan. He eivät ehkä ymmärrä, että algoritmi sisältää myös monia muita tekijöitä, kuten vuorokaudenajan, jota he selailevat, tällä hetkellä trendaavia kohteita alustalla tai jopa samankaltaisten käyttäjien katselutottumuksia. Tämän kuilun paljastaminen käyttäjän henkisen mallin ja todellisen taustalla olevan tekoälylogiikan välillä on erittäin tärkeää. Se kertoo meille tarkalleen, mitä erityistä tietoa meidän on välitettävä käyttäjille, jotta he voivat rakentaa tarkemman ja vankemman järjestelmän mentaalisen mallin. Tämä puolestaan ​​on perustavanlaatuinen askel luottamuksen lisäämisessä. Kun käyttäjät ymmärtävät korkeallakin tasolla, kuinka tekoäly tekee johtopäätöksensä tai suosituksensa, he todennäköisemmin luottavat sen tuotoksiin ja luottavat sen toimivuuteen. AI Journey Mapping: Syvä sukellus käyttäjien luottamukseen ja selitettävyyteen Kartoittamalla käyttäjän matkan huolella tekoälypohjaisen ominaisuuden avulla saamme arvokkaita oivalluksia täsmällisiin hetkiin, jolloin hämmennystä, turhautumista tai jopa syvää epäluottamusta ilmenee. Tämä paljastaa kriittiset kohdat, joissa käyttäjän henkinen malli tekoälyn toiminnasta on ristiriidassa sen todellisen käyttäytymisen kanssa. Harkitse musiikin suoratoistopalvelua: romahtaako käyttäjän luottamus, kun soittolistasuositus tuntuu "satunnaiselta" ja siltä puuttuu mitään havaittavissa olevaa yhteyttä heidän aiempiin kuuntelutottumuksiinsa tai ilmoitettuihin mieltymyksiinsä? Tämä havaittu satunnaisuus on suora haaste käyttäjien älykkään kuratoinnin odotuksille ja rikkoo implisiittistä lupausta, että tekoäly ymmärtää heidän makunsa. Vastaavasti, kokevatko käyttäjät valokuvien hallintasovelluksessa merkittävää turhautumista, kun tekoälyn valokuvien merkitsemisominaisuus tunnistaa jatkuvasti väärin arvostetun perheenjäsenen? Tämä virhe on enemmän kuin tekninen häiriö; se iskee tarkkuuden, personoinnin ja tasaisuuden ytimeenemotionaalinen yhteys. Nämä kipupisteet ovat eläviä signaaleja, jotka osoittavat tarkasti, missä hyvin sijoitettu, selkeä ja ytimekäs selitys on tarpeen. Sellaiset selitykset toimivat ratkaisevina korjausmekanismeina, jotka korjaavat luottamusrikkomuksen, joka voi johtaa käyttäjän hylkäämiseen, jos siihen ei puututa. Tekoälykartoituksen voima piilee sen kyvyssä siirtää meidät pidemmälle kuin pelkkä tekoälyjärjestelmän lopputuloksen selittäminen. Vaikka tekoälyn tuottaman ymmärtäminen on tärkeää, se on usein riittämätöntä. Sen sijaan tämä prosessi pakottaa meidät keskittymään prosessin selittämiseen kriittisissä hetkissä. Tämä tarkoittaa osoitetta:

Miksi tietty tulos luotiin: Johtuiko se tietystä syöttötiedosta? Tietty malliarkkitehtuuri? Mitkä tekijät vaikuttivat tekoälyn päätökseen: painotettiinko tiettyjä ominaisuuksia enemmän? Miten tekoäly päätyi johtopäätökseensä: Voimmeko tarjota yksinkertaistetun, analogisen selityksen sen sisäisestä toiminnasta? Mitä oletuksia tekoäly teki: Oliko käyttäjän aikeista tai tiedoista implisiittisiä käsityksiä, jotka piti tuoda esiin? Tekoälyn rajoitukset: Selkeä kommunikointi siitä, mihin tekoäly ei pysty tai missä sen tarkkuus saattaa horjua, rakentaa realistisia odotuksia.

AI-matkakartoitus muuttaa abstraktin XAI-käsitteen käytännölliseksi ja toimivaksi viitekehykseksi UX-harjoittajien käyttöön. Sen avulla voimme siirtyä selitettävyyttä koskevien teoreettisten keskustelujen ulkopuolelle ja sen sijaan paikantaa tarkat hetket, jolloin käyttäjien luottamus on vaakalaudalla, tarjoten tarvittavat oivallukset tehokkaiden, läpinäkyvien, ymmärrettävien ja luotettavien tekoälykokemusten rakentamiseen. Viime kädessä tutkimus on tapa paljastaa tuntemattomat. Tiimissi saattaa keskustella siitä, kuinka selittää lainan epäämisen syy, mutta tutkimus saattaa paljastaa, että käyttäjät ovat paljon enemmän kiinnostuneita ymmärtämään, miten heidän tietojaan alun perin käytettiin. Ilman tutkimusta vain arvaamme, mitä käyttäjämme ihmettelevät. Yhteistyö suunnittelussa (Miten selittää tekoälysi) Kun tutkimus on tunnistanut, mitä pitäisi selittää, yhteistyö suunnittelun kanssa alkaa. Suunnittelijat voivat prototyyppiä aiemmin keskustelemiamme malleja – "Koska"-lauseen, interaktiiviset liukusäätimet - ja tutkijat voivat laittaa nämä mallit käyttäjien eteen nähdäkseen, kestävätkö ne. Kohdennettu käytettävyyden ja ymmärtämisen testaus: Voimme suunnitella tutkimuksia, jotka testaavat erityisesti XAI-komponentteja. Emme vain kysy: "Onko tämä helppokäyttöinen?" Kysymme: "Voitko tämän nähtyäsi kertoa minulle omin sanoin, miksi järjestelmä suositteli tätä tuotetta?" tai "Näytä minulle, mitä tekisit nähdäksesi, jos saisit toisenlaisen tuloksen." Tavoitteena on mitata käytettävyyden ohella ymmärtämistä ja toimivuutta. Itseluottamuksen mittaaminen: Voimme käyttää yksinkertaisia ​​kyselyitä ja luokitusasteikkoja ennen selityksen näyttämistä ja sen jälkeen. Voimme esimerkiksi kysyä käyttäjältä 5 pisteen asteikolla "Kuinka paljon luotat tähän suositukseen?" ennen kuin he näkevät "Koska"-lauseen, ja kysy sitten uudelleen myöhemmin. Tämä tarjoaa kvantitatiivista tietoa siitä, ovatko selitykset todella siirtäneet neulaa luottamukseen. Tämä prosessi luo tehokkaan iteratiivisen silmukan. Tutkimustulokset kertovat alkuperäisestä suunnittelusta. Suunnitelma testataan sitten, ja uudet havainnot palautetaan suunnittelutiimille tarkennusta varten. Ehkä "koska"-lauseke oli liian ammattikieltä, tai "mitä jos" -liukusäädin oli enemmän hämmentävä kuin voimaannuttava. Tämän yhteisen validoinnin avulla varmistamme, että lopulliset selitykset ovat teknisesti tarkkoja, aidosti ymmärrettäviä, hyödyllisiä ja luottamusta rakentavia tuotetta käyttäville ihmisille. Kultakutri Selityksen vyöhyke Kriittinen varoituksen sana: on mahdollista selittää liikaa. Kuten sadussa, jossa Goldilocks etsi puuroa, joka oli "juuri oikea", hyvän selityksen tavoitteena on tarjota oikea määrä yksityiskohtia – ei liikaa eikä liian vähän. Käyttäjän pommittaminen jokaisella mallin muuttujalla johtaa kognitiiviseen ylikuormitukseen ja voi itse asiassa heikentää luottamusta. Tavoitteena ei ole tehdä käyttäjästä datatieteilijää. Yksi ratkaisu on progressiivinen julkistaminen.

Aloita yksinkertaisesta. Johda ytimekkäällä "koska"-lauseella. Useimmille käyttäjille tämä riittää. Tarjoa polku yksityiskohtiin. Anna selkeä, vähäkitkainen linkki, kuten "Lisätietoja" tai "Katso, miten tämä määritettiin". Paljasta monimutkaisuus. Linkin takana voit tarjota interaktiivisia liukusäätimiä, visualisointeja tai yksityiskohtaisemman luettelon vaikuttavista tekijöistä.

Tämä kerrostettu lähestymistapa kunnioittaa käyttäjien huomiota ja asiantuntemusta ja tarjoaa juuri oikean määräntietoa heidän tarpeisiinsa. Oletetaan, että käytät älykkään kodin laitetta, joka suosittelee optimaalista lämmitystä eri tekijöiden perusteella. Aloita yksinkertaisesta: "Kotisi lämmitetään tällä hetkellä 72 asteeseen, mikä on optimaalinen lämpötila energiansäästön ja mukavuuden kannalta." Tarjoa polku yksityiskohtiin: Sen alapuolella pieni linkki tai painike: "Miksi 72 astetta on optimaalinen?" Paljasta monimutkaisuus: linkin napsauttaminen voi avata uuden näytön, jossa näkyy:

Interaktiiviset liukusäätimet ulkolämpötilalle, kosteudelle ja haluamallesi mukavuustasolle, jotka osoittavat, kuinka ne säätävät suositeltua lämpötilaa. Visualisointi energiankulutuksesta eri lämpötiloissa. Luettelo vaikuttavista tekijöistä, kuten Kellonaika, Nykyinen ulkolämpötila, Historiallinen energiankäyttö ja Läsnäoloanturit.

On tehokasta yhdistää useita XAI-menetelmiä, ja tämä Goldilocks Zone of Explanation -malli, joka puoltaa progressiivista paljastamista, kannustaa tähän implisiittisesti. Voit aloittaa yksinkertaisella "koska"-lauseella (malli 1) saadaksesi välittömän ymmärtämisen ja tarjota sitten "Lisätietoja"-linkin, joka paljastaa "mitä jos" -vuorovaikutteisen (Kuvio 2) tai "Push-and-Pull -visuaalin" (malli 4) syvempään tutkimiseen. Lainahakemusjärjestelmä voi esimerkiksi aluksi ilmoittaa hylkäämisen ensisijaisen syyn (ominaisuuden tärkeys), sitten antaa käyttäjän olla vuorovaikutuksessa "mitä jos" -työkalun kanssa nähdäkseen, kuinka hänen tulonsa tai velkansa muuttavat tulosta (kontrafaktaat), ja lopuksi tarjota yksityiskohtainen "Push-and-Pull" -kaavio (arvopohjainen selitys) havainnollistamaan kaikkien tekijöiden myönteisiä ja negatiivisia vaikutuksia. Tämän kerrostetun lähestymistavan avulla käyttäjät pääsevät tarvitsemaansa yksityiskohtiin silloin, kun he sitä tarvitsevat, mikä estää kognitiivisen ylikuormituksen ja tarjoaa silti kattavan läpinäkyvyyden. Käytettävien XAI-työkalujen ja -menetelmien määrittäminen on ensisijaisesti perusteellisen UX-tutkimuksen tehtävä. Mentaaliset mallihaastattelut ja tekoälyn matkakartoitus ovat ratkaisevan tärkeitä käyttäjien tarpeiden ja tekoälyn ymmärtämiseen ja luottamukseen liittyvien kipukohtien määrittämisessä. Mentaaliset mallihaastattelut auttavat paljastamaan käyttäjien väärinkäsityksiä tekoälyn toiminnasta ja osoittavat alueita, joilla tarvitaan perustavanlaatuisia selityksiä (kuten ominaisuuksien tärkeys tai paikalliset selitykset). Tekoälykartoitus puolestaan ​​tunnistaa kriittiset hämmennyksen tai epäluottamuksen hetket käyttäjän vuorovaikutuksessa tekoälyn kanssa, mikä osoittaa, missä tarkemmat tai interaktiivisemmat selitykset (kuten kontrafaktuaalit tai arvopohjaiset selitykset) olisivat hyödyllisimpiä luottamuksen palauttamiseksi ja toimivallan tarjoamiseksi.

Viime kädessä paras tapa valita tekniikka on antaa käyttäjätutkimuksen ohjata päätöksiäsi ja varmistaa, että suunnittelemasi selitykset vastaavat suoraan käyttäjien todellisiin kysymyksiin ja huolenaiheisiin sen sijaan, että tarjoaisivat teknisiä yksityiskohtia heidän itsensä vuoksi. XAI Deep Reasoning Agentsille Jotkut uusimmista tekoälyjärjestelmistä, jotka tunnetaan nimellä syvät päättelyagentit, tuottavat selkeän "ajatteluketjun" jokaista monimutkaista tehtävää varten. He eivät vain mainitse lähteitä; ne osoittavat loogisen, askel askeleelta polun, jonka he kulkivat päästäkseen päätökseen. Vaikka tämä läpinäkyvyys tarjoaa arvokasta kontekstia, useiden kappaleiden kattava leikkaus toistolta voi tuntua ylivoimaiselta käyttäjälle, joka yrittää yksinkertaisesti suorittaa tehtävän. XAI:n periaatteet, erityisesti Goldilocks Zone of Explanation, pätevät suoraan tähän. Voimme kuroida matkaa käyttämällä progressiivista paljastamista näyttääksemme ensin vain lopullisen päätelmän ja ajatusprosessin merkittävimmän vaiheen. Käyttäjät voivat sitten halutessaan nähdä täydelliset, yksityiskohtaiset, monivaiheiset perustelut, kun heidän on tarkistettava logiikka tai löydettävä tietty tosiasia. Tämä lähestymistapa kunnioittaa käyttäjän huomiota ja säilyttää agentin täyden läpinäkyvyyden. Seuraavat vaiheet: Tehosta XAI-matkaasi Selittävyys on peruspilari luotettavien ja tehokkaiden tekoälytuotteiden rakentamisessa. Edistyneelle ammatinharjoittajalle, joka haluaa ajaa tätä muutosta organisaatiossaan, matka ulottuu suunnittelumallien lisäksi vaikuttamiseen ja jatkuvaan oppimiseen. Jos haluat syventää ymmärrystäsi ja käytännön sovellustasi, harkitse resurssien, kuten IBM Researchin AI Explainability 360 (AIX360) -työkalupakin tai Googlen What-If -työkalun tutkimista, jotka tarjoavat interaktiivisia tapoja tutkia mallien käyttäytymistä ja selityksiä. Yhteistyö yhteisöjen, kuten Responsible AI Forumin tai tiettyjen ihmiskeskeiseen tekoälyyn keskittyneiden tutkimusryhmien kanssa voi tarjota korvaamattomia oivalluksia ja yhteistyömahdollisuuksia. Lopuksi, ole XAI:n puolestapuhuja omassa organisaatiossasi.Kehyksen selitettävyys strategisena investointina. Harkitse lyhyttä esittelyä johtajillesi tai monitoimitiimeille: "Investoimalla XAI:han me menemme pidemmälle kuin luottamuksen rakentaminen; nopeuttamme käyttäjien omaksumista, vähennämme tukikustannuksia antamalla käyttäjille ymmärrystä ja lievennämme merkittäviä eettisiä ja sääntelyyn liittyviä riskejä paljastamalla mahdollisia harhoja. Tämä on hyvää suunnittelua ja älykästä liiketoimintaa."

Käytännön ymmärrykseen perustuva äänesi on ratkaisevan tärkeä, kun nostat tekoälyn ulos mustasta laatikosta ja pääset yhteistyöhön käyttäjien kanssa.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free