W moim ostatnim artykule ustaliliśmy podstawową prawdę: aby użytkownicy mogli przyjąć sztuczną inteligencję i polegać na niej, muszą jej zaufać. Rozmawialiśmy o zaufaniu, które jest konstrukcją wieloaspektową, zbudowaną na postrzeganiu zdolności, życzliwości, uczciwości i przewidywalności sztucznej inteligencji. Ale co się stanie, gdy sztuczna inteligencja, w swojej cichej, algorytmicznej mądrości, podejmie decyzję, która pozostawi użytkownika zdezorientowanego, sfrustrowanego, a nawet zranionego? Wniosek o kredyt hipoteczny zostaje odrzucony, ulubiona piosenka nagle znika z playlisty, a kwalifikowane CV zostaje odrzucone, zanim ktokolwiek je zobaczy. W takich chwilach zdolności i przewidywalność zostają zniszczone, a życzliwość wydaje się być odległa. Nasza rozmowa musi teraz ewoluować od tego, dlaczego zaufanie, do tego, jak zapewnić przejrzystość. Aby rozwiązać ten problem, pojawiła się dziedzina wyjaśnialnej sztucznej inteligencji (XAI), która koncentruje się na opracowywaniu metod zapewniających zrozumiałość wyników sztucznej inteligencji dla ludzi, ale często jest przedstawiana jako czysto techniczne wyzwanie dla analityków danych. Twierdzę, że jest to kluczowe wyzwanie projektowe w przypadku produktów opartych na sztucznej inteligencji. Naszym zadaniem, jako specjalistów UX, jest wypełnienie luki pomiędzy algorytmicznym podejmowaniem decyzji a ludzkim zrozumieniem. Artykuł ten zawiera praktyczne wskazówki, które można zastosować, jak badać i projektować pod kątem wyjaśnialności. Wyjdziemy poza modne hasła i zajmiemy się makietami, tłumacząc złożone koncepcje XAI na konkretne wzorce projektowe, z których możesz zacząć korzystać już dziś. Odtajnianie XAI: podstawowe koncepcje dla praktyków UX XAI polega na odpowiadaniu na pytanie użytkownika: „Dlaczego?” Dlaczego wyświetliła mi się ta reklama? Dlaczego ten film został mi polecony? Dlaczego moja prośba została odrzucona? Pomyśl o tym jak o sztucznej inteligencji pokazującej swoją pracę nad problemem matematycznym. Bez tego masz po prostu odpowiedź i jesteś zmuszony przyjąć ją na wiarę. Pokazując kroki, budujesz zrozumienie i zaufanie. Pozwalasz także, aby Twoja praca została podwójnie sprawdzona i zweryfikowana przez osoby, na które ma ona wpływ. Znaczenie funkcji i scenariusze alternatywne Istnieje wiele technik, których możemy użyć, aby wyjaśnić lub wyjaśnić, co dzieje się ze sztuczną inteligencją. Chociaż metody obejmują zarówno przedstawienie całej logiki drzewa decyzyjnego, jak i generowanie podsumowań wyników w języku naturalnym, dwa z najbardziej praktycznych i wpływowych typów informacji, jakie praktycy UX mogą wprowadzić do doświadczenia, to znaczenie cech (rysunek 1) i scenariusze kontrfaktyczne. Są one często najłatwiejsze do zrozumienia dla użytkowników i najłatwiejsze do wdrożenia przez projektantów.
Znaczenie funkcji Ta metoda wyjaśnialności odpowiada na pytanie: „Jakie były najważniejsze czynniki brane pod uwagę przez sztuczną inteligencję?” Chodzi o zidentyfikowanie 2-3 najważniejszych zmiennych, które miały największy wpływ na wynik. To nagłówek, a nie cała historia. Przykład: Wyobraź sobie sztuczną inteligencję, która przewiduje, czy klient odejdzie (anuluje usługę). Znaczenie funkcji może ujawnić, że „liczba wezwań do pomocy technicznej w ostatnim miesiącu” i „ostatnie podwyżki cen” były dwoma najważniejszymi czynnikami decydującymi o prawdopodobieństwie rezygnacji klienta.
Kontrfakty Ta potężna metoda odpowiada na pytanie: „Co musiałbym zmienić, aby uzyskać inny wynik?” Jest to kluczowe, ponieważ daje użytkownikom poczucie sprawstwa. Przekształca frustrujące „nie” w wykonalne „jeszcze nie”. Przykład: Wyobraź sobie system składania wniosków o pożyczkę, który wykorzystuje sztuczną inteligencję. Użytkownikowi odmówiono pożyczki. Zamiast po prostu widzieć „Wniosek odrzucony”, alternatywne wyjaśnienie mogłoby również brzmieć: „Gdyby Twoja zdolność kredytowa była o 50 punktów wyższa lub gdyby Twój stosunek zadłużenia do dochodu był o 10% niższy, Twoja pożyczka zostałaby zatwierdzona”. Dzięki temu Sarah ma jasne i wykonalne kroki, które może podjąć, aby potencjalnie uzyskać pożyczkę w przyszłości.
Korzystanie z danych modelu w celu ulepszenia wyjaśnienia Chociaż badacze danych często zajmują się specyfiką techniczną, praktycy UX powinni wiedzieć, że narzędzia takie jak LIME (Local Interpretable Model-agnostic Explanations), które wyjaśniają indywidualne przewidywania poprzez lokalne przybliżenie modelu, oraz SHAP (SHapley Additive exPlanations), które wykorzystują podejście teorii gier do wyjaśnienia wyników dowolnego modelu uczenia maszynowego, są powszechnie używane do wydobywania wniosków „dlaczego” ze złożonych modeli. Biblioteki te zasadniczo pomagają przełamać decyzję sztucznej inteligencji i pokazać, które dane wejściowe miały największy wpływ na dany wynik. Jeśli zostanie to wykonane prawidłowo, dane leżące u podstaw decyzji narzędzia AI mogą zostać wykorzystane do opowiedzenia istotnej historii. Omówmy znaczenie funkcji i scenariusze alternatywne oraz pokażmy, w jaki sposób można wykorzystać analizę danych leżącą u podstaw podjęcia decyzji w celu poprawy doświadczenia użytkownika. Teraz przejdźmyuwzględnij znaczenie funkcji za pomocą danych Local Explanations (np. LIME): podejście to odpowiada na pytanie: „Dlaczego sztuczna inteligencja wydała dla mnie tę konkretną rekomendację właśnie teraz?” Zamiast ogólnego wyjaśnienia, jak działa model, podaje konkretne uzasadnienie dla pojedynczego, konkretnego przypadku. To osobiste i kontekstowe. Przykład: Wyobraź sobie system rekomendacji muzyki oparty na sztucznej inteligencji, taki jak Spotify. Lokalne wyjaśnienie odpowiedziałoby: „Dlaczego system polecił Ci właśnie teraz tę konkretną piosenkę Adele?” Wyjaśnienie może brzmieć: „Ponieważ ostatnio słuchałeś kilku innych emocjonalnych ballad i piosenek wokalistek”.
Na koniec omówmy włączenie wyjaśnień opartych na wartościach (np. danych Shapley Additive Explanations (SHAP) do wyjaśnienia decyzji: Jest to bardziej zniuansowana wersja ważności cechy, która odpowiada: „W jaki sposób każdy czynnik wpłynął na decyzję w ten czy inny sposób?” Pomaga to zwizualizować, co było istotne i czy jego wpływ był pozytywny czy negatywny. Przykład: Wyobraź sobie, że bank wykorzystuje model sztucznej inteligencji, aby zdecydować, czy zatwierdzić wniosek kredytowy.
Cecha Znaczenie: Wyniki modelu mogą wykazać, że ocena kredytowa wnioskodawcy, dochody i stosunek zadłużenia do dochodu były najważniejszymi czynnikami przy podejmowaniu decyzji. To odpowiada na to, co było istotne. Znaczenie funkcji z wyjaśnieniami opartymi na wartościach (SHAP): Wartości SHAP jeszcze bardziej podnoszą znaczenie funkcji w oparciu o elementy modelu.
W przypadku zatwierdzonej pożyczki SHAP może wykazać, że wysoka ocena zdolności kredytowej znacząco popchnęła decyzję w stronę zatwierdzenia (wpływ pozytywny), podczas gdy nieco wyższy niż średni stosunek długu do dochodu nieznacznie ją odsunął (wpływ negatywny), ale nie na tyle, aby odmówić pożyczki. W przypadku odmowy pożyczki SHAP mógł wykazać, że niski dochód i duża liczba niedawnych zapytań kredytowych zdecydowanie popchnęły decyzję o odmowie, nawet jeśli ocena kredytowa była przyzwoita.
Pomaga to urzędnikowi ds. pożyczek wyjaśnić wnioskodawcy wykraczające poza to, co było brane pod uwagę, w jaki sposób każdy czynnik przyczynił się do ostatecznej decyzji „tak” lub „nie”. Należy pamiętać, że umiejętność dostarczania dobrych wyjaśnień często zaczyna się znacznie wcześniej w cyklu rozwoju. Analitycy i inżynierowie zajmujący się danymi odgrywają kluczową rolę, celowo konstruując modele i potoki danych w sposób, który z natury wspiera wyjaśnialność, zamiast próbować opierać się na tym po namyśle. Zespoły badawcze i projektowe mogą to wspierać, inicjując na wczesnym etapie rozmowy z naukowcami i inżynierami zajmującymi się danymi na temat potrzeb użytkowników w zakresie zrozumienia, przyczyniając się do rozwoju wskaźników wyjaśnialności i wspólnie prototypując wyjaśnienia, aby zapewnić, że są one dokładne i przyjazne dla użytkownika. XAI i etyczna sztuczna inteligencja: rozpakowywanie uprzedzeń i odpowiedzialności Oprócz budowania zaufania, XAI odgrywa kluczową rolę w rozwiązywaniu problemów etycznych związanych ze sztuczną inteligencją*, szczególnie w zakresie stronniczości algorytmicznej. Techniki wyjaśnialności, takie jak analiza wartości SHAP, mogą ujawnić, czy na decyzje modelu nieproporcjonalnie wpływają wrażliwe atrybuty, takie jak rasa, płeć lub status społeczno-ekonomiczny, nawet jeśli czynniki te nie zostały wyraźnie wykorzystane jako bezpośrednie dane wejściowe. Na przykład, jeśli model zatwierdzania pożyczki konsekwentnie przypisuje ujemne wartości SHAP wnioskodawcom z określonej grupy demograficznej, sygnalizuje to potencjalną stronniczość wymagającą zbadania, umożliwiając zespołom wykrycie i złagodzenie takich nieuczciwych skutków. Siła XAI wiąże się również z potencjałem „prania wyjaśnialności”. Podobnie jak „ekościemne pranie” wprowadza konsumentów w błąd co do praktyk środowiskowych, tak samo „zmywanie wyjaśnialności” może mieć miejsce, gdy wyjaśnienia mają na celu zaciemnienie, a nie rozjaśnienie problematycznych zachowań algorytmicznych lub nieodłącznych uprzedzeń. Może to objawiać się nadmiernie uproszczonymi wyjaśnieniami, które pomijają krytyczne czynniki wpływające, lub wyjaśnieniami, które strategicznie kształtują wyniki tak, aby wyglądały na bardziej neutralne lub sprawiedliwe, niż są w rzeczywistości. Podkreśla etyczną odpowiedzialność praktyków UX za projektowanie wyjaśnień, które są rzeczywiście przejrzyste i weryfikowalne. Specjaliści UX, we współpracy z analitykami danych i etykami, ponoszą kluczową odpowiedzialność za komunikowanie powodów decyzji, a także ograniczeń i potencjalnych stronniczości leżącego u podstaw modelu sztucznej inteligencji. Obejmuje to ustalenie realistycznych oczekiwań użytkowników co do dokładności sztucznej inteligencji, określenie, gdzie model może być mniej niezawodny i zapewnienie jasnych kanałów odwołania lub informacji zwrotnej, gdy użytkownicy dostrzegą nieuczciwe lub nieprawidłowe wyniki. Proaktywne zajmowanie się nimiwymiary etyczne pozwolą nam zbudować systemy sztucznej inteligencji, które będą naprawdę sprawiedliwe i godne zaufania. Od metod do makiet: praktyczne wzorce projektowe XAI Znajomość pojęć to jedno; ich projektowanie to co innego. Oto, jak możemy przełożyć te metody XAI na intuicyjne wzorce projektowe. Wzór 1: Stwierdzenie „Ponieważ” (dla ważności funkcji) To najprostszy i często najskuteczniejszy wzór. Jest to bezpośrednie, proste stwierdzenie, które ujawnia główny powód działania sztucznej inteligencji.
Heurystyka: bądź bezpośredni i zwięzły. Prowadź z jednym, najbardziej wpływowym powodem. Za wszelką cenę unikaj żargonu.
Przykład: Wyobraź sobie usługę strumieniowego przesyłania muzyki. Zamiast po prostu prezentować listę odtwarzania „Discover Weekly”, dodajesz mały wiersz mikrokopii. Polecana piosenka: „Velvet Morning” Ponieważ słuchasz „The Fuzz” i innego psychodelicznego rocka.
Wzór 2: Interaktywne pytanie „Co jeśli” (dla scenariuszy alternatywnych) Kontrfakty z natury dotyczą wzmacniania pozycji. Najlepszym sposobem ich przedstawienia jest udostępnienie użytkownikom interaktywnych narzędzi umożliwiających samodzielne odkrywanie możliwości. Jest to idealne rozwiązanie do zastosowań finansowych, zdrowotnych lub innych zorientowanych na cel.
Heurystyka: staraj się, aby wyjaśnienia były interaktywne i wzmacniające. Pozwól użytkownikom zobaczyć przyczynę i skutek swoich wyborów.
Przykład: Interfejs wniosku o pożyczkę. Po odmowie zamiast ślepego zaułka użytkownik otrzymuje narzędzie umożliwiające określenie, jak mogą potoczyć się różne scenariusze (co by było, gdyby) (patrz rysunek 1).
Wzór 3: Rolka z najważniejszymi wydarzeniami (dla lokalnych wyjaśnień) Kiedy sztuczna inteligencja wykonuje akcję na treściach użytkownika (np. podsumowuje dokument lub identyfikuje twarze na zdjęciach), wyjaśnienie powinno być wizualnie powiązane ze źródłem.
Heurystyka: używaj wskazówek wizualnych, takich jak wyróżnianie, kontury lub adnotacje, aby połączyć wyjaśnienie bezpośrednio z objaśnianym elementem interfejsu.
Przykład: narzędzie AI, które podsumowuje długie artykuły. Podsumowanie wygenerowane przez sztuczną inteligencję: Wstępne badanie wykazało lukę rynkową w przypadku produktów zrównoważonych. Źródło w dokumencie: „...Nasza analiza trendów rynkowych za II kwartał jednoznacznie wykazała, że żaden główny konkurent nie służył skutecznie świadomemu ekologicznie konsumentowi, ujawniając znaczną lukę rynkową w przypadku produktów zrównoważonych…”
Wzorzec 4: Wizualizacja typu push-and-pull (dla wyjaśnień opartych na wartościach) W przypadku bardziej złożonych decyzji użytkownicy mogą potrzebować zrozumienia wzajemnego oddziaływania czynników. Proste wizualizacje danych mogą to wyjaśnić, ale nie przytłaczać.
Heurystyka: używaj prostych, oznaczonych kolorami wizualizacji danych (takich jak wykresy słupkowe), aby pokazać czynniki, które pozytywnie i negatywnie wpłynęły na decyzję.
Przykład: Sztuczna inteligencja sprawdza profil kandydata pod kątem pracy. Dlaczego ten kandydat pasuje w 75%: Czynniki podnoszące wynik: Ponad 5 lat doświadczenia w badaniach UX Biegła w Pythonie Czynniki obniżające wynik: Brak doświadczenia z B2B SaaS
Poznanie i wykorzystanie tych wzorców projektowych w UX produktu AI pomoże zwiększyć jego wyjaśnialność. Możesz także zastosować dodatkowe techniki, których nie omawiam tutaj szczegółowo. Obejmuje to:
Wyjaśnienia w języku naturalnym: Tłumaczenie wyników technicznych sztucznej inteligencji na prosty, konwersacyjny język ludzki, zrozumiały dla osób niebędących ekspertami. Wyjaśnienia kontekstowe: dostarczając uzasadnienia dla wyników działania sztucznej inteligencji w konkretnym momencie i miejscu, jest ono najbardziej odpowiednie dla zadania użytkownika. Odpowiednie wizualizacje: używanie wykresów, wykresów lub map cieplnych do wizualnego przedstawiania procesu decyzyjnego sztucznej inteligencji, dzięki czemu złożone dane są intuicyjne i łatwiejsze do zrozumienia dla użytkowników.
Uwaga dla frontonu: przełożenie tych wyników wyjaśnialności na bezproblemowe doświadczenia użytkownika wiąże się również z własnym zestawem rozważań technicznych. Programiści front-endu często borykają się z projektowaniem interfejsów API, aby efektywnie pobierać dane wyjaśniające, a konsekwencje dotyczące wydajności (takie jak generowanie wyjaśnień w czasie rzeczywistym dla każdej interakcji użytkownika) wymagają starannego planowania, aby uniknąć opóźnień. Kilka przykładów z życia wziętych Ochrona dostaw UPS Capital UPS wykorzystuje sztuczną inteligencję do przypisywania adresom „wskaźnika zaufania doręczenia” w celu przewidywania prawdopodobieństwa kradzieży paczki. Ich oprogramowanie DeliveryDefense analizuje dane historyczne dotyczące lokalizacji, częstotliwości strat i innych czynników. Jeśli adres ma niski wynik, system może proaktywnie przekierować paczkę do bezpiecznego punktu dostępu UPS, podając wyjaśnienie swojej decyzji (np. „Paczka została przekierowana do bezpiecznej lokalizacji ze względu na historię kradzieży”). System ten pokazuje, w jaki sposób można wykorzystać XAI do ograniczania ryzyka i budowania zaufania klientówprzezroczystość. Pojazdy autonomiczne Te pojazdy przyszłości będą musiały skutecznie wykorzystywać XAI, aby pomóc swoim pojazdom w podejmowaniu bezpiecznych i możliwych do wytłumaczenia decyzji. Kiedy autonomiczny samochód nagle zahamuje, system może w czasie rzeczywistym wyjaśnić swoje zachowanie, na przykład identyfikując pieszego wchodzącego na jezdnię. Ma to kluczowe znaczenie nie tylko dla komfortu i zaufania pasażerów, ale jest wymogiem regulacyjnym mającym na celu udowodnienie bezpieczeństwa i odpowiedzialności systemu sztucznej inteligencji. IBM Watson Health (i jego wyzwania) Choć często cytowane jako ogólny przykład sztucznej inteligencji w opiece zdrowotnej, jest także cennym studium przypadku pokazującym znaczenie XAI. Niepowodzenie projektu Watson for Oncology uwypukliło, co może pójść nie tak, gdy wyjaśnienia nie są jasne lub gdy podstawowe dane są stronnicze lub niezlokalizowane. Zalecenia systemu były czasami niezgodne z lokalną praktyką kliniczną, ponieważ opierały się na wytycznych skoncentrowanych na USA. Służy to jako przestroga dotycząca potrzeby solidnego, kontekstowego wyjaśnienia. Rola badacza UX: wskazywanie i weryfikacja wyjaśnień Nasze rozwiązania projektowe są skuteczne tylko wtedy, gdy odpowiadają na właściwe pytania użytkowników we właściwym czasie. Wyjaśnienie, które odpowiada na pytanie, którego nie ma użytkownik, to po prostu szum. W tym miejscu badania UX stają się krytyczną tkanką łączną w strategii XAI, zapewniając, że wyjaśniamy, co i jak to faktycznie ma znaczenie dla naszych użytkowników. Rola badacza jest dwojaka: po pierwsze, kształtuje strategię poprzez określenie, gdzie potrzebne są wyjaśnienia, a po drugie, zatwierdza projekty, które dostarczają tych wyjaśnień. Informowanie o strategii XAI (co wyjaśnić) Zanim będziemy mogli zaprojektować pojedyncze wyjaśnienie, musimy zrozumieć mentalny model systemu AI użytkownika. Co ich zdaniem to robi? Gdzie są luki między ich rozumieniem a rzeczywistością systemu? To podstawowa praca badacza UX. Wywiady z modelami mentalnymi: rozpakowywanie percepcji systemów AI przez użytkowników Dzięki głębokim, częściowo ustrukturyzowanym wywiadom praktycy UX mogą uzyskać bezcenny wgląd w to, jak użytkownicy postrzegają i rozumieją systemy AI. Sesje te mają na celu zachęcenie użytkowników do dosłownego narysowania lub opisania swojego wewnętrznego „modelu mentalnego” tego, jak według nich działa sztuczna inteligencja. Często wiąże się to z zadawaniem pytań otwartych, które zachęcają użytkowników do wyjaśnienia logiki systemu, jego danych wejściowych i wyjściowych, a także relacji między tymi elementami. Wywiady te są niezwykle ważne, ponieważ często ujawniają głębokie błędne przekonania i założenia użytkowników na temat sztucznej inteligencji. Na przykład użytkownik wchodzący w interakcję z silnikiem rekomendacji może z całą pewnością stwierdzić, że system opiera się wyłącznie na jego historii przeglądania. Mogą nie zdawać sobie sprawy, że algorytm uwzględnia również wiele innych czynników, takich jak pora dnia, w której przeglądają, aktualnie popularne elementy na platformie, a nawet nawyki przeglądania podobnych użytkowników. Odkrycie tej luki między modelem mentalnym użytkownika a faktyczną logiką leżącą u podstaw sztucznej inteligencji jest niezwykle ważne. Mówi nam dokładnie, jakie konkretne informacje musimy przekazać użytkownikom, aby pomóc im zbudować dokładniejszy i solidniejszy mentalny model systemu. To z kolei jest zasadniczym krokiem w budowaniu zaufania. Gdy użytkownicy zrozumieją, nawet na wysokim poziomie, w jaki sposób sztuczna inteligencja wyciąga wnioski lub zalecenia, jest bardziej prawdopodobne, że zaufają jej wynikom i polegają na jej funkcjonalności. Mapowanie podróży AI: szczegółowe informacje na temat zaufania użytkowników i ich wyjaśnialności Skrupulatnie mapując podróż użytkownika za pomocą funkcji opartej na sztucznej inteligencji, zyskujemy bezcenny wgląd w dokładne momenty, w których pojawia się zamieszanie, frustracja, a nawet głęboka nieufność. Pozwala to odkryć krytyczne momenty, w których mentalny model działania sztucznej inteligencji użytkownika koliduje z jej rzeczywistym zachowaniem. Rozważ usługę strumieniowego przesyłania muzyki: czy zaufanie użytkownika spada, gdy rekomendacja playlisty wydaje się „przypadkowa” i pozbawiona dostrzegalnego związku z jego przeszłymi nawykami słuchania lub deklarowanymi preferencjami? Ta postrzegana losowość stanowi bezpośrednie wyzwanie dla oczekiwań użytkownika dotyczących inteligentnego doboru treści i naruszenie ukrytej obietnicy, że sztuczna inteligencja rozumie ich gust. Podobnie, czy w aplikacji do zarządzania zdjęciami użytkownicy odczuwają znaczną frustrację, gdy funkcja tagowania zdjęć AI stale błędnie identyfikuje cennego członka rodziny? Ten błąd to coś więcej niż usterka techniczna; uderza w samo sedno dokładności, personalizacji, a nawetpołączenie emocjonalne. Te bolesne punkty to wyraźne sygnały wskazujące dokładnie, gdzie konieczne jest dobrze umieszczone, jasne i zwięzłe wyjaśnienie. Takie wyjaśnienia służą jako kluczowe mechanizmy naprawcze, naprawiające naruszenie zaufania, które, jeśli nie zostanie rozwiązane, może prowadzić do porzucenia użytkownika. Siła mapowania podróży AI polega na tym, że pozwala nam wyjść poza zwykłe wyjaśnianie końcowego wyniku działania systemu AI. Chociaż zrozumienie tego, co wytworzyła sztuczna inteligencja, jest ważne, często jest niewystarczające. Zamiast tego proces ten zmusza nas do skupienia się na wyjaśnianiu procesu w krytycznych momentach. Oznacza to adresowanie:
Dlaczego wygenerowano określony wynik: czy było to spowodowane konkretnymi danymi wejściowymi? Konkretna architektura modelu? Jakie czynniki wpłynęły na decyzję sztucznej inteligencji: czy niektórym cechom przypisano większą wagę? Jak sztuczna inteligencja doszła do wniosku: czy możemy zaoferować uproszczone, analogiczne wyjaśnienie jej wewnętrznego działania? Jakie założenia przyjęła sztuczna inteligencja: czy istniało ukryte zrozumienie intencji użytkownika lub danych, które należy ujawnić? Jakie są ograniczenia sztucznej inteligencji: Jasne komunikowanie, czego sztuczna inteligencja nie może zrobić lub gdzie jej dokładność może się wahać, buduje realistyczne oczekiwania.
Mapowanie podróży AI przekształca abstrakcyjną koncepcję XAI w praktyczną, wykonalną platformę dla praktyków UX. Pozwala nam wyjść poza teoretyczne dyskusje na temat wyjaśnialności i zamiast tego wskazać dokładne momenty, w których zagrożone jest zaufanie użytkowników, dostarczając niezbędnych spostrzeżeń do tworzenia doświadczeń AI, które będą potężne, przejrzyste, zrozumiałe i godne zaufania. Ostatecznie dzięki badaniom odkrywamy niewiadome. Twój zespół może zastanawiać się, jak wyjaśnić przyczynę odmowy pożyczki, ale badania mogą wykazać, że użytkownikom znacznie bardziej zależy na zrozumieniu, w jaki sposób ich dane zostały wykorzystane. Bez badań po prostu zgadujemy, nad czym zastanawiają się nasi użytkownicy. Współpraca przy projekcie (jak wyjaśnić sztuczną inteligencję) Gdy w badaniach zostanie zidentyfikowane, co należy wyjaśnić, rozpoczyna się pętla współpracy z projektowaniem. Projektanci mogą prototypować wzorce, które omówiliśmy wcześniej — stwierdzenie „Ponieważ” i interaktywne suwaki — a badacze mogą prezentować te projekty użytkownikom, aby sprawdzić, czy się sprawdzają. Ukierunkowane testy użyteczności i zrozumienia: Możemy zaprojektować badania badawcze, które w szczególności testują komponenty XAI. Nie pytamy po prostu: „Czy jest to łatwe w użyciu?” Pytamy: „Czy po obejrzeniu tego możesz mi powiedzieć własnymi słowami, dlaczego system polecił ten produkt?” lub „Pokaż mi, co byś zrobił, aby zobaczyć, czy mógłbyś uzyskać inny wynik”. Celem jest zmierzenie zrozumienia i wykonalności, a także użyteczności. Pomiar samego zaufania: Możemy skorzystać z prostych ankiet i skal ocen przed i po pokazaniu wyjaśnień. Na przykład możemy zapytać użytkownika w 5-punktowej skali: „Jak bardzo ufasz tej rekomendacji?” zanim zobaczą stwierdzenie „Ponieważ”, a następnie zapytaj ich ponownie później. Dostarcza to danych ilościowych na temat tego, czy nasze wyjaśnienia rzeczywiście poruszają igłę w kwestii zaufania. Ten proces tworzy potężną, iteracyjną pętlę. Wyniki badań stanowią podstawę wstępnego projektu. Projekt jest następnie testowany, a nowe ustalenia przekazywane są zespołowi projektowemu w celu udoskonalenia. Być może stwierdzenie „Ponieważ” było zbyt żargonowe lub suwak „Co jeśli” był bardziej mylący niż wzmacniający. Dzięki tej wspólnej weryfikacji zapewniamy, że ostateczne wyjaśnienia są dokładne pod względem technicznym, rzeczywiście zrozumiałe, przydatne i budują zaufanie osób korzystających z produktu. Strefa wyjaśnienia Złotowłosej Krytyczna uwaga: można przesadzać. Podobnie jak w bajce, w której Złotowłosa szukała „w sam raz” owsianki, celem dobrego wyjaśnienia jest podanie odpowiedniej ilości szczegółów – nie za dużo i nie za mało. Bombardowanie użytkownika każdą zmienną w modelu doprowadzi do przeciążenia poznawczego i może w rzeczywistości zmniejszyć zaufanie. Celem nie jest uczynienie użytkownika analitykiem danych. Jednym z rozwiązań jest stopniowe ujawnianie informacji.
Zacznij od prostego. Zacznij od zwięzłego stwierdzenia „Ponieważ”. Dla większości użytkowników to wystarczy. Zaproponuj ścieżkę do szczegółów. Podaj jasne łącze o niskim współczynniku tarcia, np. „Dowiedz się więcej” lub „Zobacz, jak to ustalono”. Ujawnij złożoność. Za tym linkiem możesz zaoferować interaktywne suwaki, wizualizacje lub bardziej szczegółową listę czynników przyczyniających się do powstania efektu.
To wielowarstwowe podejście uwzględnia uwagę i wiedzę użytkownika, zapewniając odpowiednią ilośćinformacji na ich potrzeby. Wyobraźmy sobie, że korzystasz z inteligentnego urządzenia domowego, które zaleca optymalne ogrzewanie na podstawie różnych czynników. Zacznij od prostego: „Twój dom jest obecnie ogrzewany do 72 stopni, czyli temperatury optymalnej dla oszczędności energii i komfortu”. Zaproponuj ścieżkę do szczegółów: poniżej mały link lub przycisk: „Dlaczego optymalne są 72 stopnie?” Ujawnij złożoność: kliknięcie tego linku może otworzyć nowy ekran pokazujący:
Interaktywne suwaki temperatury zewnętrznej, wilgotności i preferowanego poziomu komfortu, pokazujące, w jaki sposób dostosowują zalecaną temperaturę. Wizualizacja zużycia energii w różnych temperaturach. Lista czynników wpływających, takich jak „pora dnia”, „aktualna temperatura zewnętrzna”, „historyczne zużycie energii” i „czujniki obecności”.
Skuteczne jest łączenie wielu metod XAI, a wzorzec Strefy Wyjaśnień Złotowłosej, który zaleca stopniowe ujawnianie informacji, pośrednio do tego zachęca. Możesz zacząć od prostego stwierdzenia „Ponieważ” (Wzorzec 1) w celu natychmiastowego zrozumienia, a następnie zaoferować link „Dowiedz się więcej”, który wyświetli interaktywną odpowiedź „Co jeśli” (Wzorzec 2) lub „Wizualną informację typu „push-and-pull” (Wzorzec 4) w celu głębszej eksploracji. Na przykład system składania wniosków o pożyczkę mógłby początkowo podać główny powód odmowy (ważność cechy), następnie pozwolić użytkownikowi na interakcję z narzędziem „Co by było, gdyby” w celu sprawdzenia, jak zmiany w jego dochodach lub zadłużeniu wpłyną na wynik (warunki alternatywne), a na koniec udostępnić szczegółowy wykres „Push-and-Pull” (wyjaśnienie oparte na wartościach) w celu zilustrowania pozytywnego i negatywnego wpływu wszystkich czynników. To wielowarstwowe podejście pozwala użytkownikom uzyskać dostęp do potrzebnego poziomu szczegółowości wtedy, gdy tego potrzebują, zapobiegając przeciążeniu poznawczemu, a jednocześnie zapewniając kompleksową przejrzystość. Określenie, jakich narzędzi i metod XAI użyć, jest przede wszystkim funkcją dokładnych badań UX. Wywiady z modelami mentalnymi i mapowanie podróży AI mają kluczowe znaczenie dla określenia potrzeb użytkowników i słabych punktów związanych ze zrozumieniem i zaufaniem AI. Wywiady na modelach mentalnych pomagają odkryć błędne wyobrażenia użytkowników na temat działania sztucznej inteligencji, wskazując obszary, w których potrzebne są podstawowe wyjaśnienia (takie jak znaczenie funkcji lub wyjaśnienia lokalne). Z drugiej strony mapowanie podróży AI identyfikuje krytyczne momenty dezorientacji lub braku zaufania w interakcji użytkownika z AI, sygnalizując, gdzie bardziej szczegółowe lub interaktywne wyjaśnienia (takie jak scenariusze alternatywne lub wyjaśnienia oparte na wartościach) byłyby najbardziej korzystne w celu odbudowania zaufania i zapewnienia sprawstwa.
Ostatecznie najlepszym sposobem na wybranie techniki jest umożliwienie podejmowania decyzji w oparciu o badania użytkowników, upewniając się, że projektowane wyjaśnienia bezpośrednio odnoszą się do rzeczywistych pytań i wątpliwości użytkowników, a nie po prostu przedstawiają szczegóły techniczne same w sobie. XAI dla agentów głębokiego rozumowania Niektóre z najnowszych systemów sztucznej inteligencji, zwane agentami głębokiego rozumowania, tworzą wyraźny „łańcuch myślowy” dla każdego złożonego zadania. Nie tylko cytują źródła; pokazują logiczną ścieżkę, którą krok po kroku przebyli, aby dojść do wniosku. Chociaż ta przejrzystość zapewnia cenny kontekst, rozgrywka obejmująca kilka akapitów może wydawać się przytłaczająca dla użytkownika próbującego po prostu wykonać zadanie. Zasady XAI, zwłaszcza Złotowłosa Strefa Wyjaśnienia, mają tutaj bezpośrednie zastosowanie. Możemy kierować tą podróżą, wykorzystując stopniowe ujawnianie, aby najpierw pokazać tylko końcowy wniosek i najważniejszy etap procesu myślowego. Użytkownicy mogą następnie wyrazić zgodę na wyświetlanie pełnego, szczegółowego, wieloetapowego uzasadnienia, gdy muszą ponownie sprawdzić logikę lub znaleźć konkretny fakt. Takie podejście szanuje uwagę użytkownika, zachowując jednocześnie pełną przejrzystość agenta. Następne kroki: Wzmocnij swoją podróż XAI Wyjaśnialność jest podstawowym filarem tworzenia godnych zaufania i skutecznych produktów AI. Dla zaawansowanego praktyka, który chce wprowadzić tę zmianę w swojej organizacji, podróż wykracza poza wzorce projektowe i obejmuje rzecznictwo i ciągłe uczenie się. Aby pogłębić zrozumienie i praktyczne zastosowanie, rozważ skorzystanie z zasobów takich jak zestaw narzędzi AI wyjaśnialność 360 (AIX360) z IBM Research lub narzędzie Google What-If, które oferują interaktywne sposoby badania zachowań i wyjaśnień modeli. Współpraca ze społecznościami takimi jak Forum Odpowiedzialnej Sztucznej Inteligencji lub konkretnymi grupami badawczymi zajmującymi się sztuczną inteligencją skupioną na człowieku może zapewnić bezcenne spostrzeżenia i możliwości współpracy. Wreszcie, bądź zwolennikiem XAI w swojej własnej organizacji.Wyjaśnialność ram jako inwestycja strategiczna. Rozważ krótką propozycję skierowania do swojego kierownictwa lub zespołów interdyscyplinarnych: "Inwestując w XAI, wyjdziemy poza budowanie zaufania; przyspieszymy wdrażanie rozwiązań przez użytkowników, zmniejszymy koszty wsparcia, zapewniając użytkownikom zrozumienie oraz łagodząc znaczące ryzyko etyczne i regulacyjne poprzez ujawnianie potencjalnych uprzedzeń. To dobry projekt i mądry biznes."
Twój głos, oparty na praktycznym zrozumieniu, ma kluczowe znaczenie dla wyciągnięcia sztucznej inteligencji z czarnej skrzynki i nawiązania partnerstwa z użytkownikami.