Projektowanie dla agentów autonomicznych wiąże się z wyjątkową frustracją. Oddajemy AI złożone zadanie, ono znika na 30 sekund (lub 30 minut), a następnie powraca z wynikiem. Wpatrujemy się w ekran. Czy to zadziałało? Czy to była halucynacja? Czy sprawdził bazę danych zgodności, czy pominął ten krok? Zwykle reagujemy na ten niepokój jedną z dwóch skrajności. Albo utrzymujemy system jako czarną skrzynkę, ukrywając wszystko, aby zachować prostotę, albo wpadamy w panikę i zapewniamy zrzut danych, przesyłając strumieniowo do użytkownika każdą linię dziennika i wywołanie API. Żadne z podejść nie uwzględnia bezpośrednio niuansów niezbędnych do zapewnienia użytkownikom idealnego poziomu przejrzystości. Czarna skrzynka pozostawia użytkowników w poczuciu bezsilności. Zrzut danych powoduje zaślepienie powiadomień, niszcząc wydajność, którą obiecał zapewnić agent. Użytkownicy ignorują ciągły strumień informacji, dopóki coś się nie zepsuje i wtedy brakuje im kontekstu, aby to naprawić. Potrzebujemy zorganizowanego sposobu na znalezienie równowagi. W moim poprzednim artykule „Projektowanie pod kątem agentycznej sztucznej inteligencji” przyjrzeliśmy się elementom interfejsu, które budują zaufanie, takim jak wcześniejsze pokazanie zamierzonego działania sztucznej inteligencji (podgląd intencji) i zapewnienie użytkownikom kontroli nad tym, ile sztuczna inteligencja wykonuje samodzielnie (pokrętła autonomiczne). Jednak wiedza o tym, jakich elementów użyć, to tylko część wyzwania. Trudniejszym pytaniem dla projektantów jest wiedza, kiedy z nich korzystać. Skąd wiesz, który konkretny moment w 30-sekundowym przepływie pracy wymaga podglądu intencji, a który można obsłużyć za pomocą prostego wpisu w dzienniku? W tym artykule przedstawiono metodę odpowiedzi na to pytanie. Przejdziemy przez audyt węzła decyzyjnego. W tym procesie projektanci i inżynierowie znajdują się w tym samym pomieszczeniu, aby zmapować logikę zaplecza na interfejs użytkownika. Dowiesz się, jak dokładnie określić momenty, w których użytkownik potrzebuje informacji o tym, co robi sztuczna inteligencja. Omówimy także macierz wpływu/ryzyka, która pomoże ustalić priorytety, które węzły decyzyjne mają być wyświetlane, oraz wszelkie powiązane wzorce projektowe, które należy powiązać z tą decyzją. Momenty przejrzystości: przykład studium przypadku Weźmy pod uwagę Meridian (nie prawdziwe imię i nazwisko), firmę ubezpieczeniową, która wykorzystuje sztuczną inteligencję do rozpatrywania początkowych roszczeń z tytułu wypadków. Użytkownik przesyła zdjęcia uszkodzeń pojazdu i raport policyjny. Następnie agent znika na minutę, po czym powraca z oceną ryzyka i proponowanym zakresem wypłat. Początkowo interfejs Meridian po prostu pokazywał Obliczanie statusu roszczenia. Użytkownicy byli coraz bardziej sfrustrowani. Przedłożyli kilka szczegółowych dokumentów i nie byli pewni, czy sztuczna inteligencja w ogóle zapoznała się z raportem policyjnym, który zawierał okoliczności łagodzące. Czarna skrzynka wywołała nieufność. Aby rozwiązać ten problem, zespół projektowy przeprowadził audyt węzła decyzyjnego. Odkryli, że sztuczna inteligencja wykonała trzy odrębne kroki oparte na prawdopodobieństwie, z wbudowanymi wieloma mniejszymi krokami:

Analiza obrazuAgent porównał zdjęcia uszkodzeń z bazą danych zawierającą typowe scenariusze wypadków samochodowych, aby oszacować koszt naprawy. Wiązało się to z oceną pewności. Przegląd tekstu Przeskanował raport policyjny pod kątem słów kluczowych wpływających na odpowiedzialność (np. wina, warunki pogodowe, trzeźwość). Wiązało się to z oceną prawdopodobieństwa sytuacji prawnej. Odsyłacz do zasad Dopasował szczegóły roszczenia do konkretnych warunków polisy użytkownika, wyszukując wyjątki lub limity ubezpieczenia. Wiązało się to również z dopasowaniem probabilistycznym.

Zespół zamienił te kroki w momenty przejrzystości. Sekwencja interfejsu została zaktualizowana do:

Ocena zdjęć uszkodzeń: porównanie z 500 profilami uderzeń pojazdów. Przeglądanie raportu policyjnego: analiza słów kluczowych dotyczących odpowiedzialności i precedensu prawnego. Weryfikacja zakresu polisy: sprawdzanie określonych wyłączeń w planie.

System nadal zajmował tyle samo czasu, ale jawna komunikacja na temat wewnętrznego działania agenta przywróciła zaufanie użytkownika. Użytkownicy rozumieli, że sztuczna inteligencja wykonuje złożone zadanie, do którego została zaprojektowana, i wiedzieli dokładnie, na czym skupić swoją uwagę, jeśli ostateczna ocena wydawała się niedokładna. Ten wybór projektu przekształcił chwilę niepokoju w chwilę połączenia z użytkownikiem. Stosowanie macierzy wpływu/ryzyka: co postanowiliśmy ukryć W większości doświadczeń związanych ze sztuczną inteligencją nie brakuje zdarzeń i węzłów decyzyjnych, które mogą potencjalnie zostać wyświetlone podczas przetwarzania. Jednym z najważniejszych wyników audytu była decyzja, co zachować niewidocznym. W przykładzie Meridian dzienniki zaplecza wygenerowały ponad 50 zdarzeń na roszczenie. Mogliśmy domyślnie wyświetlać każde zdarzenie przetwarzane w ramach interfejsu użytkownika. Zamiast tego zastosowaliśmy macierz ryzyka, aby je przyciąć:

Dziennik zdarzeń: Serwer pingującyWest-2 do kontroli redundancji. Werdykt filtra: Ukryj. (Niskie stawki, wysoki poziom techniczny).

Rejestr zdarzeń: porównanie kosztorysu naprawy z wartością BlueBook. Werdykt filtra: Pokaż. (Wysokie stawki, wpływają na wypłatę użytkownika).

Dzięki usunięciu niepotrzebnych szczegółów ważne informacje — takie jak weryfikacja zasięgu — miały większy wpływ. Stworzyliśmy otwarty interfejs i zaprojektowaliśmy otwarte doświadczenie. Podejście to opiera się na założeniu, że ludzie czują się lepiej w związku z usługą, gdy widzą wykonywaną pracę. Pokazując konkretne kroki (Ocena, Przegląd, Weryfikacja), zmieniliśmy 30-sekundowe oczekiwanie z czasu zmartwień („Czy jest uszkodzony?”) na moment poczucia, że ​​tworzy się coś wartościowego („To myśli”). Przyjrzyjmy się teraz bliżej, w jaki sposób możemy dokonać przeglądu procesu decyzyjnego w naszych produktach, aby zidentyfikować kluczowe momenty wymagające jasnej informacji. Audyt węzła decyzyjnego Przejrzystość zawodzi, gdy traktujemy ją jako wybór stylu, a nie wymóg funkcjonalny. Mamy tendencję do zadawania pytań: „Jak powinien wyglądać interfejs użytkownika?” zanim zapytamy: „O czym właściwie decyduje agent?” Audyt węzła decyzyjnego to prosty sposób na ułatwienie zrozumienia systemów AI. Działa poprzez dokładne mapowanie wewnętrznego procesu systemu. Głównym celem jest znalezienie i jasne zdefiniowanie dokładnych momentów, w których system przestaje przestrzegać ustalonych zasad i zamiast tego dokonuje wyboru w oparciu o przypadek lub szacunki. Mapując tę ​​strukturę, twórcy mogą pokazać te punkty niepewności bezpośrednio osobom korzystającym z systemu. To zmienia aktualizacje systemu z niejasnych stwierdzeń w konkretne, wiarygodne raporty na temat tego, jak sztuczna inteligencja doszła do swoich wniosków. Oprócz powyższego studium przypadku dotyczącego ubezpieczeń, ostatnio współpracowałem z agentem ds. zakupów w zespole budującym. System dokonał przeglądu umów z dostawcami i zidentyfikował ryzyka. Pierwotnie na ekranie pojawiał się prosty pasek postępu: „Przeglądanie umów”. Użytkownicy tego nienawidzili. Nasze badanie wykazało, że odczuwali oni niepokój w związku z konsekwencjami prawnymi brakującej klauzuli. Naprawiliśmy ten problem, przeprowadzając audyt węzła decyzyjnego. Na zakończenie tego artykułu zamieściłem listę kontrolną krok po kroku dotyczącą przeprowadzenia tego audytu. Przeprowadziliśmy sesję z inżynierami i przedstawiliśmy, jak działa system. Zidentyfikowaliśmy „punkty decyzyjne” — momenty, w których sztuczna inteligencja musiała wybierać pomiędzy dwiema dobrymi opcjami. W standardowych programach komputerowych proces jest jasny: jeśli wydarzy się A, zawsze wydarzy się B. W systemach AI proces ten często opiera się na przypadku. Sztuczna inteligencja uważa, że ​​A jest prawdopodobnie najlepszym wyborem, ale może być pewna tylko w 65%. W systemie kontraktowym znaleźliśmy moment, w którym AI sprawdzała warunki odpowiedzialności z regulaminem naszej firmy. Rzadko kiedy było to idealne dopasowanie. Sztuczna inteligencja musiała zdecydować, czy dopasowanie na poziomie 90% było wystarczająco dobre. To był kluczowy punkt decyzji.

Po zidentyfikowaniu tego węzła udostępniliśmy go użytkownikowi. Zamiast „Przeglądania umów” interfejs został zaktualizowany i wyświetla komunikat: „Klauzula odpowiedzialności różni się od standardowego szablonu. Analiza poziomu ryzyka”. Ta konkretna aktualizacja dodała użytkownikom pewności. Wiedzieli, że agent sprawdził klauzulę odpowiedzialności. Zrozumieli przyczynę opóźnienia i zyskali pewność, że po stronie zaplecza następuje oczekiwana akcja. Wiedzieli także, gdzie sięgnąć głębiej, gdy agent wygenerował kontrakt. Aby sprawdzić, w jaki sposób sztuczna inteligencja podejmuje decyzje, należy ściśle współpracować z inżynierami, menedżerami produktu, analitykami biznesowymi i kluczowymi osobami, które dokonują wyborów (często ukrytych), które mają wpływ na działanie narzędzia AI. Narysuj kroki, jakie wykonuje narzędzie. Zaznacz każde miejsce, w którym proces zmienia kierunek ze względu na spełnione prawdopodobieństwo. To są miejsca, w których powinieneś skupić się na byciu bardziej przejrzystym. Jak pokazano na rysunku 2 poniżej, audyt węzła decyzyjnego obejmuje następujące kroki:

Zbierz zespół: zbierz właścicieli produktów, analityków biznesowych, projektantów, kluczowych decydentów i inżynierów, którzy zbudowali sztuczną inteligencję. Na przykład Pomyśl o zespole produktowym budującym narzędzie AI przeznaczone do przeglądania niechlujnych umów prawnych. W skład zespołu wchodzą projektant UX, menadżer produktu, badacz UX, praktykujący prawnik pełniący rolę eksperta merytorycznego oraz inżynier backendu, który napisał kod do analizy tekstu.

Narysuj cały proces: dokumentuj każdy krok wykonywany przez sztuczną inteligencję, od pierwszej akcji użytkownika po wynik końcowy. Zespół stoi przy tablicy i szkicuje całą sekwencję kluczowego przepływu pracy, który obejmuje wyszukiwanie przez sztuczną inteligencję klauzuli odpowiedzialności w złożonej umowie. Prawnik przesyłapięćdziesięciostronicowy plik PDF  → System konwertuje dokument na czytelny tekst. → AI skanuje strony pod kątem klauzul odpowiedzialności. → Użytkownik czeka. → Chwilę lub kilka minut później narzędzie podświetla znalezione akapity na żółto w interfejsie użytkownika. Robią to w przypadku wielu innych przepływów pracy, które obsługuje również to narzędzie.

Znajdź miejsca, w których wszystko jest niejasne: spójrz na mapę procesu pod kątem dowolnego miejsca, w którym sztuczna inteligencja porównuje opcje lub dane wejściowe, które nie mają jednego idealnego dopasowania. Zespół patrzy na tablicę, aby dostrzec niejednoznaczne kroki. Konwersja obrazu na tekst podlega ścisłym zasadom. Znalezienie konkretnej klauzuli odpowiedzialności wiąże się z domysłami. Każda firma pisze te klauzule inaczej, więc sztuczna inteligencja musi rozważyć wiele opcji i dokonać prognozy, zamiast znajdować dokładne dopasowanie słowa.

Zidentyfikuj kroki „najlepszego przypuszczenia”: w przypadku każdego niejasnego miejsca sprawdź, czy system wykorzystuje wskaźnik pewności (na przykład, czy jest pewien na 85%?). To są punkty, w których sztuczna inteligencja dokonuje ostatecznego wyboru. System musi odgadnąć (podać prawdopodobieństwo), który paragraf(y) bardzo przypomina standardową klauzulę odpowiedzialności. Przypisuje wynik zaufania do najlepszego przypuszczenia. To przypuszczenie jest węzłem decyzyjnym. Interfejs musi poinformować prawnika, że ​​podkreśla potencjalne dopasowanie, a nie informować, że znalazł ostateczną klauzulę.

Zbadaj wybór: dla każdego punktu wyboru określ konkretną wewnętrzną matematykę lub porównanie (np. dopasowanie części umowy do polisy lub porównanie zdjęcia zepsutego samochodu z biblioteką zdjęć uszkodzonych samochodów). Inżynier wyjaśnia, że ​​system porównuje różne paragrafy z bazą danych zawierającą standardowe klauzule odpowiedzialności z poprzednich spraw firmowych. Oblicza wynik podobieństwa tekstu, aby zdecydować o dopasowaniu na podstawie prawdopodobieństwa.

Napisz jasne wyjaśnienia: twórz wiadomości dla użytkownika, które jasno opisują konkretne działania wewnętrzne, które mają miejsce, gdy sztuczna inteligencja dokonuje wyboru. Projektant treści pisze konkretną wiadomość na ten moment. Tekst brzmi: Porównanie tekstu dokumentu ze standardowymi klauzulami firmowymi w celu zidentyfikowania potencjalnego ryzyka odpowiedzialności.

Zaktualizuj ekran: umieść te nowe, jasne wyjaśnienia w interfejsie użytkownika, zastępując niejasne komunikaty, takie jak „Przeglądanie umów”. Zespół projektowy usuwa ogólne narzędzie ładowania plików PDF do przetwarzania. Wstawiają nowe wyjaśnienie do paska stanu znajdującego się tuż nad przeglądarką dokumentów, podczas gdy sztuczna inteligencja myśli.

Sprawdź zaufanie: Upewnij się, że nowe komunikaty ekranowe podają użytkownikom prosty powód czasu oczekiwania lub wyniku, co powinno sprawić, że poczują się pewniej i ufniej.

Matryca wpływu/ryzyka Gdy przyjrzysz się bliżej procesowi sztucznej inteligencji, prawdopodobnie znajdziesz wiele punktów, w których dokonuje ona wyboru. Sztuczna inteligencja może dokonać dziesiątek drobnych wyborów w ramach jednego złożonego zadania. Wyświetlenie ich wszystkich powoduje powstanie zbyt dużej ilości niepotrzebnych informacji. Musisz pogrupować te wybory. Możesz użyć macierzy wpływu/ryzyka, aby posortować te wybory w oparciu o rodzaje działań podejmowanych przez sztuczną inteligencję. Oto przykłady macierzy wpływu/ryzyka: Po pierwsze, szukaj decyzji o niskiej stawce i niewielkim wpływie. Niskie stawki / niewielki wpływ

Przykład: organizacja struktury pliku lub zmiana nazwy dokumentu. Potrzeba przejrzystości: minimalna. Wystarczy subtelne powiadomienie toastowe lub wpis w dzienniku. Użytkownicy mogą łatwo cofnąć te działania.

Następnie zidentyfikuj decyzje o dużej stawce i dużym wpływie. Wysoka stawka / duży wpływ

Przykład: odrzucenie wniosku o pożyczkę lub dokonanie transakcji na akcjach. Potrzeba przejrzystości: wysoka. Działania te wymagają dowodu pracy. System musi wykazać uzasadnienie przed podjęciem działania lub bezpośrednio w jego trakcie.

Rozważmy bota do handlu finansowego, który traktuje wszystkie zlecenia kupna/sprzedaży w ten sam sposób. Wykonuje transakcję o wartości 5 USD z taką samą nieprzejrzystością, jak transakcja o wartości 50 000 USD. Użytkownicy mogą mieć wątpliwości, czy narzędzie uwzględnia potencjalny wpływ przejrzystości na handel dużymi kwotami w dolarach. Potrzebują, aby system zatrzymał się i pokazał swoją pracę w przypadku transakcji o wysokie stawki. Rozwiązaniem jest wprowadzenie stanu Logiki Przeglądu dla każdej transakcji przekraczającej określoną kwotę w dolarach, umożliwiając użytkownikowi sprawdzenie czynników wpływających na decyzję przed jej wykonaniem. Mapowanie węzłów na wzorce: rubryka wyboru wzorca projektowego Po zidentyfikowaniu kluczowych węzłów decyzyjnych doświadczenia musisz zdecydować, który wzorzec interfejsu użytkownika ma zastosowanie do każdego z nich, który będziesz wyświetlać. W projektowaniu dla agentycznej sztucznej inteligencji wprowadziliśmy wzorce, takie jak podgląd intencji (dla kontroli o wysokiej stawce) i audyt akcji (dla bezpieczeństwa retrospektywnego). Decydującym czynnikiem przy wyborze pomiędzy nimi jest odwracalność. Filtrujemy każdewęzeł decyzyjny poprzez macierz wpływu w celu przypisania prawidłowego wzorca: Wysoka stawka i nieodwracalność: te węzły wymagają podglądu intencji. Ponieważ użytkownik nie może łatwo cofnąć akcji (np. trwałego usunięcia bazy danych), moment przezroczystości musi nastąpić przed wykonaniem. System musi się zatrzymać, wyjaśnić swój zamiar i zażądać potwierdzenia. Wysoka stawka i odwracalność: te węzły mogą polegać na wzorcu audytu akcji i cofania. Jeśli agent sprzedaży wykorzystujący sztuczną inteligencję przeniesie potencjalnego klienta do innego rurociągu, może to zrobić autonomicznie, pod warunkiem, że powiadomi użytkownika i zaoferuje natychmiastowy przycisk Cofnij. Ściśle kategoryzując węzły w ten sposób, unikamy „zmęczenia czujnością”. Zastrzegamy sobie podgląd zamiarów o wysokim współczynniku tarcia tylko dla naprawdę nieodwracalnych chwil, podczas gdy w pozostałych przypadkach polegamy na audycie akcji, aby utrzymać prędkość.

Odwracalne Nieodwracalne Niski wpływ Typ: Automatyczne wykonanieUI: Toast pasywny / LogEx: Zmiana nazwy pliku Typ: PotwierdźUI: Opcja prostego cofania Przykład: Archiwizowanie wiadomości e-mail Wysoki wpływ Typ: ReviewUI: Powiadomienie + Recenzja TrailEx: Wysyłanie wersji roboczej do klienta Typ: Podgląd zamiaruUI: Modalne/jawne zezwolenieEx: Usuwanie serwera

Tabela 1: Matrycę wpływu i odwracalności można następnie wykorzystać do odwzorowania momentów przejrzystości na wzorce projektowe. Walidacja jakościowa: „Czekać, dlaczego?” Testuj Możesz zidentyfikować potencjalne węzły na tablicy, ale musisz zweryfikować je na podstawie ludzkiego zachowania. Musisz sprawdzić, czy Twoja mapa pasuje do modelu mentalnego użytkownika. Używam protokołu zwanego „Czekaj, dlaczego?” Test. Poproś użytkownika, aby zobaczył, jak agent wykonuje zadanie. Poleć im, aby mówili na głos. Ilekroć zadają pytanie: „Czekaj, dlaczego to zrobiło?” lub „Czy utknął?” lub „Czy mnie usłyszał?” — zaznaczasz znacznik czasu. Te pytania sygnalizują dezorientację użytkownika. Użytkownik czuje, że traci kontrolę. Na przykład w badaniu przeprowadzonym dla asystenta planowania opieki zdrowotnej użytkownicy obserwowali, jak agent umawiał się na wizytę. Ekran pozostawał nieruchomy przez cztery sekundy. Uczestnicy stale pytali: „Czy chodzi o sprawdzenie mojego kalendarza czy lekarza?”

To pytanie ujawniło brakujący moment przejrzystości. System musiał podzielić to czterosekundowe oczekiwanie na dwa odrębne etapy: „Sprawdzanie dostępności”, a następnie „Synchronizacja z harmonogramem dostawcy”. Ta niewielka zmiana zmniejszyła poziom niepokoju wyrażany przez użytkowników. Przejrzystość zawodzi, gdy opisuje jedynie działanie systemu. Interfejs musi łączyć proces techniczny z konkretnym celem użytkownika. Ekran wyświetlający „Sprawdzanie dostępności” wypada płasko, ponieważ brakuje mu kontekstu. Użytkownik rozumie, że sztuczna inteligencja patrzy w kalendarz, ale nie wie dlaczego. Musimy połączyć działanie z rezultatem. System musi podzielić to czterosekundowe oczekiwanie na dwa odrębne etapy. Najpierw interfejs wyświetla komunikat „Sprawdzam kalendarz w celu znalezienia godzin otwarcia”. Następnie wyświetli się komunikat „Synchronizacja z harmonogramem dostawcy w celu zabezpieczenia spotkania”. To osadza proces techniczny w rzeczywistym życiu użytkownika. Rozważ sztuczną inteligencję zarządzającą zapasami w lokalnej kawiarni. W systemie występuje niedobór dostaw. Interfejs wyświetlający „kontakt z dostawcą” lub „przeglądanie opcji” wywołuje niepokój. Menedżer zastanawia się, czy system anuluje zamówienie, czy kupuje kosztowną alternatywę. Lepszym podejściem jest wyjaśnienie zamierzonego rezultatu: „Ocena alternatywnych dostawców pod kątem dotrzymania piątkowego harmonogramu dostaw”. Dzięki temu użytkownik dokładnie wie, co sztuczna inteligencja próbuje osiągnąć. Operacjonalizacja audytu Zakończyłeś audyt węzła decyzyjnego i przefiltrowałeś swoją listę za pomocą macierzy wpływu i ryzyka. Masz teraz listę momentów niezbędnych do zachowania przejrzystości. Następnie musisz je utworzyć w interfejsie użytkownika. Ten krok wymaga pracy zespołowej pomiędzy różnymi działami. Nie możesz samodzielnie zaprojektować przezroczystości, korzystając z narzędzia do projektowania. Musisz zrozumieć, jak system działa za kulisami. Zacznij od przeglądu logiki. Spotkaj się z głównym projektantem systemu. Przynieś swoją mapę węzłów decyzyjnych. Musisz potwierdzić, że system faktycznie może współdzielić te stany. Często stwierdzam, że system techniczny nie ujawnia dokładnie takiego stanu, jaki chcę pokazać. Inżynier może powiedzieć, że system po prostu zwraca ogólny stan „pracy”. Musisz nalegać na szczegółową aktualizację. Potrzebujesz, aby system wysłał konkretne powiadomieniekiedy przełącza się z czytania tekstu na sprawdzanie reguł. Bez tego połączenia technicznego nie da się zbudować Twojego projektu. Następnie zaangażuj zespół ds. projektowania treści. Masz techniczny powód działania AI, ale potrzebujesz jasnego, przyjaznego dla człowieka wyjaśnienia. Inżynierowie zapewniają podstawowy proces, ale projektanci treści zapewniają sposób jego komunikacji. Nie pisz tych wiadomości sam. Programista może napisać „Wykonywanie funkcji 402”, co jest technicznie poprawne, ale bez znaczenia dla użytkownika. Projektant mógłby napisać „Myślenie”, co jest przyjazne, ale zbyt niejasne. Strateg treści znajduje właściwy złoty środek. Tworzą określone frazy, takie jak „Skanowanie ryzyka odpowiedzialności”, które pokazują, że sztuczna inteligencja działa, nie dezorientując użytkownika. Na koniec przetestuj przejrzystość swoich wiadomości. Nie czekaj, aż powstanie produkt końcowy, aby sprawdzić, czy tekst działa. Przeprowadzam testy porównawcze na prostych prototypach, gdzie zmienia się jedynie komunikat o statusie. Na przykład pokazuję jednej grupie (Grupa A) komunikat o treści „Weryfikacja tożsamości”, a drugiej grupie (Grupa B) komunikat o treści „Sprawdzanie rządowych baz danych” (są to zmyślone przykłady, ale rozumiesz o co chodzi). Następnie pytam ich, która sztuczna inteligencja jest bezpieczniejsza. Często odkryjesz, że niektóre słowa powodują zmartwienie, podczas gdy inne budują zaufanie. Musisz potraktować sformułowanie jako coś, co musisz przetestować i udowodnić, że jest skuteczne. Jak to zmienia proces projektowania Przeprowadzanie takich audytów może potencjalnie wzmocnić współpracę zespołu. Przestajemy przekazywać dopracowane pliki projektowe. Zaczynamy używać niechlujnych prototypów i udostępnianych arkuszy kalkulacyjnych. Podstawowym narzędziem staje się matryca przezroczystości. Inżynierowie i projektanci treści wspólnie edytują ten arkusz kalkulacyjny. Odwzorowują dokładne kody techniczne na słowa, które użytkownik przeczyta. Zespoły doświadczą tarć podczas przeglądu logiki. Wyobraź sobie projektanta pytającego inżyniera, w jaki sposób sztuczna inteligencja decyduje się odrzucić transakcję przedstawioną w raporcie wydatków. Inżynier może powiedzieć, że backend generuje tylko ogólny kod stanu, taki jak „Błąd: brakujące dane”. Projektant twierdzi, że nie jest to informacja widoczna na ekranie. Projektant negocjuje z inżynierem stworzenie konkretnego haka technicznego. Inżynier pisze nową regułę, dzięki czemu system zgłasza dokładnie to, czego brakuje, np. brakujący obraz paragonu. Projektanci treści pełnią na tym etapie rolę tłumaczy. Programista może napisać technicznie dokładny ciąg znaków, np. „Obliczanie progu ufności dla dopasowania dostawcy”. Projektant treści tłumaczy ten ciąg znaków na frazę, która buduje zaufanie do konkretnego wyniku. Strateg przepisuje to jako „Porównanie cen lokalnych dostawców w celu zabezpieczenia piątkowej dostawy”. Użytkownik rozumie działanie i wynik. Cały zespół interdyscyplinarny uczestniczy w sesjach testowania użytkowników. Obserwują, jak prawdziwa osoba reaguje na różne komunikaty o statusie. Widzenie paniki użytkownika, gdy na ekranie pojawia się komunikat „Realizacja transakcji”, zmusza zespół do ponownego przemyślenia swojego podejścia. Inżynierowie i projektanci pracują nad lepszym sformułowaniem. Przed zakupem akcji zmieniają tekst na „Weryfikacja wystarczających środków”. Wspólne testowanie gwarantuje, że ostateczny interfejs będzie służył zarówno logice systemu, jak i spokojowi użytkownika. Włączenie tych dodatkowych zajęć do kalendarza zespołu wymaga czasu. Jednak efektem końcowym powinien być zespół, który komunikuje się bardziej otwarcie, a użytkownicy lepiej rozumieją, co ich narzędzia oparte na sztucznej inteligencji robią w ich imieniu (i dlaczego). To zintegrowane podejście jest podstawą projektowania naprawdę godnych zaufania doświadczeń związanych ze sztuczną inteligencją. Zaufanie to wybór projektu Często postrzegamy zaufanie jako emocjonalny produkt uboczny dobrego doświadczenia użytkownika. Łatwiej jest postrzegać zaufanie jako mechaniczny wynik przewidywalnej komunikacji. Budujemy zaufanie pokazując właściwe informacje we właściwym czasie. Niszczymy go przytłaczając użytkownika lub całkowicie chowając maszynerię. Zacznij od audytu węzła decyzyjnego, szczególnie w przypadku narzędzi i produktów agentycznej sztucznej inteligencji. Znajdź momenty, w których system dokonuje oceny. Mapuj te momenty na Matrycę Ryzyka. Jeśli stawka jest wysoka, otwórz pudełko. Pokaż pracę. W następnym artykule przyjrzymy się, jak zaprojektować te momenty: jak napisać kopię, ustrukturyzować interfejs użytkownika i poradzić sobie z nieuniknionymi błędami, gdy agent popełni błąd. Dodatek: Lista kontrolna kontroli węzła decyzyjnego Faza 1: Konfiguracja i mapowanie ✅ Zbierz zespół: zbierz właścicieli produktów, analityków biznesowych, projektantów,kluczowi decydenci i inżynierowie, którzy zbudowali sztuczną inteligencję. Wskazówka: potrzebujesz inżynierów, aby wyjaśnili rzeczywistą logikę zaplecza. Nie próbuj tego kroku samodzielnie. ✅ Narysuj cały proces: dokumentuj każdy krok wykonywany przez sztuczną inteligencję, od pierwszej akcji użytkownika do końcowego rezultatu. Wskazówka: sesja na tablicy fizycznej często najlepiej sprawdza się przy sporządzaniu tych początkowych kroków. Faza 2: Lokalizowanie ukrytej logiki ✅ Znajdź miejsca, w których coś jest niejasne: spójrz na mapę procesu pod kątem dowolnego miejsca, w którym sztuczna inteligencja porównuje opcje lub dane wejściowe, które nie mają jednego idealnego dopasowania. ✅ Zidentyfikuj najlepsze kroki zgadywania: dla każdego niejasnego miejsca sprawdź, czy system wykorzystuje wskaźnik pewności. Na przykład zapytaj, czy system jest pewien na 85 procent. To są punkty, w których sztuczna inteligencja dokonuje ostatecznego wyboru. ✅ Sprawdź wybór: dla każdego punktu wyboru oblicz konkretną wewnętrzną matematykę lub porównanie. Przykładem jest dopasowanie części umowy do polisy. Inny przykład polega na porównaniu zdjęcia uszkodzonego samochodu z biblioteką zdjęć uszkodzonych samochodów. Faza 3: Tworzenie doświadczenia użytkownika ✅ Napisz jasne wyjaśnienia: Twórz wiadomości dla użytkownika, które jasno opisują konkretne wewnętrzne działania, które mają miejsce, gdy sztuczna inteligencja dokonuje wyboru. Wskazówka: osadzaj swoje wiadomości w konkretnej rzeczywistości. Jeśli sztuczna inteligencja zarezerwuje spotkanie z klientem w lokalnej kawiarni, powiedz użytkownikowi, że system sprawdza system rezerwacji kawiarni. ✅ Zaktualizuj ekran: Umieść te nowe, jasne wyjaśnienia w interfejsie użytkownika. Zastąp niejasne komunikaty, takie jak Przeglądanie umów, konkretnymi wyjaśnieniami. ✅ Sprawdź zaufanie: Upewnij się, że nowe komunikaty ekranowe podają użytkownikom prosty powód oczekiwania lub wyniku. To powinno sprawić, że poczują się pewnie i ufnie. Wskazówka: przetestuj te wiadomości z rzeczywistymi użytkownikami, aby upewnić się, że rozumieją konkretny osiągnięty wynik.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free