Das Entwerfen für autonome Agenten stellt eine einzigartige Frustration dar. Wir geben einer KI eine komplexe Aufgabe, sie verschwindet für 30 Sekunden (oder 30 Minuten) und kehrt dann mit einem Ergebnis zurück. Wir starren auf den Bildschirm. Hat es funktioniert? Hat es halluziniert? Hat es die Compliance-Datenbank überprüft oder diesen Schritt übersprungen? Auf diese Angst reagieren wir typischerweise mit einem von zwei Extremen. Entweder halten wir das System als Black Box und verbergen alles, um die Einfachheit zu wahren, oder wir geraten in Panik und stellen einen Daten-Dump bereit, der jede Protokollzeile und jeden API-Aufruf an den Benutzer streamt. Keiner der Ansätze geht direkt auf die Nuancen ein, die erforderlich sind, um Benutzern das ideale Maß an Transparenz zu bieten. Durch die Black Box fühlen sich Benutzer machtlos. Der Data Dump erzeugt Benachrichtigungsblindheit und zerstört die Effizienz, die der Agent versprochen hat. Benutzer ignorieren den ständigen Informationsfluss, bis etwas kaputt geht. Dann fehlt ihnen der Kontext, um das Problem zu beheben. Wir brauchen einen organisierten Weg, um das Gleichgewicht zu finden. In meinem vorherigen Artikel „Designing For Agentic AI“ haben wir uns mit Schnittstellenelementen befasst, die Vertrauen aufbauen, wie z. B. die vorherige Anzeige der beabsichtigten Aktion der KI (Intent Previews) und die Gewährung der Kontrolle darüber, wie viel die KI selbst tut (Autonomy Dials) für Benutzer. Aber zu wissen, welche Elemente man verwenden sollte, ist nur ein Teil der Herausforderung. Die schwierigere Frage für Designer besteht darin, zu wissen, wann sie sie verwenden sollen. Woher wissen Sie, welcher bestimmte Moment in einem 30-Sekunden-Workflow eine Intent-Vorschau erfordert und welcher mit einem einfachen Protokolleintrag behandelt werden kann? Dieser Artikel bietet eine Methode zur Beantwortung dieser Frage. Wir werden das Decision Node Audit durchgehen. Dieser Prozess bringt Designer und Ingenieure in einen Raum, um die Backend-Logik auf die Benutzeroberfläche abzubilden. Sie erfahren, wie Sie die genauen Momente bestimmen, in denen ein Benutzer ein Update über die Aktivitäten der KI benötigt. Wir werden auch eine Auswirkungs-/Risikomatrix behandeln, die dabei hilft, Prioritäten zu setzen, welche Entscheidungsknoten angezeigt werden sollen, und alle damit verbundenen Entwurfsmuster, die mit dieser Entscheidung verknüpft werden sollen. Transparenzmomente: Ein Fallstudienbeispiel Betrachten Sie Meridian (nicht richtiger Name), eine Versicherungsgesellschaft, die eine Agenten-KI zur Bearbeitung erster Unfallansprüche einsetzt. Der Nutzer lädt Fotos vom Fahrzeugschaden und den Polizeibericht hoch. Der Agent verschwindet dann für eine Minute, bevor er mit einer Risikobewertung und einem Vorschlag für die Auszahlungsspanne zurückkehrt. Anfangs zeigte die Benutzeroberfläche von Meridian lediglich „Berechnung des Anspruchsstatus“ an. Die Benutzer wurden frustriert. Sie hatten mehrere detaillierte Dokumente eingereicht und waren unsicher, ob die KI den Polizeibericht, der mildernde Umstände enthielt, überhaupt überprüft hatte. Die Black Box erzeugte Misstrauen. Um dieses Problem zu beheben, führte das Designteam ein Decision Node Audit durch. Sie fanden heraus, dass die KI drei verschiedene, wahrscheinlichkeitsbasierte Schritte ausführte, in die zahlreiche kleinere Schritte eingebettet waren:
Bildanalyse: Der Agent verglich die Schadensfotos mit einer Datenbank typischer Autounfallszenarien, um die Reparaturkosten abzuschätzen. Dabei handelte es sich um einen Konfidenzwert. Textüberprüfung: Der Polizeibericht wurde nach Schlüsselwörtern durchsucht, die sich auf die Haftung auswirken (z. B. Schuld, Wetterbedingungen, Nüchternheit). Dies beinhaltete eine Wahrscheinlichkeitsbeurteilung der Klagebefugnis. Richtlinien-Querverweis: Es hat die Anspruchsdetails mit den spezifischen Versicherungsbedingungen des Benutzers abgeglichen und nach Ausnahmen oder Deckungsgrenzen gesucht. Dies beinhaltete auch probabilistisches Matching.
Das Team verwandelte diese Schritte in Transparenzmomente. Die Schnittstellensequenz wurde wie folgt aktualisiert:
Bewertung von Schadensfotos: Vergleich mit 500 Fahrzeugaufprallprofilen. Überprüfung des Polizeiberichts: Analyse von Haftungsschlüsselwörtern und rechtlichen Präzedenzfällen. Überprüfung des Versicherungsschutzes: Prüfung auf bestimmte Ausschlüsse in Ihrem Plan.
Das System benötigte immer noch die gleiche Zeit, aber die explizite Kommunikation über die internen Abläufe des Agenten stellte das Vertrauen der Benutzer wieder her. Den Benutzern war klar, dass die KI die komplexe Aufgabe ausführte, für die sie entwickelt wurde, und sie wussten genau, worauf sie ihre Aufmerksamkeit richten mussten, wenn die endgültige Bewertung ungenau erschien. Diese Designentscheidung verwandelte einen Moment der Angst in einen Moment der Verbindung mit dem Benutzer. Anwendung der Auswirkungs-/Risikomatrix: Was wir verbergen wollten Bei den meisten KI-Erlebnissen mangelt es nicht an Ereignissen und Entscheidungsknoten, die möglicherweise während der Verarbeitung angezeigt werden könnten. Eines der kritischsten Ergebnisse des Audits war die Entscheidung, was unsichtbar bleiben sollte. Im Meridian-Beispiel generierten die Backend-Protokolle mehr als 50 Ereignisse pro Anspruch. Wir hätten standardmäßig jedes Ereignis so anzeigen können, wie es als Teil der Benutzeroberfläche verarbeitet wurde. Stattdessen haben wir die Risikomatrix angewendet, um sie zu bereinigen:
Protokollereignis: Ping-ServerWest-2 zur Redundanzprüfung. Filterurteil: Ausblenden. (Geringe Einsätze, hohe Technik).
Protokollereignis: Vergleich der Reparaturschätzung mit dem BlueBook-Wert. Filterurteil: Anzeigen. (Hohe Einsätze, wirkt sich auf die Auszahlung des Benutzers aus).
Durch das Weglassen unnötiger Details waren wichtige Informationen – wie die Überprüfung der Deckung – wirkungsvoller. Wir haben eine offene Schnittstelle geschaffen und ein offenes Erlebnis gestaltet. Dieser Ansatz basiert auf der Idee, dass sich Menschen bei einer Dienstleistung wohler fühlen, wenn sie die geleistete Arbeit sehen können. Durch die Darstellung der spezifischen Schritte (Bewerten, Überprüfen, Verifizieren) haben wir eine 30-sekündige Wartezeit von einer Zeit der Sorge („Ist es kaputt?“) in eine Zeit des Gefühls verwandelt, dass etwas Wertvolles entsteht („Es ist Denken“). Schauen wir uns nun genauer an, wie wir den Entscheidungsprozess in unseren Produkten überprüfen können, um Schlüsselmomente zu identifizieren, die klare Informationen erfordern. Das Entscheidungsknoten-Audit Transparenz versagt, wenn wir sie als eine Stilwahl und nicht als eine funktionale Anforderung betrachten. Wir neigen dazu zu fragen: „Wie sollte die Benutzeroberfläche aussehen?“ bevor wir fragen: „Was entscheidet der Agent eigentlich?“ Das Decision Node Audit ist eine einfache Möglichkeit, KI-Systeme verständlicher zu machen. Dabei wird der interne Prozess des Systems sorgfältig abgebildet. Das Hauptziel besteht darin, die genauen Momente zu finden und klar zu definieren, in denen das System seinen festgelegten Regeln nicht mehr folgt und stattdessen eine Entscheidung trifft, die auf Zufall oder Schätzung basiert. Durch die Abbildung dieser Struktur können Ersteller diese Unsicherheitspunkte den Personen, die das System nutzen, direkt zeigen. Dadurch werden Systemaktualisierungen von vagen Aussagen zu konkreten, zuverlässigen Berichten darüber, wie die KI zu ihrem Ergebnis gelangt ist. Zusätzlich zu der oben genannten Versicherungsfallstudie habe ich kürzlich mit einem Team zusammengearbeitet, das einen Beschaffungsagenten aufbaute. Das System überprüfte Lieferantenverträge und markierte Risiken. Ursprünglich wurde auf dem Bildschirm ein einfacher Fortschrittsbalken angezeigt: „Verträge prüfen“. Benutzer hassten es. Unsere Untersuchungen ergaben, dass sie sich Sorgen über die rechtlichen Auswirkungen einer fehlenden Klausel machten. Wir haben dies durch die Durchführung eines Decision Node Audit behoben. Am Ende dieses Artikels habe ich eine Schritt-für-Schritt-Checkliste für die Durchführung dieses Audits beigefügt. Wir führten eine Sitzung mit den Ingenieuren durch und erläuterten die Funktionsweise des Systems. Wir haben „Entscheidungspunkte“ identifiziert – Momente, in denen die KI zwischen zwei guten Optionen wählen musste. In Standard-Computerprogrammen ist der Vorgang klar: Wenn A passiert, dann wird B immer passieren. In KI-Systemen basiert der Prozess oft auf Zufall. Die KI denkt, dass A wahrscheinlich die beste Wahl ist, ist sich aber möglicherweise nur zu 65 % sicher. Im Vertragssystem haben wir einen Moment gefunden, in dem die KI die Haftungsbedingungen anhand unserer Unternehmensregeln überprüfte. Es war selten eine perfekte Übereinstimmung. Die KI musste entscheiden, ob eine 90-prozentige Übereinstimmung gut genug war. Dies war ein entscheidender Entscheidungspunkt.
Nachdem wir diesen Knoten identifiziert hatten, stellten wir ihn dem Benutzer zur Verfügung. Anstelle von „Verträge prüfen“ wurde die Benutzeroberfläche aktualisiert und lautet nun: „Haftungsklausel weicht von der Standardvorlage ab. Risikoniveau wird analysiert.“ Dieses spezielle Update gab den Benutzern Vertrauen. Sie wussten, dass der Agent die Haftungsklausel überprüft hatte. Sie verstanden den Grund für die Verzögerung und gewannen das Vertrauen, dass die gewünschte Aktion im Back-End ausgeführt wurde. Sie wussten auch, wo sie tiefer einsteigen mussten, nachdem der Makler den Vertrag erstellt hatte. Um zu überprüfen, wie die KI Entscheidungen trifft, müssen Sie eng mit Ihren Ingenieuren, Produktmanagern, Geschäftsanalysten und Schlüsselpersonen zusammenarbeiten, die die (oftmals verborgenen) Entscheidungen treffen, die sich auf die Funktionsweise des KI-Tools auswirken. Zeichnen Sie die Schritte auf, die das Tool ausführt. Markieren Sie jede Stelle, an der der Prozess seine Richtung ändert, weil eine Wahrscheinlichkeit erfüllt ist. Dies sind die Stellen, an denen Sie sich auf mehr Transparenz konzentrieren sollten. Wie in Abbildung 2 unten dargestellt, umfasst die Entscheidungsknotenprüfung die folgenden Schritte:
Bringen Sie das Team zusammen: Beziehen Sie die Produktbesitzer, Geschäftsanalysten, Designer, wichtigen Entscheidungsträger und die Ingenieure ein, die die KI entwickelt haben. Zum Beispiel, Stellen Sie sich ein Produktteam vor, das ein KI-Tool zur Überprüfung unübersichtlicher rechtlicher Verträge entwickelt. Zum Team gehören der UX-Designer, der Produktmanager, der UX-Forscher, ein praktizierender Anwalt, der als Fachexperte fungiert, und der Backend-Ingenieur, der den Textanalysecode geschrieben hat.
Zeichnen Sie den gesamten Prozess: Dokumentieren Sie jeden Schritt der KI, von der ersten Aktion des Benutzers bis zum Endergebnis. Das Team steht an einem Whiteboard und skizziert den gesamten Ablauf für einen wichtigen Arbeitsablauf, bei dem die KI nach einer Haftungsklausel in einem komplexen Vertrag sucht. Der Anwalt lädt hochein fünfzigseitiges PDF → Das System wandelt das Dokument in lesbaren Text um. → Die KI durchsucht die Seiten nach Haftungsklauseln. → Der Benutzer wartet. → Augenblicke oder Minuten später hebt das Tool die gefundenen Absätze auf der Benutzeroberfläche gelb hervor. Sie tun dies auch für viele andere Arbeitsabläufe, die das Tool unterstützt.
Finden Sie heraus, wo Dinge unklar sind: Suchen Sie in der Prozesslandkarte nach Stellen, an denen die KI Optionen oder Eingaben vergleicht, die nicht perfekt übereinstimmen. Das Team schaut auf das Whiteboard, um die mehrdeutigen Schritte zu erkennen. Das Konvertieren eines Bildes in Text folgt strengen Regeln. Die Suche nach einer bestimmten Haftungsklausel erfordert Rätselraten. Jedes Unternehmen schreibt diese Klauseln anders, sodass die KI mehrere Optionen abwägen und eine Vorhersage treffen muss, anstatt eine exakte Wortübereinstimmung zu finden.
Identifizieren Sie die Schritte zur „besten Schätzung“: Überprüfen Sie für jede unklare Stelle, ob das System einen Konfidenzwert verwendet (ist er beispielsweise zu 85 % sicher?). Dies sind die Punkte, an denen die KI eine endgültige Entscheidung trifft. Das System muss erraten (eine Wahrscheinlichkeit angeben), welche Absätze einer Standardhaftungsklausel am ähnlichsten sind. Der besten Schätzung wird ein Konfidenzwert zugewiesen. Diese Vermutung ist ein Entscheidungsknoten. Die Schnittstelle muss dem Anwalt mitteilen, dass sie eine mögliche Übereinstimmung hervorhebt, anstatt anzugeben, dass sie die endgültige Klausel gefunden hat.
Untersuchen Sie die Auswahl: Finden Sie für jeden Auswahlpunkt heraus, welche spezifischen internen Berechnungen oder Vergleiche durchgeführt werden (z. B. einen Teil eines Vertrags einer Police zuordnen oder ein Bild eines kaputten Autos mit einer Bibliothek beschädigter Autofotos vergleichen). Der Ingenieur erklärt, dass das System die verschiedenen Paragraphen mit einer Datenbank mit Standardhaftungsklauseln aus vergangenen Kanzleifällen vergleicht. Es berechnet einen Textähnlichkeitswert, um anhand von Wahrscheinlichkeiten über eine Übereinstimmung zu entscheiden.
Schreiben Sie klare Erklärungen: Erstellen Sie Nachrichten für den Benutzer, die die spezifische interne Aktion klar beschreiben, die passiert, wenn die KI eine Wahl trifft. Der Content-Designer schreibt genau für diesen Moment eine spezifische Nachricht. Der Text lautet: Vergleich des Dokumententextes mit Standard-Firmenklauseln, um potenzielle Haftungsrisiken zu identifizieren.
Aktualisieren Sie den Bildschirm: Fügen Sie diese neuen, klaren Erklärungen in die Benutzeroberfläche ein und ersetzen Sie vage Meldungen wie „Überprüfung von Verträgen“. Das Designteam entfernt den generischen Lade-Spinner „PDF verarbeiten“. Sie fügen die neue Erklärung in eine Statusleiste direkt über dem Dokumentbetrachter ein, während die KI denkt.
Auf Vertrauen prüfen: Stellen Sie sicher, dass die neuen Bildschirmmeldungen den Benutzern einen einfachen Grund für etwaige Wartezeiten oder Ergebnisse geben, wodurch sie sich sicherer und vertrauensvoller fühlen sollten.
Die Auswirkungs-/Risikomatrix Wenn Sie sich den Prozess der KI genau ansehen, werden Sie wahrscheinlich viele Punkte finden, an denen sie eine Entscheidung trifft. Eine KI könnte Dutzende kleiner Entscheidungen für eine einzige komplexe Aufgabe treffen. Wenn man sie alle anzeigt, entstehen zu viele unnötige Informationen. Sie müssen diese Auswahlmöglichkeiten gruppieren. Sie können eine Auswirkungs-/Risikomatrix verwenden, um diese Auswahlmöglichkeiten basierend auf den Arten der Aktion(en) zu sortieren, die die KI durchführt. Hier sind Beispiele für Auswirkungs-/Risikomatrizen: Suchen Sie zunächst nach Entscheidungen mit geringem Einsatz und geringer Auswirkung. Geringe Einsätze/geringe Auswirkungen
Beispiel: Organisieren einer Dateistruktur oder Umbenennen eines Dokuments. Transparenzbedarf: Minimal. Eine subtile Toast-Benachrichtigung oder ein Protokolleintrag reichen aus. Benutzer können diese Aktionen einfach rückgängig machen.
Identifizieren Sie dann die Entscheidungen, bei denen viel auf dem Spiel steht und die große Auswirkungen haben. Hohe Einsätze / große Wirkung
Beispiel: Ablehnung eines Kreditantrags oder Durchführung eines Aktienhandels. Transparenzbedarf: Hoch. Für diese Aktionen ist ein Arbeitsnachweis erforderlich. Das System muss die Gründe vor oder unmittelbar beim Handeln nachweisen.
Stellen Sie sich einen Finanzhandelsbot vor, der alle Kauf-/Verkaufsaufträge gleich behandelt. Es führt einen 5-Dollar-Trade mit der gleichen Undurchsichtigkeit aus wie ein 50.000-Dollar-Trade. Benutzer fragen sich möglicherweise, ob das Tool die potenziellen Auswirkungen der Transparenz auf den Handel mit großen Dollarbeträgen erkennt. Sie brauchen das System, um innezuhalten und seine Arbeit für die Geschäfte mit hohen Einsätzen zu zeigen. Die Lösung besteht darin, für jede Transaktion, die einen bestimmten Dollarbetrag übersteigt, einen Überprüfungslogikstatus einzuführen, der es dem Benutzer ermöglicht, die Faktoren zu sehen, die die Entscheidung vor der Ausführung beeinflussen. Zuordnen von Knoten zu Mustern: Eine Rubrik zur Auswahl von Entwurfsmustern Sobald Sie die wichtigsten Entscheidungsknoten Ihrer Erfahrung identifiziert haben, müssen Sie entscheiden, welches UI-Muster für jeden angezeigten Knoten gilt. In „Designing For Agentic AI“ haben wir Muster wie die Intent Preview (für die Kontrolle bei hohen Einsätzen) und das Action Audit (für die retrospektive Sicherheit) eingeführt. Der entscheidende Faktor bei der Wahl zwischen ihnen ist die Reversibilität. Wir filtern allesEntscheidungsknoten durch die Wirkungsmatrix, um das richtige Muster zuzuordnen: Hohe Einsätze und irreversibel: Diese Knoten erfordern eine Absichtsvorschau. Da der Benutzer die Aktion nicht einfach rückgängig machen kann (z. B. das dauerhafte Löschen einer Datenbank), muss der Transparenzmoment vor der Ausführung erfolgen. Das System muss innehalten, seine Absicht erklären und eine Bestätigung verlangen. High Stakes & Reversible: Diese Knoten können sich auf das Action Audit & Undo-Muster verlassen. Wenn der KI-gestützte Vertriebsmitarbeiter einen Lead in eine andere Pipeline verschiebt, kann er dies autonom tun, solange er den Benutzer benachrichtigt und eine sofortige Rückgängig-Schaltfläche anbietet. Indem wir Knoten auf diese Weise streng kategorisieren, vermeiden wir „Alarmmüdigkeit“. Wir behalten uns die reibungsintensive Intent Preview nur für die wirklich irreversiblen Momente vor, während wir uns auf das Action Audit verlassen, um die Geschwindigkeit für alles andere aufrechtzuerhalten.
Reversibel Unumkehrbar Geringe Auswirkungen Typ: Auto-ExecuteUI: Passiver Toast / LogEx: Umbenennen einer Datei Typ: BestätigenUI: Einfache Rückgängig-OptionBeispiel: Archivieren einer E-Mail Hohe Wirkung Typ: ReviewUI: Benachrichtigung + Review TrailEx: Senden eines Entwurfs an einen Kunden Typ: Absichtsvorschau. Benutzeroberfläche: Modale/explizite Berechtigung. Beispiel: Löschen eines Servers
Tabelle 1: Die Wirkungs- und Reversibilitätsmatrix kann dann verwendet werden, um Ihre Momente der Transparenz auf Designmuster abzubilden. Qualitative Validierung: „Das Warten, warum?“ Testen Sie können potenzielle Knoten auf einem Whiteboard identifizieren, müssen sie jedoch anhand menschlichen Verhaltens validieren. Sie müssen überprüfen, ob Ihre Karte mit dem mentalen Modell des Benutzers übereinstimmt. Ich verwende ein Protokoll namens „Warte, warum?“ Prüfen. Bitten Sie einen Benutzer, dem Agenten beim Erledigen einer Aufgabe zuzusehen. Weisen Sie sie an, laut zu sprechen. Immer wenn sie eine Frage stellen: „Warte, warum hat es das getan?“ oder „Hängt es fest?“ oder „Hat es mich gehört?“ – Sie markieren einen Zeitstempel. Diese Fragen signalisieren Verwirrung bei den Benutzern. Der Benutzer spürt, wie ihm die Kontrolle entgleitet. In einer Studie für einen Terminplanungsassistenten im Gesundheitswesen beobachteten Benutzer beispielsweise, wie der Agent einen Termin buchte. Der Bildschirm blieb vier Sekunden lang statisch. Die Teilnehmer fragten immer wieder: „Überprüft es meinen Kalender oder den des Arztes?“
Diese Frage offenbarte einen fehlenden Transparenzmoment. Das System musste diese Wartezeit von vier Sekunden in zwei verschiedene Schritte aufteilen: „Überprüfen Ihrer Verfügbarkeit“, gefolgt von „Synchronisierung mit dem Zeitplan des Anbieters“. Diese kleine Änderung reduzierte die geäußerte Angst der Benutzer. Transparenz versagt, wenn sie nur eine Systemaktion beschreibt. Die Schnittstelle muss den technischen Prozess mit dem spezifischen Ziel des Benutzers verbinden. Ein Bildschirm mit der Meldung „Überprüfen Sie Ihre Verfügbarkeit“ funktioniert nicht, weil ihm der Kontext fehlt. Der Benutzer versteht, dass die KI auf einen Kalender schaut, weiß aber nicht warum. Wir müssen die Aktion mit dem Ergebnis verbinden. Das System muss diese vier Sekunden Wartezeit in zwei verschiedene Schritte aufteilen. Zunächst wird auf der Benutzeroberfläche „Überprüfen Sie Ihren Kalender, um Öffnungszeiten zu finden“ angezeigt. Dann wird die Meldung auf „Synchronisierung mit dem Zeitplan des Anbieters zur Sicherung Ihres Termins“ aktualisiert. Dadurch wird der technische Prozess im tatsächlichen Leben des Nutzers verankert. Stellen Sie sich eine KI vor, die den Lagerbestand eines örtlichen Cafés verwaltet. Das System stößt auf einen Versorgungsengpass. Eine Benutzeroberfläche mit der Aufschrift „Anbieter kontaktieren“ oder „Optionen prüfen“ löst Ängste aus. Der Manager fragt sich, ob das System die Bestellung storniert oder eine teure Alternative kauft. Ein besserer Ansatz besteht darin, das beabsichtigte Ergebnis zu erklären: „Bewertung alternativer Lieferanten, um Ihren Freitagslieferplan einzuhalten.“ Dadurch wird dem Benutzer genau gesagt, was die KI erreichen möchte. Operationalisierung des Audits Sie haben die Prüfung des Entscheidungsknotens abgeschlossen und Ihre Liste anhand der Auswirkungs- und Risikomatrix gefiltert. Sie haben nun eine Liste der wesentlichen Momente für Transparenz. Als nächstes müssen Sie sie in der Benutzeroberfläche erstellen. Dieser Schritt erfordert Teamarbeit über verschiedene Abteilungen hinweg. Sie können Transparenz nicht selbst mit einem Designtool entwerfen. Sie müssen verstehen, wie das System hinter den Kulissen funktioniert. Beginnen Sie mit einer Logiküberprüfung. Treffen Sie sich mit Ihrem leitenden Systemdesigner. Bringen Sie Ihre Karte der Entscheidungsknoten mit. Sie müssen bestätigen, dass das System diese Zustände tatsächlich teilen kann. Ich stelle oft fest, dass das technische System nicht genau den Zustand anzeigt, den ich anzeigen möchte. Der Techniker könnte sagen, dass das System lediglich einen allgemeinen „Arbeits“-Status zurückgibt. Sie müssen auf ein detailliertes Update drängen. Sie benötigen das System, um eine bestimmte Mitteilung zu sendenwenn es vom Lesen von Text zum Überprüfen von Regeln wechselt. Ohne diese technische Verbindung ist die Umsetzung Ihres Entwurfs nicht möglich. Beziehen Sie als Nächstes das Content-Design-Team ein. Sie haben den technischen Grund für das Vorgehen der KI, brauchen aber eine klare, menschenfreundliche Erklärung. Ingenieure stellen den zugrunde liegenden Prozess bereit, aber Content-Designer sorgen für die Art und Weise, wie er kommuniziert wird. Schreiben Sie diese Nachrichten nicht alleine. Ein Entwickler schreibt möglicherweise „Funktion 402 wird ausgeführt“, was zwar technisch korrekt, aber für den Benutzer bedeutungslos ist. Ein Designer könnte „Thinking“ schreiben, was freundlich, aber zu vage ist. Ein Content-Stratege findet den richtigen Mittelweg. Sie erstellen spezifische Phrasen, wie zum Beispiel „Scannen nach Haftungsrisiken“, die zeigen, dass die KI funktioniert, ohne den Benutzer zu verwirren. Testen Sie abschließend die Transparenz Ihrer Nachrichten. Warten Sie nicht, bis das Endprodukt fertig ist, um zu sehen, ob der Text funktioniert. Ich führe Vergleichstests an einfachen Prototypen durch, bei denen sich nur die Statusmeldung ändert. Beispielsweise zeige ich einer Gruppe (Gruppe A) eine Nachricht mit der Aufschrift „Identität wird überprüft“ und einer anderen Gruppe (Gruppe B) eine Nachricht mit der Aufschrift „Regierungsdatenbanken werden überprüft“ (das sind erfundene Beispiele, aber Sie verstehen, worauf es ankommt). Dann frage ich sie, welche KI sich sicherer anfühlt. Sie werden oft feststellen, dass bestimmte Wörter Anlass zur Sorge geben, während andere Vertrauen aufbauen. Sie müssen die Formulierung als etwas betrachten, das Sie testen und als wirksam erweisen müssen. Wie sich dadurch der Designprozess verändert Die Durchführung dieser Audits hat das Potenzial, die Zusammenarbeit eines Teams zu stärken. Wir hören auf, ausgefeilte Designdateien weiterzugeben. Wir fangen an, unordentliche Prototypen und gemeinsame Tabellen zu verwenden. Das Kernwerkzeug wird zur Transparenzmatrix. Ingenieure und Inhaltsdesigner bearbeiten diese Tabelle gemeinsam. Sie ordnen die genauen technischen Codes den Wörtern zu, die der Benutzer lesen wird. Während der Logiküberprüfung wird es in den Teams zu Reibungen kommen. Stellen Sie sich einen Designer vor, der den Ingenieur fragt, wie die KI entscheidet, eine in einer Spesenabrechnung eingereichte Transaktion abzulehnen. Der Ingenieur könnte sagen, dass das Backend nur einen generischen Statuscode wie „Fehler: Fehlende Daten“ ausgibt. Der Designer gibt an, dass dies keine verwertbaren Informationen auf dem Bildschirm sind. Der Designer verhandelt mit dem Ingenieur, um einen bestimmten technischen Haken zu erstellen. Der Techniker schreibt eine neue Regel, damit das System genau meldet, was fehlt, beispielsweise ein fehlendes Belegbild. Content-Designer fungieren in dieser Phase als Übersetzer. Ein Entwickler könnte eine technisch korrekte Zeichenfolge wie „Berechnung des Konfidenzschwellenwerts für die Anbieterübereinstimmung“ schreiben. Ein Inhaltsdesigner übersetzt diese Zeichenfolge in eine Phrase, die Vertrauen für ein bestimmtes Ergebnis schafft. Der Stratege schreibt es um: „Vergleichen Sie die Preise lokaler Anbieter, um Ihre Freitagslieferung zu sichern.“ Der Benutzer versteht die Aktion und das Ergebnis. Das gesamte funktionsübergreifende Team nimmt an Benutzertestsitzungen teil. Sie beobachten, wie eine reale Person auf verschiedene Statusmeldungen reagiert. Wenn ein Benutzer in Panik gerät, weil auf dem Bildschirm „Handel wird ausgeführt“ angezeigt wird, ist das Team gezwungen, seinen Ansatz zu überdenken. Die Ingenieure und Designer einigen sich auf eine bessere Formulierung. Sie ändern den Text in „Überprüfung ausreichender Mittel“ vor dem Kauf von Aktien. Durch gemeinsames Testen wird sichergestellt, dass die endgültige Schnittstelle sowohl der Systemlogik als auch der Sicherheit des Benutzers dient. Es erfordert Zeit, diese zusätzlichen Aktivitäten in den Kalender des Teams zu integrieren. Das Endergebnis sollte jedoch ein Team sein, das offener kommuniziert, und Benutzer, die besser verstehen, was ihre KI-gestützten Tools in ihrem Namen tun (und warum). Dieser integrierte Ansatz ist ein Eckpfeiler für die Gestaltung wirklich vertrauenswürdiger KI-Erlebnisse. Vertrauen ist eine Designentscheidung Wir betrachten Vertrauen oft als emotionales Nebenprodukt einer guten Benutzererfahrung. Es ist einfacher, Vertrauen als mechanisches Ergebnis vorhersehbarer Kommunikation zu betrachten. Wir schaffen Vertrauen, indem wir die richtigen Informationen zur richtigen Zeit anzeigen. Wir zerstören es, indem wir den Benutzer überfordern oder die Maschinerie vollständig verstecken. Beginnen Sie mit dem Decision Node Audit, insbesondere für Agenten-KI-Tools und -Produkte. Finden Sie die Momente, in denen das System eine Entscheidung trifft. Ordnen Sie diese Momente der Risikomatrix zu. Wenn viel auf dem Spiel steht, öffnen Sie die Kiste. Zeigen Sie die Arbeit. Im nächsten Artikel schauen wir uns an, wie man diese Momente gestaltet: wie man die Kopie schreibt, die Benutzeroberfläche strukturiert und mit den unvermeidlichen Fehlern umgeht, wenn der Agent etwas falsch macht. Anhang: Die Entscheidungsknoten-Audit-Checkliste Phase 1: Einrichtung und Zuordnung ✅ Bringen Sie das Team zusammen: Beziehen Sie die Produktbesitzer, Geschäftsanalysten, Designer usw. ein.wichtige Entscheidungsträger und die Ingenieure, die die KI entwickelt haben. Hinweis: Sie benötigen die Ingenieure, um die eigentliche Backend-Logik zu erklären. Versuchen Sie diesen Schritt nicht alleine. ✅ Zeichnen Sie den gesamten Prozess: Dokumentieren Sie jeden Schritt der KI, von der ersten Aktion des Benutzers bis zum Endergebnis. Hinweis: Eine physische Whiteboard-Sitzung eignet sich oft am besten, um diese ersten Schritte zu verdeutlichen. Phase 2: Auffinden der verborgenen Logik ✅ Finden Sie heraus, wo Dinge unklar sind: Suchen Sie in der Prozesslandkarte nach Stellen, an denen die KI Optionen oder Eingaben vergleicht, die nicht perfekt übereinstimmen. ✅ Identifizieren Sie die besten Schätzschritte: Überprüfen Sie für jede unklare Stelle, ob das System einen Konfidenzwert verwendet. Fragen Sie beispielsweise, ob das System zu 85 Prozent sicher ist. Dies sind die Punkte, an denen die KI eine endgültige Entscheidung trifft. ✅ Untersuchen Sie die Auswahl: Finden Sie für jeden Auswahlpunkt die spezifische interne Mathematik oder den durchgeführten Vergleich heraus. Ein Beispiel ist die Zuordnung eines Teils eines Vertrags zu einer Police. Ein weiteres Beispiel ist der Vergleich eines Bildes eines kaputten Autos mit einer Bibliothek beschädigter Autofotos. Phase 3: Erstellen der Benutzererfahrung ✅ Verfassen Sie klare Erklärungen: Erstellen Sie Nachrichten für den Benutzer, die die spezifischen internen Aktionen klar beschreiben, die stattfinden, wenn die KI eine Wahl trifft. Tipp: Begründen Sie Ihre Botschaften in der konkreten Realität. Wenn eine KI ein Treffen mit einem Kunden in einem örtlichen Café bucht, teilen Sie dem Benutzer mit, dass das System das Café-Reservierungssystem überprüft. ✅ Aktualisieren Sie den Bildschirm: Fügen Sie diese neuen, klaren Erklärungen in die Benutzeroberfläche ein. Ersetzen Sie vage Nachrichten wie „Überprüfung von Verträgen“ durch Ihre spezifischen Erklärungen. ✅ Auf Vertrauen prüfen: Stellen Sie sicher, dass die neuen Bildschirmmeldungen den Benutzern einen einfachen Grund für etwaige Wartezeiten oder Ergebnisse geben. Dadurch sollten sie sich sicher und vertrauensvoll fühlen. Hinweis: Testen Sie diese Nachrichten mit tatsächlichen Benutzern, um sicherzustellen, dass sie das spezifische Ergebnis verstehen, das erreicht wird.