Also entwerfen und liefern wir eine glänzende neue Funktion. Woher wissen wir, ob es funktioniert? Wie messen und verfolgen wir seine Auswirkungen? An UX-Metriken mangelt es nicht, aber was wäre, wenn wir eine einfache, wiederholbare und aussagekräftige UX-Metrik etablieren wollten – speziell für unsere Funktionen? Nun, mal sehen, wie man genau das macht.
Vom TARS-Framework habe ich zum ersten Mal durch Adrian H. Raudschls wunderbaren Artikel „How To Measure Impact of Features“ gehört. Hier erläuterte Adrian, wie sein Team die Merkmale verfolgt und entscheidet, auf welche es sich konzentrieren möchte – und diese dann in einer 2×2-Quadranten-Matrix einander gegenüberstellt. Es erwies sich als sehr nützliches Framework, um die Auswirkungen der UX-Arbeit durch die Linse von Geschäftsmetriken zu visualisieren. Mal sehen, wie es funktioniert. 1. Zielgruppe (%) Wir beginnen mit der Quantifizierung der Zielgruppe, indem wir untersuchen, wie viel Prozent der Benutzer eines Produkts das spezifische Problem haben, das eine Funktion lösen soll. Wir können bestehende oder ähnliche Funktionen untersuchen, die versuchen, ähnliche Probleme zu lösen, und wie viele Benutzer damit interagieren. Zielgruppe ist jedoch nicht dasselbe wie Funktionsnutzung. Wie Adrian bemerkte: Wenn wir wissen, dass eine vorhandene Export-Button-Funktion von 5 % aller Benutzer verwendet wird, bedeutet das nicht, dass die Zielgruppe 5 % beträgt. Weitere Benutzer haben möglicherweise das Problem, das die Exportfunktion zu lösen versucht, aber sie können es nicht finden. Frage, die wir stellen: „Wie viel Prozent aller Benutzer unseres Produkts haben dieses spezifische Problem, das eine neue Funktion lösen soll?“
2. A = Akzeptanz (%) Als nächstes messen wir, wie gut wir unsere Zielgruppe „akquisieren“. Dazu verfolgen wir, wie viele Nutzer über einen bestimmten Zeitraum hinweg tatsächlich erfolgreich mit dieser Funktion interagieren. Dabei geht es uns nicht um CTRs oder Sitzungsdauer, sondern vielmehr darum, ob sich Nutzer sinnvoll damit beschäftigen. Wenn beispielsweise irgendetwas darauf hindeutet, dass sie es wertvoll fanden, etwa die Weitergabe der Export-URL, der Anzahl der exportierten Dateien oder die Verwendung von Filtern und Einstellungen.
Eine hohe Funktionsakzeptanz (>60 %) deutet darauf hin, dass das Problem schwerwiegend war. Eine geringe Akzeptanz (<20 %) könnte bedeuten, dass es für das Problem einfache Problemumgehungen gibt, auf die sich die Leute verlassen haben. Auch das Ändern von Gewohnheiten braucht Zeit, weshalb zu Beginn mit einer geringen Akzeptanz zu rechnen ist. Manchmal hat eine geringe Funktionsakzeptanz nichts mit der Funktion selbst zu tun, sondern vielmehr damit, wo sie sich in der Benutzeroberfläche befindet. Benutzer werden es möglicherweise nie entdecken, wenn es versteckt ist oder eine verwirrende Bezeichnung hat. Es muss offensichtlich genug sein, damit die Leute darüber stolpern. Eine geringe Akzeptanz ist nicht immer gleichbedeutend mit einem Scheitern. Wenn ein Problem nur 10 % der Benutzer betrifft, bedeutet eine Akzeptanz von 50–75 % in dieser spezifischen Nische, dass die Funktion ein Erfolg ist. Frage, die wir stellen: „Wie viel Prozent der aktiven Zielbenutzer nutzen die Funktion tatsächlich, um dieses Problem zu lösen?“
3. Aufbewahrung (%) Als nächstes untersuchen wir, ob eine Funktion tatsächlich wiederholt verwendet wird. Wir messen die Häufigkeit der Nutzung, oder genauer gesagt, wie viele Benutzer, die sich mit der Funktion beschäftigt haben, sie im Laufe der Zeit tatsächlich weiterhin nutzen. Normalerweise ist es ein starkes Signal für eine sinnvolle Wirkung. Wenn eine Funktion eine Bindungsrate von >50 % (durchschnittlich) aufweist, können wir ziemlich sicher sein, dass sie eine hohe strategische Bedeutung hat. Eine Bindungsrate von 25–35 % signalisiert eine mittlere strategische Bedeutung, eine Bindung von 10–20 % bedeutet dann eine geringe strategische Bedeutung. Frage, die wir stellen: „Wie viele von allen Benutzern, die eine Funktion sinnvoll übernommen haben, sind zurückgekehrt, um sie erneut zu verwenden?“
4. Zufriedenheitswert (CES) Schließlich messen wir den Grad der Zufriedenheit der Benutzer mit der von uns bereitgestellten Funktion. Wir fragen nicht jeden – wir fragen nur „behaltene“ Benutzer. Es hilft uns, versteckte Probleme zu erkennen, die sich möglicherweise nicht im Retention Score widerspiegeln.
Sobald Benutzer eine Funktion tatsächlich mehrmals verwendet haben, fragen wir sie, wie einfach es war, ein Problem zu lösen, nachdem sie diese Funktion verwendet hatten – zwischen „viel schwieriger“ und „viel einfacher als erwartet“. Wir wissen, wie wir punkten wollen. Verwendung von TARS für die Feature-Strategie Sobald wir mit der Messung mit TARS beginnen, können wir einen S÷T-Score berechnen – den Prozentsatz zufriedener Benutzer ÷ Zielbenutzer. Es gibt uns einen Eindruck davon, wie gut ein Feature bei unserer Zielgruppe ankommt. Sobald wir dies für jedes Feature tun, können wir alle Features über 4 Quadranten in einer 2×2-Matrix abbilden.
Überdurchschnittliche Funktionen sind es wert, beachtet zu werden: Sie haben eine geringe Bindung, aber eine hohe Zufriedenheit. Möglicherweise handelt es sich einfach um Funktionen, die Benutzer nicht häufig verwenden müssen, aber wenn sie es tun, sind sie äußerst effektiv. Haftungsfunktionen haben eine hohe Kundenbindung, aber eine geringe Zufriedenheit, daher müssen wir vielleicht daran arbeitensie verbessern. Und dann können wir auch Kernfunktionen und Projektfunktionen identifizieren – und mit Designern, PMs und Ingenieuren darüber sprechen, woran wir als Nächstes arbeiten sollten. Die Conversion-Rate ist keine UX-Metrik TARS deckt den Umrechnungskurs nicht ab, und das aus gutem Grund. Wie Fabian Lenz feststellte, wird Konversion oft als der ultimative Indikator für Erfolg angesehen – doch in der Praxis ist es immer sehr schwierig, einen klaren Zusammenhang zwischen kleineren Designinitiativen und großen Konvertierungszielen darzustellen.
Die Wahrheit ist, dass fast jeder im Team auf eine bessere Konvertierung hinarbeitet. Ein Anstieg kann mit vielen verschiedenen Initiativen verbunden sein – von Vertrieb und Marketing über die Steigerung der Web-Performance bis hin zu saisonalen Effekten und UX-Initiativen. UX kann natürlich die Konvertierung verbessern, aber es ist nicht wirklich eine UX-Metrik. Oftmals können sich Menschen einfach nicht für das Produkt entscheiden, das sie verwenden. Und oft entsteht ein gewünschtes Geschäftsergebnis eher aus Notwendigkeit und Mühe als aus Vertrauen und Wertschätzung. Hohe Conversion trotz schlechter UX Wie Fabian schreibt, kann es trotz schlechter UX zu einer hohen Conversion-Rate kommen, weil:
Starke Markenpower zieht Menschen an, Aggressive, aber effektive Dringlichkeitstaktiken, Die Preise sind äußerst attraktiv, Das Marketing leistet hervorragende Arbeit, Historische Kundentreue, Den Nutzern bleibt einfach keine Alternative.
Geringe Conversion trotz toller UX Gleichzeitig kann es trotz toller UX zu einer niedrigen Conversion-Rate kommen, denn:
Angebote sind für die Zielgruppe nicht relevant, Benutzer vertrauen der Marke nicht, Schlechtes Geschäftsmodell oder hohes Risiko des Scheiterns, Marketing erreicht nicht die richtige Zielgruppe, Externe Faktoren (Preis, Timing, Wettbewerb).
Eine verbesserte Conversion ist das positive Ergebnis von UX-Initiativen. Aber eine gute UX-Arbeit verbessert in der Regel die Aufgabenerledigung, verkürzt die Zeit für die Aufgabenerledigung, minimiert Fehler und vermeidet Entscheidungslähmungen. Und es gibt viele umsetzbare Designmetriken, die wir nutzen könnten, um UX zu verfolgen und nachhaltigen Erfolg voranzutreiben. Zusammenfassung Produktkennzahlen allein liefern nicht immer einen genauen Überblick über die Leistung eines Produkts. Der Verkauf läuft zwar gut, aber die Benutzer sind möglicherweise äußerst ineffizient und frustriert. Dennoch ist die Abwanderung gering, da Benutzer das von ihnen verwendete Tool nicht auswählen können.
Wir benötigen UX-Metriken, um die Benutzererfahrung zu verstehen und zu verbessern. Was ich an TARS am meisten schätze, ist, dass es eine nette Möglichkeit ist, die Nutzung und das Kundenerlebnis der Kunden mit relevanten Produktmetriken zu verknüpfen. Persönlich würde ich TARS auch um UX-fokussierte Metriken und KPIs erweitern – je nach den Anforderungen des Projekts. Vielen Dank an Adrian H. Raudaschl für die Zusammenstellung. Und wenn Sie sich für Kennzahlen interessieren, empfehle ich Ihnen dringend, ihm zu folgen, um praktische und nützliche Leitfäden rund um dieses Thema zu erhalten! Lernen Sie „Wie man UX- und Design-Impact misst“ kennen Weitere Details zur UX-Strategie finden Sie in 🪴 Measure UX & Design Impact (8h), einem praktischen Leitfaden für Designer und UX-Leads, um Ihre UX-Auswirkungen auf Ihr Unternehmen zu messen und darzustellen. Sparen Sie noch heute mit dem Code 🎟 IMPACT 20 % Rabatt. Springe zu den Details.
Video + UX-SchulungNur VideoVideo + UX-Schulung495,00 $ 799,00 $
Holen Sie sich Video + UX-Schulung25 Videolektionen (8 Stunden) + Live-UX-Schulung. 100 Tage Geld-zurück-Garantie. Nur Video250,00 $395,00 $
Holen Sie sich den Videokurs25 Videolektionen (8h). Jährlich aktualisiert. Auch als UX-Bundle mit 3 Videokursen erhältlich.
Nützliche Ressourcen
„Wie man UX- und Design-Impact misst“, von Ihnen „Geschäftsdenken für Designer“ von Ryan Rumsey „ROI des Designprojekts „Wie die richtigen UX-Metriken einen bahnbrechenden Wert zeigen“, von Jared Spool „Rechner für die Stichprobengröße in der Forschung“
Weiterführende Literatur
„Entwerfen für Stress und Notfälle“, Vitaly Friedman „KI in UX: Mit weniger mehr erreichen“, Paul Boag „Das Barrierefreiheitsproblem bei Authentifizierungsmethoden wie CAPTCHA“, Eleanor Hecks „Von der Eingabeaufforderung zum Partner: Entwerfen Sie Ihren individuellen KI-Assistenten“, Lyndon Cerejo