Daarom ontwerpen en leveren we een gloednieuwe functie. Hoe weten we of het werkt? Hoe meten en volgen we de impact ervan? Er is geen tekort aan UX-statistieken, maar wat als we een eenvoudige, herhaalbare, betekenisvolle UX-statistiek wilden vaststellen – specifiek voor onze functies? Laten we eens kijken hoe we dat kunnen doen.
Ik hoorde voor het eerst over het TARS-framework in het prachtige artikel van Adrian H. Raudschl over “How To Measure Impact of Features”. Hier belichtte Adrian hoe zijn team bijhoudt en beslist op welke kenmerken zij zich moeten concentreren – en deze vervolgens tegen elkaar afzet in een 2×2 kwadrantenmatrix. Het bleek een zeer nuttig raamwerk om de impact van UX-werk te visualiseren door de lens van zakelijke statistieken. Laten we kijken hoe het werkt. 1. Doelgroep (%) We beginnen met het kwantificeren van de doelgroep door te onderzoeken welk percentage van de gebruikers van een product het specifieke probleem heeft dat een functie wil oplossen. We kunnen bestaande of vergelijkbare functies bestuderen die soortgelijke problemen proberen op te lossen, en hoeveel gebruikers ermee omgaan. Doelgroep is echter niet hetzelfde als functiegebruik. Zoals Adrian opmerkte: als we weten dat een bestaande exportknopfunctie door 5% van alle gebruikers wordt gebruikt, betekent dit niet dat de doelgroep 5% bedraagt. Mogelijk hebben meer gebruikers het probleem dat de exportfunctie probeert op te lossen, maar kunnen ze het niet vinden. Vraag die we stellen: “Welk percentage van alle gebruikers van ons product heeft dat specifieke probleem dat een nieuwe functie wil oplossen?”
2. A = Adoptie (%) Vervolgens meten we hoe goed we onze doelgroep ‘werven’. Daarvoor houden we bij hoeveel gebruikers daadwerkelijk met succes gebruik maken van die functie gedurende een bepaalde periode. We richten ons daar niet op CTR’s of sessieduur, maar eerder op de vraag of gebruikers er op zinvolle wijze mee bezig zijn. Als er bijvoorbeeld iets is dat aangeeft dat ze het waardevol vinden, zoals het delen van de export-URL, het aantal geëxporteerde bestanden of het gebruik van filters en instellingen.
Een hoge adoptie van functies (>60%) duidt erop dat het probleem impact had. Een lage adoptie (<20%) zou kunnen impliceren dat het probleem eenvoudige oplossingen kent waar mensen op hebben vertrouwd. Het veranderen van gewoontes kost ook tijd, en daarom wordt er in het begin weinig adoptie verwacht. Soms heeft een lage acceptatie van functies niets te maken met de functie zelf, maar eerder met waar deze zich in de gebruikersinterface bevindt. Gebruikers zullen het misschien nooit ontdekken als het verborgen is of als het een verwarrend label heeft. Het moet duidelijk genoeg zijn zodat mensen erover kunnen struikelen. Lage adoptie betekent niet altijd mislukking. Als een probleem slechts 10% van de gebruikers treft, betekent het bereiken van een adoptie van 50-75% binnen die specifieke niche dat de functie een succes is. Vraag die we stellen: “Welk percentage van de actieve doelgebruikers gebruikt de functie daadwerkelijk om dat probleem op te lossen?”
3. Retentie (%) Vervolgens onderzoeken we of een feature daadwerkelijk herhaaldelijk wordt gebruikt. We meten de gebruiksfrequentie, of specifiek hoeveel gebruikers die zich met de functie hebben beziggehouden, deze in de loop van de tijd ook daadwerkelijk blijven gebruiken. Meestal is het een sterk signaal voor een betekenisvolle impact. Als een functie een retentiepercentage van >50% (gemiddeld) heeft, kunnen we er vrij zeker van zijn dat deze van groot strategisch belang is. Een retentiepercentage van 25-35% wijst op middelmatig strategisch belang, en een retentie van 10-20% is dan van laag strategisch belang. Vraag die we stellen: “Hoeveel van alle gebruikers die op een zinvolle manier een functie hebben overgenomen, zijn teruggekomen om deze opnieuw te gebruiken?”
4. Tevredenheidsscore (CES) Ten slotte meten we de mate van tevredenheid die gebruikers hebben met de functie die we hebben geleverd. We vragen het niet aan iedereen; we vragen het alleen aan “vastgehouden” gebruikers. Het helpt ons verborgen problemen op te sporen die mogelijk niet tot uiting komen in de retentiescore.
Zodra gebruikers een functie daadwerkelijk meerdere keren hebben gebruikt, vragen we hen hoe gemakkelijk het was om een probleem op te lossen nadat ze die functie hadden gebruikt – tussen “veel moeilijker” en “veel gemakkelijker dan verwacht”. We weten hoe we willen scoren. TARS gebruiken voor functiestrategie Zodra we met TARS beginnen te meten, kunnen we een S ÷ T-score berekenen: het percentage tevreden gebruikers ÷ doelgebruikers. Het geeft ons een idee van hoe goed een functie presteert voor onze beoogde doelgroep. Zodra we dat voor elk kenmerk hebben gedaan, kunnen we alle kenmerken in vier kwadranten in een 2×2-matrix in kaart brengen.
Overpresterende kenmerken zijn de moeite waard om op te letten: ze hebben een lage retentie maar een hoge tevredenheid. Het kunnen gewoon functies zijn die gebruikers niet vaak hoeven te gebruiken, maar als ze dat wel doen, is het uiterst effectief. Aansprakelijkheidskenmerken hebben een hoge retentie maar een lage tevredenheid, dus misschien moeten we daaraan werkenverbeter ze. En dan kunnen we ook kernfuncties en projectkenmerken identificeren – en een gesprek voeren met ontwerpers, PM’s en ingenieurs over waar we vervolgens aan moeten werken. Conversieratio is geen UX-statistiek TARS heeft geen betrekking op het conversiepercentage, en om een goede reden. Zoals Fabian Lenz opmerkte, wordt conversie vaak beschouwd als de ultieme indicator voor succes – maar in de praktijk is het altijd erg moeilijk om een duidelijk verband te leggen tussen kleinere ontwerpinitiatieven en grote conversiedoelen.
De waarheid is dat bijna iedereen in het team werkt aan een betere conversie. Een opleving kan verband houden met veel verschillende initiatieven – van verkoop en marketing tot verbetering van de webprestaties, van seizoenseffecten tot UX-initiatieven. UX kan uiteraard de conversie verbeteren, maar het is niet echt een UX-statistiek. Vaak kunnen mensen eenvoudigweg niet het product kiezen dat ze gebruiken. En vaak komt het gewenste bedrijfsresultaat voort uit noodzaak en strijd, in plaats van uit vertrouwen en waardering. Hoge conversie ondanks slechte UX Zoals Fabian schrijft, kan ondanks een slechte UX een hoog conversiepercentage optreden, omdat:
Sterke merkkracht trekt mensen naar zich toe, Agressieve maar effectieve urgentie-tactieken, Prijzen zijn uiterst aantrekkelijk, Marketing presteert briljant, Historische klantenloyaliteit, Gebruikers hebben simpelweg geen alternatief.
Lage conversie ondanks geweldige UX Tegelijkertijd kan ondanks een goede UX een laag conversiepercentage optreden, omdat:
Aanbiedingen zijn niet relevant voor het publiek, Gebruikers vertrouwen het merk niet, Slecht bedrijfsmodel of hoog risico op mislukking, Marketing bereikt niet de juiste doelgroep, Externe factoren (prijs, timing, concurrentie).
Een verbeterde conversie is het positieve resultaat van UX-initiatieven. Maar goed UX-werk verbetert doorgaans de voltooiing van taken, verkort de tijd die aan een taak wordt besteed, minimaliseert fouten en voorkomt verlamming van de besluitvorming. En er zijn tal van bruikbare ontwerpstatistieken die we kunnen gebruiken om UX te volgen en duurzaam succes te stimuleren. Inpakken Productstatistieken alleen geven niet altijd een accuraat beeld van hoe goed een product presteert. De verkoop kan goed presteren, maar gebruikers kunnen uiterst inefficiënt en gefrustreerd zijn. Toch is het verloop laag omdat gebruikers niet kunnen kiezen welke tool ze gebruiken.
We hebben UX-statistieken nodig om de gebruikerservaring te begrijpen en te verbeteren. Wat ik het leukste vind aan TARS is dat het een handige manier is om het gebruik van klanten en de klantervaring te verbinden met relevante productstatistieken. Persoonlijk zou ik TARS ook uitbreiden met UX-gerichte statistieken en KPI's, afhankelijk van de behoeften van het project. Grote dank aan Adrian H. Raudaschl voor het samenstellen ervan. En als je geïnteresseerd bent in statistieken, raad ik je ten zeerste aan hem te volgen voor praktische en nuttige handleidingen daaromheen! Maak kennis met 'Hoe u de UX- en ontwerpimpact kunt meten' Meer details over UX-strategie vindt u in 🪴 Meten van UX & Design Impact (8 uur), een praktische gids voor ontwerpers en UX-leads om uw UX-impact op het bedrijf te meten en te tonen. Gebruik de code 🎟 IMPACT om vandaag 20% korting te krijgen. Ga naar de details.
Video + UX-trainingAlleen videoVideo + UX-training$ 495,00 $ 799,00
Ontvang video + UX-training25 videolessen (8 uur) + live UX-training. 100 dagen geld-terug-garantie. Alleen video$ 250,00$ 395,00
Ontvang de videocursus25 videolessen (8u). Jaarlijks bijgewerkt. Ook verkrijgbaar als UX-bundel met 3 videocursussen.
Nuttige bronnen
“Hoe u de UX- en ontwerpimpact kunt meten”, door ondergetekende “Zakelijk denken voor ontwerpers”, door Ryan Rumsey “ROI van ontwerpproject “Hoe de juiste UX-statistieken een baanbrekende waarde laten zien”, door Jared Spool “Rekenmachines voor onderzoekssteekproefgrootte”
Verder lezen
“Ontwerpen voor stress en noodsituaties”, Vitaly Friedman “AI in UX: bereik meer met minder”, Paul Boag “Het toegankelijkheidsprobleem met authenticatiemethoden zoals CAPTCHA”, Eleanor Hecks “Van prompt tot partner: uw aangepaste AI-assistent ontwerpen”, Lyndon Cerejo