Så vi designer og sender en skinnende ny funktion. Hvordan ved vi, om det virker? Hvordan måler og sporer vi dens effekt? Der er ingen mangel på UX-målinger, men hvad nu hvis vi ville etablere en enkel, gentagelig, meningsfuld UX-metrik - specifikt for vores funktioner? Nå, lad os se, hvordan man gør netop det.

Jeg hørte første gang om TARS-rammen fra Adrian H. Raudschls vidunderlige artikel om "How To Measure Impact of Features". Her fremhævede Adrian, hvordan hans team sporer og beslutter, hvilke funktioner der skal fokuseres på - og derefter kortlægger dem mod hinanden i en 2×2 kvadrantermatrix. Det viste sig at være en meget nyttig ramme til at visualisere virkningen af ​​UX-arbejde gennem linsen af ​​forretningsmålinger. Lad os se, hvordan det virker. 1. Målgruppe (%) Vi starter med at kvantificere målgruppen ved at undersøge, hvor stor en procentdel af et produkts brugere, der har det specifikke problem, som en funktion sigter mod at løse. Vi kan studere eksisterende eller lignende funktioner, der forsøger at løse lignende problemer, og hvor mange brugere der engagerer sig i dem. Målgruppe er dog ikke det samme som funktionsbrug. Som Adrian bemærkede, hvis vi ved, at en eksisterende eksportknap-funktion bruges af 5 % af alle brugere, betyder det ikke, at målgruppen er 5 %. Flere brugere har muligvis det problem, som eksportfunktionen forsøger at løse, men de kan ikke finde det. Spørgsmål vi stiller: "Hvilken procentdel af alle vores produkts brugere har det specifikke problem, som en ny funktion sigter mod at løse?"

2. A = Adoption (%) Dernæst måler vi, hvor godt vi "erhverver" vores målgruppe. Til det spor sporer vi, hvor mange brugere der faktisk engagerer sig med succes med den funktion over en bestemt periode. Vi fokuserer ikke på CTR'er eller sessionsvarighed der, men snarere hvis brugerne på en meningsfuld måde engagerer sig i det. For eksempel, hvis noget signalerer, at de fandt det værdifuldt, såsom at dele eksport-URL'en, antallet af eksporterede filer eller brugen af ​​filtre og indstillinger.

Mange funktioner (>60 %) tyder på, at problemet var virksomt. Lav adoption (<20 %) kan betyde, at problemet har enkle løsninger, som folk har stolet på. Ændring af vaner tager også tid, og derfor forventes lav adoption i begyndelsen. Nogle gange har lav funktionsadoption intet at gøre med selve funktionen, men snarere hvor den sidder i brugergrænsefladen. Brugere opdager det måske aldrig, hvis det er skjult, eller hvis det har en forvirrende etiket. Det skal være tydeligt nok til, at folk falder over det. Lav adoption er ikke altid lig med fiasko. Hvis et problem kun berører 10 % af brugerne, betyder det, at funktionen er en succes, når 50-75 % vedtages inden for den specifikke niche. Spørgsmål vi stiller: "Hvilken procentdel af aktive målbrugere bruger faktisk funktionen til at løse det problem?"

3. Fastholdelse (%) Dernæst undersøger vi, om en funktion faktisk bruges gentagne gange. Vi måler hyppigheden af ​​brugen, eller specifikt, hvor mange brugere, der har brugt funktionen, der rent faktisk bliver ved med at bruge den over tid. Typisk er det et stærkt signal om meningsfuld effekt. Hvis en funktion har >50 % fastholdelsesrate (gennemsnit), kan vi være ret sikre på, at den har en høj strategisk betydning. En fastholdelsesrate på 25–35 % signalerer middel strategisk betydning, og fastholdelse på 10–20 % er da lav strategisk betydning. Spørgsmål vi stiller: "Hvor mange er der af alle de brugere, der meningsfuldt har adopteret en funktion, tilbage for at bruge den igen?"

4. Tilfredshedsscore (CES) Endelig måler vi niveauet af tilfredshed, som brugerne har med den funktion, vi har leveret. Vi spørger ikke alle - vi spørger kun "beholdte" brugere. Det hjælper os med at finde skjulte problemer, som måske ikke afspejles i fastholdelsesscore.

Når brugerne faktisk har brugt en funktion flere gange, spørger vi dem, hvor nemt det var at løse et problem, efter de havde brugt denne funktion - mellem "meget sværere" og "meget nemmere end forventet". Vi ved, hvordan vi vil score. Brug af TARS til egenskabsstrategi Når vi begynder at måle med TARS, kan vi beregne en S÷T-score — procentdelen af tilfredse brugere ÷ Målbrugere. Det giver os en fornemmelse af, hvor godt en funktion klarer sig for vores tilsigtede målgruppe. Når vi gør det for hver funktion, kan vi kortlægge alle funktioner på tværs af 4 kvadranter i en 2×2 matrix.

Overpræsterende funktioner er værd at være opmærksomme på: de har lav fastholdelse, men høj tilfredshed. Det kan simpelthen være funktioner, som brugerne ikke behøver at bruge ofte, men når de gør det, er det ekstremt effektivt. Ansvarsfunktioner har høj fastholdelse, men lav tilfredshed, så måske skal vi arbejde på dem for atforbedre dem. Og så kan vi også identificere kerneegenskaber og projektfunktioner - og have en samtale med designere, PM'er og ingeniører om, hvad vi skal arbejde videre med. Konverteringsfrekvens er ikke en UX-metrik TARS dækker ikke konverteringsraten, og det er der en god grund til. Som Fabian Lenz bemærkede, anses konvertering ofte for at være den ultimative indikator for succes - men i praksis er det altid meget vanskeligt at præsentere en klar sammenhæng mellem mindre designinitiativer og store konverteringsmål.

Sandheden er, at næsten alle på holdet arbejder hen imod bedre konvertering. En stigning kan være forbundet med mange forskellige initiativer - fra salg og marketing til boost af webpræstationer til sæsonbestemte effekter til UX-initiativer. UX kan selvfølgelig forbedre konverteringen, men det er ikke rigtig en UX-metrik. Ofte kan folk simpelthen ikke vælge det produkt, de bruger. Og ofte kommer et ønsket forretningsresultat ud af nødvendighed og kamp snarere end tillid og påskønnelse. Høj konvertering på trods af dårlig UX Som Fabian skriver, kan høj konverteringsrate ske på trods af dårlig UX, fordi:

Stærk brandkraft trækker folk ind, Aggressiv, men effektiv hastetaktik, Priserne er yderst attraktive, Marketing fungerer fremragende, Historisk kundeloyalitet, Brugerne har simpelthen ikke noget alternativ.

Lav konvertering på trods af god UX Samtidig kan der opstå en lav konverteringsrate trods stor UX, fordi:

Tilbud er ikke relevante for publikum, Brugere stoler ikke på brandet, Dårlig forretningsmodel eller høj risiko for fiasko, Marketing når ikke ud til den rigtige målgruppe, Eksterne faktorer (pris, timing, konkurrence).

En forbedret konvertering er det positive resultat af UX-initiativer. Men godt UX-arbejde forbedrer typisk opgaveafslutningen, reducerer tid på opgaven, minimerer fejl og undgår beslutningslammelse. Og der er masser af brugbare design-metrics, vi kan bruge til at spore UX og skabe bæredygtig succes. Indpakning Produktmålinger alene giver ikke altid et præcist billede af, hvor godt et produkt klarer sig. Salget klarer sig måske godt, men brugerne kan være ekstremt ineffektive og frustrerede. Alligevel er churn lav, fordi brugerne ikke kan vælge det værktøj, de bruger.

Vi har brug for UX-målinger for at forstå og forbedre brugeroplevelsen. Det, jeg elsker mest ved TARS, er, at det er en smart måde at forbinde kundernes brug og kundernes oplevelse med relevante produktmålinger. Personligt ville jeg også udvide TARS med UX-fokuserede målinger og KPI'er - afhængigt af projektets behov. Kæmpe tak til Adrian H. Raudaschl for at sætte det sammen. Og hvis du er interesseret i metrics, anbefaler jeg stærkt, at du følger ham for praktiske og nyttige guider rundt omkring netop det! Mød "Sådan måler man UX og designpåvirkning" Du kan finde flere detaljer om UX-strategi i 🪴 Measure UX & Design Impact (8h), en praktisk guide til designere og UX-leads til at måle og vise din UX-påvirkning på forretningen. Brug koden 🎟 IMPACT for at spare 20% i dag. Hop til detaljerne.

Video + UX-træning Kun videoVideo + UX-træning$ 495,00 $ 799,00 $

Få video + UX-træning 25 videolektioner (8 timer) + Live UX-træning. 100 dages pengene-tilbage-garanti. Video kun 250,00 $ 395,00 $

Få videokurset25 videolektioner (8 timer). Opdateres årligt. Fås også som en UX-pakke med 3 videokurser.

Nyttige ressourcer

"Sådan måler du UX og designpåvirkning", med jer "Business Thinking For Designers", af Ryan Rumsey "ROI af Design Project "Hvordan de rigtige UX-målinger viser spilskiftende værdi", af Jared Spool "Forskning af prøvestørrelsesberegnere"

Yderligere læsning

"Designer til stress og nødsituationer", Vitaly Friedman "AI In UX: Achieve More With Less", Paul Boag "Tilgængelighedsproblemet med autentificeringsmetoder som CAPTCHA", Eleanor Hecks "Fra prompt til partner: Design af din tilpassede AI-assistent", Lyndon Cerejo

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free