Проектирането за автономни агенти представлява уникално разочарование. Предаваме сложна задача на AI, той изчезва за 30 секунди (или 30 минути) и след това се връща с резултат. Взираме се в екрана. проработи ли Халюцинира ли? Провери ли базата данни за съответствие или пропусна тази стъпка? Обикновено реагираме на това безпокойство с една от двете крайности. Ние или поддържаме системата черна кутия, скривайки всичко, за да поддържаме простота, или се паникьосваме и предоставяме Data Dump, стриймвайки всеки ред от журнал и API извикване към потребителя. Нито един от двата подхода не адресира директно нюансите, необходими за осигуряване на идеалното ниво на прозрачност на потребителите. Черната кутия кара потребителите да се чувстват безсилни. Изхвърлянето на данни създава слепота за уведомяване, унищожавайки ефективността, която агентът е обещал да осигури. Потребителите игнорират постоянния поток от информация, докато нещо не се счупи, в който момент им липсва контекстът да го поправят. Имаме нужда от организиран начин за намиране на баланса. В моята предишна статия „Проектиране за Agentic AI“ разгледахме елементи на интерфейса, които изграждат доверие, като предварително показване на предвиденото действие на AI (Прегледи на намерения) и предоставяне на контрол на потребителите върху това колко AI прави сам (Autonomy Dials). Но да знаете кои елементи да използвате е само част от предизвикателството. По-трудният въпрос за дизайнерите е да знаят кога да ги използват. Как да разберете кой конкретен момент в 30-секунден работен процес изисква Intent Preview и кой може да бъде обработен с прост запис в журнала? Тази статия предлага метод за отговор на този въпрос. Ще преминем през одита на възела за вземане на решения. Този процес кара дизайнери и инженери в една и съща стая, за да картографират бекенд логиката към потребителския интерфейс. Ще научите как да определите точните моменти, в които потребителят се нуждае от актуализация за това, което прави AI. Ние също така ще покрием матрица за въздействие/риск, която ще помогне да се приоритизира кои възли за решение да се покажат и всеки свързан модел на проектиране, който да се съчетае с това решение. Моменти на прозрачност: Пример за казус Помислете за Meridian (не истинско име), застрахователна компания, която използва агентски AI за обработка на първоначални искове за злополука. Потребителят качва снимки на щетите на автомобила и полицейския доклад. След това агентът изчезва за минута, преди да се върне с оценка на риска и предложен диапазон на изплащане. Първоначално интерфейсът на Meridian просто показваше Calculating Claim Status. Потребителите се разочароваха. Те бяха представили няколко подробни документа и се чувстваха несигурни дали AI дори е прегледал полицейския доклад, който съдържаше смекчаващи обстоятелства. Черната кутия създаде недоверие. За да коригира това, дизайнерският екип проведе одит на възел за вземане на решения. Те откриха, че AI изпълнява три различни стъпки, базирани на вероятности, с вградени множество по-малки стъпки:
Анализ на изображението Агентът сравнява снимките на щетите с база данни с типични сценарии на автомобилна катастрофа, за да оцени разходите за ремонт. Това включва оценка на доверието. Текстов преглед Той сканира полицейския доклад за ключови думи, които засягат отговорността (напр. грешка, метеорологични условия, трезвост). Това включва оценка на вероятността за правния статус. Кръстосана препратка към политика Той сравнява детайлите на иска с конкретните условия на политиката на потребителя, търсейки изключения или ограничения на покритието. Това включваше и вероятностно съпоставяне.
Екипът превърна тези стъпки в моменти на прозрачност. Последователността на интерфейса беше актуализирана до:
Оценка на снимки на щети: Сравнение с 500 профила на удар на превозни средства. Преглед на полицейски доклад: Анализиране на ключови думи за отговорност и правен прецедент. Проверка на покритието на правилата: Проверка за конкретни изключения във вашия план.
Системата все още отне същото време, но изричното съобщение за вътрешната работа на агента възстанови доверието на потребителите. Потребителите разбраха, че AI изпълнява сложната задача, за която е проектиран, и знаеха точно къде да насочат вниманието си, ако крайната оценка изглеждаше неточна. Този избор на дизайн трансформира момент на безпокойство в момент на връзка с потребителя. Прилагане на матрицата за въздействие/риск: Какво избрахме да скрием Повечето изживявания с ИИ нямат недостиг на събития и възли за решения, които потенциално биха могли да бъдат показани по време на обработка. Един от най-критичните резултати от одита беше да се реши какво да остане невидимо. В примера на Meridian регистрационните файлове в задната част генерираха 50+ събития на иск. Можехме да по подразбиране показваме всяко събитие, докато се обработват като част от потребителския интерфейс. Вместо това приложихме матрицата на риска, за да ги отрежем:
Събитие в регистрационния файл: Pinging сървърЗапад-2 за проверка на излишък. Присъда на филтъра: Скриване. (Нисък залог, висока техничност).
Регистрационно събитие: Сравняване на оценката за ремонт със стойността на BlueBook. Присъда на филтъра: Покажи. (Високи залози, оказва влияние върху изплащането на потребителя).
Чрез изрязването на ненужните подробности важната информация - като проверката на покритието - беше по-въздействаща. Създадохме отворен интерфейс и проектирахме отворено изживяване. Този подход използва идеята, че хората се чувстват по-добре от дадена услуга, когато могат да видят свършената работа. Като показахме конкретните стъпки (оценка, преглед, проверка), променихме 30-секундно изчакване от време на притеснение („Счупено ли е?“) във време на усещане, че се създава нещо ценно („Мисли“). Нека сега разгледаме по-отблизо как можем да прегледаме процеса на вземане на решения в нашите продукти, за да идентифицираме ключови моменти, които изискват ясна информация. Одитът на възела за вземане на решения Прозрачността се проваля, когато я третираме като избор на стил, а не като функционално изискване. Имаме склонност да питаме: „Как трябва да изглежда потребителският интерфейс?“ преди да попитаме „Какво всъщност решава агентът?“ Одитът на възела за вземане на решения е лесен начин да направите системите с ИИ по-лесни за разбиране. Той работи чрез внимателно картографиране на вътрешния процес на системата. Основната цел е да се намерят и ясно дефинират точните моменти, в които системата спира да следва зададените правила и вместо това прави избор въз основа на случайност или преценка. Чрез картографиране на тази структура създателите могат да покажат тези точки на несигурност директно на хората, използващи системата. Това променя системните актуализации от неясни твърдения до конкретни, надеждни доклади за това как AI е стигнал до заключението си. В допълнение към застрахователния казус по-горе, наскоро работих с екип за изграждане на агент за обществени поръчки. Системата прегледа договорите с доставчици и маркира рисковете. Първоначално екранът показва проста лента за напредък: „Преглед на договорите“. Потребителите го мразеха. Нашето проучване показа, че те се тревожат относно правните последици от липсваща клауза. Поправихме това, като извършихме одит на възел за вземане на решения. Включих стъпка по стъпка контролен списък за провеждане на този одит в края на тази статия. Проведохме сесия с инженерите и очертахме как работи системата. Идентифицирахме „Точки на вземане на решение“ — моменти, в които AI трябваше да избира между две добри опции. В стандартните компютърни програми процесът е ясен: ако А се случи, тогава Б винаги ще се случи. В системите с изкуствен интелект процесът често се основава на случайност. AI смята, че A вероятно е най-добрият избор, но може да е само 65% сигурен. В договорната система открихме момент, в който изкуственият интелект провери условията на отговорност спрямо правилата на нашата компания. Рядко беше перфектно съвпадение. AI трябваше да реши дали 90% съвпадение е достатъчно добро. Това беше ключов момент за вземане на решение.
След като идентифицирахме този възел, го разкрихме на потребителя. Вместо „Преглед на договорите“, интерфейсът се актуализира, за да каже: „Клаузата за отговорност се различава от стандартния шаблон. Анализиране на нивото на риска.“ Тази конкретна актуализация вдъхна увереност на потребителите. Те знаеха, че агентът е проверил клаузата за отговорност. Те разбраха причината за забавянето и се довериха, че желаното действие се извършва в задната част. Те също така знаеха къде да копаят по-дълбоко, след като агентът генерира договора. За да проверите как AI взема решения, трябва да работите в тясно сътрудничество с вашите инженери, продуктови мениджъри, бизнес анализатори и ключови хора, които правят изборите (често скрити), които влияят върху функционирането на AI инструмента. Начертайте стъпките, които инструментът предприема. Маркирайте всяко място, където процесът променя посоката си, защото е изпълнена вероятност. Това са местата, където трябва да се съсредоточите върху това да бъдете по-прозрачни. Както е показано на фигура 2 по-долу, одитът на възел за вземане на решения включва следните стъпки:
Съберете екипа: Включете собствениците на продукти, бизнес анализаторите, дизайнерите, ключовите лица, вземащи решения, и инженерите, създали AI. например, Помислете за продуктов екип, който изгражда AI инструмент, предназначен да преглежда разхвърляни правни договори. Екипът включва UX дизайнер, продуктов мениджър, UX изследовател, практикуващ адвокат, който действа като експерт по темата, и бекенд инженер, който е написал кода за анализ на текста.
Начертайте целия процес: Документирайте всяка стъпка, която ИИ предприема, от първото действие на потребителя до крайния резултат. Екипът стои пред бяла дъска и скицира цялата последователност за ключов работен процес, който включва AI търсене на клауза за отговорност в сложен договор. Адвокатът качваPDF от петдесет страници → Системата преобразува документа в четим текст. → AI сканира страниците за клаузи за отговорност. → Потребителят чака. → Няколко минути по-късно инструментът подчертава намерените абзаци в жълто в потребителския интерфейс. Те правят това за много други работни процеси, които инструментът също побира.
Намерете къде нещата са неясни: Погледнете картата на процеса за всяко място, където AI сравнява опции или входове, които нямат едно перфектно съвпадение. Екипът гледа бялата дъска, за да забележи двусмислените стъпки. Преобразуването на изображение в текст следва строги правила. Намирането на конкретна клауза за отговорност включва догадки. Всяка фирма пише тези клаузи по различен начин, така че AI трябва да претегли множество опции и да направи прогноза, вместо да намери точно съвпадение на думата.
Идентифицирайте стъпките за „най-добро предположение“: За всяко неясно място проверете дали системата използва резултат за увереност (например 85% сигурен ли е?). Това са точките, в които AI прави окончателен избор. Системата трябва да познае (да даде вероятност) кой(и) параграф(и) много наподобява стандартна клауза за отговорност. Той присвоява оценка на доверието на най-доброто си предположение. Това предположение е възел за решение. Интерфейсът трябва да каже на адвоката, че подчертава потенциално съвпадение, вместо да заявява, че е намерил окончателната клауза.
Проучете избора: За всяка точка на избор разберете конкретната вътрешна математика или сравнение, което се прави (напр. съпоставяне на част от договор с полица или сравняване на снимка на счупена кола с библиотека от снимки на повредена кола). Инженерът обяснява, че системата сравнява различните параграфи с база данни със стандартни клаузи за отговорност от минали фирмени дела. Той изчислява резултат за сходство на текста, за да вземе решение за съвпадение въз основа на вероятности.
Напишете ясни обяснения: Създайте съобщения за потребителя, които ясно описват конкретното вътрешно действие, което се случва, когато AI направи избор. Дизайнерът на съдържание пише конкретно съобщение точно за този момент. Текстът гласи: Сравняване на текста на документа със стандартни фирмени клаузи за идентифициране на потенциални рискове за отговорност.
Актуализирайте екрана: Поставете тези нови, ясни обяснения в потребителския интерфейс, заменяйки неясни съобщения като „Преглед на договорите“. Дизайнерският екип премахва генеричния бутон за зареждане на PDF за обработка. Те вмъкват новото обяснение в лента на състоянието, разположена точно над инструмента за преглед на документи, докато AI мисли.
Проверка за доверие: Уверете се, че новите екранни съобщения дават на потребителите проста причина за всяко време на изчакване или резултат, което трябва да ги накара да се чувстват по-уверени и по-доверчиви.
Матрицата на въздействие/риск След като разгледате внимателно процеса на AI, вероятно ще откриете много точки, в които той прави избор. AI може да направи десетки малки избори за една сложна задача. Показването им на всички създава твърде много ненужна информация. Трябва да групирате тези избори. Можете да използвате матрица за въздействие/риск, за да сортирате тези избори въз основа на типовете действия, които AI предприема. Ето примери за матрици на въздействие/риск: Първо, търсете решения с ниски залози и ниско въздействие. Ниски залози / ниско въздействие
Пример: Организиране на файлова структура или преименуване на документ. Необходимост от прозрачност: Минимална. Достатъчно е фино тост известие или запис в журнала. Потребителите могат лесно да отменят тези действия.
След това идентифицирайте решенията с високи залози и силно въздействие. Високи залози / Голямо въздействие
Пример: Отхвърляне на молба за заем или извършване на търговия с акции. Необходимост от прозрачност: висока. Тези действия изискват доказателство за работа. Системата трябва да демонстрира обосновката преди или веднага след като действа.
Помислете за бот за финансова търговия, който третира всички поръчки за покупка/продажба еднакво. Той изпълнява сделка от $5 със същата непрозрачност като сделка от $50 000. Потребителите може да се запитат дали инструментът разпознава потенциалното въздействие на прозрачността върху търговията с голяма сума в долари. Те имат нужда системата да спре и да покаже работата си за сделки с високи залози. Решението е да се въведе състояние на преглед на логиката за всяка транзакция, надвишаваща определена сума в долари, което позволява на потребителя да види факторите, водещи до решението, преди изпълнението. Съпоставяне на възли към шаблони: рубрика за избор на модел на дизайн След като идентифицирате ключовите възли за вземане на решения за вашия опит, трябва да решите кой модел на потребителския интерфейс се прилага за всеки от тях, който ще показвате. В Designing For Agentic AI ние въведохме модели като Intent Preview (за контрол с високи залози) и Action Audit (за ретроспективна безопасност). Решаващият фактор при избора между тях е обратимостта. Филтрираме всекивъзел за вземане на решения през матрицата на въздействието, за да зададете правилния модел: Високи залози и необратимо: Тези възли изискват предварителен преглед на намерение. Тъй като потребителят не може лесно да отмени действието (например изтриване за постоянно на база данни), моментът на прозрачност трябва да се случи преди изпълнението. Системата трябва да спре, да обясни намерението си и да изиска потвърждение. Високи залози и обратими: Тези възли могат да разчитат на модела Action Audit & Undo. Ако управляваният от AI агент по продажбите премести потенциален клиент към различен конвейер, той може да направи това автономно, стига да уведоми потребителя и да предложи незабавен бутон за отмяна. Чрез стриктното категоризиране на възлите по този начин избягваме „умора от предупреждение“. Ние запазваме Intent Preview с голямо триене само за наистина необратими моменти, докато разчитаме на Action Audit, за да поддържаме скорост за всичко останало.
Реверсивна Необратимо Ниско въздействие Тип: Auto-ExecuteUI: Passive Toast / LogEx: Преименуване на файл Тип: ConfirmUI: Проста опция за отмяна. Пример: Архивиране на имейл Силно въздействие Тип: ReviewUI: Известие + преглед TrailEx: Изпращане на чернова до клиент Тип: Предварителен преглед на намерение UI: Модален / Изричен PermissionEx: Изтриване на сървър
Таблица 1: Матрицата на въздействието и обратимостта след това може да се използва за картографиране на вашите моменти на прозрачност към модели на проектиране. Качествено валидиране: „Чакането, защо?“ Тест Можете да идентифицирате потенциални възли на бяла дъска, но трябва да ги потвърдите с човешко поведение. Трябва да проверите дали вашата карта съответства на умствения модел на потребителя. Използвам протокол, наречен „Чакай, защо?“ Тест. Помолете потребител да наблюдава как агентът изпълнява задача. Инструктирайте ги да говорят на глас. Всеки път, когато задават въпрос: „Чакай, защо направи това?“ или „Заседнало ли е?“ или „Чу ли ме?“ — маркирате клеймо за време. Тези въпроси сигнализират за объркване на потребителите. Потребителят усеща, че контролът му се изплъзва. Например, в проучване за здравен асистент по планиране, потребителите са наблюдавали как агентът си записва час. Екранът остана неподвижен четири секунди. Участниците постоянно питаха: „Проверява ли моя календар или този на лекаря?“
Този въпрос разкри липсващ момент на прозрачност. Системата трябваше да раздели това четирисекундно чакане на две отделни стъпки: „Проверка на вашата наличност“, последвана от „Синхронизиране с графика на доставчика“. Тази малка промяна намали изразените нива на тревожност на потребителите. Прозрачността е неуспешна, когато описва само системно действие. Интерфейсът трябва да свързва техническия процес със специфичната цел на потребителя. Екран, показващ „Проверка на вашата наличност“, пада, защото му липсва контекст. Потребителят разбира, че AI гледа календар, но не знае защо. Трябва да съчетаем действието с резултата. Системата трябва да раздели това четирисекундно изчакване на две отделни стъпки. Първо, интерфейсът показва „Проверка на вашия календар, за да намерите отворени часове“. След това се актуализира до „Синхронизиране с графика на доставчика, за да осигурите вашата среща“. Това основава техническия процес в реалния живот на потребителя. Помислете за AI, управляващ инвентара за местно кафене. Системата среща недостиг на доставки. Интерфейс, който чете „свързване с доставчик“ или „опции за преглед“, създава безпокойство. Мениджърът се чуди дали системата отменя поръчката или купува скъпа алтернатива. По-добър подход е да се обясни очакваният резултат: „Оценяване на алтернативни доставчици, за да поддържате графика си за доставка в петък.“ Това казва на потребителя какво точно се опитва да постигне AI. Операционализиране на одита Завършили сте одита на възела за вземане на решения и сте филтрирали списъка си чрез матрицата на въздействието и риска. Вече имате списък с важни моменти за прозрачност. След това трябва да ги създадете в потребителския интерфейс. Тази стъпка изисква екипна работа в различни отдели. Не можете сами да проектирате прозрачност, като използвате инструмент за проектиране. Трябва да разберете как системата работи зад кулисите. Започнете с логически преглед. Срещнете се с вашия водещ системен дизайнер. Донесете своята карта на възлите за вземане на решения. Трябва да потвърдите, че системата действително може да споделя тези състояния. Често установявам, че техническата система не разкрива точното състояние, което искам да покажа. Инженерът може да каже, че системата просто връща общ „работещ“ статус. Трябва да настоявате за подробна актуализация. Трябва ви системата да изпрати конкретно известиекогато превключва от четене на текст към проверка на правила. Без тази техническа връзка вашият дизайн е невъзможен за изграждане. След това включете екипа за проектиране на съдържание. Имате техническата причина за действието на AI, но се нуждаете от ясно, разбираемо за хората обяснение. Инженерите осигуряват основния процес, но дизайнерите на съдържание осигуряват начина, по който той се комуникира. Не пишете тези съобщения сами. Разработчикът може да напише „Изпълняваща се функция 402“, което е технически правилно, но безсмислено за потребителя. Дизайнер може да напише „Мислене“, което е приятелско, но твърде неясно. Стратегът за съдържание намира правилното средно положение. Те създават специфични фрази, като „Сканиране за рискове от отговорност“, които показват, че AI работи, без да обърква потребителя. И накрая, тествайте прозрачността на вашите съобщения. Не чакайте да бъде изграден крайният продукт, за да видите дали текстът работи. Провеждам сравнителни тестове на прости прототипи, където единственото нещо, което се променя, е съобщението за статус. Например, показвам на една група (Група A) съобщение, което гласи „Проверка на самоличността“, а на друга група (Група B) съобщение, което гласи „Проверка на правителствени бази данни“ (това са измислени примери, но разбирате смисъла). След това ги питам кой AI се чувства по-безопасен. Често ще откриете, че определени думи предизвикват безпокойство, докато други изграждат доверие. Трябва да се отнасяте към формулировката като към нещо, което трябва да тествате и да докажете ефективността си. Как това променя процеса на проектиране Провеждането на тези одити има потенциала да укрепи начина, по който един екип работи заедно. Спираме да предаваме изчистени дизайнерски файлове. Започваме да използваме разхвърляни прототипи и споделени електронни таблици. Основният инструмент става матрица за прозрачност. Инженерите и дизайнерите на съдържание редактират тази електронна таблица заедно. Те картографират точните технически кодове към думите, които потребителят ще прочете. Отборите ще изпитват търкания по време на логическия преглед. Представете си дизайнер да пита инженера как изкуственият интелект решава да откаже транзакция, подадена в отчет за разходите. Инженерът може да каже, че бекендът извежда само общ код на състоянието като „Грешка: Липсващи данни“. Дизайнерът заявява, че това не е полезна информация на екрана. Дизайнерът преговаря с инженера за създаване на конкретна техническа кука. Инженерът пише ново правило, така че системата да докладва точно какво липсва, като например липсващо изображение на разписка. Дизайнерите на съдържание действат като преводачи по време на тази фаза. Разработчикът може да напише технически точен низ като „Изчисляване на прага на достоверност за съвпадение на доставчика“. Дизайнер на съдържание превежда този низ във фраза, която изгражда доверие за конкретен резултат. Стратегът го пренаписва като „Сравняване на цените на местните доставчици, за да осигурите доставката си в петък“. Потребителят разбира действието и резултата. Целият многофункционален екип участва в сесии за потребителско тестване. Те наблюдават как истински човек реагира на различни съобщения за статус. Виждането на потребителска паника, защото на екрана пише „Извършване на търговия“, принуждава екипа да преосмисли своя подход. Инженерите и дизайнерите са съгласни с по-добра формулировка. Те променят текста на „Проверка на достатъчно средства“, преди да купят акции. Съвместното тестване гарантира, че крайният интерфейс обслужва както системната логика, така и спокойствието на потребителя. Изисква време за включване на тези допълнителни дейности в календара на екипа. Въпреки това, крайният резултат трябва да бъде екип, който комуникира по-открито, и потребители, които имат по-добро разбиране какво правят техните базирани на AI инструменти от тяхно име (и защо). Този интегриран подход е крайъгълен камък за проектиране на наистина надеждни AI изживявания. Доверието е избор на дизайн Често гледаме на доверието като на емоционален страничен продукт от доброто потребителско изживяване. По-лесно е да разглеждаме доверието като механичен резултат от предвидима комуникация. Изграждаме доверие, като показваме точната информация в точното време. Унищожаваме го, като завладяваме потребителя или напълно скриваме машината. Започнете с одита на възела за вземане на решения, особено за агентни инструменти и продукти на AI. Намерете моментите, в които системата прави преценка. Картирайте тези моменти в матрицата на риска. Ако залозите са високи, отворете кутията. Покажете работата. В следващата статия ще разгледаме как да проектираме тези моменти: как да напишем копието, да структурираме потребителския интерфейс и да се справим с неизбежните грешки, когато агентът сгреши. Приложение: Контролен списък за одит на възел за вземане на решения Фаза 1: Настройка и картографиране ✅ Съберете екипа: вкарайте собствениците на продукти, бизнес анализатори, дизайнери,ключови лица, вземащи решения, и инженерите, изградили AI. Съвет: Имате нужда от инженерите да обяснят действителната логика на бекенда. Не опитвайте тази стъпка сами. ✅ Начертайте целия процес: Документирайте всяка стъпка, предприета от AI, от първото действие на потребителя до крайния резултат. Съвет: Физическата сесия на бяла дъска често работи най-добре за начертаване на тези начални стъпки. Фаза 2: Намиране на скритата логика ✅ Намерете къде нещата са неясни: Погледнете картата на процеса за всяко място, където AI сравнява опции или входове, които нямат едно перфектно съвпадение. ✅ Идентифицирайте стъпките за най-добро предположение: За всяко неясно място проверете дали системата използва резултат за доверие. Например, попитайте дали системата е 85 процента сигурна. Това са точките, в които AI прави окончателен избор. ✅ Разгледайте избора: За всяка точка за избор разберете конкретната вътрешна математика или сравнение, което се прави. Пример е съпоставянето на част от договор с полица. Друг пример включва сравняване на снимка на счупена кола с библиотека от снимки на повредена кола. Фаза 3: Създаване на потребителско изживяване ✅ Напишете ясни обяснения: Създайте съобщения за потребителя, които ясно описват конкретното вътрешно действие, което се случва, когато AI направи избор. Съвет: Обосновете посланията си в конкретната реалност. Ако AI резервира среща с клиент в местно кафене, кажете на потребителя, че системата проверява системата за резервации на кафене. ✅ Актуализирайте екрана: Поставете тези нови, ясни обяснения в потребителския интерфейс. Заменете неясни съобщения като Преглед на договори с вашите конкретни обяснения. ✅ Проверете за доверие: Уверете се, че новите екранни съобщения дават на потребителите проста причина за всяко време на изчакване или резултат. Това трябва да ги накара да се чувстват уверени и доверчиви. Съвет: Тествайте тези съобщения с действителни потребители, за да се уверите, че разбират конкретния резултат, който се постига.