Менің соңғы мақаламда біз негізгі шындықты анықтадық: пайдаланушылар AI қабылдауы және оған сенуі үшін олар оған сенуі керек. Біз сенімнің AI қабілеті, мейірімділігі, адалдығы және болжамдылығы туралы түсініктерге негізделген көп қырлы құрылым екендігі туралы айттық. Бірақ AI өзінің үнсіз, алгоритмдік даналығымен пайдаланушыны шатастыратын, ренжітетін немесе тіпті ренжітетін шешім қабылдағанда не болады? Ипотекаға өтінім қабылданбады, сүйікті ән кенеттен ойнату тізімінде жоқ және адам оны көрмей тұрып білікті түйіндеме қабылданбайды. Бұл сәттерде қабілет пен болжам ыдырап, мейірімділік әлемді алыстатады. Біздің әңгімеміз енді сенімнің себебінен ашықтыққа дейін дамуы керек. AI нәтижелерін адамдарға түсінікті ету әдістерін әзірлеуге бағытталған Explainable AI (XAI) саласы осы мәселені шешу үшін пайда болды, бірақ ол көбінесе деректер ғалымдары үшін таза техникалық мәселе ретінде қарастырылады. Менің ойымша, бұл AI-ге негізделген өнімдер үшін маңызды дизайн мәселесі. Алгоритмдік шешім қабылдау мен адам түсінігі арасындағы алшақтықты жою UX мамандары ретінде біздің жұмысымыз. Бұл мақала түсінікті болу үшін қалай зерттеуге және жобалауға қатысты практикалық, әрекетке жарамды нұсқаулар береді. Біз күрделі XAI концепцияларын сіз бүгін қолдана бастауға болатын нақты дизайн үлгілеріне аудара отырып, танымал сөздер мен макеттерге көшеміз. XAI құпиясын жою: UX тәжірибешілеріне арналған негізгі тұжырымдамалар XAI пайдаланушының: «Неге?» Деген сұрағына жауап береді. Неліктен маған бұл жарнама көрсетілді? Неліктен бұл фильм маған ұсынылды? Неліктен менің өтінішім қабылданбады? Оны математикалық есеп бойынша жұмысын көрсететін AI ретінде елестетіп көріңіз. Онсыз сізде тек жауап бар және сіз оны сеніммен қабылдауға мәжбүрсіз. Қадамдарды көрсете отырып, сіз түсіну мен сенімді қалыптастырасыз. Сіз сондай-ақ жұмысыңызды екі рет тексеруге және оның әсер ететін адамдар арқылы тексеруге рұқсат бересіз. Мүмкіндіктің маңыздылығы және қарсы фактілер AI-мен не болып жатқанын түсіндіру немесе түсіндіру үшін қолдануға болатын бірқатар әдістер бар. Әдістер шешім ағашының бүкіл логикасын қамтамасыз етуден бастап, нәтиженің табиғи тілдегі қорытындыларын шығаруға дейін ауытқиды, бірақ UX тәжірибешілері тәжірибеге енгізе алатын ақпараттың ең практикалық және әсерлі түрлерінің екеуі ерекшелік маңыздылығы (1-сурет) және қарсы фактілер болып табылады. Бұл көбінесе пайдаланушылар үшін ең қарапайым және дизайнерлер үшін жүзеге асыруға ең қолайлы болып табылады.

Ерекшелік маңыздылығы Бұл түсіндіру әдісі: «AI ең маңызды факторлар қандай болды?» Деп жауап береді. Бұл нәтижеге ең көп әсер еткен 2-3 негізгі айнымалыны анықтау туралы. Бұл бүкіл оқиға емес, тақырып. Мысал: Тұтынушының бас тартуын (қызметінен бас тарту) болжайтын AI елестетіңіз. Ерекшелік маңыздылығы «соңғы айдағы қолдау көрсету қоңырауларының саны» және «бағаның соңғы көтерілуі» тұтынушының тоқтап қалу ықтималдығын анықтаудағы ең маңызды екі фактор екенін көрсетуі мүмкін.

Қарсы фактілер Бұл күшті әдіс: «Басқа нәтиже алу үшін нені өзгертуім керек?» Деп жауап береді. Бұл өте маңызды, өйткені ол пайдаланушыларға агенттік сезімін береді. Ол ренжітетін «жоқ» дегенді әрекет ететін «әлі жоққа» айналдырады. Мысал: AI қолданатын несиеге өтініш беру жүйесін елестетіңіз. Пайдаланушыға несие беруден бас тартылды. «Өтінім қабылданбады» дегенді көрудің орнына, «Егер сіздің несиелік ұпайыңыз 50 балл жоғары болса немесе сіздің қарызыңыздың кіріске қатынасы 10% төмен болса, сіздің несиеңіз мақұлданған болар еді» деген қарсы түсініктеме де бөліседі. Бұл Сараға болашақта ықтимал несие алу үшін жасай алатын нақты, нақты қадамдар береді.

Түсіндіруді жақсарту үшін үлгі деректерін пайдалану Техникалық ерекшеліктерді көбінесе деректер ғалымдары өңдейтініне қарамастан, UX тәжірибешілеріне модельді жергілікті түрде жақындату арқылы жеке болжамдарды түсіндіретін LIME (Жергілікті түсіндірілетін үлгі-агностикалық түсініктемелер) және ойын теориясының тәсілін қолданатын SHAP (SHapley Additive Explanations) сияқты құралдар бұл «кез келген машиналық оқыту кешенінен» алынған үлгілерді шығару үшін жалпы қолданылатынын білу пайдалы. модельдер. Бұл кітапханалар нақты нәтижеге қандай кірістер ең әсер еткенін көрсету үшін AI шешімін бұзуға көмектеседі. Дұрыс орындалған кезде, AI құралының шешімі негізінде жатқан деректер күшті оқиғаны айту үшін пайдаланылуы мүмкін. Функцияның маңыздылығы мен қарсы фактілерді қарастырайық және шешімнің артындағы деректер ғылымын пайдаланушы тәжірибесін жақсарту үшін қалай пайдалануға болатындығын көрсетейік. Енді алайықЖергілікті түсініктемелер (мысалы, LIME) деректерінің көмегімен функцияның маңыздылығын қамту: Бұл тәсіл: «Неліктен AI маған дәл қазір осы нақты ұсынысты жасады?» Деп жауап береді. Модельдің қалай жұмыс істейтіні туралы жалпы түсініктеменің орнына, ол жалғыз, нақты данаға бағытталған себеп береді. Бұл жеке және контекстік. Мысал: Spotify сияқты AI-мен жұмыс істейтін музыканы ұсыну жүйесін елестетіңіз. Жергілікті түсініктеме: «Неліктен жүйе сізге Адельдің осы әнін дәл қазір ұсынды?» деп жауап береді. Түсініктеме: «Себебі сіз жақында әйел вокалисттердің бірнеше эмоционалды балладалары мен әндерін тыңдадыңыз».

Соңында, шешімнің түсіндірмесіне Құнға негізделген түсіндірмелерді қосуды қарастырайық (мысалы, Шеплидің қосымша түсіндірмесі (SHAP) деректері шешімнің түсіндірмесіне: Бұл «Әр фактор шешімді қалай итермеледі?» Деген жауап беретін функция маңыздылығының неғұрлым нақты нұсқасы. Мысал: Банк несиелік өтінімді мақұлдау немесе мақұлдау туралы шешім қабылдау үшін AI үлгісін пайдаланады деп елестетіңіз.

Мүмкіндіктің маңыздылығы: Үлгінің нәтижесі өтініш берушінің несиелік ұпайы, кірісі және қарыздың кіріске қатынасы оның шешіміндегі ең маңызды факторлар болғанын көрсетуі мүмкін. Бұл маңызды нәрсеге жауап береді. Мәнге негізделген түсініктемелері бар мүмкіндіктің маңыздылығы (SHAP): SHAP мәндері үлгі элементтеріне негізделген әрі қарай мүмкіндіктің маңыздылығын алады.

Мақұлданған несие үшін SHAP жоғары несиелік балл шешімді мақұлдауға (оң әсер) айтарлықтай итермелейтінін көрсетуі мүмкін, ал қарыздың кіріске қатынасының орташадан сәл жоғарырақ болуы оны аздап алып тастады (теріс әсер), бірақ несиеден бас тартуға жеткіліксіз. Бас тартылған несие үшін SHAP табысының төмендігі және соңғы несие сұрауларының көптігі, тіпті несиелік балл лайықты болса да, бас тартуға шешім қабылдағанын анықтай алады.

Бұл несиелік қызметкерге өтініш берушіге қарастырылған нәрселерден тыс, әрбір фактордың түпкілікті «иә» немесе «жоқ» шешіміне қалай ықпал еткенін түсіндіруге көмектеседі. Жақсы түсініктеме беру мүмкіндігі даму циклінде әлдеқайда ертерек басталатынын мойындау өте маңызды. Деректерді зерттеушілер мен инженерлер модельдер мен деректер құбырларын әдейі құрылымдау арқылы негізгі рөлді ойнайды, оны кейінірек ойластыруға тырыспай, түсініктілігін қолдайтын жолдармен. Зерттеу және жобалау топтары мұны түсіну үшін пайдаланушы қажеттіліктері туралы деректер ғалымдарымен және инженерлермен ертерек сөйлесуді бастау, түсініктемелік көрсеткіштерді дамытуға үлес қосу және олардың дәл әрі пайдаланушыға ыңғайлы екендігіне көз жеткізу үшін түсініктемелерді бірлесіп жасау арқылы ықпал ете алады. XAI және этикалық AI: біржақтылық пен жауапкершілікті ашу Сенімді қалыптастырудан басқа, XAI AI* терең этикалық салдарын шешуде маңызды рөл атқарады, әсіресе алгоритмдік ауытқуларға қатысты. SHAP мәндерін талдау сияқты түсіндіру әдістері модель шешімдеріне нәсіл, жыныс немесе әлеуметтік-экономикалық мәртебе сияқты сезімтал атрибуттардың пропорционалды емес әсер ететінін анықтауға болады, тіпті бұл факторлар тікелей кіріс ретінде анық пайдаланылмаған болса да. Мысалы, егер несиені мақұлдау үлгісі белгілі бір демографиялық топтағы өтініш берушілерге теріс SHAP мәндерін дәйекті түрде тағайындайтын болса, бұл тергеуді қажет ететін әлеуетті бейімділіктің белгісі болып, командаларға осындай әділетсіз нәтижелерді анықтауға және азайтуға мүмкіндік береді. XAI қуаты сонымен қатар «түсіндіруді жуу» мүмкіндігімен бірге келеді. «Жасыл жуу» тұтынушыларды қоршаған ортаны қорғау тәжірибесі туралы жаңылыстыратын сияқты, түсініктемелерді жуу проблемалық алгоритмдік мінез-құлықты немесе өзіне тән бұрмалауларды жарықтандыруға емес, түсініксіздеу үшін жасалған кезде орын алуы мүмкін. Бұл маңызды әсер ететін факторларды алып тастайтын тым қарапайым түсініктемелер немесе стратегиялық тұрғыдан нәтижелерді олардан гөрі бейтарап немесе әділ етіп көрсететін түсініктемелер ретінде көрінуі мүмкін. Ол шынайы мөлдір және тексерілетін түсініктемелерді әзірлеу үшін UX тәжірибешілерінің этикалық жауапкершілігін атап көрсетеді. UX мамандары деректер ғалымдарымен және этика мамандарымен бірлесе отырып, шешімнің себебін, сондай-ақ негізгі AI моделінің шектеулері мен ықтимал қиғаштықтарын жеткізуде маңызды жауапкершілікті өз мойнына алады. Бұл AI дәлдігі туралы нақты пайдаланушы күтулерін орнатуды, модельдің қай жерде сенімділігі төмен болуы мүмкін екенін анықтауды және пайдаланушылар әділетсіз немесе дұрыс емес нәтижелерді қабылдаған кезде жүгіну немесе кері байланыс үшін нақты арналарды қамтамасыз етуді қамтиды. Бұларды белсенді түрде шешуэтикалық өлшемдер бізге шын мәнінде әділ және сенімді AI жүйелерін құруға мүмкіндік береді. Әдістерден макеттерге дейін: практикалық XAI дизайн үлгілері Ұғымдарды білу бір нәрсе; оларды жобалау басқа. Міне, осы XAI әдістерін интуитивті дизайн үлгілеріне қалай аударуға болады. 1-үлгі: "Себебі" мәлімдемесі (мүмкіндік маңыздылығы үшін) Бұл ең қарапайым және жиі тиімді үлгі. Бұл AI әрекетінің негізгі себебін ашатын тікелей, қарапайым тілдегі мәлімдеме.

Эвристикалық: тура және қысқаша болыңыз. Ең әсерлі себеппен жетекшілік етіңіз. Кез келген жағдайда жаргондардан аулақ болыңыз.

Мысал: Музыкалық ағындық қызметті елестетіңіз. Жай ғана "Апта сайын ашылатын" ойнату тізімін ұсынудың орнына, сіз микрокөшірменің шағын жолын қосасыз. Ән ұсынысы: "Барқыт таңы"Себебі сіз "The Fuzz" және басқа психикалық рокты тыңдайсыз.

Үлгі 2: "Егер не" интерактивті (қарсы фактілер үшін) Қарама-қарсы фактілер табиғи түрде мүмкіндіктерді кеңейтуге қатысты. Оларды көрсетудің ең жақсы жолы - пайдаланушыларға мүмкіндіктерді өздері зерттеуге интерактивті құралдар беру. Бұл қаржылық, денсаулыққа немесе басқа мақсатқа бағытталған қолданбаларға өте ыңғайлы.

Эвристикалық: Интерактивті және мүмкіндік беретін түсіндірмелер жасаңыз. Пайдаланушыларға таңдауларының себебі мен салдарын көруге мүмкіндік беріңіз.

Мысал: Несие өтінімінің интерфейсі. Бас тартудан кейін, тұйықтың орнына пайдаланушы әртүрлі сценарийлердің (егер болатынын) қалай орындалатынын анықтау құралын алады (1-суретті қараңыз).

3-үлгі: Бөлектелген ролик (жергілікті түсініктемелер үшін) AI пайдаланушының мазмұнында әрекетті орындаған кезде (мысалы, құжатты қорытындылау немесе фотосуреттердегі беттерді анықтау), түсініктеме көзбен көрнекі түрде байланыстырылуы керек.

Эвристикалық: түсіндірмені ол түсіндіретін интерфейс элементіне тікелей қосу үшін бөлектеу, контурлар немесе аннотациялар сияқты көрнекі белгілерді пайдаланыңыз.

Мысал: Ұзақ мақалаларды қорытындылайтын AI құралы. AI-генерацияланған Түйіндеме: Бастапқы зерттеулер тұрақты өнімдер үшін нарықтағы алшақтықты көрсетті. Құжаттағы дереккөз: «...Біздің нарықтық үрдістерді 2-тоқсандағы талдауымыз бірде-бір ірі бәсекелестің экологиялық саналы тұтынушыға тиімді қызмет көрсетпейтінін, тұрақты өнімдер үшін айтарлықтай нарықтық алшақтықты ашқанын анық көрсетті...»

4-үлгі: итеру және тарту визуалды (мәнге негізделген түсіндірмелер үшін) Неғұрлым күрделі шешімдер үшін пайдаланушылар факторлардың өзара әрекетін түсінуі қажет болуы мүмкін. Қарапайым деректер визуализациясы мұны шамадан тыс анық көрсете алады.

Эвристикалық: Шешімге оң және теріс әсер еткен факторларды көрсету үшін қарапайым, түсті кодталған деректер визуализациясын (бағаналық диаграммалар сияқты) пайдаланыңыз.

Мысал: Жұмысқа үміткердің профилін тексеретін AI. Неліктен бұл үміткер 75% сәйкес келеді: Ұпайды жоғарылататын факторлар: 5+ жыл UX зерттеу тәжірибесі Python бағдарламасын меңгерген, ұпайды төмендететін факторлар: B2B SaaS тәжірибесі жоқ.

Осы дизайн үлгілерін AI өнімінің UX жүйесінде үйрену және пайдалану түсініктілігін арттыруға көмектеседі. Сондай-ақ, мен мұнда терең қарастырмаған қосымша әдістерді қолдануға болады. Бұған мыналар кіреді:

Табиғи тілдегі түсініктемелер: AI техникалық нәтижесін сарапшы емес адамдар оңай түсінетін қарапайым, сөйлесетін адам тіліне аудару. Мәтінмәндік түсіндірмелер: AI-ның белгілі бір сәтте және жерде шығуының негіздемесін қамтамасыз ету, ол пайдаланушының тапсырмасына ең сәйкес келеді. Сәйкес визуализациялар: AI шешім қабылдау процесін көрнекі түрде көрсету үшін диаграммаларды, графиктерді немесе жылу карталарын пайдалану, күрделі деректерді интуитивті және пайдаланушыларға түсінуді жеңілдетеді.

Қолданбаға арналған ескертпе: Осы түсіндірмелі нәтижелерді біркелкі пайдаланушы тәжірибесіне аудару сонымен қатар өзіндік техникалық ойларды ұсынады. Front-end әзірлеушілері түсіндірме деректерін тиімді алу үшін API дизайнымен жиі күреседі және өнімділік салдары (әрбір пайдаланушы әрекеттесуі үшін нақты уақыттағы түсініктемелерді жасау сияқты) кешіктіруді болдырмау үшін мұқият жоспарлауды қажет етеді. Кейбір нақты әлем мысалдары UPS Capital's DeliveryDefence UPS пакеттің ұрлану ықтималдығын болжау үшін мекенжайларға «жеткізу сенімділік баллын» тағайындау үшін AI пайдаланады. Олардың DeliveryDefense бағдарламалық құралы орналасқан жері, жоғалу жиілігі және басқа факторлар туралы тарихи деректерді талдайды. Мекенжайдың ұпайы төмен болса, жүйе шешімге түсініктеме бере отырып, пакетті қауіпсіз UPS кіру нүктесіне белсенді түрде қайта бағыттай алады (мысалы, «Ұрлық тарихына байланысты пакет қауіпсіз орынға қайта бағытталды»). Бұл жүйе тәуекелдерді азайту және тұтынушылардың сенімін арттыру үшін XAI қалай пайдалануға болатындығын көрсетедіашықтық. Автономды көліктер Болашақтың бұл көліктері көліктеріне қауіпсіз, түсінікті шешімдер қабылдауға көмектесу үшін XAI-ді тиімді пайдалануы керек. Өздігінен басқарылатын көлік кенет тежеу ​​кезінде жүйе оның әрекетіне нақты уақытта түсініктеме бере алады, мысалы, жолға шыққан жаяу жүргіншіні анықтау арқылы. Бұл жолаушылар жайлылығы мен сенімі үшін ғана маңызды емес, сонымен қатар AI жүйесінің қауіпсіздігі мен жауапкершілігін дәлелдейтін нормативтік талап болып табылады. IBM Watson Health (және оның қиындықтары) Денсаулық сақтаудағы AI-ның жалпы мысалы ретінде жиі аталса да, бұл XAI маңыздылығы үшін құнды жағдайлық зерттеу болып табылады. Онкологияға арналған Уотсон жобасының сәтсіздігі түсініктемелер түсініксіз болғанда немесе негізгі деректер біржақты немесе локализацияланбаған кезде ненің дұрыс емес болуы мүмкін екенін көрсетеді. Жүйенің ұсыныстары кейде жергілікті клиникалық тәжірибеге сәйкес келмеді, өйткені олар АҚШ-қа негізделген нұсқауларға негізделген. Бұл сенімді, контекстті түсінетін түсіндіру қажеттілігі туралы ескерту ретінде қызмет етеді. UX зерттеушісінің рөлі: түсініктемелерді анықтау және растау Біздің дизайн шешімдеріміз пайдаланушының дұрыс сұрақтарын дұрыс уақытта шешсе ғана тиімді болады. Пайдаланушыда жоқ сұраққа жауап беретін түсініктеме - жай шу. Дәл осы жерде UX зерттеулері XAI стратегиясындағы маңызды дәнекер тініне айналады, бұл біздің пайдаланушыларымызға не және қалай маңызды екенін түсіндіруді қамтамасыз етеді. Зерттеушінің рөлі екі жақты: біріншіден, түсініктемелердің қай жерде қажет екенін анықтау арқылы стратегияны хабардар ету, екіншіден, осы түсініктемелерді беретін дизайнды растау. XAI стратегиясын ақпараттандыру (нені түсіндіру керек) Жалғыз түсініктеме жасамас бұрын, пайдаланушының AI жүйесінің психикалық моделін түсінуіміз керек. Олар бұл не істеп жатыр деп сенеді? Олардың түсінігі мен жүйенің шындығы арасындағы алшақтықтар қайда? Бұл UX зерттеушісінің негізгі жұмысы. Психикалық модель сұхбаттары: AI жүйелері туралы пайдаланушының қабылдауын ашу Терең, жартылай құрылымдық сұхбаттар арқылы UX тәжірибешілері пайдаланушылардың AI жүйелерін қалай қабылдайтыны және түсінетіні туралы баға жетпес түсініктерге ие болады. Бұл сеанстар пайдаланушыларды AI қалай жұмыс істейтініне сенетін ішкі «психикалық моделін» нақты түрде салуға немесе сипаттауға ынталандыруға арналған. Бұл көбінесе пайдаланушыларға жүйе логикасын, оның кірістері мен шығыстарын, сондай-ақ осы элементтер арасындағы байланыстарды түсіндіруге шақыратын ашық сұрақтарды қоюды қамтиды. Бұл сұхбаттар күшті, өйткені олар жиі AI туралы пайдаланушылар ұстанатын терең қате түсініктер мен болжамдарды көрсетеді. Мысалы, ұсыныс жүйесімен әрекеттесетін пайдаланушы жүйенің тек олардың өткен көру тарихына негізделгенін сенімді түрде растауы мүмкін. Олар алгоритмде күннің уақыты, платформадағы ағымдағы тренд элементтері немесе тіпті ұқсас пайдаланушылардың көру әдеттері сияқты көптеген басқа факторлар бар екенін түсінбеуі мүмкін. Пайдаланушының психикалық моделі мен нақты негізгі AI логикасы арасындағы бұл алшақтықты ашу өте маңызды. Ол бізге жүйенің дәлірек және сенімді психикалық моделін құруға көмектесу үшін пайдаланушыларға қандай нақты ақпаратты жеткізу керек екенін көрсетеді. Бұл өз кезегінде сенімді нығайтудағы іргелі қадам болып табылады. Пайдаланушылар, тіпті жоғары деңгейде болса да, AI өз қорытындыларына немесе ұсыныстарына қалай келетінін түсінгенде, олар оның нәтижелеріне сенеді және оның функционалдығына сенеді. AI саяхат картасы: пайдаланушы сенімі мен түсініктілігіне терең бойлау Пайдаланушының саяхатын AI-мен жұмыс істейтін мүмкіндікпен мұқият салыстыра отырып, біз шатасушылық, көңілсіздік немесе тіпті терең сенімсіздік пайда болатын нақты сәттерге баға жетпес түсініктерге ие боламыз. Бұл AI қалай жұмыс істейтіні туралы пайдаланушының психикалық моделі оның нақты мінез-құлқына қайшы келетін маңызды сәттерді ашады. Музыкалық ағындық қызметті қарастырыңыз: ойнату тізімі ұсынысы бұрынғы тыңдау әдеттерімен немесе белгіленген қалауларымен ешқандай байланысы болмаған кезде «кездейсоқ» болып көрінгенде, пайдаланушының сенімі төмендей ме? Бұл қабылданатын кездейсоқтық пайдаланушының интеллектуалды курациядан күтуіне тікелей қарсылық және AI олардың талғамын түсінетіндігі туралы жасырын уәдені бұзу болып табылады. Сол сияқты, фотосуреттерді басқару қолданбасында AI фото-тегтеу мүмкіндігі отбасының сүйікті мүшесін дәйекті түрде қате анықтаған кезде, пайдаланушылар айтарлықтай ренжіді ме? Бұл қате техникалық ақаудан да көп; ол дәлдіктің, жекелендірудің және тіпті жүрегіне әсер етедіэмоционалдық байланыс. Бұл ауырсыну нүктелері қай жерде жақсы орналастырылған, нақты және қысқаша түсініктеме қажет екенін көрсететін айқын сигналдар. Мұндай түсіндірмелер шешуші жөндеу тетіктері ретінде қызмет етеді, егер шешілмесе, пайдаланушының бас тартуына әкелуі мүмкін сенімнің бұзылуын түзетеді. AI саяхат картасының күші оның бізді AI жүйесінің соңғы нәтижесін түсіндіруден тыс жылжыту қабілетінде жатыр. Жасанды интеллект нені шығаратынын түсіну маңызды болғанымен, ол жиі жеткіліксіз. Оның орнына, бұл процесс бізді маңызды сәттерде процесті түсіндіруге назар аударуға мәжбүр етеді. Бұл мынаны білдіреді:

Неліктен белгілі бір шығыс жасалды: ол нақты кіріс деректеріне байланысты болды ма? Архитектураның ерекше үлгісі? Жасанды интеллект шешіміне қандай факторлар әсер етті: белгілі бір мүмкіндіктер ауыррақ болды ма? AI өз тұжырымына қалай келді: біз оның ішкі жұмысының жеңілдетілген, ұқсас түсіндірмелерін ұсына аламыз ба? AI қандай болжамдар жасады: пайдаланушының ниеті немесе деректері туралы жасырын түсініктер болды ма? AI шектеулері қандай: AI не істей алмайтынын немесе оның дәлдігі қай жерде ауытқуы мүмкін екенін нақты хабарлау шынайы үміттерді тудырады.

AI саяхатының картасы XAI дерексіз тұжырымдамасын UX тәжірибешілері үшін практикалық, әрекет етуші құрылымға айналдырады. Бұл бізге түсінікті теориялық талқылаулардан асып түсуге және оның орнына қуатты, мөлдір, түсінікті және сенімді AI тәжірибесін құру үшін қажетті түсініктерді бере отырып, пайдаланушы сеніміне қауіп төнетін нақты сәттерді анықтауға мүмкіндік береді. Сайып келгенде, зерттеу - бұл белгісіздерді қалай ашатынымыз. Сіздің командаңыз несиеге неліктен бас тартылғанын қалай түсіндіруге болатынын талқылап жатқан болуы мүмкін, бірақ зерттеулер пайдаланушылардың деректерінің бірінші кезекте қалай пайдаланылғанын түсінуге көбірек алаңдайтынын анықтауы мүмкін. Зерттеусіз біз жай ғана пайдаланушыларымыз нені қызықтыратынын болжай аламыз. Дизайн бойынша бірлесіп жұмыс істеу (AI-ды қалай түсіндіруге болады) Зерттеу нені түсіндіру керектігін анықтағаннан кейін дизайнмен бірлескен цикл басталады. Дизайнерлер біз бұрын талқылаған үлгілердің прототипін жасай алады — «Себебі» мәлімдемесі, интерактивті жүгірткілер — және зерттеушілер бұл дизайнды қолданушылардың алдына қойып, олардың орындалатынын көруі мүмкін. Мақсатты пайдалану және түсіну сынағы: Біз XAI құрамдастарын арнайы сынайтын зерттеу зерттеулерін жасай аламыз. Біз жай ғана сұрамаймыз: «Бұл пайдалану оңай ма?» Біз: «Мұны көргеннен кейін жүйе бұл өнімді неге ұсынғанын өз сөзіңізбен айта аласыз ба?» Деп сұраймыз. немесе «Басқа нәтиже ала алатыныңызды көру үшін не істейтініңізді көрсетіңіз». Мұндағы мақсат – қолдануға ыңғайлылықпен қатар түсіну мен әрекетке қабілеттілікті өлшеу. Сенімділіктің өзін өлшеу: Түсіндірме көрсетілгенге дейін және кейін қарапайым сауалнамалар мен бағалау шкаласын пайдалана аламыз. Мысалы, біз пайдаланушыдан 5 балдық шкала бойынша «Сіз бұл ұсынысқа қаншалықты сенесіз?» деп сұрай аламыз. олар «Себебі» мәлімдемесін көрмей тұрып, содан кейін қайта сұраңыз. Бұл біздің түсіндірмелеріміз шын мәнінде сенімге итермелейтіні туралы сандық деректерді береді. Бұл процесс қуатты, қайталанатын циклды жасайды. Зерттеу нәтижелері бастапқы жобаны көрсетеді. Содан кейін бұл дизайн сыналады және жаңа нәтижелер нақтылау үшін дизайн тобына қайтарылады. Мүмкін, «Себебі» мәлімдемесі тым жаргониялық болды немесе «Егер не болады» жүгірткісін күшейтуден гөрі шатастырады. Осы бірлескен валидация арқылы біз түпкілікті түсініктемелердің техникалық тұрғыдан дәл, шынайы түсінікті, пайдалы және өнімді пайдаланатын адамдар үшін сенімділігін қамтамасыз етеміз. Goldilocks түсіндірме аймағы Сыни ескерту: артық түсіндіруге болады. Голдилокс «дұрыс» ботқаны іздеген ертегідегідей, жақсы түсіндірудің мақсаты - тым көп емес және тым аз емес мәліметтердің дұрыс мөлшерін беру. Модельдегі әрбір айнымалымен пайдаланушыны бомбалау когнитивті шамадан тыс жүктемеге әкеледі және сенімді азайтуы мүмкін. Мақсат пайдаланушыны деректер ғалымы ету емес. Бір шешім - прогрессивті ашу.

Қарапайымнан бастаңыз. Қысқаша «Себебі» мәлімдемесін жеткізіңіз. Көптеген пайдаланушылар үшін бұл жеткілікті болады. Мәліметтерге жол ұсыныңыз. «Қосымша ақпарат» немесе «Мұның қалай анықталғанын қараңыз» сияқты анық, төмен үйкеліс сілтемесін беріңіз. Күрделілігін ашыңыз. Осы сілтеменің артында сіз интерактивті сырғытпаларды, визуализацияларды немесе ықпал ететін факторлардың егжей-тегжейлі тізімін ұсына аласыз.

Бұл деңгейлі тәсіл дұрыс мөлшерді қамтамасыз ете отырып, пайдаланушының назары мен тәжірибесін құрметтейдіолардың қажеттіліктеріне арналған ақпарат. Сіз әртүрлі факторларға негізделген оңтайлы жылытуды ұсынатын смарт үй құрылғысын пайдаланып жатырсыз деп елестетейік. Қарапайым сөзден бастаңыз: «Сіздің үйіңіз қазір 72 градусқа дейін қызады, бұл энергияны үнемдеу және жайлылық үшін оңтайлы температура». Егжей-тегжейлі жолды ұсыныңыз: Оның астында шағын сілтеме немесе түйме: «Неге 72 градус оңтайлы?» Күрделілігін көрсетіңіз: Бұл сілтемені басу мынаны көрсететін жаңа экранды ашуы мүмкін:

Сыртқы температура, ылғалдылық және қалаған жайлылық деңгейіне арналған интерактивті сырғытпалар, олар ұсынылған температураны қалай реттейтінін көрсетеді. Әртүрлі температурадағы энергияны тұтынудың визуализациясы. «Тәулік уақыты», «Ағымдағы сыртқы температура», «Тарихи қуат тұтыну» және «Тұтыну сенсорлары» сияқты ықпал ететін факторлардың тізімі.

Бірнеше XAI әдістерін біріктіру тиімді және прогрессивті ашуды жақтайтын Goldilocks Түсіндіру аймағының үлгісі мұны жанама түрде ынталандырады. Сіз бірден түсіну үшін қарапайым «Себебі» мәлімдемесінен (1-үлгі) бастай аласыз, содан кейін тереңірек зерттеу үшін «Не болса-егер» интерактивті (2-үлгі) немесе «Итеру және тарту визуалды» (4-үлгі) ашатын «Көбірек білу» сілтемесін ұсынуға болады. Мысалы, несиеге өтінім беру жүйесі бастапқыда бас тартудың негізгі себебін (мүмкіндіктің маңыздылығын) көрсете алады, содан кейін пайдаланушыға кірісі немесе қарызындағы өзгерістер нәтижені қалай өзгертетінін (қарсы фактілер) көру үшін «Не болса-егер» құралымен өзара әрекеттесуге мүмкіндік береді және ақырында, егжей-тегжейлі «Итермелеу және тарту» диаграммасын (құнға негізделген барлық теріс үлестерді түсіндіру және оң үлестерді көрсету) қамтамасыз етеді. Бұл деңгейлі тәсіл пайдаланушыларға қажетті мәліметтер деңгейіне қажет кезде қол жеткізуге мүмкіндік береді, сонымен бірге жан-жақты мөлдірлікті қамтамасыз ете отырып, когнитивтік шамадан тыс жүктемені болдырмайды. Қандай XAI құралдары мен әдістерін қолдану керектігін анықтау, ең алдымен, UX мұқият зерттеуінің функциясы болып табылады. Психикалық модель сұхбаттары және AI саяхат картасы пайдаланушының қажеттіліктерін және AI түсінуі мен сеніміне қатысты ауырсыну нүктелерін анықтау үшін өте маңызды. Психикалық үлгі сұхбаттары іргелі түсініктемелер (мысалы, мүмкіндік маңыздылығы немесе жергілікті түсініктемелер) қажет аймақтарды көрсете отырып, AI қалай жұмыс істейтіні туралы пайдаланушының қате түсініктерін ашуға көмектеседі. Екінші жағынан, AI саяхат картасы пайдаланушының AI-мен өзара әрекеттесуіндегі шатасудың немесе сенімсіздіктің маңызды сәттерін анықтайды, бұл сенімділікті қалпына келтіру және агенттік қамтамасыз ету үшін неғұрлым егжей-тегжейлі немесе интерактивті түсініктемелердің (қарсы фактілер немесе құндылыққа негізделген түсіндірмелер сияқты) ең тиімді болатынын көрсетеді.

Сайып келгенде, әдісті таңдаудың ең жақсы жолы - пайдаланушы зерттеулеріне шешімдеріңізді бағыттауға мүмкіндік беру, сіз жасаған түсініктемелер тек техникалық мәліметтерді ұсынбай, пайдаланушының нақты сұрақтары мен мәселелеріне тікелей жауап беретініне көз жеткізу. Терең ойлау агенттеріне арналған XAI Терең ойлау агенттері ретінде белгілі кейбір жаңа AI жүйелері әрбір күрделі тапсырма үшін нақты «ой тізбегін» жасайды. Олар тек дереккөздерге сілтеме жасамайды; олар қорытындыға келу үшін қисынды, қадамдық жолды көрсетеді. Бұл мөлдірлік құнды мәтінмәнді қамтамасыз еткенімен, бірнеше абзацтарды қамтитын ойнатуды жай ғана тапсырманы орындауға тырысқан пайдаланушыға ауыр сезінуі мүмкін. XAI принциптері, әсіресе Goldilocks түсіндіру аймағы, осы жерде тікелей қолданылады. Біз тек соңғы қорытындыны және ойлау үдерісіндегі ең маңызды қадамды көрсету үшін прогрессивті ашуды пайдалана отырып, саяхатты реттей аламыз. Содан кейін пайдаланушылар логиканы екі рет тексеру немесе нақты фактіні табу қажет болғанда толық, егжей-тегжейлі, көп сатылы дәлелдерді көруді таңдай алады. Бұл тәсіл агенттің толық мөлдірлігін сақтай отырып, пайдаланушының назарын құрметтейді. Келесі қадамдар: XAI саяхатыңызды кеңейту Түсіндіру сенімді және тиімді AI өнімдерін құрудың негізгі тірегі болып табылады. Өз ұйымындағы осы өзгерісті жүргізуге ұмтылатын озық тәжірибеші үшін саяхат дизайн үлгілерінен тыс насихат пен үздіксіз оқуға дейін созылады. Түсіну мен практикалық қолдануды тереңдету үшін IBM Research ұсынған AI Explainability 360 (AIX360) құралдар жинағы немесе үлгі мінез-құлқы мен түсіндірмелерін зерттеудің интерактивті жолдарын ұсынатын Google What-If құралы сияқты ресурстарды зерттеңіз. Жауапты AI форумы сияқты қауымдастықтармен немесе адамға бағытталған жасанды интеллектке бағытталған арнайы зерттеу топтарымен жұмыс істеу баға жетпес түсініктер мен ынтымақтастық мүмкіндіктерін бере алады. Соңында, өзіңіздің ұйымыңызда XAI үшін адвокат болыңыз.Стратегиялық инвестиция ретінде кадрдың түсіндірмесі. Көшбасшылыққа немесе функционалдық топтарға қысқаша ұсынысты қарастырыңыз: "XAI-ға инвестиция салу арқылы біз сенім артумен шектелеміз; біз пайдаланушыларды қабылдауды жеделдетеміз, пайдаланушыларға түсінік беру арқылы қолдау шығындарын азайтамыз және ықтимал теріс көзқарастарды әшкерелеу арқылы маңызды этикалық және реттеуші тәуекелдерді азайтамыз. Бұл жақсы дизайн және ақылды бизнес."

Практикалық түсінуге негізделген сіздің дауысыңыз AI-ны қара жәшіктен шығару және пайдаланушылармен бірлескен серіктестік орнату үшін өте маңызды.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free