Իմ վերջին հոդվածում մենք հիմնավոր ճշմարտություն հաստատեցինք. որպեսզի օգտվողները որդեգրեն և ապավինեն AI-ին, նրանք պետք է վստահեն դրան: Մենք խոսեցինք այն մասին, որ վստահությունը բազմակողմանի կառուցվածք է, որը հիմնված է AI-ի կարողության, բարեգործության, ամբողջականության և կանխատեսելիության ընկալումների վրա: Բայց ի՞նչ է տեղի ունենում, երբ AI-ն իր լուռ, ալգորիթմական իմաստությամբ որոշում է կայացնում, որը օգտատիրոջը թողնում է շփոթված, հիասթափված կամ նույնիսկ վիրավորված: Հիփոթեքի հայտը մերժվում է, սիրելի երգը հանկարծ բացակայում է երգացանկից, և որակավորված ռեզյումեն մերժվում է, նախքան մարդը երբևէ այն չի տեսնում: Այս պահերին կարողությունն ու կանխատեսելիությունը կոտրվում են, և բարեգործությունը մի աշխարհ է զգում: Մեր խոսակցությունն այժմ պետք է զարգանա վստահության ինչուից մինչև թափանցիկության ինչպես: Բացատրելի AI-ի (XAI) ոլորտը, որը կենտրոնանում է AI-ի արդյունքները մարդկանց համար հասկանալի դարձնելու մեթոդների մշակման վրա, առաջացել է այս խնդիրը լուծելու համար, բայց դա հաճախ ընդգրկվում է որպես զուտ տեխնիկական մարտահրավեր տվյալների գիտնականների համար: Ես պնդում եմ, որ դա դիզայնի կարևոր մարտահրավեր է AI-ի վրա հիմնված ապրանքների համար: Որպես UX մասնագետների մեր գործն է կամրջել ալգորիթմական որոշումների կայացման և մարդկային ըմբռնման միջև առկա բացը: Այս հոդվածը տալիս է գործնական, գործող ուղեցույց, թե ինչպես ուսումնասիրել և նախագծել բացատրելիության համար: Մենք դուրս կգանք հիմնական բառերից և կմեկնարկենք մոդելներ՝ XAI-ի բարդ հասկացությունները վերածելով կոնկրետ դիզայնի նախշերի, որոնք կարող եք սկսել օգտագործել այսօր: Առեղծվածային XAI. Հիմնական հասկացություններ UX պրակտիկանտների համար XAI-ն պատասխանում է օգտատիրոջ հարցին՝ «Ինչո՞ւ»: Ինչո՞ւ է ինձ ցուցադրվել այս գովազդը: Ինչու՞ է այս ֆիլմն ինձ խորհուրդ տրվում: Ինչո՞ւ մերժվեց իմ խնդրանքը։ Մտածեք, որ AI-ն ցույց է տալիս իր աշխատանքը մաթեմատիկական խնդրի վրա: Առանց դրա, դուք պարզապես ունեք պատասխան, և դուք ստիպված եք այն ընդունել հավատքով: Քայլերը ցույց տալով՝ դուք զարգացնում եք ըմբռնում և վստահություն: Դուք նաև թույլ եք տալիս, որ ձեր աշխատանքը կրկնակի ստուգվի և հաստատվի հենց այն մարդկանց կողմից, որոնց վրա այն ազդում է: Առանձնահատկությունների կարևորությունը և հակափաստարկները Կան մի շարք տեխնիկա, որոնք մենք կարող ենք օգտագործել՝ պարզաբանելու կամ բացատրելու համար, թե ինչ է կատարվում AI-ի հետ: Թեև մեթոդները տատանվում են՝ սկսած որոշումների ծառի ողջ տրամաբանությունից մինչև արդյունքի բնական լեզվով ամփոփումներ ստեղծելը, UX-ի պրակտիկանտների կողմից օգտագործվող տեղեկատվության ամենապրակտիկ և ազդեցիկ տեսակներից երկուսն են՝ կարևորությունը (Նկար 1) և հակափաստարկները: Սրանք հաճախ օգտատերերի համար ամենադյուրին հասկանալիներն են, իսկ դիզայներների համար ամենաակտիվը կիրառելու համար:

Հատկանիշի կարևորությունը Բացատրելիության այս մեթոդը պատասխանում է. «Որո՞նք էին ամենակարևոր գործոնները, որոնք AI-ն դիտարկեց»: Խոսքը վերաբերում է լավագույն 2-3 փոփոխականների բացահայտմանը, որոնք ամենամեծ ազդեցությունն են ունեցել արդյունքի վրա: Դա վերնագիրն է, ոչ թե ամբողջ պատմությունը: Օրինակ. Պատկերացրեք մի AI, որը կանխատեսում է, թե արդյոք հաճախորդը կհեռանա (չեղարկի իր ծառայությունը): Առանձնահատկությունների կարևորությունը կարող է ցույց տալ, որ «վերջին ամսվա աջակցության զանգերի թիվը» և «գների վերջին բարձրացումները» երկու ամենակարևոր գործոններն էին, որոնք կարող էին որոշել, թե արդյոք հաճախորդը հավանական է, որ խուսափի:

Հակապատկերներ Այս հզոր մեթոդը պատասխանում է՝ «Ի՞նչ պետք է փոխեմ՝ այլ արդյունք ստանալու համար»: Սա շատ կարևոր է, քանի որ այն օգտվողներին տալիս է գործակալության զգացում: Այն հիասթափեցնող «ոչ»-ը վերածում է գործող «դեռ ոչ»-ի: Օրինակ. Պատկերացրեք վարկի հայտի համակարգ, որն օգտագործում է AI: Օգտագործողին մերժում են վարկ տրամադրել: Պարզապես «Դիմումը մերժված է» տեսնելու փոխարեն, հակափաստարկ բացատրությունը նույնպես կհամօգտագործի. «Եթե ձեր վարկային միավորը 50 միավորով ավելի բարձր լիներ, կամ եթե ձեր պարտք-եկամուտ հարաբերակցությունը 10 տոկոսով ցածր լիներ, ձեր վարկը կհաստատվեր»: Սա Սառային տալիս է հստակ, գործող քայլեր, որոնք նա կարող է ձեռնարկել ապագայում վարկ ստանալու համար:

Մոդելի տվյալների օգտագործումը բացատրությունը բարելավելու համար Թեև տեխնիկական առանձնահատկությունները հաճախ մշակվում են տվյալների գիտնականների կողմից, UX-ի մասնագետներին օգտակար է իմանալ, որ այնպիսի գործիքներ, ինչպիսիք են LIME-ը (Local Interpretable Model-agnostic Explanations), որը բացատրում է անհատական կանխատեսումները՝ մոտավորելով մոդելը տեղական մակարդակում, և SHAP-ը (SHapley Additive exPlanations), որն օգտագործում է խաղի տեսության մոտեցում՝ մեքենայական ուսուցման ցանկացած արդյունք բացատրելու համար: բարդ մոդելներ. Այս գրադարանները, ըստ էության, օգնում են կոտրել AI-ի որոշումը՝ ցույց տալու, թե որ մուտքերն են առավել ազդեցիկ տվյալ արդյունքի համար: Երբ ճիշտ արվի, AI գործիքի որոշման հիմքում ընկած տվյալները կարող են օգտագործվել հզոր պատմություն պատմելու համար: Եկեք շրջենք հատկանիշի կարևորության և հակափաստարկների միջով և ցույց տանք, թե ինչպես կարելի է օգտագործել որոշման հետևում ընկած տվյալների գիտությունը՝ օգտատիրոջ փորձը բարելավելու համար: Հիմա եկեքծածկել հատկանիշի կարևորությունը Տեղական բացատրությունների (օրինակ՝ LIME) տվյալների օգնությամբ: Այս մոտեցումը պատասխանում է. Համընդհանուր բացատրության փոխարեն, թե ինչպես է աշխատում մոդելը, այն տալիս է կենտրոնացված պատճառ մեկ, կոնկրետ օրինակի համար: Դա անձնական է և համատեքստային: Օրինակ. Պատկերացրեք AI-ով աշխատող երաժշտական ​​առաջարկների համակարգ, ինչպիսին է Spotify-ը: Տեղական բացատրությունը կպատասխաներ. «Ինչո՞ւ է համակարգը հենց հիմա ձեզ խորհուրդ տվել Ադելի այս կոնկրետ երգը»: Բացատրությունը կարող է լինել. «Որովհետև դուք վերջերս լսել եք մի քանի այլ զգացմունքային բալլադներ և կին վոկալիստների երգեր»:

Վերջապես, եկեք անդրադառնանք արժեքի վրա հիմնված բացատրությունների (օրինակ՝ Shapley Additive Explanations (SHAP) տվյալները որոշման բացատրությանը. Սա հատկանիշի կարևորության ավելի նրբերանգ տարբերակ է, որը պատասխանում է. «Ինչպե՞ս է յուրաքանչյուր գործոն այս կամ այն կողմ մղել որոշումը»: Օրինակ. Պատկերացրեք, որ բանկը օգտագործում է AI մոդելը, որպեսզի որոշի, թե արդյոք պետք է հաստատի վարկի հայտը:

Հատկանիշի կարևորությունը. Մոդելի արդյունքը կարող է ցույց տալ, որ հայտատուի վարկային միավորը, եկամուտը և պարտք-եկամուտ հարաբերակցությունը եղել են նրա որոշման ամենակարևոր գործոնները: Սա պատասխանում է այն, ինչ կարևոր էր: Առանձնահատկությունների կարևորությունը արժեքի վրա հիմնված բացատրություններով (SHAP). SHAP արժեքները ավելի կարևոր նշանակություն կունենան մոդելի տարրերի հիման վրա:

Հաստատված վարկի համար SHAP-ը կարող է ցույց տալ, որ բարձր վարկային միավորը զգալիորեն մղել է որոշումը դեպի հաստատում (դրական ազդեցություն), մինչդեռ պարտք-եկամտի միջինից մի փոքր ավելի բարձր հարաբերակցությունը փոքր-ինչ հեռացրել է այն (բացասական ազդեցություն), բայց բավարար չէ վարկը մերժելու համար: Մերժված վարկի դեպքում SHAP-ը կարող է բացահայտել, որ ցածր եկամուտը և վերջին վարկային հարցումների մեծ թիվը վճռականորեն մղել են մերժման որոշումը, նույնիսկ եթե վարկային միավորը պատշաճ էր:

Սա օգնում է վարկի պատասխանատուին բացատրել դիմողին, քան դիտարկվել է, թե ինչպես է յուրաքանչյուր գործոն նպաստել վերջնական «այո» կամ «ոչ» որոշմանը: Շատ կարևոր է գիտակցել, որ լավ բացատրություններ տալու կարողությունը հաճախ սկսվում է զարգացման ցիկլի շատ ավելի վաղ: Տվյալների գիտնականները և ինժեներները առանցքային դեր են խաղում՝ միտումնավոր ձևավորելով մոդելները և տվյալների խողովակաշարերը այնպես, որ ի սկզբանե աջակցում են բացատրելիությանը, այլ ոչ թե փորձում են դրանք պտտել որպես հետևողական միտք: Հետազոտական և դիզայներական թիմերը կարող են նպաստել դրան՝ սկսելով վաղ զրույցներ տվյալների գիտնականների և ինժեներների հետ՝ օգտատերերի ըմբռնման կարիքների մասին, նպաստելով բացատրելիության չափանիշների մշակմանը և համատեղ նախատիպային բացատրությունների՝ ապահովելու համար, որ դրանք ճշգրիտ են և հարմար: XAI և էթիկական AI. կողմնակալության և պատասխանատվության վերացում Վստահության ձևավորումից բացի, XAI-ն կարևոր դեր է խաղում AI*-ի էթիկական խորը հետևանքների լուծման գործում, հատկապես ալգորիթմական կողմնակալության վերաբերյալ: Բացատրելիության մեթոդները, ինչպիսիք են SHAP արժեքների վերլուծությունը, կարող են բացահայտել, թե արդյոք մոդելի որոշումների վրա անհամաչափ ազդեցություն են ունենում այնպիսի զգայուն հատկանիշներ, ինչպիսիք են ռասան, սեռը կամ սոցիալ-տնտեսական կարգավիճակը, նույնիսկ եթե այդ գործոնները բացահայտորեն չեն օգտագործվել որպես ուղղակի մուտքեր: Օրինակ, եթե վարկի հաստատման մոդելը հետևողականորեն բացասական SHAP արժեքներ է շնորհում որոշակի ժողովրդագրության հայտատուներին, դա ազդարարում է պոտենցիալ կողմնակալության մասին, որը հետաքննության կարիք ունի՝ հնարավորություն տալով թիմերին բացահայտել և մեղմել նման անարդար արդյունքները: XAI-ի հզորությունը գալիս է նաև «բացատրելի լվացման» ներուժով: Ճիշտ այնպես, ինչպես «կանաչ լվացումը» մոլորեցնում է սպառողներին բնապահպանական պրակտիկաների վերաբերյալ, բացատրելի լվացումը կարող է տեղի ունենալ, երբ բացատրությունները նախատեսված են խնդրահարույց ալգորիթմական վարքագիծը կամ բնածին կողմնակալությունը թաքցնելու, այլ ոչ թե լուսաբանելու համար: Սա կարող է դրսևորվել որպես չափազանց պարզեցված բացատրություններ, որոնք բաց թողնում են կրիտիկական ազդող գործոնները, կամ բացատրություններ, որոնք ռազմավարականորեն ձևավորում են արդյունքները ավելի չեզոք կամ արդար երևալու համար, քան իրականում կան: Այն ընդգծում է UX պրակտիկանտների էթիկական պատասխանատվությունը՝ նախագծելու բացատրություններ, որոնք իսկապես թափանցիկ են և ստուգելի: UX-ի մասնագետները, տվյալների գիտնականների և էթիկայի մասնագետների հետ համագործակցելով, կարևոր պատասխանատվություն են կրում որոշման պատճառները, ինչպես նաև հիմքում ընկած AI մոդելի սահմանափակումներն ու հնարավոր կողմնակալությունները: Սա ներառում է AI-ի ճշգրտության վերաբերյալ օգտատերերի իրատեսական ակնկալիքների սահմանում, պարզում, թե մոդելը կարող է ավելի քիչ վստահելի լինել, և պարզ ուղիներ տրամադրել՝ դիմելու կամ հետադարձ կապի համար, երբ օգտվողներն անարդար կամ սխալ արդյունքներ են ընկալում: Դրանց ակտիվորեն անդրադառնալովէթիկական չափերը մեզ թույլ կտան կառուցել AI համակարգեր, որոնք իսկապես արդար և վստահելի են: Մեթոդներից մինչև մոդելներ. XAI դիզայնի գործնական ձևեր Հասկացությունների իմացությունը մեկ բան է. դրանց նախագծումը մեկ այլ բան է: Ահա թե ինչպես մենք կարող ենք այս XAI մեթոդները թարգմանել ինտուիտիվ դիզայնի օրինաչափությունների: Օրինակ 1. «Որովհետև» հայտարարություն (հատկանիշի կարևորության համար) Սա ամենապարզ և հաճախ ամենաարդյունավետ օրինակն է: Դա ուղղակի, պարզ լեզվով հայտարարություն է, որը բացահայտում է AI-ի գործողության հիմնական պատճառը:

Էվրիստիկա. Եղեք ուղիղ և հակիրճ: Առաջնորդեք միակ ամենաազդեցիկ պատճառով: Ամեն գնով խուսափեք ժարգոնից:

Օրինակ. Պատկերացրեք երաժշտության հոսքային ծառայություն: Պարզապես «Discover Weekly» երգացանկը ներկայացնելու փոխարեն, դուք ավելացնում եք միկրոպատճենման փոքր տող: Երգի առաջարկություն՝ «Velvet Morning» Քանի որ դուք լսում եք «The Fuzz» և այլ փսիխոդելիկ ռոք:

Կաղապար 2. «Ի՞նչ-եթե» ինտերակտիվ (հակառակ փաստարկների համար) Հակառակները ներածականորեն վերաբերում են հզորացմանը: Դրանք ներկայացնելու լավագույն միջոցը օգտատերերին ինտերակտիվ գործիքներ տալն է՝ հնարավորություններն իրենք ուսումնասիրելու համար: Սա կատարյալ է ֆինանսական, առողջապահական կամ այլ նպատակաուղղված ծրագրերի համար:

Էվրիստիկա. Բացատրությունները դարձրեք ինտերակտիվ և հզորացնող: Թույլ տվեք օգտվողներին տեսնել իրենց ընտրության պատճառն ու հետևանքը:

Օրինակ՝ Վարկի հայտի միջերես: Մերժումից հետո, փակուղու փոխարեն, օգտատերը ստանում է գործիք՝ որոշելու, թե ինչպես կարող են տարբեր սցենարներ (ինչ-եթե) տեղի ունենալ (տե՛ս Նկար 1):

Կաղապար 3. Կարևորող օղակ (տեղական բացատրությունների համար) Երբ AI-ն ինչ-որ գործողություն է կատարում օգտատիրոջ բովանդակության վրա (օրինակ՝ փաստաթուղթ ամփոփելը կամ լուսանկարներում դեմքերի նույնականացումը), բացատրությունը պետք է տեսողականորեն կապված լինի աղբյուրի հետ:

Էվրիստիկա. Օգտագործեք տեսողական ազդանշաններ, ինչպիսիք են ընդգծումը, ուրվագծերը կամ ծանոթագրությունները՝ բացատրությունը ուղղակիորեն միացնելու այն ինտերֆեյսի տարրին, որը բացատրում է:

Օրինակ. AI գործիք, որն ամփոփում է երկար հոդվածները: AI-ի կողմից ստեղծված ամփոփ կետ: Նախնական հետազոտությունը ցույց տվեց շուկայի բացը կայուն արտադրանքի համար: Փաստաթղթի աղբյուրը.

Կաղապար 4. «Հրում և ձգում» տեսողական (արժեքի վրա հիմնված բացատրությունների համար) Ավելի բարդ որոշումներ կայացնելու համար օգտատերերը գուցե պետք է հասկանան գործոնների փոխազդեցությունը: Տվյալների պարզ վիզուալիզացիաները կարող են դա պարզ դարձնել առանց ճնշող լինելու:

Էվրիստիկա. Օգտագործեք պարզ, գունային կոդավորված տվյալների վիզուալիզացիաներ (օրինակ՝ գծապատկերներ)՝ ցույց տալու որոշման վրա դրական և բացասաբար ազդող գործոնները:

Օրինակ. AI-ն ստուգում է թեկնածուի պրոֆիլը աշխատանքի համար: Ինչու է այս թեկնածուն 75% համընկնում: Գործոններ, որոնք բարձրացնում են գնահատականը. 5+ տարի UX հետազոտական փորձ Հմուտ Python-ում Գործոններ, որոնք նվազեցնում են գնահատականը. B2B SaaS-ի հետ փորձ չկա

Այս դիզայնի օրինաչափությունները սովորելը և օգտագործելը ձեր AI արտադրանքի UX-ում կօգնի բարձրացնել բացատրելիությունը: Կարող եք նաև օգտագործել լրացուցիչ տեխնիկա, որոնք ես այստեղ խորությամբ չեմ անդրադառնում: Սա ներառում է հետևյալը.

Բնական լեզվի բացատրություններ. AI-ի տեխնիկական արդյունքը թարգմանել պարզ, խոսակցական մարդկային լեզվի, որը ոչ մասնագետները կարող են հեշտությամբ հասկանալ: Համատեքստային բացատրություններ. Տրամադրելով AI-ի արդյունքի հիմնավորումը կոնկրետ պահին և գտնվելու վայրում, այն առավել համապատասխան է օգտատիրոջ առաջադրանքին: Համապատասխան վիզուալիզացիաներ. օգտագործելով գծապատկերներ, գծապատկերներ կամ ջերմային քարտեզներ՝ AI-ի որոշումների կայացման գործընթացը տեսողականորեն ներկայացնելու համար՝ բարդ տվյալները դարձնելով ինտուիտիվ և հեշտացնելով օգտատերերի համար:

Ծանոթագրություն առջևի մասի համար. բացատրելիության այս արդյունքները օգտագործողի անխափան փորձառությունների վերածելը նաև ներկայացնում է իր սեփական տեխնիկական նկատառումները: Front-end ծրագրավորողները հաճախ բախվում են API-ի նախագծման հետ՝ արդյունավետ կերպով գտնելու բացատրական տվյալները, և կատարողականի հետևանքները (ինչպես յուրաքանչյուր օգտվողի փոխազդեցության համար իրական ժամանակում բացատրությունների ստեղծումը) պետք է մանրակրկիտ պլանավորում՝ ուշացումից խուսափելու համար: Որոշ իրական աշխարհի օրինակներ UPS Capital's DeliveryDefense UPS-ն օգտագործում է արհեստական ինտելեկտը՝ հասցեներին «առաքման վստահության միավոր» նշանակելու՝ փաթեթի գողանալու հավանականությունը կանխատեսելու համար: Նրանց DeliveryDefense ծրագրաշարը վերլուծում է պատմական տվյալները գտնվելու վայրի, կորստի հաճախականության և այլ գործոնների վերաբերյալ: Եթե ​​հասցեն ցածր գնահատական ​​ունի, ապա համակարգը կարող է ակտիվորեն վերահասցեավորել փաթեթը դեպի անվտանգ UPS մուտքի կետ՝ բացատրություն տալով որոշման համար (օրինակ՝ «Փաթեթը վերահասցեավորվել է դեպի անվտանգ վայր՝ գողության պատմության պատճառով»): Այս համակարգը ցույց է տալիս, թե ինչպես կարող է XAI-ն օգտագործվել ռիսկերի նվազեցման և հաճախորդների վստահության ձևավորման համարթափանցիկություն։ Ինքնավար Տրանսպորտ Ապագայի այս մեքենաները պետք է արդյունավետ օգտագործեն XAI-ն՝ օգնելու իրենց մեքենաներին անվտանգ, բացատրելի որոշումներ կայացնել: Երբ ինքնակառավարվող մեքենան հանկարծակի արգելակում է, համակարգը կարող է իրական ժամանակում բացատրություն տալ իր գործողությունների համար, օրինակ՝ նույնականացնելով հետիոտնին, ով քայլում է ճանապարհը: Սա ոչ միայն կարևոր է ուղևորների հարմարավետության և վստահության համար, այլև կանոնակարգային պահանջ է՝ ապացուցելու AI համակարգի անվտանգությունն ու հաշվետվողականությունը: IBM Watson Health (և դրա մարտահրավերները) Թեև հաճախ նշվում է որպես AI-ի ընդհանուր օրինակ առողջապահության ոլորտում, այն նաև արժեքավոր դեպքի ուսումնասիրություն է XAI-ի կարևորության համար: Ուռուցքաբանության համար իր Watson նախագծի ձախողումը ընդգծում է, թե ինչ կարող է սխալ լինել, երբ պարզաբանումները պարզ չեն, կամ երբ հիմքում ընկած տվյալները կողմնակալ են կամ տեղայնացված չեն: Համակարգի առաջարկությունները երբեմն անհամատեղելի էին տեղական կլինիկական պրակտիկայի հետ, քանի որ դրանք հիմնված էին ԱՄՆ-կենտրոն ուղեցույցների վրա: Սա ծառայում է որպես նախազգուշական պատմություն ամուր, համատեքստից տեղյակ բացատրելիության անհրաժեշտության մասին: UX հետազոտողի դերը՝ պարզաբանումներ և վավերացումներ Մեր դիզայներական լուծումներն արդյունավետ են միայն այն դեպքում, եթե դրանք ճիշտ ժամանակին ուղղում են օգտվողների ճիշտ հարցերը: Բացատրությունը, որը պատասխանում է այն հարցին, որը օգտատերը չունի, պարզապես աղմուկ է: Սա այն վայրն է, որտեղ UX-ի հետազոտությունը դառնում է XAI ռազմավարության կարևոր կապի հյուսվածք՝ ապահովելով, որ մենք բացատրում ենք, թե ինչ և ինչպես է դա իրականում կարևոր մեր օգտատերերի համար: Հետազոտողի դերը երկակի է. նախ՝ տեղեկացնել ռազմավարությանը, բացահայտելով, թե որտեղ են անհրաժեշտ բացատրությունները, և երկրորդ՝ հաստատել այն նախագծերը, որոնք տալիս են այդ բացատրությունները: XAI ռազմավարության տեղեկացում (Ինչ բացատրել) Նախքան մեկ բացատրություն մշակելը, մենք պետք է հասկանանք AI համակարգի օգտատիրոջ մտավոր մոդելը: Ի՞նչ են նրանք հավատում, որ դա անում է: Որտե՞ղ են բացերը նրանց ըմբռնման և համակարգի իրականության միջև: Սա UX հետազոտողի հիմնարար աշխատանքն է: Մտավոր մոդելի հարցազրույցներ. AI համակարգերի օգտատերերի ընկալումների բացում Խորը, կիսակառույց հարցազրույցների միջոցով UX պրակտիկանտները կարող են անգնահատելի պատկերացումներ ստանալ այն մասին, թե ինչպես են օգտվողներն ընկալում և հասկանում AI համակարգերը: Այս նիստերը նախատեսված են խրախուսելու օգտատերերին բառացիորեն նկարել կամ նկարագրել իրենց ներքին «մտավոր մոդելը», թե ինչպես են նրանք հավատում, որ AI-ն աշխատում է: Սա հաճախ ներառում է բաց հարցեր տալը, որոնք օգտատերերին հուշում են բացատրել համակարգի տրամաբանությունը, դրա մուտքերն ու ելքերը, ինչպես նաև այդ տարրերի միջև փոխհարաբերությունները: Այս հարցազրույցները հզոր են, քանի որ դրանք հաճախ բացահայտում են խորը սխալ պատկերացումներ և ենթադրություններ, որոնք օգտատերերն ունեն արհեստական ​​ինտելեկտի մասին: Օրինակ, առաջարկությունների շարժիչի հետ շփվող օգտատերը կարող է վստահորեն պնդել, որ համակարգը հիմնված է բացառապես իր անցյալի դիտումների պատմության վրա: Նրանք կարող են չհասկանալ, որ ալգորիթմը ներառում է նաև մի շարք այլ գործոններ, ինչպիսիք են՝ օրվա ժամը, երբ նրանք դիտում են, ընթացիկ թրենդային իրերը հարթակում կամ նույնիսկ նմանատիպ օգտատերերի դիտման սովորությունները: Օգտագործողի մտավոր մոդելի և իրական հիմքում ընկած AI տրամաբանության միջև այս բացը բացահայտելը չափազանց կարևոր է: Այն մեզ հստակ ասում է, թե կոնկրետ ինչ տեղեկատվություն պետք է փոխանցենք օգտատերերին՝ օգնելու նրանց կառուցել համակարգի ավելի ճշգրիտ և ամուր մտավոր մոդել: Սա իր հերթին հիմնարար քայլ է վստահության ամրապնդման համար: Երբ օգտատերերը հասկանում են, թեկուզ բարձր մակարդակով, թե ինչպես է AI-ն հասնում իր եզրակացություններին կամ առաջարկություններին, նրանք ավելի հավանական է, որ վստահեն դրա արդյունքներին և ապավինեն դրա ֆունկցիոնալությանը: AI Ճանապարհորդության քարտեզագրում. խորը սուզում դեպի օգտվողների վստահությունը և բացատրելիությունը Օգտատիրոջ ճանապարհորդությունը մանրակրկիտ քարտեզագրելով AI-ի վրա աշխատող գործառույթով, մենք անգնահատելի պատկերացումներ ենք ձեռք բերում այն ճշգրիտ պահերի վերաբերյալ, որտեղ առաջանում են շփոթություն, հիասթափություն կամ նույնիսկ խորը անվստահություն: Սա բացահայտում է կրիտիկական հանգույցներ, որտեղ օգտագործողի մտավոր մոդելը, թե ինչպես է AI-ն աշխատում, բախվում է նրա իրական վարքագծին: Մտածեք երաժշտության հոսքային ծառայության մասին. օգտատերերի վստահությունն իջնո՞ւմ է, երբ երգացանկի առաջարկը «պատահական» է թվում՝ որևէ նկատելի կապ չունենալով իրենց նախկին լսողական սովորությունների կամ հայտարարված նախասիրությունների հետ: Այս ընկալվող պատահականությունը ուղղակի մարտահրավեր է օգտատերերի խելամիտ խնամքի ակնկալիքներին և խախտում է այն անուղղակի խոստումը, որ AI-ն հասկանում է իրենց ճաշակը: Նմանապես, լուսանկարների կառավարման հավելվածում օգտատերերը զգալի հիասթափություն են ապրում, երբ AI-ի լուսանկարների հատկորոշման գործառույթը հետևողականորեն սխալ է ճանաչում ընտանիքի սիրելի անդամին: Այս սխալն ավելին է, քան տեխնիկական անսարքություն. այն հարվածում է ճշգրտության, անհատականացման և նույնիսկ սրտումզգացմունքային կապ. Ցավի այս կետերը վառ ազդանշաններ են, որոնք հստակ ցույց են տալիս, թե որտեղ է անհրաժեշտ լավ տեղադրված, հստակ և հակիրճ բացատրությունը: Նման բացատրությունները ծառայում են որպես վերանորոգման կարևոր մեխանիզմներ՝ շտկելով վստահության խախտումը, որը, եթե չհասցվի, կարող է հանգեցնել օգտատերերի լքման: AI-ի ճանապարհորդության քարտեզագրման ուժը կայանում է նրանում, որ նա կարող է մեզ տեղափոխել AI համակարգի վերջնական արդյունքը պարզաբանելուց այն կողմ: Թեև կարևոր է հասկանալ, թե ինչ է արտադրել AI-ն, այն հաճախ անբավարար է: Փոխարենը, այս գործընթացը ստիպում է մեզ կենտրոնանալ ճգնաժամային պահերին գործընթացը բացատրելու վրա: Սա նշանակում է անդրադառնալ.

Ինչու՞ է ստեղծվել որոշակի ելք. Արդյո՞ք դա պայմանավորված է կոնկրետ մուտքային տվյալների հետ: Կոնկրետ մոդելային ճարտարապետություն: Ո՞ր գործոններն են ազդել AI-ի որոշման վրա. Արդյո՞ք որոշ առանձնահատկություններ ավելի ծանրակշիռ են եղել: Ինչպե՞ս է AI-ն հանգել իր եզրակացությանը. Կարո՞ղ ենք պարզեցված, անալոգային բացատրություն առաջարկել դրա ներքին աշխատանքի վերաբերյալ: Ի՞նչ ենթադրություններ է արել արհեստական ​​ինտելեկտը. Կա՞ն արդյոք օգտագործողի մտադրության կամ տվյալների անուղղակի պատկերացումներ, որոնք պետք է բացահայտվեն: Որո՞նք են AI-ի սահմանափակումները. Հստակորեն հաղորդելով, թե ինչ չի կարող անել AI-ն, կամ որտեղ դրա ճշգրտությունը կարող է տատանվել, ստեղծում է իրատեսական ակնկալիքներ:

AI-ի ճամփորդության քարտեզագրումը XAI-ի վերացական հայեցակարգը վերածում է գործնական, գործող շրջանակի UX պրակտիկանտների համար: Այն մեզ հնարավորություն է տալիս դուրս գալ բացատրելիության տեսական քննարկումներից և փոխարենը մատնանշել այն ճշգրիտ պահերը, որտեղ օգտատերերի վստահությունը վտանգված է, տրամադրելով անհրաժեշտ պատկերացումներ՝ հզոր, թափանցիկ, հասկանալի և վստահելի AI փորձառություններ ստեղծելու համար: Ի վերջո, հետազոտությունն այն է, թե ինչպես ենք մենք բացահայտում անհայտները: Ձեր թիմը կարող է քննարկել, թե ինչպես բացատրել, թե ինչու է վարկը մերժվել, բայց հետազոտությունը կարող է ցույց տալ, որ օգտվողները շատ ավելի մտահոգված են հասկանալու, թե ինչպես են իրենց տվյալները սկզբում օգտագործվել: Առանց հետազոտության, մենք պարզապես կռահում ենք, թե ինչ են հետաքրքրում մեր օգտատերերը: Համագործակցություն դիզայնի վրա (Ինչպես բացատրել ձեր AI) Երբ հետազոտությունը պարզում է, թե ինչ պետք է բացատրել, դիզայնի հետ համագործակցությունը սկսվում է: Դիզայներները կարող են նախատիպավորել այն նախշերը, որոնք մենք քննարկել ենք ավելի վաղ՝ «Որովհետև» հայտարարությունը, ինտերակտիվ սլայդերները, և հետազոտողները կարող են այդ ձևավորումները դնել օգտատերերի առջև՝ տեսնելու, թե արդյոք դրանք դիմանում են: Թիրախային օգտագործման և հասկանալու փորձարկում. մենք կարող ենք մշակել հետազոտական ​​ուսումնասիրություններ, որոնք հատուկ փորձարկում են XAI բաղադրիչները: Մենք պարզապես չենք հարցնում. «Հե՞շտ է սա օգտագործել»: Մենք հարցնում ենք. «Սա տեսնելուց հետո, կարո՞ղ եք ձեր բառերով ասել, թե ինչու է համակարգը խորհուրդ տվել այս ապրանքը»: կամ «Ցույց տվեք, թե ինչ կանեիք՝ տեսնելու համար, թե արդյոք կարող եք այլ արդյունք ստանալ»: Այստեղ նպատակն է չափել ըմբռնումը և գործունակությունը՝ կողքին օգտագործելիությունը: Ինքնավստահության չափում. մենք կարող ենք օգտագործել պարզ հարցումներ և գնահատման սանդղակներ՝ բացատրության ցուցադրումից առաջ և հետո: Օրինակ, մենք կարող ենք 5 բալանոց սանդղակով օգտատերից հարցնել. «Որքա՞ն եք վստահում այս առաջարկությանը»: նախքան նրանք կտեսնեն «Որովհետև» հայտարարությունը, իսկ հետո նորից հարցրեք նրանց: Սա քանակական տվյալներ է տրամադրում այն ​​մասին, թե արդյոք մեր բացատրություններն իրականում վստահության ասեղն են տեղափոխում: Այս գործընթացը ստեղծում է հզոր, կրկնվող հանգույց: Հետազոտության արդյունքները նշում են նախնական դիզայնը: Այնուհետև այդ դիզայնը փորձարկվում է, և նոր բացահայտումները վերադարձվում են դիզայներական թիմին՝ կատարելագործման համար: Միգուցե «Որովհետև» հայտարարությունը չափազանց ժարգոն էր, կամ «Ի՞նչ-եթե» սահիչը ավելի շփոթեցնող էր, քան զորացնող: Այս համատեղ վավերացման միջոցով մենք երաշխավորում ենք, որ վերջնական բացատրությունները տեխնիկապես ճշգրիտ են, իսկապես հասկանալի, օգտակար և վստահություն են ստեղծում արտադրանքն օգտագործող մարդկանց համար: The Goldilocks Zone of Explanation Զգուշացման քննադատական խոսք. հնարավոր է չափից դուրս բացատրել: Ինչպես հեքիաթում, որտեղ Goldilocks-ը փնտրում էր «ճիշտ» շիլա, լավ բացատրության նպատակն է ապահովել ճիշտ քանակությամբ մանրամասներ՝ ոչ շատ և ոչ շատ քիչ: Օգտագործողին ռմբակոծելը մոդելի յուրաքանչյուր փոփոխականով կհանգեցնի ճանաչողական գերբեռնվածության և կարող է իրականում նվազեցնել վստահությունը: Նպատակը օգտատիրոջը տվյալների գիտնական դարձնելը չէ: Լուծումներից մեկն առաջադեմ բացահայտումն է:

Սկսեք պարզից: Առաջնորդեք հակիրճ «Որովհետև» հայտարարությամբ: Օգտագործողների մեծամասնության համար դա բավարար կլինի: Առաջարկեք ուղի դեպի մանրամասներ: Տրամադրեք հստակ, ցածր շփման հղում, օրինակ՝ «Իմանալ ավելին» կամ «Տեսեք, թե ինչպես է դա որոշվել»: Բացահայտեք բարդությունը. Այդ հղման հետևում կարող եք առաջարկել ինտերակտիվ սլայդերներ, վիզուալիզացիաներ կամ նպաստող գործոնների ավելի մանրամասն ցուցակ:

Այս շերտավոր մոտեցումը հարգում է օգտատերերի ուշադրությունն ու փորձը, ապահովելով ճիշտ քանակությունըտեղեկատվություն նրանց կարիքների համար: Եկեք պատկերացնենք, որ դուք օգտագործում եք խելացի տան սարք, որը առաջարկում է օպտիմալ ջեռուցում՝ հիմնվելով տարբեր գործոնների վրա: Սկսեք պարզից. «Ձեր տունը ներկայումս ջեռուցվում է մինչև 72 աստիճան, ինչը օպտիմալ ջերմաստիճան է էներգիայի խնայողության և հարմարավետության համար»: Առաջարկեք ուղի դեպի մանրամասներ. դրա տակ մի փոքրիկ հղում կամ կոճակ. «Ինչու է 72 աստիճան օպտիմալ»: Բացահայտեք բարդությունը. սեղմելով այդ հղումը կարող է բացվել նոր էկրան, որը ցույց է տալիս.

Ինտերակտիվ սահիկներ արտաքին ջերմաստիճանի, խոնավության և ձեր նախընտրած հարմարավետության մակարդակի համար, որոնք ցույց են տալիս, թե ինչպես են դրանք կարգավորում առաջարկվող ջերմաստիճանը: Տարբեր ջերմաստիճաններում էներգիայի սպառման պատկերացում: Նպաստող գործոնների ցանկ, ինչպիսիք են «Օրվա ժամանակը», «Ընթացիկ դրսի ջերմաստիճանը», «Պատմական էներգիայի օգտագործումը» և «Զբաղվածության սենսորները»:

Արդյունավետ է համատեղել բազմաթիվ XAI մեթոդներ և այս Goldilocks Zone of Explanation օրինաչափությունը, որը պաշտպանում է առաջադեմ բացահայտումը, անուղղակիորեն խրախուսում է դա: Դուք կարող եք սկսել պարզ «Որովհետև» արտահայտությունից (Նախշ 1) անմիջապես հասկանալու համար, այնուհետև առաջարկեք «Իմացեք ավելին» հղումը, որը բացահայտում է «Ի՞նչ-եթե» ինտերակտիվը (Նախշ 2) կամ «Հրել-քաշեք տեսողական» (Նախշ 4) ավելի խորը ուսումնասիրության համար: Օրինակ, վարկի հայտի համակարգը կարող է սկզբում նշել մերժման հիմնական պատճառը (հատկանիշի կարևորությունը), այնուհետև օգտագործողին թույլ տալ համագործակցել «Ի՞նչ-եթե» գործիքի հետ՝ տեսնելու, թե ինչպես են իրենց եկամտի կամ պարտքի փոփոխությունները կփոխեն արդյունքը (հակապատկերներ), և վերջապես, մանրամասն «Push-and-Pull» գծապատկեր (արժեքի վրա հիմնված դրական բացատրություն)՝ ցույց տալու բոլոր գործոնները և բացասական ներդրումը: Այս շերտավոր մոտեցումը թույլ է տալիս օգտվողներին մուտք գործել իրենց անհրաժեշտ մանրամասների մակարդակը, երբ նրանք դրա կարիքն ունեն՝ կանխելով ճանաչողական ծանրաբեռնվածությունը՝ միաժամանակ ապահովելով համապարփակ թափանցիկություն: Որոշել, թե որ XAI գործիքներն ու մեթոդները պետք է օգտագործվեն, հիմնականում UX-ի մանրակրկիտ հետազոտության գործառույթ է: Մտավոր մոդելային հարցազրույցները և AI-ի ճամփորդության քարտեզագրումը շատ կարևոր են օգտատերերի կարիքները և ցավոտ կետերը պարզելու համար՝ կապված AI-ի ըմբռնման և վստահության հետ: Մտավոր մոդելային հարցազրույցները օգնում են բացահայտել օգտատերերի սխալ պատկերացումները, թե ինչպես է աշխատում AI-ն՝ նշելով այն ոլորտները, որտեղ անհրաժեշտ են հիմնարար բացատրություններ (օրինակ՝ հատկանիշի կարևորությունը կամ տեղական բացատրությունները): Մյուս կողմից, AI-ի ճամփորդության քարտեզագրումը բացահայտում է AI-ի հետ օգտագործողի փոխազդեցության մեջ շփոթության կամ անվստահության կարևոր պահերը՝ ազդարարելով, որտեղ ավելի մանրակրկիտ կամ ինտերակտիվ բացատրությունները (օրինակ՝ հակափաստարկները կամ արժեքի վրա հիմնված բացատրությունները) առավել շահավետ կլինեն վստահությունը վերականգնելու և գործակալություն տրամադրելու համար:

Ի վերջո, տեխնիկան ընտրելու լավագույն միջոցն է թույլ տալ, որ օգտվողների հետազոտությունները առաջնորդեն ձեր որոշումները՝ ապահովելով, որ ձեր նախագծած բացատրությունները ուղղակիորեն անդրադառնում են օգտվողի իրական հարցերին և մտահոգություններին, այլ ոչ թե պարզապես տեխնիկական մանրամասներ առաջարկելու իրենց համար: XAI խորը պատճառաբանող գործակալների համար Արհեստական ինտելեկտի նորագույն համակարգերից մի քանիսը, որոնք հայտնի են որպես խորը տրամաբանող գործակալներ, ստեղծում են բացահայտ «մտքի շղթա» յուրաքանչյուր բարդ առաջադրանքի համար: Նրանք պարզապես չեն մեջբերում աղբյուրները. դրանք ցույց են տալիս այն տրամաբանական, քայլ առ քայլ ճանապարհը, որը նրանք անցել են եզրակացության գալու համար։ Թեև այս թափանցիկությունը արժեքավոր համատեքստ է տալիս, մի ​​քանի պարբերություններ ընդգրկող խաղ-առախաղը կարող է ճնշող թվալ օգտվողին, որը պարզապես փորձում է կատարել առաջադրանքը: XAI-ի սկզբունքները, հատկապես Goldilocks Zone of Explanation-ը, կիրառվում են անմիջապես այստեղ: Մենք կարող ենք ուղղորդել ճամփորդությունը՝ օգտագործելով առաջադեմ բացահայտումը՝ նախ ցույց տալու միայն վերջնական եզրակացությունը և մտքի գործընթացի ամենաակնառու քայլը: Այնուհետև օգտվողները կարող են մասնակցել՝ տեսնելու ամբողջական, մանրամասն, բազմաքայլ հիմնավորումը, երբ անհրաժեշտ է կրկնակի ստուգել տրամաբանությունը կամ գտնել կոնկրետ փաստ: Այս մոտեցումը հարգում է օգտատիրոջ ուշադրությունը՝ միաժամանակ պահպանելով գործակալի ամբողջական թափանցիկությունը: Հաջորդ քայլերը. Ձեր XAI ճանապարհորդության հզորացում Բացատրելիությունը հիմնարար հենասյուն է վստահելի և արդյունավետ AI արտադրանքներ ստեղծելու համար: Առաջադեմ պրակտիկ մասնագետների համար, ովքեր ցանկանում են առաջ տանել այս փոփոխությունն իրենց կազմակերպությունում, ճամփորդությունը ընդլայնվում է դիզայնի օրինաչափություններից դուրս՝ դեպի շահերի պաշտպանություն և շարունակական ուսուցում: Ձեր հասկացողությունն ու գործնական կիրառումը խորացնելու համար դիտարկեք այնպիսի ռեսուրսներ, ինչպիսին է AI Explainability 360 (AIX360) գործիքակազմը IBM Research-ից կամ Google-ի What-If Tool-ից, որոնք առաջարկում են մոդելի վարքագիծն ու բացատրությունները ուսումնասիրելու ինտերակտիվ եղանակներ: Համագործակցությունը այնպիսի համայնքների հետ, ինչպիսին է Responsible AI Forum-ը կամ հատուկ հետազոտական ​​խմբերը, որոնք կենտրոնացած են մարդակենտրոն AI-ի վրա, կարող են անգնահատելի պատկերացումներ և համագործակցության հնարավորություններ տալ: Վերջապես, եղեք XAI-ի պաշտպան ձեր սեփական կազմակերպությունում:Շրջանակի բացատրելիությունը որպես ռազմավարական ներդրում: Մտածեք ձեր ղեկավարության կամ բազմաֆունկցիոնալ թիմերի հակիրճ ելույթի մասին. «XAI-ում ներդրումներ կատարելով՝ մենք կգնանք վստահության կառուցման սահմաններից, մենք կարագացնենք օգտատերերի ընդունումը, կնվազեցնենք աջակցության ծախսերը՝ օգտատերերին հասկացողություն տալով և կնվազեցնենք զգալի էթիկական և կարգավորող ռիսկերը՝ բացահայտելով հնարավոր կողմնակալությունները: Սա լավ դիզայն է և խելացի բիզնես»:

Ձեր ձայնը, որը հիմնված է գործնական ըմբռնման վրա, շատ կարևոր է AI-ն սև արկղից դուրս բերելու և օգտատերերի հետ համագործակցության մեջ մտնելու համար:

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free