Son məqaləmdə biz təməl bir həqiqəti müəyyən etdik: istifadəçilərin süni intellektə etibar etmələri və ona etibar etmələri üçün ona etibar etməlidirlər. Etibarın süni intellekt qabiliyyəti, xeyirxahlıq, dürüstlük və proqnozlaşdırıla bilmə qavrayışlarına əsaslanan çoxşaxəli struktur olması haqqında danışdıq. Bəs süni intellekt öz səssiz, alqoritmik müdrikliyi ilə istifadəçini çaşqın, məyus və hətta incidən qərar qəbul etdikdə nə baş verir? İpoteka müraciəti rədd edilir, sevimli mahnı qəflətən çalğı siyahısında yoxdur və insan onu görməzdən əvvəl keyfiyyətli CV rədd edilir. Bu anlarda qabiliyyət və proqnozlaşdırıla bilənlik pozulur və xeyirxahlıq bir dünyadan uzaqlaşır. Söhbətimiz indi etibarın niyəsindən şəffaflığın necə olduğuna doğru inkişaf etməlidir. Süni intellekt nəticələrini insanlar üçün başa düşülən etmək üçün metodların işlənib hazırlanmasına diqqəti yönəldən Explainable AI (XAI) sahəsi bunu həll etmək üçün ortaya çıxdı, lakin bu, çox vaxt məlumat alimləri üçün sırf texniki problem kimi qələmə verilir. Hesab edirəm ki, bu, süni intellektə əsaslanan məhsullar üçün kritik bir dizayn problemidir. UX mütəxəssisləri olaraq alqoritmik qərar qəbuletmə və insan anlayışı arasındakı boşluğu aradan qaldırmaq bizim işimizdir. Bu məqalə izah oluna bilməsi üçün araşdırma və dizaynla bağlı praktiki, işlək təlimatlar təqdim edir. Mürəkkəb XAI konsepsiyalarını bu gün istifadə etməyə başlaya biləcəyiniz konkret dizayn nümunələrinə çevirərək, şayiələrdən kənara çıxaraq maketlərə keçəcəyik. XAI-nin mistikləşdirilməsi: UX Təcrübəçiləri üçün Əsas Konseptlər XAI istifadəçinin sualına cavab verir: “Niyə?” Bu reklam niyə mənə göstərildi? Niyə bu film mənə tövsiyə olunur? Niyə müraciətim rədd edildi? Bunu riyaziyyat problemi üzərində işini göstərən süni intellekt kimi düşünün. Onsuz, sadəcə bir cavabınız var və onu imanla qəbul etmək məcburiyyətindəsiniz. Addımları göstərərək, siz başa düşmək və inam yaradırsınız. Siz həmçinin işinizin təsir etdiyi insanlar tərəfindən iki dəfə yoxlanılmasına və təsdiqlənməsinə icazə verirsiniz. Xüsusiyyətin Əhəmiyyəti və əks faktlar AI ilə nə baş verdiyini aydınlaşdırmaq və ya izah etmək üçün istifadə edə biləcəyimiz bir sıra üsullar var. Metodlar qərar ağacının bütün məntiqini təmin etməkdən nəticənin təbii dildə xülasəsini yaratmağa qədər uzansa da, UX praktiklərinin təcrübəyə təqdim edə biləcəyi ən praktik və təsirli məlumat növlərindən ikisi xüsusiyyət əhəmiyyəti (Şəkil 1) və əks faktlardır. Bunlar çox vaxt istifadəçilərin başa düşməsi üçün ən sadə və dizaynerlərin həyata keçirməsi üçün ən təsirli olanlardır.

Xüsusiyyət Önəmi Bu izaholunma metodu cavab verir: "AI-nin nəzərə aldığı ən vacib amillər hansı idi?" Söhbət nəticəyə ən çox təsir edən ilk 2-3 dəyişənin müəyyən edilməsindən gedir. Bu, bütün hekayə deyil, başlıqdır. Nümunə: Müştərinin çaşıb-çatmayacağını (xidmətini ləğv et) təxmin edən AI təsəvvür edin. Xüsusiyyətin əhəmiyyəti “son ayda edilən dəstək zənglərinin sayı” və “son qiymət artımları”nın müştərinin uğursuzluq ehtimalının olub-olmadığını müəyyən edən ən vacib iki amil olduğunu göstərə bilər.

Əks faktlar Bu güclü metod cavab verir: "Fərqli nəticə əldə etmək üçün nəyi dəyişməliyəm?" Bu çox vacibdir, çünki istifadəçilərə agentlik hissi verir. Bu, əsəbiləşdirən “yox”u hərəkətə keçə bilən “hələ yox”a çevirir. Misal: Süni intellektdən istifadə edən kredit müraciət sistemini təsəvvür edin. İstifadəçiyə kredit verməkdən imtina edilir. Sadəcə “Müraciət rədd edildi” ifadəsini görmək əvəzinə, əks-faktual izahat da paylaşılacaq: “Kredit hesabınız 50 bal yüksək olsaydı və ya borcunuz-gəlirə nisbətiniz 10% aşağı olsaydı, kreditiniz təsdiqlənərdi.” Bu, Saraya gələcəkdə potensial olaraq kredit almaq üçün ata biləcəyi aydın, təsirli addımlar verir.

İzahı Təkmilləşdirmək üçün Model Məlumatlarından İstifadə Texniki spesifikasiyalar tez-tez data alimləri tərəfindən idarə olunsa da, UX praktikləri üçün bilmək faydalıdır ki, modeli yerli olaraq yaxınlaşdırmaqla fərdi proqnozları izah edən LIME (Yerli Şərh edilə bilən Model-aqnostik Şərhlər) və oyun nəzəriyyəsi yanaşmasından istifadə edən SHAP (SHapley Additive izahatları) kimi alətlər bu modellərdən “ümumi istifadə olunan” hər hansı bir maşın öyrənmə kompleksinin çıxışını izah edir. modellər. Bu kitabxanalar, müəyyən bir nəticə üçün hansı girişlərin ən təsirli olduğunu göstərmək üçün süni intellektin qərarını pozmağa kömək edir. Düzgün həyata keçirildikdə, süni intellekt alətinin qərarının altında yatan məlumatlar güclü bir hekayə danışmaq üçün istifadə edilə bilər. Xüsusiyyətlərin əhəmiyyətini və əks faktları nəzərdən keçirək və qərarın arxasında duran məlumat elminin istifadəçi təcrübəsini artırmaq üçün necə istifadə oluna biləcəyini göstərək. İndi gəlinYerli Şərhlər (məsələn, LIME) məlumatlarının köməyi ilə xüsusiyyətin əhəmiyyətini əhatə edin: Bu yanaşma cavab verir: “Niyə AI mənim üçün bu xüsusi tövsiyəni indi etdi?” Modelin necə işlədiyinə dair ümumi izahat əvəzinə, o, tək, konkret nümunə üçün diqqət mərkəzində olan səbəb təqdim edir. Bu, fərdi və kontekstlidir. Misal: Spotify kimi süni intellektlə işləyən musiqi tövsiyə sistemini təsəvvür edin. Yerli izahat "Niyə sistem Adelin bu xüsusi mahnısını sizə indi tövsiyə etdi?" Bunun izahı belə ola bilər: "Çünki siz bu yaxınlarda qadın vokalçıların bir neçə başqa emosional balladalarına və mahnılarına qulaq asmısınız."

Nəhayət, gəlin Dəyər Əsaslı İzahların (məsələn, Shapley Additive Explanations (SHAP) məlumatlarının qərarın izahına daxil edilməsini əhatə edək: Bu, “Hər bir amil qərarı bu və ya digər şəkildə necə itələdi?” cavabı verən xüsusiyyət əhəmiyyətinin daha nüanslı versiyasıdır. Bu, nəyin vacib olduğunu və onun təsirinin müsbət və ya mənfi olub-olmadığını təsəvvür etməyə kömək edir. Nümunə: Təsəvvür edin ki, bank kredit ərizəsini təsdiq edib-etməmək barədə qərar vermək üçün AI modelindən istifadə edir.

Xüsusiyyət Əhəmiyyəti: Model çıxışı göstərə bilər ki, ərizəçinin kredit balı, gəliri və borc-gəlir nisbəti onun qərarında ən mühüm amillərdir. Bu vacib olanı cavablandırır. Dəyər Əsaslı İzahlarla Xüsusiyyət Önəmi (SHAP): SHAP dəyərləri modelin elementlərinə əsaslanaraq xüsusiyyət əhəmiyyətini daha da artıracaq.

Təsdiqlənmiş kredit üçün SHAP göstərə bilər ki, yüksək kredit balı qərarı təsdiqlənməyə (müsbət təsir) əhəmiyyətli dərəcədə sövq edir, ortadan bir qədər yüksək olan borcun gəlirə nisbəti isə onu bir qədər uzaqlaşdırır (mənfi təsir), lakin krediti rədd etmək üçün kifayət deyil. İmtina edilmiş kredit üçün SHAP aşkar edə bilər ki, aşağı gəlir və çoxlu sayda son kredit sorğuları, hətta kredit balı layiqli olsa belə, imtinaya doğru qərar verib.

Bu, kredit mütəxəssisinə hər bir amilin yekun “bəli” və ya “xeyr” qərarının verilməsinə necə töhfə verdiyini nəzərə alındığından əlavə ərizəçiyə izah etməyə kömək edir. Yaxşı izahat vermək qabiliyyətinin çox vaxt inkişaf dövründə daha erkən başladığını qəbul etmək çox vacibdir. Məlumat alimləri və mühəndisləri modelləri və məlumat boru kəmərlərini sonradan düşünmək əvəzinə, izah oluna bilən üsullarla qəsdən strukturlaşdırmaqla mühüm rol oynayırlar. Tədqiqat və dizayn qrupları məlumat alimləri və mühəndisləri ilə istifadəçinin başa düşülməsi ehtiyacları haqqında erkən söhbətlərə başlamaq, izahlılıq ölçülərinin inkişafına töhfə vermək və onların həm dəqiq, həm də istifadəçi dostu olmasını təmin etmək üçün izahatların birgə prototipini yaratmaqla bunu inkişaf etdirə bilər. XAI və etik süni intellekt: qərəz və məsuliyyətin açılması Etibar yaratmaqdan əlavə, XAI AI*-nin, xüsusən də alqoritmik qərəzliliyə dair dərin etik nəticələrinin həllində mühüm rol oynayır. SHAP dəyərlərinin təhlili kimi izah edilə bilən üsullar, modelin qərarlarına irq, cins və ya sosial-iqtisadi status kimi həssas atributlardan qeyri-mütənasib şəkildə təsir edib-etmədiyini aşkar edə bilər, hətta bu amillər birbaşa giriş kimi istifadə olunmasa belə. Məsələn, əgər kreditin təsdiqlənməsi modeli müəyyən bir demoqrafik təbəqədən olan ərizəçilərə ardıcıl olaraq mənfi SHAP dəyərləri təyin edirsə, bu, araşdırmaya ehtiyacı olan potensial qərəzdən xəbər verir və bu cür ədalətsiz nəticələri üzə çıxarmaq və yumşaltmaq üçün komandaları gücləndirir. XAI-nin gücü "izah edilə bilən yuyulma" potensialı ilə də gəlir. “Yaşıl yuma” istehlakçıları ətraf mühitin mühafizəsi praktikaları ilə bağlı çaşdırdığı kimi, izahlı yuyulma da izahatlar problemli alqoritmik davranışı və ya özünəməxsus qərəzləri işıqlandırmaq üçün deyil, ört-basdır etmək üçün nəzərdə tutulduqda baş verə bilər. Bu, kritik təsir edən amilləri buraxan həddən artıq bəsit izahatlar və ya nəticələrin əslində olduğundan daha neytral və ya ədalətli görünməsi üçün strateji çərçivəyə salınan izahatlar kimi özünü göstərə bilər. Bu, həqiqətən şəffaf və yoxlanıla bilən izahatlar hazırlamaq üçün UX praktiklərinin etik məsuliyyətini vurğulayır. UX mütəxəssisləri, məlumat alimləri və etika mütəxəssisləri ilə əməkdaşlıq edərək, qərarın səbəbini, həmçinin əsas AI modelinin məhdudiyyətlərini və potensial qərəzlərini çatdırmaqda mühüm məsuliyyət daşıyırlar. Bu, AI dəqiqliyi ilə bağlı real istifadəçi gözləntilərinin müəyyən edilməsini, modelin harada daha az etibarlı ola biləcəyini müəyyənləşdirməyi və istifadəçilər ədalətsiz və ya yanlış nəticələr qəbul etdikdə müraciət və ya rəy üçün aydın kanalların təmin edilməsini əhatə edir. Bunları proaktiv şəkildə həll etməketik ölçülər bizə həqiqətən ədalətli və etibarlı AI sistemlərini qurmağa imkan verəcək. Metodlardan maketlərə: Praktik XAI Dizayn Nümunələri Konseptləri bilmək bir şeydir; onları dizayn etmək başqa bir şeydir. Bu XAI üsullarını intuitiv dizayn nümunələrinə necə çevirə biləcəyimiz budur. Nümunə 1: "Çünki" ifadəsi (xüsusiyyətin əhəmiyyəti üçün) Bu ən sadə və tez-tez ən təsirli nümunədir. Bu, AI-nin hərəkətinin əsas səbəbini ortaya qoyan birbaşa, sadə dildə ifadədir.

Evristik: Birbaşa və qısa olun. Ən təsirli tək səbəblə rəhbərlik edin. Nəyin bahasına olursa olsun jarqondan çəkinin.

Misal: Musiqi axını xidmətini təsəvvür edin. Sadəcə olaraq “Həftəlik Kəşf Et” pleylistini təqdim etmək əvəzinə, siz kiçik bir mikrosurət sətirini əlavə edirsiniz. Mahnı Tövsiyəsi: “Məxmər səhər”Çünki siz “The Fuzz” və digər psixik roklara qulaq asırsınız.

Nümunə 2: "Nə olarsa" İnteraktivi (əks faktlar üçün) Kontrfakturalar mahiyyət etibarı ilə səlahiyyətləndirməyə aiddir. Onları təmsil etməyin ən yaxşı yolu istifadəçilərə imkanları özləri araşdırmaq üçün interaktiv alətlər verməkdir. Bu, maliyyə, sağlamlıq və ya digər məqsədyönlü proqramlar üçün mükəmməldir.

Evristik: Interaktiv və gücləndirici izahatlar edin. İstifadəçilərə seçimlərinin səbəbini və nəticəsini görməyə icazə verin.

Misal: Kredit tətbiqi interfeysi. İnkar edildikdən sonra, çıxılmaz nöqtə əvəzinə istifadəçi müxtəlif ssenarilərin (nələrsə) necə baş verə biləcəyini müəyyən etmək üçün alət əldə edir (Şəkil 1-ə baxın).

Nümunə 3: Vurğulama çarxı (Yerli izahatlar üçün) Süni intellekt istifadəçinin məzmunu üzərində hərəkət etdikdə (məsələn, sənədin ümumiləşdirilməsi və ya fotoşəkillərdə üzlərin müəyyən edilməsi), izahat vizual olaraq mənbə ilə əlaqələndirilməlidir.

Evristik: İzahı birbaşa izah etdiyi interfeys elementinə bağlamaq üçün vurğulama, konturlar və ya annotasiyalar kimi vizual işarələrdən istifadə edin.

Nümunə: Uzun məqalələri ümumiləşdirən AI aləti. AI tərəfindən yaradılan Xülasə Nöqtəsi: İlkin tədqiqat dayanıqlı məhsullar üçün bazar boşluğunu göstərdi. Sənəddə mənbə: “...Bazar tendensiyalarının 2-ci rübündə apardığımız təhlil qəti şəkildə göstərdi ki, heç bir əsas rəqib eko-şüurlu istehlakçıya effektiv şəkildə xidmət göstərmir, dayanıqlı məhsullar üçün əhəmiyyətli bazar boşluğunu aşkar edir...”

Nümunə 4: Push-and-Pull vizual (dəyər əsaslı izahatlar üçün) Daha mürəkkəb qərarlar üçün istifadəçilər amillərin qarşılıqlı təsirini başa düşməlidirlər. Sadə məlumat vizuallaşdırmaları bunu hədsiz dərəcədə aydınlaşdıra bilər.

Evristik: Qərara müsbət və mənfi təsir göstərən amilləri göstərmək üçün sadə, rəng kodlu məlumat vizuallaşdırmalarından (məsələn, bar diaqramlarından) istifadə edin.

Nümunə: Namizədin profilini iş üçün yoxlayan süni intellekt. Niyə bu namizəd 75% uyğundur: Balı yüksəldən amillər: 5+ İllik UX Tədqiqat TəcrübəsiPythonda bacarıqlı, balı aşağı salan faktorlar:B2B SaaS ilə təcrübə yoxdur

AI məhsulunuzun UX-də bu dizayn nümunələrini öyrənmək və istifadə etmək izahlılığı artırmağa kömək edəcəkdir. Burada dərindən əhatə etmədiyim əlavə üsullardan da istifadə edə bilərsiniz. Bura aşağıdakılar daxildir:

Təbii dildə izahatlar: Süni intellektin texniki nəticəsini qeyri-mütəxəssislərin asanlıqla başa düşə biləcəyi sadə, danışıqlı insan dilinə tərcümə etmək. Kontekstual izahatlar: AI-nin konkret anda və məkanda çıxışı üçün əsaslandırmanın təmin edilməsi, istifadəçinin tapşırığına ən uyğundur. Müvafiq vizualizasiyalar: Qrafiklərdən, qrafiklərdən və ya istilik xəritələrindən istifadə edərək süni intellektin qərar qəbul etmə prosesini vizual şəkildə təmsil etmək, mürəkkəb məlumatları intuitiv və istifadəçilərin qavramasını asanlaşdırır.

Front End üçün Qeyd: Bu izah edilə bilən nəticələri qüsursuz istifadəçi təcrübələrinə çevirmək də öz texniki mülahizələrini təqdim edir. Front-end tərtibatçıları izahat məlumatlarını səmərəli şəkildə əldə etmək üçün tez-tez API dizaynı ilə mübarizə aparır və performans nəticələri (hər istifadəçi qarşılıqlı əlaqəsi üçün real vaxtda izahat yaratmaq kimi) gecikmənin qarşısını almaq üçün diqqətli planlaşdırma tələb edir. Bəzi Real Dünya Nümunələri UPS Capital-ın Çatdırılma Müdafiəsi UPS paketin oğurlanması ehtimalını proqnozlaşdırmaq üçün ünvanlara “çatdırılma etibarı hesabı” təyin etmək üçün süni intellektdən istifadə edir. Onların DeliveryDefense proqramı yer, itki tezliyi və digər amillərlə bağlı tarixi məlumatları təhlil edir. Ünvan aşağı xalı varsa, sistem qərar üçün izahat təqdim edərək (məsələn, “Oğurluq tarixinə görə paket təhlükəsiz yerə yönləndirilib”) paketi proaktiv şəkildə təhlükəsiz UPS Giriş Nöqtəsinə yönləndirə bilər. Bu sistem XAI-nin risklərin azaldılması və müştəri etibarının artırılması üçün necə istifadə oluna biləcəyini nümayiş etdirirşəffaflıq. Avtonom Nəqliyyat vasitələri Gələcəyin bu avtomobilləri nəqliyyat vasitələrinə təhlükəsiz, izah edilə bilən qərarlar qəbul etməkdə kömək etmək üçün XAI-dən səmərəli istifadə etməlidirlər. Özünü idarə edən avtomobil qəflətən əyləc basdıqda, sistem, məsələn, yola çıxan piyadanı müəyyən etməklə, real vaxt rejimində onun hərəkəti ilə bağlı izahat verə bilər. Bu, təkcə sərnişinlərin rahatlığı və etibarı üçün vacib deyil, həm də AI sisteminin təhlükəsizliyini və hesabatlılığını sübut etmək üçün tənzimləyici tələbdir. IBM Watson Health (və onun çətinlikləri) Səhiyyədə AI-nin ümumi nümunəsi kimi tez-tez qeyd olunsa da, bu, XAI-nin əhəmiyyəti üçün dəyərli bir nümunədir. Watson for Oncology layihəsinin uğursuzluğu izahatlar aydın olmadıqda və ya əsas məlumatlar qərəzli olduqda və ya lokallaşdırılmadıqda nəyin səhv ola biləcəyini vurğulayır. Sistemin tövsiyələri bəzən yerli klinik təcrübələrlə uyğun gəlmirdi, çünki onlar ABŞ mərkəzli təlimatlara əsaslanırdı. Bu, möhkəm, kontekstdən xəbərdar izaha ehtiyac haqqında xəbərdarlıq xarakteri daşıyır. UX Tədqiqatçısının Rolu: İzahların dəqiqləşdirilməsi və təsdiqlənməsi Dizayn həllərimiz yalnız istifadəçinin düzgün suallarını lazımi anda həll etdikdə təsirli olur. İstifadəçidə olmayan suala cavab verən izahat sadəcə səs-küydür. UX tədqiqatının XAI strategiyasında kritik birləşdirici toxumaya çevrildiyi yer budur ki, bizim istifadəçilərimiz üçün nəyin və necə vacib olduğunu izah etməyimizi təmin edirik. Tədqiqatçının rolu ikiqatdır: birincisi, izahatların harada lazım olduğunu müəyyən etməklə strategiyanı məlumatlandırmaq, ikincisi, bu izahatları verən dizaynları təsdiqləmək. XAI strategiyasının məlumatlandırılması (Nə izah edilməlidir) Tək bir izahat tərtib etməzdən əvvəl istifadəçinin AI sisteminin zehni modelini başa düşməliyik. Bunun nə etdiyinə inanırlar? Onların anlayışı ilə sistemin reallığı arasında boşluqlar haradadır? Bu, UX tədqiqatçısının təməl işidir. Zehni Model Müsahibələri: AI Sistemləri haqqında İstifadəçi Qavrayışlarının Açılması Dərin, yarı-strukturlaşdırılmış müsahibələr vasitəsilə UX praktikləri istifadəçilərin AI sistemlərini necə qavradıqları və başa düşmələri ilə bağlı əvəzolunmaz fikirlər əldə edə bilərlər. Bu sessiyalar istifadəçiləri süni intellektin necə işlədiyinə inandıqlarına dair daxili “zehni modelini” sözün əsl mənasında çəkməyə və ya təsvir etməyə təşviq etmək üçün nəzərdə tutulub. Bu, tez-tez istifadəçiləri sistemin məntiqini, onun giriş və çıxışlarını, habelə bu elementlər arasındakı əlaqələri izah etməyə sövq edən açıq sualların verilməsini əhatə edir. Bu müsahibələr güclüdür, çünki onlar tez-tez istifadəçilərin süni intellekt haqqında tutduqları dərin yanlış təsəvvürləri və fərziyyələri ortaya qoyur. Məsələn, tövsiyə mühərriki ilə əlaqə saxlayan istifadəçi əminliklə sistemin sırf onların keçmiş baxış tarixçəsinə əsaslandığını iddia edə bilər. Onlar başa düşməyəcəklər ki, alqoritm həm də gözdən keçirdikləri günün vaxtı, platformadakı cari trend elementləri və hətta oxşar istifadəçilərin baxış vərdişləri kimi çoxsaylı digər amilləri özündə birləşdirir. İstifadəçinin zehni modeli ilə faktiki əsas süni intellekt məntiqi arasındakı bu boşluğun üzə çıxarılması çox vacibdir. Bu, bizə sistemin daha dəqiq və möhkəm zehni modelini qurmağa kömək etmək üçün istifadəçilərə hansı xüsusi məlumatları çatdırmağımız lazım olduğunu dəqiq deyir. Bu, öz növbəsində, etimadın gücləndirilməsi üçün əsas addımdır. İstifadəçilər hətta yüksək səviyyədə olsa belə, süni intellektin öz nəticələrinə və ya tövsiyələrinə necə çatdığını başa düşdükdə, onun nəticələrinə daha çox güvənirlər və onun funksionallığına etibar edirlər. Süni İntellektlə Səyahət Xəritəçəkmə: İstifadəçi Etibarına və Anlaşıqlılığına Dərin Bir Dalış İstifadəçinin səyahətini süni intellektlə təchiz edilmiş funksiya ilə dəqiq şəkildə xəritələşdirməklə biz çaşqınlıq, məyusluq və ya hətta dərin inamsızlığın ortaya çıxdığı dəqiq məqamlar haqqında əvəzolunmaz fikirlər əldə edirik. Bu, istifadəçinin AI-nin necə işlədiyinə dair zehni modelinin onun faktiki davranışı ilə ziddiyyət təşkil etdiyi kritik nöqtələri ortaya qoyur. Musiqi axını xidmətini nəzərdən keçirək: Pleylist tövsiyəsi keçmiş dinləmə vərdişləri və ya müəyyən edilmiş üstünlükləri ilə hər hansı bir əlaqəsi olmayan “təsadüfi” kimi görünəndə istifadəçinin etibarı azalırmı? Bu qəbul edilən təsadüfilik istifadəçinin ağıllı kurasiya gözləntilərinə birbaşa meydan oxuyur və AI-nin onların zövqünü başa düşdüyünə dair gizli vədi pozur. Eynilə, fotoşəkillərin idarə edilməsi proqramında, süni intellektlə foto etiketləmə funksiyası əziz ailə üzvünü ardıcıl olaraq səhv müəyyən edəndə istifadəçilər əhəmiyyətli məyusluq yaşayırlar? Bu səhv texniki nasazlıqdan daha çox şeydir; dəqiqliyin, fərdiləşdirmənin və hətta ürəyinə zərbə vururemosional əlaqə. Bu ağrı nöqtələri yaxşı yerləşdirilmiş, aydın və qısa izahatın lazım olduğunu dəqiq göstərən parlaq siqnallardır. Bu cür izahatlar həll edilmədikdə istifadəçinin tərk edilməsinə səbəb ola biləcək etibarın pozulmasını aradan qaldıran mühüm təmir mexanizmləri rolunu oynayır. Süni intellektlə səyahət xəritəsinin gücü onun bizi süni intellekt sisteminin son nəticəsini izah etməkdən kənara çıxarmaq qabiliyyətindədir. Süni intellektin nəyin istehsal olunduğunu başa düşmək vacib olsa da, çox vaxt qeyri-kafi olur. Əksinə, bu proses bizi kritik anlarda prosesi izah etməyə diqqət yetirməyə məcbur edir. Bu müraciət deməkdir:

Nə üçün xüsusi bir çıxış yaradıldı: Bu, xüsusi giriş məlumatlarına görə idi? Xüsusi bir model memarlığı? Süni intellektin qərarına hansı amillər təsir etdi: Müəyyən xüsusiyyətlər daha çox ölçüləndi? Süni intellekt bu nəticəyə necə gəldi: onun daxili işlərinin sadələşdirilmiş, analoji izahını təqdim edə bilərikmi? Süni intellekt hansı fərziyyələri irəli sürdü: İstifadəçinin niyyəti və ya məlumatı ilə bağlı gizli anlayışlar var idimi? Süni intellektin məhdudiyyətləri nədir: Süni intellektin nəyi edə bilməyəcəyini və ya onun dəqiqliyinin tərəddüd edə biləcəyini aydın şəkildə bildirmək real gözləntilər yaradır.

Süni intellektlə səyahət xəritəsi XAI-nin mücərrəd konsepsiyasını UX praktikləri üçün praktiki, işlək çərçivəyə çevirir. O, bizə izah oluna bilən nəzəri müzakirələrdən kənara çıxmağa və bunun əvəzinə güclü, şəffaf, başa düşülən və etibarlı süni intellekt təcrübəsi yaratmaq üçün lazımi fikirləri təmin edərək, istifadəçi etibarının təhlükə altında olduğu dəqiq məqamları təyin etməyə imkan verir. Nəhayət, araşdırma bilinməyənləri necə aşkar etdiyimizdir. Komandanız kreditin niyə rədd edildiyini necə izah edəcəyinizi müzakirə edə bilər, lakin araşdırma göstərə bilər ki, istifadəçilər ilk növbədə məlumatlarının necə istifadə edildiyini başa düşməkdən daha çox narahatdırlar. Tədqiqat etmədən biz sadəcə olaraq istifadəçilərimizin nə ilə maraqlandığını təxmin edirik. Dizayn üzərində əməkdaşlıq (AI-nizi necə izah etmək olar) Tədqiqat nəyin izah ediləcəyini müəyyən etdikdən sonra dizaynla əməkdaşlıq dövrü başlayır. Dizaynerlər daha əvvəl müzakirə etdiyimiz nümunələrin prototipini yarada bilərlər - "Çünki" ifadəsi, interaktiv sürüşdürmələr - və tədqiqatçılar bu dizaynları istifadəçilərin qarşısına qoya bilər ki, onların dayanıb-dayanmadığını görə bilərlər. Məqsədli İstifadə və Anlama Testi: Biz xüsusi olaraq XAI komponentlərini sınaqdan keçirən tədqiqat işlərini tərtib edə bilərik. Biz sadəcə “Bundan istifadə etmək asandır?” deyə soruşmuruq. “Bunu gördükdən sonra sistemin niyə bu məhsulu tövsiyə etdiyini öz sözlərinizlə deyə bilərsinizmi?” deyə soruşuruq. və ya "Fərqli bir nəticə əldə edə biləcəyinizi görmək üçün nə edəcəyinizi mənə göstərin." Burada məqsəd istifadə qabiliyyəti ilə yanaşı, başa düşmə və hərəkət qabiliyyətini ölçməkdir. Güvənin Özünü Ölçmək: Biz izahat göstərilməzdən əvvəl və sonra sadə sorğulardan və reytinq cədvəllərindən istifadə edə bilərik. Məsələn, 5 ballıq şkala üzrə istifadəçidən “Bu tövsiyəyə nə dərəcədə etibar edirsiniz?” deyə soruşa bilərik. “Çünki” ifadəsini görməzdən əvvəl və sonra yenidən soruşun. Bu, bizim izahatlarımızın əslində iynəni etibara yönəltdiyinə dair kəmiyyət məlumatları təqdim edir. Bu proses güclü, təkrarlanan döngə yaradır. Tədqiqat nəticələri ilkin dizaynı məlumatlandırır. Sonra bu dizayn sınaqdan keçirilir və yeni tapıntılar dəqiqləşdirmə üçün dizayn qrupuna göndərilir. Ola bilsin ki, “Çünki” ifadəsi çox jarqon idi və ya “Nə olarsa” slayderi səlahiyyət verməkdən daha çox çaşdırıcı idi. Bu birgə yoxlama vasitəsilə biz yekun izahatların texniki cəhətdən dəqiq, həqiqətən başa düşülən, faydalı və məhsuldan istifadə edən insanlar üçün inam yaratmasını təmin edirik. Goldilocks izahat zonası Tənqidi bir xəbərdarlıq sözü: həddindən artıq izah etmək mümkündür. Goldilocks-un 'düzgün' olan sıyıq axtardığı nağılda olduğu kimi, yaxşı izahatın məqsədi lazımi miqdarda təfərrüatı təmin etməkdir - nə çox, nə də çox az. İstifadəçini modeldəki hər dəyişənlə bombalamaq idrakın həddən artıq yüklənməsinə səbəb olacaq və əslində etibarı azalda bilər. Məqsəd istifadəçini məlumat alimi etmək deyil. Bir həll yolu mütərəqqi açıqlamadır.

Sadədən başlayın. Qısa “Çünki” ifadəsi ilə rəhbərlik edin. Əksər istifadəçilər üçün bu kifayət edəcəkdir. Detallara bir yol təklif edin. “Ətraflı məlumat əldə edin” və ya “Bunun necə müəyyən edildiyinə baxın” kimi aydın, aşağı sürtünmə əlaqəsi təmin edin. Mürəkkəbliyi üzə çıxarın. Bu keçidin arxasında siz interaktiv sürgüləri, vizuallaşdırmaları və ya töhfə verən amillərin daha ətraflı siyahısını təklif edə bilərsiniz.

Bu laylı yanaşma istifadəçinin diqqətinə və təcrübəsinə hörmətlə yanaşır və lazımi məbləği təmin edirehtiyacları üçün məlumat. Təsəvvür edək ki, müxtəlif amillərə əsaslanaraq optimal isitmə tövsiyə edən ağıllı ev cihazından istifadə edirsiniz. Sadədən başlayın: “Eviniz hazırda 72 dərəcəyə qədər qızdırılıb, bu, enerjiyə qənaət və rahatlıq üçün optimal temperaturdur.” Təfərrüatlar üçün bir yol təklif edin: Bunun altında kiçik bir keçid və ya düymə: "Niyə 72 dərəcə optimaldır?" Mürəkkəbliyi üzə çıxarın: Bu keçidə klikləməklə aşağıdakıları göstərən yeni ekran aça bilər:

Xarici temperatur, rütubət və üstünlük verdiyiniz rahatlıq səviyyəsi üçün onların tövsiyə olunan temperaturu necə tənzimlədiyini nümayiş etdirən interaktiv sürgülər. Müxtəlif temperaturlarda enerji istehlakının vizuallaşdırılması. “Günün vaxtı”, “Cari xarici temperatur”, “Tarixi enerji istifadəsi” və “İşləmə sensorları” kimi töhfə verən amillərin siyahısı.

Çoxsaylı XAI üsullarını birləşdirmək effektivdir və mütərəqqi açıqlamanın tərəfdarı olan bu Goldilocks İzah Zonası nümunəsi bunu dolayısı ilə təşviq edir. Dərhal başa düşmək üçün sadə “Çünki” ifadəsi (Nümunə 1) ilə başlaya bilərsiniz və sonra daha dərindən araşdırma üçün “Nə olarsa” İnteraktivi (Nümunə 2) və ya “İtək və çəkmə vizualını” (Nümunə 4) ortaya qoyan “Ətraflı məlumat” linkini təklif edə bilərsiniz. Məsələn, kredit müraciət sistemi ilkin olaraq imtinanın əsas səbəbini (xüsusiyyətin əhəmiyyətini) bildirə bilər, sonra istifadəçiyə gəlirlərində və ya borclarında dəyişikliklərin nəticəni necə dəyişəcəyini görmək üçün “Nə olarsa” aləti ilə əlaqə saxlamağa icazə verə bilər (əks faktlar) və nəhayət, ətraflı “İtlə və çək” cədvəlini təqdim edə bilər (dəyər əsaslı töhvələrin və mənfi amillərin bütün mənfi təsirlərinin izahı). Bu laylı yanaşma istifadəçilərə ehtiyac duyduqları zaman ehtiyac duyduqları təfərrüat səviyyəsinə daxil olmaq imkanı verir, koqnitiv yüklənmənin qarşısını alır, eyni zamanda hərtərəfli şəffaflıq təmin edir. Hansı XAI alətlərinin və üsullarının istifadə olunacağını müəyyən etmək ilk növbədə hərtərəfli UX tədqiqatının funksiyasıdır. Zehni model müsahibələri və AI səyahət xəritəsi istifadəçi ehtiyaclarını və AI anlayışı və etibarı ilə bağlı ağrı nöqtələrini müəyyən etmək üçün çox vacibdir. Psixi model müsahibələri əsas izahatların (xüsusiyyətin əhəmiyyəti və ya yerli izahatlar kimi) lazım olduğu sahələri göstərərək, süni intellektin necə işlədiyi barədə istifadəçi yanlış təsəvvürlərini aşkar etməyə kömək edir. Digər tərəfdən, AI səyahət xəritəsi istifadəçinin süni intellektlə qarşılıqlı əlaqəsində çaşqınlıq və ya inamsızlığın kritik anlarını müəyyən edir, daha detallı və ya interaktiv izahatların (məsələn, əks faktlar və ya dəyərə əsaslanan izahatlar) etibarı bərpa etmək və agentlik təmin etmək üçün ən faydalı olacağına işarə edir.

Nəhayət, texnika seçmək üçün ən yaxşı yol, istifadəçi araşdırmasına qərarlarınızı istiqamətləndirməyə imkan verməkdir ki, tərtib etdiyiniz izahatların sadəcə olaraq texniki təfərrüatları öz maraqları üçün təklif etməkdənsə, faktiki istifadəçi sualları və narahatlıqlarına cavab verməsini təmin etməkdir. Dərin düşünmə agentləri üçün XAI Dərin düşünmə agentləri kimi tanınan ən yeni süni intellekt sistemlərindən bəziləri hər bir mürəkkəb tapşırıq üçün açıq “fikir zənciri” yaradır. Onlar sadəcə mənbələrə istinad etmirlər; nəticəyə gəlmək üçün keçdikləri məntiqi, addım-addım yolu göstərirlər. Bu şəffaflıq dəyərli kontekst təmin etsə də, bir neçə paraqrafı əhatə edən oyun-oyun sadəcə bir tapşırığı yerinə yetirməyə çalışan istifadəçi üçün hədsiz hiss edə bilər. XAI prinsipləri, xüsusən Goldilocks İzah Zonası birbaşa burada tətbiq olunur. Yalnız son nəticəni və ilk növbədə düşüncə prosesində ən diqqətəlayiq addımı göstərmək üçün mütərəqqi açıqlamadan istifadə edərək səyahəti idarə edə bilərik. İstifadəçilər daha sonra məntiqi iki dəfə yoxlamaq və ya konkret faktı tapmaq lazım olduqda tam, təfərrüatlı, çoxmərhələli əsaslandırmanı görmək üçün qoşula bilərlər. Bu yanaşma agentin tam şəffaflığını qoruyarkən istifadəçi diqqətinə hörmət edir. Növbəti addımlar: XAI səyahətinizi gücləndirmək Anlatıcılıq etibarlı və effektiv AI məhsulları yaratmaq üçün əsas sütundur. Təşkilat daxilində bu dəyişikliyi idarə etmək istəyən qabaqcıl təcrübəçi üçün səyahət dizayn nümunələrindən kənarda təbliğat və davamlı öyrənməyə uzanır. Anlayışınızı və praktik tətbiqinizi dərinləşdirmək üçün IBM Research-dən AI Explainability 360 (AIX360) alət dəsti və ya model davranışını və izahatlarını araşdırmaq üçün interaktiv yollar təklif edən Google-un What-If Aləti kimi resursları araşdırın. Responsible AI Forum kimi icmalarla və ya insan mərkəzli süni intellektə yönəlmiş xüsusi tədqiqat qrupları ilə əlaqə əvəzsiz anlayışlar və əməkdaşlıq imkanları təmin edə bilər. Nəhayət, öz təşkilatınızda XAI üçün vəkil olun.Strateji investisiya kimi çərçivə izahı. Rəhbərliyinizə və ya müxtəlif funksiyalı komandalarınıza qısa bir təklifi nəzərdən keçirin: "XAI-a sərmayə qoymaqla biz inam yaratmaqdan kənara çıxacağıq; biz istifadəçilərin qəbulunu sürətləndirəcəyik, istifadəçilərə anlayış verməklə dəstək xərclərini azaldacağıq və potensial qərəzləri ifşa etməklə əhəmiyyətli etik və tənzimləyici riskləri azaldacağıq. Bu, yaxşı dizayn və ağıllı işdir."

Praktik anlayışa əsaslanan səsiniz süni intellektni qara qutudan çıxarmaq və istifadəçilərlə ortaq əməkdaşlığa gətirmək üçün çox vacibdir.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free