Son yazımda temel bir gerçeği belirledik: Kullanıcıların yapay zekayı benimsemesi ve ona güvenmesi için ona güvenmeleri gerekiyor. Güvenin, yapay zekanın Yeteneği, Yardımseverliği, Dürüstlüğü ve Tahmin Edilebilirliğine ilişkin algılara dayanan çok yönlü bir yapı olduğundan bahsetmiştik. Peki bir yapay zeka, sessiz ve algoritmik bilgeliğiyle kullanıcının kafasını karıştıran, hayal kırıklığına uğratan ve hatta incinen bir karar verdiğinde ne olur? Bir ipotek başvurusu reddedilir, favori bir şarkı aniden çalma listesinden kaybolur ve nitelikli bir özgeçmiş, daha insan görmeden reddedilir. Bu anlarda yetenek ve öngörülebilirlik paramparça olur ve yardımseverlik çok uzaklarda hissedilir. Artık konuşmamız güvenin nedeninden şeffaflığın nasılına doğru evrilmelidir. Yapay Zeka çıktılarını insanlar için anlaşılır kılmak için yöntemler geliştirmeye odaklanan Açıklanabilir Yapay Zeka (XAI) alanı bu sorunu çözmek için ortaya çıktı ancak genellikle veri bilimcileri için tamamen teknik bir zorluk olarak çerçeveleniyor. Yapay zekaya dayalı ürünler için bunun kritik bir tasarım zorluğu olduğunu düşünüyorum. Algoritmik karar verme ile insan anlayışı arasındaki boşluğu kapatmak UX profesyonelleri olarak bizim görevimizdir. Bu makale, açıklanabilirlik için nasıl araştırma ve tasarım yapılacağı konusunda pratik ve uygulanabilir bir rehberlik sunmaktadır. Moda sözcüklerin ötesine geçerek karmaşık XAI konseptlerini bugün kullanmaya başlayabileceğiniz somut tasarım modellerine dönüştüreceğiz. XAI'nin gizemini ortadan kaldıran: UX Uygulayıcıları İçin Temel Kavramlar XAI, kullanıcının şu sorusunu yanıtlamakla ilgilidir: "Neden?" Bu reklam bana neden gösterildi? Bu film neden bana önerildi? İsteğim neden reddedildi? Bunu yapay zekanın bir matematik problemi üzerinde çalışmasını göstermesi olarak düşünün. O olmadan, yalnızca bir cevabınız olur ve onu inançla kabul etmek zorunda kalırsınız. Adımları göstererek anlayış ve güven geliştirirsiniz. Ayrıca çalışmanızın, etkilediği insanlar tarafından iki kez kontrol edilmesine ve doğrulanmasına da izin verirsiniz. Özelliğin Önemi ve Karşı Olgular Yapay zekada olup bitenleri açıklığa kavuşturmak veya açıklamak için kullanabileceğimiz bir dizi teknik var. Yöntemler, bir karar ağacının tüm mantığını sağlamaktan, bir çıktının doğal dil özetlerini oluşturmaya kadar çeşitlilik gösterse de, UX uygulayıcılarının bir deneyime katabileceği en pratik ve etkili bilgi türlerinden ikisi, özellik önemi (Şekil 1) ve karşı olgulardır. Bunlar genellikle kullanıcıların anlayabileceği en basit ve tasarımcıların uygulaması en kolay olanlardır.

Özelliğin Önemi Bu açıklanabilirlik yöntemi şu soruyu yanıtlıyor: "Yapay zekanın dikkate aldığı en önemli faktörler nelerdi?" Sonuç üzerinde en büyük etkiye sahip olan ilk 2-3 değişkenin belirlenmesiyle ilgilidir. Bu, hikayenin tamamı değil, başlıktır. Örnek: Bir müşterinin hizmetten vazgeçip vazgeçmeyeceğini (hizmetini iptal edip etmeyeceğini) tahmin eden bir yapay zeka hayal edin. Özelliğin önemi, bir müşterinin ayrılma ihtimalinin olup olmadığını belirleyen en önemli iki faktörün "geçen aydaki destek çağrılarının sayısı" ve "son fiyat artışları" olduğunu ortaya çıkarabilir.

Karşıolgusallar Bu güçlü yöntem şu soruyu yanıtlıyor: "Farklı bir sonuç elde etmek için neyi değiştirmem gerekir?" Bu çok önemlidir çünkü kullanıcılara bir aracılık duygusu verir. Sinir bozucu bir "hayır"ı eyleme geçirilebilir bir "henüz değil"e dönüştürür. Örnek: Yapay zeka kullanan bir kredi başvuru sistemi düşünün. Bir kullanıcının kredi alması reddedildi. Yalnızca "Başvuru Reddedildi" ifadesini görmek yerine, karşı olgusal bir açıklama da şunu paylaşacaktı: "Kredi puanınız 50 puan daha yüksek olsaydı veya borç-gelir oranınız %10 daha düşük olsaydı, krediniz onaylanırdı." Bu, Sarah'ya gelecekte potansiyel olarak kredi alabilmesi için atabileceği net ve eyleme dönüştürülebilir adımlar sağlıyor.

Açıklamayı Geliştirmek İçin Model Verilerini Kullanma Teknik özellikler genellikle veri bilimcileri tarafından ele alınsa da, UX uygulayıcılarının, modeli yerel olarak yaklaştırarak bireysel tahminleri açıklayan LIME (Yerel Yorumlanabilir Model-agnostik Açıklamalar) ve herhangi bir makine öğrenimi modelinin çıktısını açıklamak için bir oyun teorisi yaklaşımını kullanan SHAP (SHapley Additive exPlanations) gibi araçların, bu "neden" içgörülerini karmaşık modellerden çıkarmak için yaygın olarak kullanıldığını bilmesi yararlı olur. Bu kütüphaneler esasen bir yapay zekanın belirli bir sonuç için hangi girdilerin en etkili olduğunu gösterme kararının parçalanmasına yardımcı olur. Doğru yapıldığında, bir yapay zeka aracının kararının altında yatan veriler, güçlü bir hikaye anlatmak için kullanılabilir. Özelliğin önemini ve karşı olguları gözden geçirelim ve kararın arkasındaki veri biliminin kullanıcı deneyimini geliştirmek için nasıl kullanılabileceğini gösterelim. Şimdi hadiYerel Açıklamalar (ör. LIME) verilerinin yardımıyla özelliğin önemini ele alın: Bu yaklaşım şu soruyu yanıtlar: "Yapay zeka neden şu anda benim için bu özel öneriyi yaptı?" Modelin nasıl çalıştığına dair genel bir açıklama yerine, tek ve spesifik bir örnek için odaklanmış bir neden sağlar. Kişisel ve bağlamsaldır. Örnek: Spotify gibi yapay zeka destekli bir müzik öneri sistemi hayal edin. Yerel bir açıklama şu soruyu yanıtlayacaktır: "Sistem neden şu anda size Adele'in bu özel şarkısını önerdi?" Bunun açıklaması şöyle olabilir: "Çünkü yakın zamanda kadın vokalistlerin duygusal baladlarını ve şarkılarını da dinlediniz."

Son olarak, bir kararın açıklamasına Değer Tabanlı Açıklamaların (örneğin Shapley Katkı Açıklamaları (SHAP) verilerinin) dahil edilmesini ele alalım: Bu, "Her bir faktör kararı şu ya da bu şekilde nasıl itti?" sorusunu yanıtlayan, özellik öneminin daha incelikli bir versiyonudur. Neyin önemli olduğunu ve etkisinin olumlu ya da olumsuz olup olmadığını görselleştirmeye yardımcı olur. Örnek: Bir bankanın, bir kredi başvurusunu onaylayıp onaylamayacağına karar vermek için bir yapay zeka modeli kullandığını düşünün.

Özelliğin Önemi: Model çıktısı, başvuru sahibinin kredi puanının, gelirinin ve borç-gelir oranının kararındaki en önemli faktörler olduğunu gösterebilir. Bu neyin önemli olduğunu yanıtlıyor. Değere Dayalı Açıklamalarla (SHAP) Özelliğin Önemi: SHAP değerleri, modelin öğelerine bağlı olarak özelliğin önemini daha da artıracaktır.

Onaylanmış bir kredi için SHAP, yüksek kredi puanının kararı önemli ölçüde onaya doğru ittiğini (olumlu etki), ortalamanın biraz üzerinde olan borç-gelir oranının ise onu biraz uzaklaştırdığını (olumsuz etki), ancak krediyi reddetmek için yeterli olmadığını gösterebilir. Reddedilen bir kredi için SHAP, kredi puanı iyi olsa bile, düşük gelirin ve yakın zamanda yapılan çok sayıda kredi soruşturmasının, kararı güçlü bir şekilde reddetmeye ittiğini ortaya çıkarabilir.

Bu, kredi memurunun başvuru sahibine, dikkate alınanın ötesinde, her bir faktörün nihai "evet" veya "hayır" kararına nasıl katkıda bulunduğunu açıklamasına yardımcı olur. İyi açıklamalar sunma becerisinin genellikle geliştirme döngüsünde çok daha erken başladığını kabul etmek çok önemlidir. Veri bilimcileri ve mühendisleri, modelleri ve veri hatlarını sonradan akla gelen bir düşünce olarak eklemeye çalışmak yerine doğası gereği açıklanabilirliği destekleyecek şekilde kasıtlı olarak yapılandırarak çok önemli bir rol oynuyorlar. Araştırma ve tasarım ekipleri, veri bilimcileri ve mühendislerle kullanıcının anlayış ihtiyaçları hakkında erken görüşmeler başlatarak, açıklanabilirlik ölçümlerinin geliştirilmesine katkıda bulunarak ve bunların hem doğru hem de kullanıcı dostu olmasını sağlamak için açıklamaların işbirliği içinde prototipini oluşturarak bunu destekleyebilir. XAI ve Etik Yapay Zeka: Önyargıyı ve Sorumluluğu Ortaya Çıkarmak XAI, güven oluşturmanın ötesinde, özellikle algoritmik önyargıyla ilgili olarak AI*'nın derin etik sonuçlarını ele almada kritik bir rol oynar. SHAP değerlerini analiz etmek gibi açıklanabilirlik teknikleri, bir modelin kararlarının ırk, cinsiyet veya sosyoekonomik durum gibi hassas özelliklerden orantısız bir şekilde etkilenip etkilenmediğini, bu faktörler açıkça doğrudan girdi olarak kullanılmasa bile ortaya çıkarabilir. Örneğin, bir kredi onay modeli belirli bir demografik gruptan başvuru sahiplerine sürekli olarak negatif SHAP değerleri atarsa, araştırılması gereken potansiyel bir önyargıya işaret eder ve ekipleri bu tür adil olmayan sonuçları ortaya çıkarma ve hafifletme konusunda güçlendirir. XAI'nin gücü aynı zamanda "açıklanabilir yıkama" potansiyelini de beraberinde getiriyor. Tıpkı "yeşil yıkamanın" tüketicileri çevresel uygulamalar konusunda yanıltması gibi, açıklamalar sorunlu algoritmik davranışları veya doğuştan gelen önyargıları aydınlatmak yerine gizlemek için tasarlandığında açıklanabilirlik yıkaması da meydana gelebilir. Bu, kritik etkileyici faktörleri göz ardı eden aşırı basit açıklamalar veya sonuçları gerçekte olduğundan daha tarafsız veya adil gösterecek şekilde stratejik olarak çerçeveleyen açıklamalar olarak ortaya çıkabilir. Gerçekten şeffaf ve doğrulanabilir açıklamalar tasarlamak konusunda UX uygulayıcılarının etik sorumluluğunun altını çiziyor. UX profesyonelleri, veri bilimcileri ve etik uzmanlarıyla işbirliği içinde, bir kararın nedenini ve ayrıca temeldeki yapay zeka modelinin sınırlamalarını ve potansiyel önyargılarını iletmede çok önemli bir sorumluluğa sahiptir. Bu, yapay zeka doğruluğu hakkında gerçekçi kullanıcı beklentileri belirlemeyi, modelin nerede daha az güvenilir olabileceğini belirlemeyi ve kullanıcılar adil olmayan veya yanlış sonuçlar algıladığında başvuru veya geri bildirim için açık kanallar sağlamayı içerir. Bunları proaktif olarak ele almakEtik boyutlar gerçekten adil ve güvenilir yapay zeka sistemleri oluşturmamıza olanak tanıyacak. Yöntemlerden Modellere: Pratik XAI Tasarım Desenleri Kavramları bilmek bir şeydir; onları tasarlamak başka bir şeydir. Bu XAI yöntemlerini sezgisel tasarım modellerine nasıl dönüştürebileceğimizi burada bulabilirsiniz. Model 1: "Çünkü" İfadesi (Özelliğin Önemi İçin) Bu en basit ve çoğunlukla en etkili modeldir. Bu, bir yapay zekanın eyleminin birincil nedenini ortaya çıkaran doğrudan, sade dilli bir ifadedir.

Sezgisel: Doğrudan ve özlü olun. En etkili tek sebeple yola çıkın. Ne pahasına olursa olsun jargondan kaçının.

Örnek: Bir müzik akışı hizmeti düşünün. Sadece bir "Discover Weekly" çalma listesi sunmak yerine, küçük bir mikrokopi satırı eklersiniz. Şarkı Önerisi: "Velvet Morning"Çünkü "The Fuzz" ve diğer psikedelik rock şarkılarını dinliyorsunuz.

Model 2: "Ya Olursa" Etkileşimli (Karşı Olgular için) Karşıolgusallar doğası gereği güçlendirmeyle ilgilidir. Bunları temsil etmenin en iyi yolu, kullanıcılara olasılıkları kendilerinin keşfetmesi için etkileşimli araçlar sunmaktır. Bu, finansal, sağlık veya diğer hedefe yönelik uygulamalar için mükemmeldir.

Sezgisel: Açıklamaları etkileşimli ve güçlendirici hale getirin. Kullanıcıların seçimlerinin nedenini ve sonucunu görmesine izin verin.

Örnek: Bir kredi başvuru arayüzü. Reddetmenin ardından kullanıcı, çıkmaz sokak yerine çeşitli senaryoların (ya olursa) nasıl gerçekleşebileceğini belirleyecek bir araca sahip olur (Bkz. Şekil 1).

Desen 3: Vurgu Makarası (Yerel Açıklamalar İçin) Yapay zeka, kullanıcının içeriği üzerinde bir eylem gerçekleştirdiğinde (bir belgeyi özetlemek veya fotoğraflardaki yüzleri tanımlamak gibi), açıklamanın görsel olarak kaynağa bağlanması gerekir.

Buluşsal Yöntem: Açıklamayı doğrudan açıkladığı arayüz öğesine bağlamak için vurgulama, ana hatlar veya açıklamalar gibi görsel ipuçlarını kullanın.

Örnek: Uzun makaleleri özetleyen bir yapay zeka aracı. Yapay Zeka ile Oluşturulan Özet Nokta:İlk araştırma, sürdürülebilir ürünler için bir pazar boşluğu gösterdi.Belgedeki Kaynak:“...2. Çeyrek pazar trendleri analizimiz, hiçbir büyük rakibimizin çevre bilincine sahip tüketicilere etkili bir şekilde hizmet etmediğini kesin olarak gösterdi ve sürdürülebilir ürünler için önemli bir pazar boşluğunu ortaya çıkardı...”

Desen 4: İt-Çek Görsel (Değer Bazlı Açıklamalar İçin) Daha karmaşık kararlar için kullanıcıların faktörlerin etkileşimini anlaması gerekebilir. Basit veri görselleştirmeleri, bunaltıcı olmadan bunu açıkça ortaya koyabilir.

Sezgisel: Bir kararı olumlu ve olumsuz etkileyen faktörleri göstermek için basit, renk kodlu veri görselleştirmelerini (çubuk grafikler gibi) kullanın.

Örnek: Bir adayın bir iş için profilini tarayan bir yapay zeka. Bu adayın neden %75 eşleşmesi:Puanı yükselten faktörler:5+ Yıllık Kullanıcı Deneyimi Araştırma DeneyimiPython UzmanlığıPuanı düşüren faktörler:B2B SaaS deneyimi yok

Bu tasarım modellerini AI ürününüzün kullanıcı deneyiminde öğrenmek ve kullanmak açıklanabilirliği artırmaya yardımcı olacaktır. Burada derinlemesine ele almadığım ek teknikleri de kullanabilirsiniz. Buna aşağıdakiler dahildir:

Doğal dil açıklamaları: Bir yapay zekanın teknik çıktısını, uzman olmayanların kolayca anlayabileceği basit, konuşmaya dayalı insan diline çevirmek. Bağlamsal açıklamalar: Bir yapay zekanın belirli bir an ve konumdaki çıktısı için bir gerekçe sağlamak, kullanıcının göreviyle en alakalı olanıdır. İlgili görselleştirmeler: Yapay zekanın karar verme sürecini görsel olarak temsil etmek için çizelgeler, grafikler veya ısı haritaları kullanmak, karmaşık verileri sezgisel hale getirir ve kullanıcıların kavramasını kolaylaştırır.

Ön Uç İçin Bir Not: Bu açıklanabilirlik çıktılarını kusursuz kullanıcı deneyimlerine dönüştürmek aynı zamanda kendi teknik hususlarını da beraberinde getirir. Ön uç geliştiriciler, açıklama verilerini verimli bir şekilde almak için genellikle API tasarımıyla boğuşuyor ve performans sonuçları (her kullanıcı etkileşimi için gerçek zamanlı açıklamalar oluşturmak gibi), gecikmeyi önlemek için dikkatli bir planlamaya ihtiyaç duyuyor. Bazı Gerçek Dünya Örnekleri UPS Capital'in Teslimat Savunması UPS, bir paketin çalınma olasılığını tahmin etmek amacıyla adreslere bir "teslimat güven puanı" atamak için yapay zekayı kullanıyor. DeliveryDefense yazılımları konum, kayıp sıklığı ve diğer faktörlere ilişkin geçmiş verileri analiz ediyor. Bir adresin puanı düşükse sistem, karar için bir açıklama sağlayarak paketi proaktif olarak güvenli bir UPS Erişim Noktasına yeniden yönlendirebilir (örneğin, "Paket, hırsızlık geçmişi nedeniyle güvenli bir konuma yeniden yönlendirildi"). Bu sistem, XAI'nin riskleri azaltmak ve müşteri güvenini oluşturmak için nasıl kullanılabileceğini göstermektedir.şeffaflık. Otonom Araçlar Geleceğin bu araçlarının, araçlarının güvenli, açıklanabilir kararlar almasına yardımcı olmak için XAI'yi etkili bir şekilde kullanması gerekecek. Sürücüsüz bir araba aniden fren yaptığında sistem, örneğin yola adım atan yayayı tespit ederek, yaptığı eyleme ilişkin gerçek zamanlı bir açıklama sağlayabilir. Bu yalnızca yolcu konforu ve güveni açısından çok önemli değil, aynı zamanda yapay zeka sisteminin güvenliğini ve hesap verebilirliğini kanıtlamaya yönelik düzenleyici bir gerekliliktir. IBM Watson Health (ve zorlukları) Çoğunlukla sağlık hizmetlerinde yapay zekanın genel bir örneği olarak anılsa da, aynı zamanda XAI'nin önemini gösteren değerli bir vaka çalışmasıdır. Watson for Oncology projesinin başarısızlığı, açıklamalar net olmadığında veya temeldeki veriler önyargılı veya yerelleştirilmediğinde nelerin yanlış gidebileceğini vurguluyor. Sistemin önerileri bazen yerel klinik uygulamalarla tutarsızdı çünkü bunlar ABD merkezli yönergelere dayanıyordu. Bu, sağlam, bağlama duyarlı açıklanabilirlik ihtiyacına dair uyarıcı bir hikaye görevi görüyor. Kullanıcı Deneyimi Araştırmacısının Rolü: Açıklamaların Belirlenmesi ve Doğrulanması Tasarım çözümlerimiz yalnızca doğru kullanıcı sorularına doğru zamanda yanıt verilmesi durumunda etkilidir. Kullanıcının sahip olmadığı bir soruyu yanıtlayan bir açıklama sadece gürültüdür. Kullanıcı deneyimi araştırmasının XAI stratejisinde kritik bağ dokusu haline geldiği yer burasıdır ve kullanıcılarımıza gerçekte neyin ve nasıl önemli olduğunu açıklamamızı sağlar. Araştırmacının rolü iki yönlüdür: Birincisi, açıklamaların nerede gerekli olduğunu belirleyerek stratejiyi bilgilendirmek ve ikincisi, bu açıklamaları sunan tasarımları doğrulamak. XAI Stratejisinin Bilgilendirilmesi (Ne Açıklanmalı) Tek bir açıklama tasarlamadan önce kullanıcının yapay zeka sistemine ilişkin zihinsel modelini anlamalıyız. Ne yaptığına inanıyorlar? Onların anlayışı ile sistemin gerçekliği arasındaki boşluklar nerede? Bu, bir kullanıcı deneyimi araştırmacısının temel çalışmasıdır. Zihinsel Model Röportajları: Yapay Zeka Sistemlerine İlişkin Kullanıcı Algılarını Açığa Çıkarma Derin, yarı yapılandırılmış görüşmeler yoluyla UX uygulayıcıları, kullanıcıların yapay zeka sistemlerini nasıl algıladıkları ve anladıkları konusunda paha biçilmez bilgiler edinebilir. Bu oturumlar, kullanıcıları yapay zekanın nasıl çalıştığına dair kendi iç "zihinsel modellerini" kelimenin tam anlamıyla çizmeye veya tanımlamaya teşvik etmek için tasarlanmıştır. Bu genellikle kullanıcıları sistemin mantığını, girdilerini ve çıktılarını ve ayrıca bu öğeler arasındaki ilişkileri açıklamaya teşvik eden açık uçlu sorular sormayı içerir. Bu röportajlar güçlüdür çünkü sıklıkla kullanıcıların yapay zeka hakkında sahip olduğu derin yanlış anlamaları ve varsayımları ortaya çıkarırlar. Örneğin, bir öneri motoruyla etkileşime giren bir kullanıcı, sistemin yalnızca geçmiş görüntüleme geçmişine dayandığını güvenle iddia edebilir. Algoritmanın aynı zamanda göz attıkları günün saati, platformdaki güncel trend öğeler ve hatta benzer kullanıcıların görüntüleme alışkanlıkları gibi çok sayıda başka faktörü de içerdiğini fark etmeyebilirler. Kullanıcının zihinsel modeli ile altta yatan gerçek yapay zeka mantığı arasındaki bu boşluğu ortaya çıkarmak kritik önem taşıyor. Sistemin daha doğru ve sağlam bir zihinsel modelini oluşturmalarına yardımcı olmak için kullanıcılara tam olarak hangi spesifik bilgileri iletmemiz gerektiğini bize söyler. Bu da güvenin geliştirilmesinde temel bir adımdır. Kullanıcılar, bir yapay zekanın sonuçlara veya önerilere nasıl ulaştığını yüksek düzeyde bile anladığında, çıktılarına güvenme ve işlevselliğine güvenme olasılıkları daha yüksektir. Yapay Zeka Yolculuğu Haritalaması: Kullanıcı Güveni ve Açıklanabilirliğine Derin Bir Bakış Kullanıcının yolculuğunu yapay zeka destekli bir özellikle titizlikle haritalandırarak, kafa karışıklığının, hayal kırıklığının ve hatta derin güvensizliğin ortaya çıktığı kesin anlara dair paha biçilmez bilgiler elde ediyoruz. Bu, kullanıcının yapay zekanın nasıl çalıştığına ilişkin zihinsel modelinin gerçek davranışıyla çatıştığı kritik dönemeçleri ortaya çıkarır. Bir müzik yayını hizmetini düşünün: Bir şarkı listesi önerisi "rastgele" göründüğünde, geçmiş dinleme alışkanlıkları veya belirtilen tercihleriyle fark edilebilir bir bağlantısı olmadığında kullanıcının güveni düşer mi? Algılanan bu rastgelelik, kullanıcının akıllı düzenleme beklentisine doğrudan bir meydan okumadır ve yapay zekanın zevklerini anlayacağına dair örtülü vaadin ihlalidir. Benzer şekilde, bir fotoğraf yönetimi uygulamasında, yapay zeka fotoğraf etiketleme özelliğinin sevilen bir aile üyesini sürekli olarak yanlış tanımlaması durumunda kullanıcılar ciddi bir hayal kırıklığı yaşıyor mu? Bu hata teknik bir aksaklığın ötesindedir; doğruluğun, kişiselleştirmenin ve hattaduygusal bağlantı. Bu sorunlu noktalar, tam olarak nerede iyi yerleştirilmiş, açık ve kısa bir açıklamanın gerekli olduğunu gösteren canlı sinyallerdir. Bu tür açıklamalar, önemli onarım mekanizmaları olarak hizmet eder ve giderilmezse kullanıcının terk edilmesine yol açabilecek güven ihlalini onarır. Yapay zeka yolculuk haritalamanın gücü, bizi bir yapay zeka sisteminin nihai çıktısını basitçe açıklamanın ötesine taşıyabilmesinde yatmaktadır. Yapay zekanın ne ürettiğini anlamak önemli olsa da çoğu zaman yetersizdir. Bunun yerine bu süreç bizi kritik anlarda süreci açıklamaya odaklanmaya zorluyor. Bu şu adresleme anlamına gelir:

Neden belirli bir çıktı oluşturuldu: Bu, belirli girdi verilerinden mi kaynaklanıyordu? Belirli bir model mimarisi? Yapay zekanın kararını hangi faktörler etkiledi: Belirli özelliklere daha mı ağırlık verildi? Yapay zeka bu sonuca nasıl ulaştı: İç işleyişine dair basitleştirilmiş, benzer bir açıklama sunabilir miyiz? Yapay zeka hangi varsayımlarda bulundu: Kullanıcının amacına veya ortaya çıkarılması gereken verilere ilişkin örtülü anlayışlar var mıydı? Yapay zekanın sınırlamaları nelerdir: Yapay zekanın neyi yapamayacağını veya doğruluğunun nerede tereddüt edebileceğini açıkça iletmek gerçekçi beklentiler oluşturur.

Yapay zeka yolculuk haritalaması, soyut XAI kavramını kullanıcı deneyimi uygulayıcıları için pratik, eyleme dönüştürülebilir bir çerçeveye dönüştürür. Açıklanabilirliğe ilişkin teorik tartışmaların ötesine geçmemizi ve bunun yerine kullanıcı güveninin tehlikede olduğu anları tam olarak belirlememizi sağlayarak güçlü, şeffaf, anlaşılır ve güvenilir yapay zeka deneyimleri oluşturmak için gerekli bilgileri sağlar. Sonuçta araştırma, bilinmeyenleri nasıl ortaya çıkaracağımızdır. Ekibiniz bir kredinin neden reddedildiğini nasıl açıklayacağını tartışıyor olabilir, ancak araştırmalar kullanıcıların verilerinin ilk etapta nasıl kullanıldığını anlamakla çok daha fazla ilgilendiklerini ortaya çıkarabilir. Araştırma yapmadan kullanıcılarımızın neleri merak ettiğini tahmin ediyoruz. Tasarım Üzerinde İşbirliği Yapmak (Yapay Zekanızı Nasıl Açıklarsınız) Araştırma neyin açıklanacağını belirledikten sonra tasarımla işbirliğine dayalı döngü başlar. Tasarımcılar daha önce tartıştığımız kalıpların ('Çünkü' ifadesi, etkileşimli kaydırıcılar) prototipini oluşturabilir ve araştırmacılar bu tasarımları kullanıcıların önüne koyarak bunların geçerli olup olmadığını görebilirler. Hedeflenen Kullanılabilirlik ve Anlaşılırlık Testi: Özellikle XAI bileşenlerini test eden araştırma çalışmaları tasarlayabiliriz. Sadece “Bunun kullanımı kolay mı?” diye sormuyoruz. “Bunu gördükten sonra sistemin neden bu ürünü önerdiğini bana kendi sözlerinizle anlatır mısınız?” diye soruyoruz. veya "Farklı bir sonuç elde edip edemeyeceğinizi görmek için bana ne yapacağınızı gösterin." Buradaki amaç, kullanılabilirliğin yanı sıra anlaşılırlığı ve eyleme geçirilebilirliği ölçmektir. Güvenin Kendisini Ölçmek: Bir açıklama gösterilmeden önce ve sonra basit anketler ve derecelendirme ölçekleri kullanabiliriz. Örneğin bir kullanıcıya 5 puanlık bir ölçekte "Bu öneriye ne kadar güveniyorsunuz?" diye sorabiliriz. "Çünkü" ifadesini görmeden önce ve daha sonra onlara tekrar sorun. Bu, açıklamalarımızın gerçekten güven konusunda ibreyi hareket ettirip ettirmediğine dair niceliksel veriler sağlar. Bu süreç güçlü, yinelenen bir döngü yaratır. Araştırma bulguları ilk tasarıma bilgi verir. Bu tasarım daha sonra test edilir ve yeni bulgular, iyileştirme için tasarım ekibine geri gönderilir. Belki "Çünkü" ifadesi fazla jargon niteliğindeydi ya da "Ya Öyle Olursa" kaydırıcısı güçlendirici olmaktan ziyade kafa karıştırıcıydı. Bu işbirliğine dayalı doğrulama yoluyla, nihai açıklamaların teknik açıdan doğru, gerçekten anlaşılır, faydalı olmasını ve ürünü kullanan kişiler için güven oluşturucu olmasını sağlıyoruz. Goldilocks Açıklama Bölgesi Kritik bir uyarı: Aşırı açıklamak mümkündür. Goldilocks'un "tam olarak doğru" yulaf lapasını aradığı masalda olduğu gibi, iyi bir açıklamanın amacı doğru miktarda ayrıntıyı sağlamaktır - ne çok fazla ne de çok az. Bir kullanıcıyı bir modeldeki her değişkenle bombardımana tutmak bilişsel aşırı yüklenmeye neden olur ve aslında güveni azaltabilir. Amaç, kullanıcıyı veri bilimcisi yapmak değildir. Çözümlerden biri aşamalı açıklamadır.

Basitle başlayın. Kısa bir “Çünkü” ifadesi ile başlayın. Çoğu kullanıcı için bu yeterli olacaktır. Detaylara giden bir yol sunun. "Daha Fazla Bilgi Edinin" veya "Bunun nasıl belirlendiğini görün" gibi net, düşük sürtünmeli bir bağlantı sağlayın. Karmaşıklığı ortaya çıkarın. Bu bağlantının arkasında etkileşimli kaydırıcıları, görselleştirmeleri veya katkıda bulunan faktörlerin daha ayrıntılı bir listesini sunabilirsiniz.

Bu katmanlı yaklaşım, kullanıcının dikkatine ve uzmanlığına saygı göstererek tam olarak doğru miktarı sağlarihtiyaçlarına yönelik bilgi sağlamak. Çeşitli faktörlere göre en uygun ısıtmayı öneren bir akıllı ev cihazı kullandığınızı düşünelim. Basit bir şekilde başlayın: "Eviniz şu anda 72 dereceye kadar ısıtılıyor; bu, enerji tasarrufu ve konfor için en uygun sıcaklıktır." Detaylara giden bir yol sunun: Bunun altında küçük bir bağlantı veya düğme: "72 derece neden en uygun?" Karmaşıklığı ortaya çıkarın: Bu bağlantıya tıkladığınızda aşağıdakileri gösteren yeni bir ekran açılabilir:

Dış sıcaklık, nem ve tercih ettiğiniz konfor düzeyi için bunların önerilen sıcaklığı nasıl ayarladığını gösteren etkileşimli kaydırıcılar. Farklı sıcaklıklarda enerji tüketiminin görselleştirilmesi. "Günün saati", "Mevcut dış sıcaklık", "Geçmişsel enerji kullanımı" ve "Doluluk sensörleri" gibi katkıda bulunan faktörlerin bir listesi.

Birden fazla XAI yöntemini birleştirmek etkilidir ve aşamalı açıklamayı savunan bu Goldilocks Açıklama Bölgesi modeli, bunu dolaylı olarak teşvik etmektedir. Hemen anlaşılması için basit bir "Çünkü" ifadesiyle (Desen 1) başlayabilir ve daha sonra daha derin keşif için bir "Ya Olursa" Etkileşimli (Desen 2) veya bir "İt ve Çek Görsel" (Desen 4) ortaya çıkaran bir "Daha Fazla Bilgi Edinin" bağlantısı sunabilirsiniz. Örneğin, bir kredi başvuru sistemi başlangıçta reddedilmenin birincil nedenini (özelliğin önemi) belirtebilir, daha sonra kullanıcının gelir veya borcundaki değişikliklerin sonucu nasıl değiştireceğini (karşı gerçekler) görmek için bir "Ya Olursa" aracıyla etkileşime girmesine izin verebilir ve son olarak tüm faktörlerin olumlu ve olumsuz katkılarını göstermek için ayrıntılı bir "İtme ve Çekme" tablosu (değere dayalı açıklama) sağlayabilir. Bu katmanlı yaklaşım, kullanıcıların ihtiyaç duydukları ayrıntı düzeyine ihtiyaç duydukları anda erişmelerine olanak tanır ve bilişsel aşırı yüklemeyi önlerken aynı zamanda kapsamlı şeffaflık sağlar. Hangi XAI araçlarının ve yöntemlerinin kullanılacağını belirlemek öncelikle kapsamlı bir kullanıcı deneyimi araştırmasının bir işlevidir. Zihinsel model görüşmeleri ve yapay zeka yolculuk haritalaması, yapay zeka anlayışı ve güveniyle ilgili kullanıcı ihtiyaçlarını ve sorunlu noktaları belirlemek için çok önemlidir. Zihinsel model görüşmeleri, temel açıklamaların (özellik önemi veya yerel açıklamalar gibi) gerekli olduğu alanları göstererek, yapay zekanın nasıl çalıştığına ilişkin kullanıcıların yanlış anlamalarını ortaya çıkarmaya yardımcı olur. Öte yandan yapay zeka yolculuk haritalaması, kullanıcının yapay zekayla etkileşimindeki kritik kafa karışıklığı veya güvensizlik anlarını tespit ederek, güveni yeniden inşa etmek ve aracılık sağlamak için daha ayrıntılı veya etkileşimli açıklamaların (karşı gerçekler veya değere dayalı açıklamalar gibi) nerede en yararlı olabileceğinin sinyalini verir.

Sonuçta, bir teknik seçmenin en iyi yolu, kullanıcı araştırmasının kararlarınıza rehberlik etmesine izin vermek, tasarladığınız açıklamaların yalnızca teknik ayrıntıları sunmak yerine, doğrudan gerçek kullanıcı sorularına ve endişelerine hitap etmesini sağlamaktır. Derin Muhakeme Ajanları için XAI Derin akıl yürütme aracıları olarak bilinen en yeni yapay zeka sistemlerinden bazıları, her karmaşık görev için açık bir "düşünce zinciri" üretir. Yalnızca kaynaklardan alıntı yapmıyorlar; bir sonuca varmak için izledikleri mantıksal ve adım adım yolu gösterirler. Bu şeffaflık değerli bir bağlam sağlarken, birkaç paragrafa yayılan bir oyun, yalnızca bir görevi tamamlamaya çalışan bir kullanıcı için bunaltıcı gelebilir. XAI'nin ilkeleri, özellikle Goldilocks Açıklama Bölgesi, burada doğrudan geçerlidir. Yalnızca nihai sonucu ve düşünce sürecindeki en dikkat çekici adımı ilk önce göstermek için aşamalı açıklamayı kullanarak yolculuğu düzenleyebiliriz. Kullanıcılar daha sonra mantığı tekrar kontrol etmeleri veya belirli bir gerçeği bulmaları gerektiğinde tam, ayrıntılı, çok adımlı muhakemeyi görmeyi tercih edebilirler. Bu yaklaşım, aracının tam şeffaflığını korurken kullanıcının dikkatine saygı gösterir. Sonraki Adımlar: XAI Yolculuğunuzu Güçlendirmek Açıklanabilirlik, güvenilir ve etkili yapay zeka ürünleri oluşturmanın temel dayanağıdır. Organizasyonlarında bu değişimi yönlendirmek isteyen ileri düzey uygulayıcılar için yolculuk, tasarım kalıplarının ötesine geçerek savunuculuğa ve sürekli öğrenmeye uzanıyor. Anlayışınızı ve pratik uygulamanızı derinleştirmek için, model davranışını ve açıklamalarını keşfetmeye yönelik etkileşimli yollar sunan IBM Research'ün AI Açıklanabilirlik 360 (AIX360) araç seti veya Google'ın What-If Tool'u gibi kaynakları keşfetmeyi düşünün. Sorumlu Yapay Zeka Forumu gibi topluluklarla veya insan merkezli yapay zekaya odaklanan belirli araştırma grupları ile etkileşime geçmek, paha biçilmez bilgiler ve işbirliği fırsatları sağlayabilir. Son olarak kendi organizasyonunuzda XAI'nin savunucusu olun.Stratejik bir yatırım olarak çerçeve açıklanabilirliği. Liderliğinize veya işlevler arası ekiplerinize kısa bir sunum yapmayı düşünün: "XAI'ye yatırım yaparak güven oluşturmanın ötesine geçeceğiz; kullanıcıların benimsenmesini hızlandıracağız, kullanıcıları anlayışla güçlendirerek destek maliyetlerini azaltacağız ve potansiyel önyargıları ortaya çıkararak önemli etik ve düzenleyici riskleri azaltacağız. Bu iyi bir tasarım ve akıllı iş."

Pratik anlayışa dayanan sesiniz, yapay zekayı kara kutudan çıkarıp kullanıcılarla işbirliğine dayalı bir ortaklığa dönüştürmede çok önemlidir.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free