Otonom aracılar için tasarım yapmak benzersiz bir hayal kırıklığı yaratır. Karmaşık bir görevi bir yapay zekaya veriyoruz, 30 saniye (veya 30 dakika) boyunca ortadan kayboluyor ve ardından bir sonuçla geri dönüyor. Ekrana bakıyoruz. İşe yaradı mı? Halüsinasyon mu gördü? Uyumluluk veritabanını kontrol etti mi yoksa bu adımı atladı mı? Genellikle bu kaygıya iki aşırı uçtan biriyle tepki veririz. Basitliği korumak için sistemi ya bir Kara Kutu olarak tutarız, her şeyi saklarız ya da panik yapıp her günlük satırını ve API çağrısını kullanıcıya aktaran bir Veri Dökümü sağlarız. Her iki yaklaşım da kullanıcılara ideal düzeyde şeffaflık sağlamak için gereken nüansı doğrudan ele almaz. Kara Kutu kullanıcıların kendilerini güçsüz hissetmelerine neden olur. Veri Dökümü, bildirim körlüğü yaratarak aracının sağlamayı vaat ettiği verimliliği ortadan kaldırır. Kullanıcılar, bir şeyler bozuluncaya kadar sürekli bilgi akışını görmezden gelirler, bu noktada onu düzeltecek bağlamdan yoksun kalırlar. Dengeyi bulmak için organize bir yola ihtiyacımız var. Önceki makalem olan "Ajanlı Yapay Zeka İçin Tasarlama"da, yapay zekanın amaçlanan eylemini önceden göstermek (Niyet Önizlemeleri) ve kullanıcılara yapay zekanın kendi başına ne kadar iş yapacağı konusunda kontrol vermek (Otonomi Aramaları) gibi güven inşa eden arayüz öğelerine baktık. Ancak hangi unsurların kullanılacağını bilmek işin sadece bir kısmıdır. Tasarımcılar için en zor soru onları ne zaman kullanacaklarını bilmektir. 30 saniyelik bir iş akışındaki hangi belirli anın Amaç Önizlemesi gerektirdiğini ve hangisinin basit bir günlük girişiyle ele alınabileceğini nasıl anlarsınız? Bu makalede bu soruyu cevaplamak için bir yöntem sunulmaktadır. Karar Düğümü Denetimini gerçekleştireceğiz. Bu süreç, tasarımcıların ve mühendislerin aynı odadaki arka uç mantığını kullanıcı arayüzüne eşlemesini sağlar. Bir kullanıcının yapay zekanın ne yaptığına ilişkin bir güncellemeye ihtiyaç duyduğu anları tam olarak nasıl belirleyeceğinizi öğreneceksiniz. Ayrıca hangi karar düğümlerinin görüntüleneceğini ve ilgili tasarım modelinin bu kararla eşleştirileceğini önceliklendirmeye yardımcı olacak bir Etki/Risk matrisini de ele alacağız. Şeffaflık Anları: Bir Vaka Çalışması Örneği İlk kaza taleplerini işleme koymak için aracı yapay zeka kullanan bir sigorta şirketi olan Meridian'ı (gerçek adı değil) düşünün. Kullanıcı, araç hasarının ve polis raporunun fotoğraflarını yükler. Temsilci daha sonra bir risk değerlendirmesi ve önerilen ödeme aralığıyla geri dönmeden önce bir dakikalığına ortadan kaybolur. Başlangıçta Meridian'ın arayüzü sadece Talep Durumu Hesaplanıyor'u gösteriyordu. Kullanıcılar hayal kırıklığına uğradı. Birkaç ayrıntılı belge sunmuşlardı ve AI'nin hafifletici nedenler içeren polis raporunu inceleyip incelemediğinden bile emin değillerdi. Kara Kutu güvensizlik yarattı. Bunu düzeltmek için tasarım ekibi bir Karar Düğümü Denetimi gerçekleştirdi. Yapay zekanın çok sayıda küçük adımın gömülü olduğu üç farklı, olasılık temelli adım gerçekleştirdiğini buldular:
Görüntü Analizi Temsilci, onarım maliyetini tahmin etmek için hasar fotoğraflarını tipik araba kazası senaryolarından oluşan bir veritabanıyla karşılaştırdı. Bu bir güven puanı içeriyordu. Metin İncelemesi Polis raporunu sorumluluğu etkileyen anahtar kelimeler (ör. arıza, hava koşulları, ayıklık) açısından taradı. Bu, hukuki durumun olasılık değerlendirmesini içeriyordu. Politika Çapraz Referansı Talep ayrıntılarını kullanıcının özel politika şartlarıyla eşleştirerek istisnaları veya kapsam sınırlarını araştırdı. Bu aynı zamanda olasılıksal eşleştirmeyi de içeriyordu.
Ekip bu adımları şeffaflık anlarına dönüştürdü. Arayüz sırası şu şekilde güncellendi:
Hasar Fotoğraflarının Değerlendirilmesi: 500 araç darbe profiliyle karşılaştırma. Polis Raporunun İncelenmesi: Sorumluluk anahtar kelimelerinin ve yasal emsallerin analiz edilmesi. Politika Kapsamının Doğrulanması: Planınızdaki belirli istisnaların kontrol edilmesi.
Sistem hâlâ aynı süreyi alıyordu ancak temsilcinin dahili işleyişine ilişkin açık iletişim, kullanıcının güvenini geri kazandı. Kullanıcılar yapay zekanın tasarlandığı karmaşık görevi yerine getirdiğini anladılar ve son değerlendirmenin hatalı görünmesi durumunda dikkatlerini tam olarak nereye odaklayacaklarını biliyorlardı. Bu tasarım seçimi, bir anlık kaygıyı kullanıcıyla bağ kurma anına dönüştürdü. Etki/Risk Matrisinin Uygulanması: Gizlemeyi Seçtiklerimiz Yapay zeka deneyimlerinin çoğunda, işleme sırasında görüntülenebilecek olay ve karar düğümleri sıkıntısı yoktur. Denetimin en kritik sonuçlarından biri nelerin gizli tutulacağına karar vermekti. Meridian örneğinde, arka uç günlükleri talep başına 50'den fazla olay üretti. Her bir olayı, kullanıcı arayüzünün bir parçası olarak işlenirken görüntülemeyi varsayılan olarak ayarlayabilirdik. Bunun yerine, bunları budamak için risk matrisini uyguladık:
Günlük Olayı: Ping SunucusuArtıklık kontrolü için Batı-2. Filtre Kararı: Gizle. (Düşük Bahisler, Yüksek Tekniklik).
Olayı Kaydet: Onarım tahmininin BlueBook değeriyle karşılaştırılması. Filtre Kararı: Göster. (Yüksek Bahisler, kullanıcının ödemesini etkiler).
Gereksiz ayrıntıların ortadan kaldırılmasıyla, kapsam doğrulaması gibi önemli bilgiler daha etkili oldu. Açık bir arayüz oluşturduk ve açık bir deneyim tasarladık. Bu yaklaşım, insanların yapılan işi gördüklerinde kendilerini daha iyi hissettikleri fikrini kullanır. Belirli adımları (Değerlendirme, Gözden Geçirme, Doğrulama) göstererek, 30 saniyelik beklemeyi endişe anından ("Kırıldı mı?") değerli bir şeyin yaratıldığını hissetme zamanına ("Düşünüyor") dönüştürdük. Şimdi net bilgi gerektiren önemli anları belirlemek için ürünlerimizdeki karar verme sürecini nasıl inceleyebileceğimize daha yakından bakalım. Karar Düğümü Denetimi Şeffaflığı işlevsel bir gereklilik olarak değil de bir stil tercihi olarak ele aldığımızda başarısız oluyoruz. "Kullanıcı arayüzü nasıl görünmeli?" diye sorma eğilimindeyiz. "Acente gerçekte neye karar veriyor?" diye sormadan önce. Karar Düğümü Denetimi, yapay zeka sistemlerinin anlaşılmasını kolaylaştırmanın basit bir yoludur. Sistemin iç sürecini dikkatli bir şekilde haritalandırarak çalışır. Ana amaç, sistemin kendi belirlediği kurallara uymayı bırakıp bunun yerine şansa veya tahmine dayalı bir seçim yaptığı anları tam olarak bulmak ve açıkça tanımlamaktır. İçerik oluşturucular bu yapıyı haritalandırarak bu belirsizlik noktalarını doğrudan sistemi kullanan kişilere gösterebilir. Bu, sistem güncellemelerini belirsiz ifadelerden yapay zekanın sonuca nasıl ulaştığına ilişkin spesifik, güvenilir raporlara dönüştürüyor. Yukarıdaki sigorta vaka çalışmasına ek olarak, yakın zamanda bir satın alma acentesi oluşturan bir ekiple çalıştım. Sistem satıcı sözleşmelerini inceledi ve riskleri işaretledi. Başlangıçta ekranda basit bir ilerleme çubuğu görüntüleniyordu: "Sözleşmeler inceleniyor." Kullanıcılar bundan nefret ediyordu. Araştırmamız, eksik bir hükmün hukuki sonuçları konusunda endişeli olduklarını gösterdi. Bunu bir Karar Düğümü Denetimi gerçekleştirerek düzelttik. Bu makalenin sonuna bu denetimi gerçekleştirmek için adım adım bir kontrol listesi ekledim. Mühendislerle bir oturum gerçekleştirdik ve sistemin nasıl çalıştığını özetledik. Yapay zekanın iki iyi seçenek arasında seçim yapmak zorunda kaldığı "Karar Noktaları"nı belirledik. Standart bilgisayar programlarında süreç açıktır: Eğer A gerçekleşirse, o zaman B her zaman olacaktır. Yapay zeka sistemlerinde süreç çoğunlukla şansa dayalıdır. Yapay zeka, A'nın muhtemelen en iyi seçim olduğunu düşünüyor ancak bu yalnızca %65 kesin olabilir. Sözleşme sisteminde yapay zekanın sorumluluk koşullarını şirket kurallarımıza göre kontrol ettiği bir an bulduk. Nadiren mükemmel bir eşleşme oldu. Yapay zekanın %90'lık bir eşleşmenin yeterince iyi olup olmadığına karar vermesi gerekiyordu. Bu önemli bir karar noktasıydı.
Bu düğümü tanımladıktan sonra onu kullanıcıya gösterdik. Arayüz, "Sözleşmelerin gözden geçirilmesi" yerine şu ifadeyi içerecek şekilde güncellendi: "Sorumluluk maddesi standart şablondan farklıdır. Risk düzeyi analiz ediliyor." Bu özel güncelleme kullanıcılara güven verdi. Temsilcinin sorumluluk maddesini kontrol ettiğini biliyorlardı. Gecikmenin nedenini anladılar ve istenen eylemin arka uçta gerçekleştiğine dair güven kazandılar. Ayrıca temsilci sözleşmeyi oluşturduğunda nerede daha derine ineceklerini de biliyorlardı. Yapay zekanın nasıl karar verdiğini kontrol etmek için mühendisleriniz, ürün yöneticileriniz, iş analistleriniz ve yapay zeka aracının işleyişini etkileyen (genellikle gizli) seçimleri yapan kilit kişilerle yakın çalışmanız gerekir. Aracın izlediği adımları çizin. Bir olasılığın karşılanması nedeniyle sürecin yön değiştirdiği her noktayı işaretleyin. Bunlar daha şeffaf olmaya odaklanmanız gereken yerlerdir. Aşağıdaki Şekil 2'de gösterildiği gibi Karar Düğümü Denetimi şu adımları içerir:
Ekibi bir araya getirin: Ürün sahiplerini, iş analistlerini, tasarımcıları, kilit karar vericileri ve yapay zekayı oluşturan mühendisleri bir araya getirin. Örneğin, Karmaşık yasal sözleşmeleri incelemek için tasarlanmış bir yapay zeka aracı geliştiren bir ürün ekibini düşünün. Ekipte UX tasarımcısı, ürün yöneticisi, UX araştırmacısı, konunun uzmanı olarak görev yapan bir avukat ve metin analizi kodunu yazan arka uç mühendisi yer alıyor.
Tüm süreci çizin: Kullanıcının ilk eyleminden nihai sonuca kadar yapay zekanın attığı her adımı belgeleyin. Ekip beyaz tahtanın başında duruyor ve yapay zekanın karmaşık bir sözleşmede sorumluluk maddesi aramasını içeren önemli bir iş akışının tüm sırasını çiziyor. Avukat yükleniyorelli sayfalık PDF → Sistem, belgeyi okunabilir metne dönüştürür. → Yapay zeka sayfaları sorumluluk hükümleri açısından tarar. → Kullanıcı bekler. → Birkaç dakika veya dakika sonra araç, bulunan paragrafları kullanıcı arayüzünde sarı renkle vurgular. Bunu, aracın barındırdığı diğer birçok iş akışı için de yaparlar.
Belirsiz olan yerleri bulun: Yapay zekanın tek bir mükemmel eşleşmesi olmayan seçenekleri veya girdileri karşılaştırdığı herhangi bir nokta için süreç haritasına bakın. Ekip belirsiz adımları görmek için beyaz tahtaya bakıyor. Bir resmi metne dönüştürmek katı kurallara tabidir. Belirli bir sorumluluk maddesinin bulunması tahmin yürütmeyi gerektirir. Her firma bu maddeleri farklı yazıyor, bu nedenle yapay zekanın tam bir kelime eşleşmesi bulmak yerine birden fazla seçeneği tartması ve bir tahminde bulunması gerekiyor.
'En iyi tahmin' adımlarını belirleyin: Belirsiz her nokta için sistemin bir güven puanı kullanıp kullanmadığını kontrol edin (örneğin, %85 emin mi?). Bunlar yapay zekanın son seçimini yaptığı noktalardır. Sistemin hangi paragraf(lar)ın standart sorumluluk hükmüne çok benzediğini tahmin etmesi (bir olasılık vermesi) gerekir. En iyi tahminine bir güven puanı atar. Bu tahmin bir karar düğümüdür. Arayüzün avukata, kesin hükmü bulduğunu belirtmek yerine potansiyel bir eşleşmeyi vurguladığını söylemesi gerekiyor.
Seçimi inceleyin: Her seçim noktası için, yapılan spesifik dahili matematiği veya karşılaştırmayı öğrenin (örneğin, bir sözleşmenin bir bölümünü bir poliçeyle eşleştirmek veya bozuk bir arabanın resmini, hasarlı araba fotoğraflarından oluşan bir kütüphaneyle karşılaştırmak). Mühendis, sistemin çeşitli paragrafları geçmiş firma davalarındaki standart sorumluluk hükümlerinden oluşan bir veri tabanıyla karşılaştırdığını açıklıyor. Olasılıklara göre bir eşleşmeye karar vermek için bir metin benzerliği puanı hesaplar.
Açık açıklamalar yazın: Yapay zeka bir seçim yaptığında gerçekleşen belirli dahili eylemi açıkça tanımlayan kullanıcı için mesajlar oluşturun. İçerik tasarımcısı tam da bu an için özel bir mesaj yazar. Metin şu şekildedir: Potansiyel sorumluluk risklerini belirlemek için belge metninin standart firma hükümleriyle karşılaştırılması.
Ekranı güncelleyin: "Sözleşmeler inceleniyor" gibi belirsiz mesajların yerine bu yeni ve net açıklamaları kullanıcı arayüzüne yerleştirin. Tasarım ekibi genel İşleme PDF yükleme döndürücüsünü kaldırır. Yapay zeka düşünürken yeni açıklamayı belge görüntüleyicinin hemen üstünde bulunan durum çubuğuna eklerler.
Güveni Kontrol Edin: Yeni ekran mesajlarının kullanıcılara herhangi bir bekleme süresi veya sonuç için basit bir neden sunduğundan emin olun; bu, kendilerini daha güvende ve güvende hissetmelerini sağlayacaktır.
Etki/Risk Matrisi Yapay zekanın sürecine yakından baktığınızda muhtemelen seçim yaptığı birçok noktayı bulacaksınız. Bir yapay zeka, tek bir karmaşık görev için düzinelerce küçük seçim yapabilir. Hepsini göstermek çok fazla gereksiz bilgi oluşmasına neden olur. Bu seçenekleri gruplandırmanız gerekir. Bu seçenekleri yapay zekanın gerçekleştirdiği eylem(ler)in türlerine göre sıralamak için Etki/Risk Matrisini kullanabilirsiniz. Etki/risk matrislerine örnekler: İlk olarak, düşük riskli ve düşük etkili kararları arayın. Düşük Riskler / Düşük Etki
Örnek: Bir dosya yapısını düzenlemek veya bir belgeyi yeniden adlandırmak. Şeffaflık İhtiyacı: Minimum. İnce bir tost bildirimi veya bir günlük girişi yeterlidir. Kullanıcılar bu eylemleri kolayca geri alabilir.
Daha sonra riskli ve etkisi yüksek kararları belirleyin. Yüksek Riskler / Yüksek Etki
Örnek: Bir kredi başvurusunun reddedilmesi veya hisse senedi ticareti yapılması. Şeffaflık İhtiyacı: Yüksek. Bu eylemler İş Kanıtı gerektirir. Sistem, eyleme geçmeden önce veya harekete geçmeden önce gerekçeyi ortaya koymalıdır.
Tüm alım/satım emirlerini aynı şekilde ele alan bir finansal ticaret botu düşünün. 50.000$'lık bir işlemle aynı opaklıkla 5$'lık bir işlem gerçekleştirir. Kullanıcılar, aracın şeffaflığın büyük miktarda dolar ticareti üzerindeki potansiyel etkisini tanıyıp tanımadığını sorgulayabilir. Sistemin yüksek riskli işlemler için çalışmasını durdurması ve göstermesi gerekiyor. Çözüm, belirli bir dolar tutarını aşan herhangi bir işlem için bir Gözden Geçirme Mantığı durumu sunarak kullanıcının, kararı yürütmeden önce yönlendiren faktörleri görmesine olanak sağlamaktır. Düğümleri Desenlerle Eşlemek: Bir Tasarım Deseni Seçim Tablosu Deneyiminizin temel karar düğümlerini belirledikten sonra, görüntüleyeceğiniz her birine hangi kullanıcı arayüzü modelinin uygulanacağına karar vermelisiniz. Agentic AI için Tasarlama'da, Amaç Önizlemesi (yüksek riskli kontrol için) ve Eylem Denetimi (geçmişe dönük güvenlik için) gibi modelleri tanıttık. Aralarında seçim yaparken belirleyici faktör tersine çevrilebilirliktir. Her birini filtreliyoruzDoğru modeli atamak için etki matrisi aracılığıyla karar düğümü: Yüksek Riskli ve Geri Dönülemez: Bu düğümler bir Amaç Önizlemesi gerektirir. Kullanıcı eylemi kolayca geri alamayacağı için (örneğin, bir veritabanını kalıcı olarak silmek), şeffaflık anının yürütmeden önce gerçekleşmesi gerekir. Sistem duraklatılmalı, amacını açıklamalı ve onay gerektirmelidir. Yüksek Riskli ve Geri Döndürülebilir: Bu düğümler, Eylem Denetimi ve Geri Alma modeline güvenebilir. Yapay zeka destekli satış temsilcisi bir müşteri adayını farklı bir kanala taşırsa, kullanıcıyı bilgilendirdiği ve anında Geri Al düğmesi sunduğu sürece bunu bağımsız olarak yapabilir. Düğümleri bu şekilde kesin bir şekilde kategorize ederek "uyarı yorgunluğunu" önlemiş oluyoruz. Yüksek sürtünmeli Niyet Önizlemesini yalnızca gerçekten geri döndürülemez anlar için saklıyor, diğer her şeyin hızını korumak için Eylem Denetimine güveniyoruz.
Tersine çevrilebilir Geri döndürülemez Düşük Etki Tür: Auto-ExecuteUI: Pasif Toast / LogEx: Bir dosyayı yeniden adlandırma Tür: ConfirmUI: Basit Geri Alma seçeneği Örn: Bir e-postayı arşivleme Yüksek Etki Tür: ReviewUI: Bildirim + İnceleme TrailEx: Müşteriye taslak gönderme Tür: Intent önizlemeUI: Modal / Explicit PermissionEx: Sunucuyu silme
Tablo 1: Etki ve tersine çevrilebilirlik matrisi daha sonra şeffaflık anlarınızı tasarım kalıplarıyla eşleştirmek için kullanılabilir. Niteliksel Doğrulama: “Bekle, Neden?” testi Potansiyel düğümleri beyaz tahta üzerinde tanımlayabilirsiniz ancak bunları insan davranışıyla doğrulamanız gerekir. Haritanızın kullanıcının zihinsel modeliyle eşleşip eşleşmediğini doğrulamanız gerekir. “Bekle, Neden?” adlı bir protokol kullanıyorum. Test. Kullanıcıdan aracının bir görevi tamamlamasını izlemesini isteyin. Yüksek sesle konuşmalarını söyleyin. Ne zaman bir soru sorsalar, “Bir dakika, bunu neden yaptı?” veya "Sıkışmış mı?" veya “Beni duydu mu?” — bir zaman damgasını işaretlersiniz. Bu sorular kullanıcıların kafa karışıklığına işaret ediyor. Kullanıcı kontrolünün elinden kayıp gittiğini hissediyor. Örneğin, bir sağlık hizmetleri planlama asistanı için yapılan bir çalışmada kullanıcılar, temsilcinin randevu almasını izledi. Ekran dört saniye boyunca statik kaldı. Katılımcılar sürekli olarak şu soruyu sordular: "Benim takvimimi mi, yoksa doktorumun takvimini mi kontrol ediyorlar?"
Bu soru, eksik bir Şeffaflık Anını ortaya çıkardı. Sistemin bu dört saniyelik beklemeyi iki farklı adıma bölmesi gerekiyordu: "Uygunluk durumunuzun kontrol edilmesi" ve ardından "Sağlayıcı programıyla senkronizasyon". Bu küçük değişiklik, kullanıcıların ifade ettiği kaygı düzeylerini azalttı. Şeffaflık yalnızca bir sistem eylemini tanımladığında başarısız olur. Arayüz, teknik süreci kullanıcının özel hedefine bağlamalıdır. "Uygunluğunuz kontrol ediliyor" ifadesini gösteren ekran, bağlam eksikliği nedeniyle başarısız oluyor. Kullanıcı yapay zekanın bir takvime baktığını anlıyor ancak nedenini bilmiyor. Eylemi sonuçla eşleştirmemiz gerekiyor. Sistemin bu dört saniyelik beklemeyi iki farklı adıma bölmesi gerekiyor. İlk olarak arayüzde "Açık saatleri bulmak için takviminiz kontrol ediliyor" mesajı görüntülenir. Daha sonra "Randevunuzu güvence altına almak için sağlayıcının programıyla senkronize ediliyor" olarak güncellenir. Bu, teknik süreci kullanıcının gerçek yaşamına dayandırır. Yerel bir kafe için envanteri yöneten bir yapay zekayı düşünün. Sistemde arz sıkıntısı yaşanıyor. "Satıcıyla iletişime geçme" veya "seçenekleri gözden geçirme" yazan bir arayüz endişe yaratır. Yönetici sistemin siparişi iptal mi ettiğini yoksa pahalı bir alternatif mi satın aldığını merak ediyor. Daha iyi bir yaklaşım amaçlanan sonucu açıklamaktır: "Cuma teslimat programınızı sürdürmek için alternatif tedarikçileri değerlendirmek." Bu, kullanıcıya yapay zekanın tam olarak neyi başarmaya çalıştığını söyler. Denetimin Operasyonelleştirilmesi Karar Düğümü Denetimini tamamladınız ve listenizi Etki ve Risk Matrisi aracılığıyla filtrelediniz. Artık şeffaf olmanız gereken önemli anların bir listesine sahipsiniz. Daha sonra bunları kullanıcı arayüzünde oluşturmanız gerekir. Bu adım farklı departmanlar arasında ekip çalışmasını gerektirir. Bir tasarım aracını kullanarak şeffaflığı tek başınıza tasarlayamazsınız. Sistemin perde arkasında nasıl çalıştığını anlamalısınız. Mantık İncelemesiyle başlayın. Lider sistem tasarımcınızla görüşün. Karar düğümlerinin haritasını getirin. Sistemin bu durumları gerçekten paylaşabildiğini doğrulamanız gerekir. Sıklıkla teknik sistemin göstermek istediğim durumu tam olarak ortaya koymadığını görüyorum. Mühendis, sistemin yalnızca genel bir "çalışma" durumu döndürdüğünü söyleyebilir. Ayrıntılı bir güncelleme için baskı yapmalısınız. Belirli bir bildirim göndermek için sisteme ihtiyacınız varmetni okumaktan kuralları kontrol etmeye geçtiğinde. Bu teknik bağlantı olmadan tasarımınızı oluşturmak imkansızdır. Daha sonra İçerik Tasarımı ekibini dahil edin. Yapay zekanın eyleminin teknik nedeni var ancak net, insan dostu bir açıklamaya ihtiyacınız var. Mühendisler temel süreci sağlar, ancak içerik tasarımcıları bu sürecin iletilme şeklini sağlar. Bu mesajları tek başınıza yazmayın. Bir geliştirici, teknik olarak doğru ancak kullanıcı için anlamsız olan "İşlev 402 çalıştırılıyor" yazabilir. Bir tasarımcı, arkadaşça ama fazlasıyla belirsiz olan "Düşünme" yazabilir. Bir içerik stratejisti doğru orta yolu bulur. Yapay zekanın kullanıcının kafasını karıştırmadan çalıştığını gösteren "Sorumluluk risklerini taramak" gibi belirli ifadeler oluştururlar. Son olarak mesajlarınızın şeffaflığını test edin. Metnin işe yarayıp yaramayacağını görmek için nihai ürünün oluşturulmasını beklemeyin. Değişen tek şeyin durum mesajı olduğu basit prototipler üzerinde karşılaştırma testleri yapıyorum. Örneğin, bir gruba (Grup A) "Kimlik doğrulanıyor" yazan bir mesaj gösteriyorum ve diğer gruba (Grup B) "Devlet veritabanları kontrol ediliyor" yazan bir mesaj gösteriyorum (bunlar uydurma örnekler, ancak siz konuyu anlıyorsunuz). Sonra onlara hangi yapay zekanın daha güvenli hissettiğini soruyorum. Çoğu zaman bazı kelimelerin endişeye yol açtığını, diğerlerinin ise güven oluşturduğunu keşfedeceksiniz. İfadeleri test etmeniz ve etkili olduğunu kanıtlamanız gereken bir şey olarak ele almalısınız. Bu Tasarım Sürecini Nasıl Değiştirir? Bu denetimlerin gerçekleştirilmesi, bir ekibin birlikte çalışmasını güçlendirme potansiyeline sahiptir. Gösterişli tasarım dosyalarını dağıtmayı bırakıyoruz. Dağınık prototipler ve paylaşılan elektronik tablolar kullanmaya başlıyoruz. Temel araç bir şeffaflık matrisi haline gelir. Mühendisler ve içerik tasarımcıları bu elektronik tabloyu birlikte düzenlerler. Teknik kodları tam olarak kullanıcının okuyacağı kelimelerle eşleştirirler. Takımlar mantık incelemesi sırasında sürtüşmelerle karşılaşacaklardır. Bir tasarımcının mühendise yapay zekanın gider raporunda gönderilen bir işlemi nasıl reddetmeye karar verdiğini sorduğunu hayal edin. Mühendis, arka ucun yalnızca "Hata: Eksik Veri" gibi genel bir durum kodu ürettiğini söyleyebilir. Tasarımcı bunun ekranda işlem yapılabilir bir bilgi olmadığını belirtiyor. Tasarımcı, belirli bir teknik kanca oluşturmak için mühendisle görüşür. Mühendis yeni bir kural yazar, böylece sistem tam olarak neyin eksik olduğunu (örneğin, eksik bir makbuz görüntüsü) bildirir. İçerik tasarımcıları bu aşamada çevirmen görevi görür. Bir geliştirici, "Satıcı eşleşmesi için güven eşiğinin hesaplanması" gibi teknik açıdan doğru bir dize yazabilir. İçerik tasarımcısı bu dizeyi belirli bir sonuç için güven oluşturan bir ifadeye çevirir. Stratejist bunu "Cuma teslimatınızı garanti altına almak için yerel satıcı fiyatlarının karşılaştırılması" olarak yeniden yazıyor. Kullanıcı eylemi ve sonucu anlar. Fonksiyonlar arası ekibin tamamı kullanıcı testi oturumlarına katılır. Gerçek bir kişinin farklı durum mesajlarına tepkisini izliyorlar. Ekranda "Ticaret yürütülüyor" yazısı nedeniyle bir kullanıcının paniğe kapıldığını görmek, ekibi yaklaşımlarını yeniden düşünmeye zorlar. Mühendisler ve tasarımcılar daha iyi ifadeler üzerinde anlaşıyorlar. Hisse senedi satın almadan önce metni "Yeterli fonun doğrulanması" olarak değiştiriyorlar. Birlikte test etmek, nihai arayüzün hem sistem mantığına hem de kullanıcının gönül rahatlığına hizmet etmesini garanti eder. Bu ek etkinlikleri ekibin takvimine dahil etmek zaman gerektirir. Ancak nihai sonuç, daha açık bir şekilde iletişim kuran bir ekip ve yapay zeka destekli araçların kendileri adına ne yaptığını (ve nedenini) daha iyi anlayan kullanıcılar olmalıdır. Bu entegre yaklaşım, gerçekten güvenilir yapay zeka deneyimleri tasarlamanın temel taşıdır. Güven Bir Tasarım Seçimidir Güveni genellikle iyi bir kullanıcı deneyiminin duygusal bir yan ürünü olarak görüyoruz. Güveni öngörülebilir iletişimin mekanik bir sonucu olarak görmek daha kolaydır. Doğru bilgiyi doğru zamanda göstererek güven inşa ediyoruz. Kullanıcıyı bunaltarak veya makineyi tamamen saklayarak onu yok ediyoruz. Özellikle ajansal yapay zeka araçları ve ürünleri için Karar Düğümü Denetimi ile başlayın. Sistemin karar çağrısı yaptığı anları bulun. Bu anları Risk Matrisiyle eşleştirin. Risk yüksekse kutuyu açın. Çalışmayı göster. Bir sonraki makalede bu anların nasıl tasarlanacağına bakacağız: kopyanın nasıl yazılacağı, kullanıcı arayüzünün nasıl yapılandırılacağı ve aracı yanlış anladığında kaçınılmaz hataların nasıl ele alınacağı. Ek: Karar Düğümü Denetim Kontrol Listesi Aşama 1: Kurulum ve Haritalama ✅ Ekibi bir araya getirin: Ürün sahiplerini, iş analistlerini, tasarımcıları,kilit karar vericiler ve yapay zekayı oluşturan mühendisler. İpucu: Gerçek arka uç mantığını açıklamak için mühendislere ihtiyacınız var. Bu adımı tek başınıza denemeyin. ✅ Tüm süreci çizin: Kullanıcının ilk eyleminden nihai sonuca kadar yapay zekanın attığı her adımı belgeleyin. İpucu: Fiziksel bir beyaz tahta oturumu genellikle bu ilk adımları belirlemek için en iyi sonucu verir. Aşama 2: Gizli Mantığın Bulunması ✅ Belirsiz olan yerleri bulun: Yapay zekanın tek bir mükemmel eşleşmesi olmayan seçenekleri veya girdileri karşılaştırdığı herhangi bir nokta için süreç haritasına bakın. ✅ En iyi tahmin adımlarını belirleyin: Her belirsiz nokta için sistemin bir güven puanı kullanıp kullanmadığını kontrol edin. Örneğin sistemin yüzde 85 emin olup olmadığını sorun. Bunlar yapay zekanın son seçimini yaptığı noktalardır. ✅ Seçimi inceleyin: Her seçim noktası için, yapılan spesifik dahili matematiği veya karşılaştırmayı anlayın. Bir sözleşmenin bir bölümünü bir politikayla eşleştirmek buna bir örnektir. Başka bir örnek, bozuk bir arabanın resmini, hasarlı araba fotoğraflarından oluşan bir kütüphaneyle karşılaştırmayı içerir. Aşama 3: Kullanıcı Deneyiminin Oluşturulması ✅ Net açıklamalar yazın: Kullanıcı için yapay zeka bir seçim yaptığında gerçekleşen belirli dahili eylemi net bir şekilde açıklayan mesajlar oluşturun. İpucu: Mesajlarınızı somut gerçekliğe dayandırın. Bir yapay zeka, yerel bir kafede bir müşteriyle toplantı rezervasyonu yaparsa kullanıcıya sistemin kafe rezervasyon sistemini kontrol ettiğini söyleyin. ✅ Ekranı güncelleyin: Bu yeni, net açıklamaları kullanıcı arayüzüne yerleştirin. Sözleşmelerin gözden geçirilmesi gibi belirsiz mesajları özel açıklamalarınızla değiştirin. ✅ Güveni Kontrol Edin: Yeni ekran mesajlarının kullanıcılara herhangi bir bekleme süresi veya sonuç için basit bir neden sunduğundan emin olun. Bu onların kendinden emin ve güvenilir hissetmelerini sağlamalıdır. İpucu: Elde edilen spesifik sonucu anladıklarını doğrulamak için bu mesajları gerçek kullanıcılarla test edin.