Agentic AI, müşteri deneyimini ve operasyonel verimliliği dönüştürmeye hazır ve liderlikten yeni bir stratejik yaklaşım gerektiriyor. Yapay zekadaki bu evrim, basit önerilerin ötesinde proaktif eyleme geçerek sistemlerin görevleri planlamasını, yürütmesini ve sürdürmesini sağlar. UX ekipleri, ürün yöneticileri ve yöneticiler için bu değişimi anlamak, inovasyondaki fırsatların ortaya çıkarılması, iş akışlarının kolaylaştırılması ve teknolojinin insanlara nasıl hizmet ettiğini yeniden tanımlamak açısından çok önemlidir. Agentic AI'yi, bilgisayarlarda gerçekleştirilen kurallara dayalı görevlere odaklanan bir teknoloji olan Robotik Süreç Otomasyonu (RPA) ile karıştırmak kolaydır. Aradaki fark katılığa karşı akıl yürütmede yatmaktadır. RPA katı bir senaryoyu takip etme konusunda mükemmeldir: X gerçekleşirse Y yapın. İnsan elini taklit eder. Ajan AI, insan muhakemesini taklit eder. Doğrusal bir senaryoyu takip etmez; bir tane yaratır. Bir işe alım iş akışını düşünün. Bir RPA botu bir özgeçmişi tarayıp bir veritabanına yükleyebilir. Tekrarlanan bir görevi mükemmel bir şekilde yerine getirir. Bir Temsilci sistemi özgeçmişe bakar, adayın belirli bir sertifikayı listelediğini fark eder, bunu yeni bir müşteri gereksinimiyle çapraz referanslar yapar ve bu eşleşmeyi vurgulayan kişiselleştirilmiş bir sosyal yardım e-postası taslağı hazırlamaya karar verir. RPA önceden tanımlanmış bir planı yürütür; Agentic AI, planı bir hedefe göre formüle eder. Bu özerklik, aracıları son on yıldır kullandığımız tahmin araçlarından ayırıyor. Başka bir örnek, toplantı çatışmalarını yönetmektir. Takviminize entegre edilen tahmine dayalı bir model, toplantı programınızı ve iş arkadaşlarınızın programlarını analiz edebilir. Daha sonra, aynı anda planlanan iki önemli toplantı veya önemli bir katılımcının tatilde olduğu bir zamanda planlanan bir toplantı gibi potansiyel çatışmalara işaret edebilir. Size bilgi sağlar ve olası sorunları işaretler, ancak harekete geçmekten siz sorumlusunuz. Aynı senaryoda, ajansal bir yapay zeka kaçınılması gereken çatışmaları önermenin ötesine geçecektir. Kilit bir katılımcıyla bir çatışma tespit edildiğinde temsilci şu şekilde hareket edebilir:
Gerekli tüm katılımcıların uygunluğunun kontrol edilmesi. Herkesin işine yarayacak alternatif zaman aralıklarının belirlenmesi. Önerilen yeni toplantı davetiyelerinin tüm katılımcılara gönderilmesi. Çatışmanın harici bir katılımcıyla olması durumunda temsilci, yeniden planlama ihtiyacını açıklayan ve alternatif zamanlar sunan bir e-posta taslağı hazırlayıp gönderebilir. Onaylandıktan sonra takviminizi ve iş arkadaşlarınızın takvimlerini yeni toplantı ayrıntılarıyla güncelleyin.
Bu aracı yapay zeka, hedefi anlar (toplantı çatışmasını çözmek), adımları planlar (uygunluk durumunu kontrol etmek, alternatifler bulmak, davet göndermek), bu adımları yürütür ve çatışma çözülene kadar devam eder; üstelik tüm bunları minimum doğrudan kullanıcı müdahalesiyle gerçekleştirir. Bu, “acente” farkını ortaya koyuyor: Sistem, kullanıcıya yalnızca bilgi sağlamak yerine, kullanıcı için proaktif adımlar atıyor. Ajansal yapay zeka sistemleri bir hedefi anlar, ona ulaşmak için bir dizi adım planlar, bu adımları uygular ve hatta işler ters giderse uyum sağlar. Bunu proaktif bir dijital asistan gibi düşünün. Temel teknoloji genellikle anlama ve muhakeme için büyük dil modellerini (LLM'ler) karmaşık görevleri yönetilebilir eylemlere ayıran planlama algoritmalarıyla birleştirir. Bu aracılar, hedeflerine ulaşmak için çeşitli araçlarla, API'lerle ve hatta diğer yapay zeka modelleriyle etkileşime girebilir ve daha da önemlisi, kalıcı bir durumu koruyabilirler; bu, önceki eylemleri hatırladıkları ve zaman içinde bir hedefe doğru çalışmaya devam ettikleri anlamına gelir. Bu onları, genellikle tek bir isteği tamamlayıp ardından sıfırlayan tipik üretken yapay zekadan temelde farklı kılıyor. Fail Davranışların Basit Bir Taksonomisi Etmen davranışını dört farklı özerklik moduna ayırabiliriz. Bunlar çoğu zaman bir ilerleme gibi görünse de bağımsız çalışma modları olarak işlev görür. Bir kullanıcı, planlama konusunda bağımsız hareket etme konusunda bir aracıya güvenebilir, ancak finansal işlemler için onu "öneri modunda" tutabilir. Bu seviyeleri, otonom araçlara yönelik endüstri standartlarını (SAE seviyeleri) dijital kullanıcı deneyimi bağlamlarına uyarlayarak elde ettik. Gözlemle ve Öner Aracı bir monitör görevi görür. Veri akışlarını analiz eder ve anormallikleri veya fırsatları işaretler ancak hiçbir eylemde bulunmaz. Farklılaştırma Bir sonraki seviyeden farklı olarak, temsilci karmaşık bir plan oluşturmaz. Bir soruna işaret ediyor. Örnek Bir DevOps aracısı, sunucu CPU'sunda bir artış olduğunu fark eder ve çağrı üzerine mühendisi uyarır. Bunu nasıl düzelteceğini veya düzeltmeye çalışacağını bilmiyor ama bir şeylerin yanlış olduğunu biliyor. Tasarım ve gözetim açısından çıkarımlarBu düzeyde,tasarım ve gözetim, açık, müdahaleci olmayan bildirimlere ve kullanıcıların önerilere göre harekete geçmesi için iyi tanımlanmış bir sürece öncelik vermelidir. Odak noktası, kontrolü ele almadan kullanıcıyı zamanında ve ilgili bilgilerle güçlendirmektir. UX uygulayıcıları önerileri açık ve anlaşılır hale getirmeye odaklanmalı, ürün yöneticileri ise sistemin kullanıcıyı bunaltmadan değer sağladığından emin olmalıdır. Planla ve Öner Temsilci bir hedef belirler ve bu hedefe ulaşmak için çok adımlı bir strateji oluşturur. İnsanların incelemesine yönelik tam plan sunar. Farklılaştırma Temsilci bir strateji uzmanı olarak hareket eder. Yürütülmüyor; tüm yaklaşımın onayını bekler. ÖrnekAynı DevOps aracısı CPU artışını fark eder, günlükleri analiz eder ve bir iyileştirme planı önerir:
İki ekstra örneği döndürün. Yük dengeleyiciyi yeniden başlatın. Eski günlükleri arşivleyin.
İnsan mantığı gözden geçirir ve “Planı Onayla”ya tıklar. Tasarım ve gözetim açısından çıkarımlar Planlayan ve teklif eden aracılar için tasarım, önerilen planların kolayca anlaşılabilmesini ve kullanıcıların bunları değiştirmek veya reddetmek için sezgisel yollara sahip olmasını sağlamalıdır. Tekliflerin kalitesinin ve acentenin planlama mantığının izlenmesinde gözetim çok önemlidir. UX uygulayıcıları önerilen planların net görselleştirmelerini tasarlamalı ve ürün yöneticileri net inceleme ve onay iş akışları oluşturmalıdır. Onay ile Harekete Geç Temsilci tüm hazırlık çalışmalarını tamamlar ve son eylemi aşamalı bir duruma getirir. Bir baş sallamayı bekleyerek kapıyı etkili bir şekilde açık tutar. Farklılaştırma Bu, “Planla ve Teklif Et”ten farklıdır çünkü iş zaten yapılmış ve sahnelenmiştir. Sürtünmeyi azaltır. Kullanıcı stratejiyi değil sonucu onaylar. Örnek Bir işe alım temsilcisi beş görüşme davetiyesi taslağı hazırlar, takvimlerde açık saatleri bulur ve takvim etkinliklerini oluşturur. Bir “Tümünü Gönder” düğmesi sunar. Kullanıcı, harici eylemi tetiklemek için son yetkilendirmeyi sağlar. Tasarım ve gözetim açısından çıkarımlar Temsilciler onay alarak hareket ettiğinde, tasarım, potansiyel sonuçları açıkça belirten, amaçlanan eylemin şeffaf ve kısa özetlerini sağlamalıdır. Gözetim, onay sürecinin sağlam olduğunu ve kullanıcılardan körü körüne eylemleri onaylamalarının istenmediğini doğrulamalıdır. UX uygulayıcıları, açık ve gerekli tüm bilgileri sağlayan onay istemleri tasarlamalı ve ürün yöneticileri, onaylanmış tüm eylemler için sağlam bir denetim takibine öncelik vermelidir. Bağımsız Hareket Etme Aracı, görevleri tanımlanmış sınırlar dahilinde bağımsız olarak yürütür. FarklılaştırmaKullanıcı eylemlerin kendisini değil, eylemlerin geçmişini inceler. Örnek İşe alım temsilcisi bir çatışma görür, görüşmeyi yedek bir yuvaya taşır, adayı günceller ve işe alma yöneticisine bildirir. İnsan yalnızca bir bildirim görüyor: Röportaj Salı gününe ertelendi. Tasarım ve gözetim açısından çıkarımlar Otonom aracılar için tasarımın önceden onaylanmış net sınırlar oluşturması ve sağlam izleme araçları sağlaması gerekir. Gözetim, aracının performansının bu sınırlar dahilinde sürekli olarak değerlendirilmesini, sağlam günlük kaydına yönelik kritik bir ihtiyacı, açık geçersiz kılma mekanizmalarını ve kullanıcı kontrolünü ve güvenini sürdürmek için kullanıcı tanımlı durdurma anahtarlarını gerektirir. Kullanıcı deneyimi uygulayıcıları, otonom temsilci davranışını izlemek için etkili gösterge tabloları tasarlamaya odaklanmalı ve ürün yöneticileri, açık yönetişim ve etik kuralların yürürlükte olduğundan emin olmalıdır.
Bu modları çalışırken görmek için İK teknolojisindeki gerçek dünyadaki bir uygulamaya bakalım. İşe alma lojistiğini yönetmek için tasarlanmış bir "Mülakat Koordinasyon Temsilcisi" düşünün.
Öneri Modunda Temsilci, görüşmecinin iki kez randevu aldığını fark eder. İşe alma görevlisinin panosundaki çatışmayı vurguluyor: "Uyarı: Sarah'ya öğleden sonra 2'deki görüşme için iki kez randevu verildi." Plan Modunda Temsilci, Sarah'nın takvimini ve adayın müsaitlik durumunu analiz eder. Bir çözüm sunuyor: "Görüşmeyi Perşembe sabah 10'a taşımanızı öneriyorum. Bu, Sarah'nın menajeriyle 1:1 görüşmesini gerektiriyor." İşveren bu mantığı gözden geçirir. Onay Modunda Temsilci, adaya ve yöneticiye gönderilen e-postaların taslağını hazırlar. Takvim davetlerini doldurur. İşe alma görevlisi bir özet görür: "Perşembe gününe yeniden planlamaya hazırsınız. Güncelleme gönderilsin mi?" İşveren "Onayla"yı tıklar. Otonom Modda Temsilci, çatışmayı anında yönetir. Önceden belirlenmiş bir kurala saygı duyar: "Dahili 1:1 görüşme yerine aday görüşmelerine her zaman öncelik verin." Toplantıyı taşır ve bildirimleri gönderir. İşveren bir günlük girişi görür: "ÇözümlendiAday B için program çakışması.”
Araştırma Astarı: Neyi Araştırmalı ve Nasıl Araştırmalı Etkili ajansal yapay zeka geliştirmek, geleneksel yazılıma ve hatta üretken yapay zekaya kıyasla farklı bir araştırma yaklaşımı gerektirir. Yapay zeka aracılarının özerk doğası, karar verme yetenekleri ve proaktif eylem potansiyelleri, kullanıcı beklentilerini anlamak, karmaşık aracı davranışlarını haritalamak ve olası hataları tahmin etmek için özel metodolojiler gerektirir. Aşağıdaki araştırma primeri, ajansal yapay zekanın bu benzersiz yönlerini ölçmek ve değerlendirmek için temel yöntemleri özetlemektedir. Zihinsel Model Röportajları Bu röportajlar, kullanıcıların bir yapay zeka aracısının nasıl davranması gerektiğine ilişkin önyargılarını ortaya çıkarıyor. Kullanıcıların basitçe ne istediğini sormak yerine, aracının yetenekleri ve sınırlamalarına ilişkin dahili modellerin anlaşılmasına odaklanılır. Katılımcılarla konuşurken “acente” kelimesini kullanmaktan kaçınmalıyız. Bilim kurgu bagajı taşır veya destek veya hizmet sunan bir insan temsilciyle kolayca karıştırılan bir terimdir. Bunun yerine tartışmayı "asistanlar" veya "sistem" etrafında çerçeveleyin. Kullanıcıların yardımcı otomasyon ile müdahaleci kontrol arasındaki çizgiyi nerede çizdiğini ortaya çıkarmamız gerekiyor.
Yöntem: Kullanıcılardan aracıyla beklenen etkileşimlerini çeşitli varsayımsal senaryolarda tanımlamalarını, çizmelerini veya anlatmalarını isteyin. Temel Problar (çeşitli endüstrileri yansıtan): İstenilen otomasyonun sınırlarını ve aşırı otomasyona ilişkin potansiyel kaygıları anlamak için şunları sorun: Uçuşunuz iptal edilirse sistemin otomatik olarak ne yapmasını istersiniz? Bunu sizin açık talimatınız olmadan yapsaydı sizi ne endişelendirirdi?
Kullanıcının, aracının dahili süreçlerine ve gerekli iletişime ilişkin anlayışını keşfetmek için şunları sorun: Akıllı evinizi bir dijital asistanın yönettiğini hayal edin. Bir paket teslim edilirse, hangi adımların atılacağını düşünüyorsunuz ve hangi bilgilerin alınmasını beklersiniz?
Çok adımlı bir süreçte kontrol ve rızaya ilişkin beklentileri ortaya çıkarmak için şunları sorun: Dijital asistanınızdan bir toplantı planlamasını isterseniz bunun hangi adımları atacağını düşünüyorsunuz? Hangi noktalarda size danışılmasını veya size seçenekler sunulmasını istersiniz?
Yöntemin faydaları: Örtük varsayımları ortaya çıkarır, aracının planlanan davranışının kullanıcı beklentilerinden farklı olabileceği alanları vurgular ve uygun kontrollerin ve geri bildirim mekanizmalarının tasarımına bilgi verir.
Temsilci Yolculuğu Haritalaması: Geleneksel kullanıcı yolculuğu haritalamasına benzer şekilde, temsilci yolculuğu haritalaması, kullanıcının etkileşiminin yanı sıra özellikle AI aracısının beklenen eylemlerine ve karar noktalarına odaklanır. Bu, potansiyel tuzakların proaktif olarak belirlenmesine yardımcı olur.
Yöntem: Tüm potansiyel eylemler, kararlar ve harici sistemler veya kullanıcılarla etkileşimler dahil olmak üzere, bir aracının işleminin başlangıcından tamamlanmasına kadar çeşitli aşamalarını özetleyen görsel bir harita oluşturun. Haritalanacak Temel Unsurlar: Temsilci Eylemleri: Temsilci hangi belirli görevleri veya kararları gerçekleştirir? Bilgi Girişleri/Çıktıları: Aracının hangi verilere ihtiyacı var ve hangi bilgileri üretiyor veya iletiyor? Karar Noktaları: Temsilci nerede seçim yapıyor ve bu seçimlerin kriterleri nelerdir? Kullanıcı Etkileşim Noktaları: Kullanıcı girdiyi nerede sağlıyor, eylemleri inceliyor veya onaylıyor? Başarısızlık Noktaları: En önemlisi, temsilcinin talimatları yanlış yorumlayabileceği, yanlış karar verebileceği veya yanlış kuruluşla etkileşime girebileceği belirli durumları belirleyin. Örnekler: Yanlış alıcı (ör. hassas bilgilerin yanlış kişiye gönderilmesi), kredili mevduat hesabı (ör. mevcut fonu aşan otomatik ödeme), niyetin yanlış yorumlanması (ör. belirsiz dil nedeniyle yanlış tarih için uçuş rezervasyonu).
Kurtarma Yolları: Aracı veya kullanıcı bu hatalardan nasıl kurtulabilir? Düzeltme veya müdahale için hangi mekanizmalar mevcuttur?
Yöntemin faydaları: Aracının operasyonel akışına ilişkin bütünsel bir görünüm sağlar, gizli bağımlılıkları ortaya çıkarır ve olumsuz sonuçları önlemek veya azaltmak için korumaların, hata yönetiminin ve kullanıcı müdahale noktalarının proaktif tasarımına olanak tanır.
Simüle Edilmiş Kötü Davranış Testi: Bu yaklaşım, sisteme stres testi yapmak ve yapay zeka aracısı başarısız olduğunda veya beklentilerden saptığında kullanıcı tepkilerini gözlemlemek için tasarlanmıştır. Olumsuz durumlarda güven onarımını ve duygusal tepkileri anlamakla ilgilidir.
Yöntem: Kontrollü laboratuvar çalışmalarında, aracının hata yaptığı, bir komutu yanlış yorumladığı veya beklenmedik şekilde davrandığı senaryoları kasıtlı olarak tanıtın. Simüle Edilecek “Kötü Davranış” Türleri: KomutYanlış yorumlama: Temsilci, kullanıcının amaçladığından biraz farklı bir eylem gerçekleştirir (örneğin, bir yerine iki öğe sipariş etmek). Bilgi Aşırı Yüklemesi/Eksik Yüklemesi: Aracı, çok fazla alakasız bilgi sağlıyor veya yeterince kritik ayrıntı sunmuyor. İstenmeyen Eylem: Temsilci, kullanıcının açıkça istemediği veya beklemediği bir eylemde bulunur (örneğin, onay olmadan hisse satın almak). Sistem Arızası: Aracı çöküyor, yanıt vermiyor veya bir hata mesajı veriyor. Etik İkilemler: Temsilci, etik sonuçları olan bir karar verir (örneğin, öngörülemeyen bir ölçüme dayanarak bir göreve diğerine göre öncelik vermek).
Gözlem Odağı: Kullanıcı Tepkileri: Kullanıcılar duygusal olarak nasıl tepki veriyorlar (hayal kırıklığı, öfke, kafa karışıklığı, güven kaybı)? Kurtarma Girişimleri: Kullanıcılar, aracının davranışını düzeltmek veya eylemlerini geri almak için hangi adımları atıyor? Güven Onarım Mekanizmaları: Sistemin yerleşik kurtarma veya geri bildirim mekanizmaları güvenin yeniden sağlanmasına yardımcı oluyor mu? Kullanıcılar hatalardan nasıl haberdar olmak istiyor? Zihinsel Model Değişimi: Yanlış davranış, kullanıcının aracının yetenekleri veya sınırlamaları hakkındaki anlayışını değiştiriyor mu?
Yöntemin faydaları: Hata giderme, geri bildirim ve kullanıcı kontrolü ile ilgili tasarım boşluklarını belirlemek için çok önemlidir. Kullanıcıların aracı hatalarına karşı ne kadar dayanıklı olduğuna ve güveni korumak veya yeniden inşa etmek için nelere ihtiyaç duyulduğuna dair bilgiler sağlayarak daha sağlam ve bağışlayıcı aracı sistemlere yol açar.
UX uygulayıcıları, bu araştırma metodolojilerini entegre ederek, aracı sistemleri kullanılabilir hale getirmenin ötesine geçerek onları güvenilir, kontrol edilebilir ve hesap verebilir hale getirebilir, kullanıcılar ile yapay zeka aracıları arasında olumlu ve üretken bir ilişki geliştirebilirler. Ajansal yapay zekayı etkili bir şekilde keşfetmeye yönelik tek yöntemin bunların olmadığını unutmayın. Başka birçok yöntem mevcuttur, ancak bunlar yakın vadede uygulayıcılar için en erişilebilir olanlardır. Daha önce biraz daha gelişmiş bir kavram testi yöntemi olan ve aynı zamanda etmensel yapay zeka kavramlarını keşfetmek için değerli bir araç olan Oz Büyücüsü yöntemini ele almıştım. Araştırma Metodolojisinde Etik Hususlar Fail yapay zekayı araştırırken, özellikle uygunsuz davranışları veya hataları simüle ederken, etik hususların dikkate alınması önemlidir. Smashing Magazine için yazdığım bir makale, UX Design Institute'un bu yönergeleri ve Inclusive Design Toolkit'ten bu sayfa da dahil olmak üzere, etik UX araştırmalarına odaklanan birçok yayın var. Ajansal Yapay Zeka İçin Temel Metrikler Ajansal yapay zeka sistemlerinin performansını ve güvenilirliğini etkili bir şekilde değerlendirmek için kapsamlı bir dizi temel ölçüme ihtiyacınız olacak. Bu ölçümler kullanıcı güveni, sistem doğruluğu ve genel kullanıcı deneyimi hakkında bilgiler sağlar. Geliştiriciler ve tasarımcılar bu göstergeleri takip ederek iyileştirilecek alanları belirleyebilir ve yapay zeka aracılarının güvenli ve verimli bir şekilde çalışmasını sağlayabilir. 1. Müdahale Oranı Otonom aracılar için başarıyı sessizlikle ölçeriz. Bir aracı bir görevi yürütürse ve kullanıcı belirli bir süre içinde (örneğin 24 saat) müdahale etmez veya eylemi geri almazsa, bunu kabul olarak sayarız. Müdahale Oranını takip ediyoruz: Bir insan, ajanı durdurmak veya düzeltmek için ne sıklıkla devreye giriyor? Yüksek müdahale oranı, güven veya mantıkta bir yanlış hizalamaya işaret eder. 2. 1.000 Görev Başına İstenmeyen Eylemlerin Sıklığı Bu kritik ölçüm, yapay zeka aracısı tarafından gerçekleştirilen, kullanıcı tarafından istenmeyen veya beklenmeyen eylemlerin sayısını, tamamlanan 1.000 görev başına normalize ederek ölçer. İstenmeyen eylemlerin sıklığının düşük olması, kullanıcının amacını doğru şekilde yorumlayan ve tanımlanmış sınırlar dahilinde çalışan, iyi hizalanmış bir yapay zeka anlamına gelir. Bu ölçüm, yapay zekanın bağlam anlayışına, komutları netleştirme becerisine ve güvenlik protokollerinin sağlamlığına yakından bağlıdır. 3. Geri Alma veya Geri Alma Oranları Bu ölçüm, kullanıcıların yapay zeka tarafından gerçekleştirilen bir eylemi ne sıklıkla geri alması veya geri alması gerektiğini izler. Yüksek geri alma oranları, yapay zekanın sık sık hata yaptığını, talimatları yanlış yorumladığını veya kullanıcı beklentilerine uygun olmayan şekillerde hareket ettiğini gösteriyor. Bu geri alma işlemlerinin ardındaki nedenleri analiz etmek, yapay zekanın algoritmalarını geliştirmek, kullanıcı tercihlerini anlamak ve arzu edilen sonuçları tahmin etme becerisini geliştirmek için değerli geri bildirimler sağlayabilir. Nedenini anlamak için geri alma eylemiyle ilgili bir mikro anket uygulamanız gerekir. Örneğin, bir kullanıcı bir planlama değişikliğini tersine çevirdiğinde basit bir komut şu soruyu sorabilir: "Yanlış zaman mı? Yanlış kişi mi? Yoksa bunu kendin mi yapmak istedin?" Kullanıcının kendi mantığına en uygun olan seçeneğe tıklamasına izin vermek. 4. Bir Hatadan Sonra Çözüme Kalan SüreBu ölçümBir kullanıcının yapay zeka tarafından yapılan bir hatayı düzeltmesi veya yapay zeka sisteminin hatalı bir durumdan kurtulması için geçen süreyi ölçer. Çözüme giden kısa süre, etkili ve kullanıcı dostu bir hata kurtarma sürecini gösterir; bu da kullanıcının hayal kırıklığını azaltabilir ve üretkenliği koruyabilir. Buna, hatayı tanımlama kolaylığı, geri alma veya düzeltme mekanizmalarının erişilebilirliği ve yapay zeka tarafından sağlanan hata mesajlarının netliği de dahildir.
Bu metriklerin toplanması, sisteminizin Temsilci Eylem Kimliklerini izleyecek şekilde ayarlanmasını gerektirir. Bir program önermek veya uçuş rezervasyonu yapmak gibi acentenin gerçekleştirdiği her farklı eylem, günlüklerde kalıcı olan benzersiz bir kimlik oluşturmalıdır. Müdahale Oranını ölçmek için kullanıcının anında tepki vermesini beklemiyoruz. Tanımlanmış bir pencere içinde bir karşı eylemin bulunmamasını ararız. Bir Eylem Kimliği sabah 9:00'da oluşturulursa ve ertesi gün sabah saat 9:00'a kadar hiçbir insan kullanıcı bu belirli kimliği değiştirmezse veya geri döndürmezse, sistem bunu mantıksal olarak Kabul Edildi olarak etiketler. Bu, aktif onaylama yerine kullanıcının sessizliğine dayalı olarak başarıyı ölçmemize olanak tanır. Geri Alma Oranları için ham sayımlar, bağlamdan yoksun olduğundan yetersizdir. Temel nedeni yakalamak için uygulamanızın Geri Al veya Geri Döndür işlevlerine müdahale mantığını uygulamanız gerekir. Kullanıcı, aracı tarafından başlatılan bir eylemi geri aldığında, hafif bir mikro anketi tetikleyin. Bu, kullanıcıdan hatayı gerçekte yanlış, bağlamdan yoksun olarak sınıflandırmasını isteyen basit bir üç seçenekli model veya görevi manuel olarak ele alma yönünde basit bir tercih olabilir. Bu, niceliksel telemetriyi niteliksel içgörüyle birleştirir. Mühendislik ekiplerinin bozuk bir algoritma ile kullanıcı tercihi uyumsuzluğu arasında ayrım yapmasına olanak tanır. Bu ölçümler tutarlı bir şekilde izlendiğinde ve bütünsel olarak analiz edildiğinde, ajansal yapay zeka sistemlerinin performansını değerlendirmek için sağlam bir çerçeve sağlayarak kontrol, onay ve hesap verebilirlik konularında sürekli iyileştirmeye olanak tanır. Aldatmaya Karşı Tasarlamak Ajanlar giderek daha yetenekli hale geldikçe yeni bir riskle karşı karşıyayız: Ajan Çamuru. Geleneksel çamur, bir aboneliğin iptal edilmesini veya bir hesabın silinmesini zorlaştıran sürtünme yaratır. Ajan çamuru ters etki gösterir. Bir hatanın yarattığı sürtünmeyi ortadan kaldırarak kullanıcının kendi çıkarlarından ziyade işe fayda sağlayan bir eylemi kabul etmesini çok kolaylaştırır. Seyahat rezervasyonuna yardımcı olan bir acenteyi düşünün. Net korkuluklar olmadan sistem, ortak bir havayolu şirketine veya daha yüksek marjlı bir otele öncelik verebilir. Bu seçimi en uygun yol olarak sunar. Kullanıcı, sistemin otoritesine güvenerek, tavsiyeyi incelemeden kabul eder. Bu, sistemin kolaylık kisvesi altında gelir için optimizasyon yaptığı aldatıcı bir model yaratır. Yanlış Hayal Edilmiş Yetkinlik Riski Aldatma kötü niyetten kaynaklanmayabilir. Genellikle Yapay Zekada Hayali Yetkinlik olarak ortaya çıkar. Büyük Dil Modelleri yanlış olsa bile sıklıkla otoriter görünür. Doğrulanmış bir gerçekle aynı güvenle, sahte bir rezervasyon onayı veya hatalı bir özet sunarlar. Kullanıcılar bu kendinden emin ses tonuna doğal olarak güvenebilirler. Bu uyumsuzluk, sistem kapasitesi ile kullanıcı beklentileri arasında tehlikeli bir boşluk yaratır. Bu açığı kapatmak için özel olarak tasarım yapmalıyız. Bir aracı bir görevi tamamlayamazsa, arayüz bu başarısızlığı açıkça belirtmelidir. Eğer sistem emin değilse, belirsizliği gösterişli bir dille maskelemek yerine ifade etmelidir. Primitives aracılığıyla Şeffaflık Hem çamurun hem de halüsinasyonun panzehiri menşedir. Her otonom eylem, kararın kaynağını açıklayan belirli bir meta veri etiketi gerektirir. Kullanıcıların sonucun arkasındaki mantık zincirini inceleme yeteneğine ihtiyacı vardır. Bunu başarmak için ilkelleri pratik cevaplara çevirmeliyiz. Yazılım mühendisliğinde ilkeller, bir aracının gerçekleştirdiği temel bilgi birimlerini veya eylemleri ifade eder. Mühendise göre bu bir API çağrısına veya mantık kapısına benziyor. Kullanıcıya net bir açıklama olarak görünmelidir. Tasarımın zorluğu, bu teknik adımların insan tarafından okunabilen gerekçelerle eşleştirilmesinde yatmaktadır. Bir acente belirli bir uçuşu tavsiye ederse kullanıcının bunun nedenini bilmesi gerekir. Arayüz genel bir önerinin arkasına saklanamaz. Temel temel öğeyi açığa çıkarmalıdır: Mantık: Cheapest_Direct_Flight veya Mantık: Partner_Airline_Priority. Şekil 4 bu çeviri akışını göstermektedir. Ham sistemin ilkelini (gerçek kod mantığını) alıyoruz ve onu kullanıcıya yönelik bir dizeyle eşleştiriyoruz. Örneğin, bir takvimin, bir toplantının programını ilkel olarak kontrol etmek, açık bir ifade haline gelir: 16.00'yı teklif ettim.toplantı. Bu düzeyde şeffaflık, temsilcinin eylemlerinin mantıklı ve faydalı görünmesini sağlar. Kullanıcının, aracının kendi çıkarına en uygun şekilde hareket ettiğini doğrulamasını sağlar. İlkelleri açığa çıkararak kara kutuyu cam kutuya dönüştürüyoruz ve kullanıcıların kendi dijital yaşamlarında son otorite olmalarını sağlıyoruz.
Tasarım İçin Sahneyi Hazırlamak Failsel bir sistem oluşturmak, yeni bir düzeyde psikolojik ve davranışsal anlayış gerektirir. Bizi geleneksel kullanılabilirlik testlerinin ötesine geçerek güven, rıza ve hesap verebilirlik alanına girmeye zorluyor. Zihinsel modellerin araştırılmasından uygunsuz davranışların simüle edilmesine ve yeni ölçümlerin oluşturulmasına kadar tartıştığımız araştırma yöntemleri gerekli bir temel sağlıyor. Bu uygulamalar, otonom bir sistemin nerede arızalanabileceğini ve daha da önemlisi arıza meydana geldiğinde kullanıcı-aracı ilişkisinin nasıl onarılacağını proaktif olarak belirlemek için temel araçlardır. Ajansal yapay zekaya geçiş, kullanıcı-sistem ilişkisinin yeniden tanımlanmasıdır. Artık yalnızca komutlara yanıt veren araçlar tasarlamıyoruz; bizim adımıza hareket eden ortaklar için tasarım yapıyoruz. Bu, tasarım zorunluluğunu verimlilik ve kullanım kolaylığından şeffaflığa, öngörülebilirliğe ve kontrole doğru değiştiriyor. Bir yapay zeka, son bir tıklama olmadan bir uçuş rezervasyonu yapabileceğinde veya bir hisse senedini alıp satabildiğinde, "rampaların" ve "rampaların dışında" tasarımı çok önemli hale gelir. Kullanıcıların direksiyonu teslim ettiklerinde bile sürücü koltuğunda olduklarını hissetmelerini sağlamak bizim sorumluluğumuzdur. Bu yeni gerçeklik aynı zamanda kullanıcı deneyimi araştırmacısının rolünü de yükseltiyor. Bir aracının özerkliğinin korkuluklarını tanımlamak ve test etmek için mühendisler ve ürün yöneticileriyle işbirliği içinde çalışarak kullanıcı güveninin koruyucuları oluyoruz. Araştırmacı olmanın ötesinde, geliştirme sürecinde kullanıcı kontrolünün, şeffaflığın ve etik önlemlerin savunucusu oluyoruz. İlkelleri pratik sorulara dönüştürerek ve en kötü durum senaryolarını simüle ederek hem güçlü hem de güvenli sağlam sistemler oluşturabiliriz. Bu makale, ajansal yapay zeka araştırmasının "ne" ve "neden" konularını özetlemektedir. Geleneksel araç setlerimizin yetersiz olduğunu ve yeni, ileriye dönük metodolojileri benimsememiz gerektiğini gösterdi. Bir sonraki makale bu temel üzerine inşa edilecek ve bir aracının faydasını kullanıcılar için şeffaf hale getiren özel tasarım modellerini ve organizasyonel uygulamaları sağlayarak, ajansal yapay zekanın gücünden güvenle ve kontrolle yararlanabilmelerini sağlayacak. UX'in geleceği sistemleri güvenilir kılmakla ilgilidir. Ajansal yapay zekayı daha iyi anlamak için aşağıdaki kaynakları keşfedebilirsiniz:
Agentic AI'da Google AI Blogu Microsoft'un AI Aracıları araştırması