هوش مصنوعی عاملی آماده تغییر تجربه مشتری و بهره وری عملیاتی است و نیاز به رویکرد استراتژیک جدید از سوی رهبری است. این تکامل در هوش مصنوعی سیستم‌ها را برای برنامه‌ریزی، اجرا و تداوم در وظایف، فراتر از توصیه‌های ساده به اقدامات پیشگیرانه توانمند می‌سازد. برای تیم‌های UX، مدیران محصول و مدیران، درک این تغییر برای باز کردن فرصت‌ها در نوآوری، ساده‌سازی جریان‌های کاری و بازتعریف نحوه خدمت‌رسانی فناوری به مردم بسیار مهم است. به راحتی می توان هوش مصنوعی عاملی را با اتوماسیون فرآیند رباتیک (RPA) اشتباه گرفت، این فناوری بر روی وظایف مبتنی بر قوانین انجام شده در رایانه تمرکز می کند. تمایز در سفتی در مقابل استدلال نهفته است. RPA در پیروی از یک اسکریپت سخت عالی عمل می کند: اگر X اتفاق افتاد، Y را انجام دهید. این کار از دست انسان تقلید می کند. هوش مصنوعی عاملی از استدلال انسان تقلید می کند. از خطی پیروی نمی کند. یکی را ایجاد می کند. یک گردش کار استخدام را در نظر بگیرید. یک ربات RPA می تواند یک رزومه را اسکن کرده و آن را در پایگاه داده آپلود کند. این یک کار تکراری را کاملاً انجام می دهد. یک سیستم Agentic به رزومه نگاه می کند، متوجه می شود که نامزد یک گواهینامه خاص را لیست می کند، آن را با یک نیاز مشتری جدید ارجاع می دهد، و تصمیم می گیرد یک ایمیل ارتباطی شخصی سازی شده که مطابقت را برجسته می کند، تهیه کند. RPA یک طرح از پیش تعریف شده را اجرا می کند. هوش مصنوعی عاملی برنامه را بر اساس یک هدف تدوین می کند. این استقلال عامل ها را از ابزارهای پیش بینی که در دهه گذشته استفاده کرده ایم جدا می کند. مثال دیگر مدیریت تضادهای جلسات است. یک مدل پیشگویانه که در تقویم شما ادغام شده است ممکن است برنامه جلسات شما و برنامه های همکارانتان را تجزیه و تحلیل کند. سپس می تواند تضادهای بالقوه را نشان دهد، مانند دو جلسه مهم که همزمان برنامه ریزی شده اند، یا جلسه ای برنامه ریزی شده زمانی که یکی از شرکت کنندگان اصلی در تعطیلات است. اطلاعاتی را در اختیار شما قرار می دهد و مشکلات احتمالی را علامت گذاری می کند، اما شما مسئول اقدام هستید. یک هوش مصنوعی عامل، در همان سناریو، فراتر از پیشنهاد دادن تضادها برای اجتناب است. پس از شناسایی یک درگیری با یک شرکت کننده کلیدی، عامل می تواند از طریق:

بررسی در دسترس بودن همه شرکت کنندگان لازم. شناسایی زمان‌های جایگزین که برای همه کار می‌کند. ارسال دعوتنامه های پیشنهادی جلسه جدید برای همه شرکت کنندگان. اگر تضاد با یک شرکت‌کننده خارجی باشد، نماینده می‌تواند پیش‌نویس و ارسال ایمیلی در مورد نیاز به زمان‌بندی مجدد و ارائه زمان‌های جایگزین بفرستد. به‌روزرسانی تقویم خود و تقویم همکارانتان با جزئیات جلسه جدید پس از تأیید.

این هوش مصنوعی عامل هدف (حل و فصل تضاد جلسه) را درک می کند، مراحل (بررسی در دسترس بودن، یافتن گزینه های جایگزین، ارسال دعوت نامه) را برنامه ریزی می کند، آن مراحل را اجرا می کند و تا زمانی که تضاد حل شود ادامه می یابد، همه با حداقل مداخله مستقیم کاربر. این تفاوت "عاملی" را نشان می دهد: سیستم به جای ارائه اطلاعات به کاربر، گام های فعالانه ای را برای کاربر برمی دارد. سیستم‌های هوش مصنوعی عاملی یک هدف را درک می‌کنند، مجموعه‌ای از مراحل را برای دستیابی به آن برنامه‌ریزی می‌کنند، آن مراحل را اجرا می‌کنند، و حتی اگر مشکلی پیش بیاید، با آن سازگار می‌شوند. به آن مانند یک دستیار دیجیتال فعال فکر کنید. فناوری اساسی اغلب مدل‌های زبان بزرگ (LLM) را برای درک و استدلال، با الگوریتم‌های برنامه‌ریزی که وظایف پیچیده را به اقدامات قابل مدیریت تقسیم می‌کند، ترکیب می‌کند. این عوامل می‌توانند با ابزارهای مختلف، APIها و حتی سایر مدل‌های هوش مصنوعی تعامل داشته باشند تا به اهداف خود برسند، و به طور بحرانی، می‌توانند حالت پایدار را حفظ کنند، به این معنی که اقدامات قبلی را به خاطر می‌آورند و در طول زمان به کار برای رسیدن به هدف ادامه می‌دهند. این باعث می‌شود که آنها اساساً با هوش مصنوعی مولد معمولی متفاوت باشند، که معمولاً یک درخواست را تکمیل می‌کند و سپس بازنشانی می‌کند. طبقه بندی ساده رفتارهای عاملی ما می توانیم رفتار عامل را به چهار حالت متمایز از خودمختاری طبقه بندی کنیم. در حالی که اینها اغلب شبیه یک پیشرفت به نظر می رسند، اما به عنوان حالت های عملیاتی مستقل عمل می کنند. یک کاربر ممکن است به یک نماینده اعتماد کند که برای زمان‌بندی به طور مستقل عمل کند، اما آن را در «حالت پیشنهاد» برای تراکنش‌های مالی نگه دارد. ما این سطوح را با تطبیق استانداردهای صنعت برای وسایل نقلیه خودران (سطوح SAE) با زمینه‌های تجربه کاربر دیجیتال استخراج کردیم. مشاهده و پیشنهاد کنید عامل به عنوان یک مانیتور عمل می کند. جریان های داده را تجزیه و تحلیل می کند و ناهنجاری ها یا فرصت ها را علامت گذاری می کند، اما هیچ اقدامی انجام نمی دهد. تفاوت بر خلاف سطح بعدی، عامل هیچ طرح پیچیده ای تولید نمی کند. به یک مشکل اشاره می کند. مثال یک عامل DevOps متوجه افزایش CPU سرور می شود و به مهندس در حال تماس هشدار می دهد. نمی داند چگونه یا تلاشی برای رفع آن می کند، اما می داند که چیزی اشتباه است. پیامدهای طراحی و نظارت در این سطح،طراحی و نظارت باید اعلان‌های واضح و غیر مزاحم و فرآیندی کاملاً تعریف‌شده برای عمل کردن به پیشنهادات توسط کاربران را در اولویت قرار دهد. تمرکز بر توانمندسازی کاربر با اطلاعات به موقع و مرتبط بدون کنترل است. متخصصان UX باید بر ارائه پیشنهادات واضح و قابل فهم تمرکز کنند، در حالی که مدیران محصول باید اطمینان حاصل کنند که سیستم ارزشی را بدون غلبه بر کاربر ارائه می دهد. طرح و پیشنهاد عامل یک هدف را شناسایی می کند و یک استراتژی چند مرحله ای برای دستیابی به آن ایجاد می کند. این طرح کامل را برای بررسی انسانی ارائه می دهد. تمایز عامل به عنوان یک استراتژیست عمل می کند. اجرا نمی شود؛ منتظر تایید کل رویکرد است. مثالهمان عامل DevOps متوجه جهش CPU می شود، لاگ ها را تجزیه و تحلیل می کند و یک طرح اصلاحی پیشنهاد می کند:

دو نمونه اضافی را بچرخانید. متعادل کننده بار را مجددا راه اندازی کنید. لاگ های قدیمی را بایگانی کنید.

انسان منطق را بررسی می کند و روی "تأیید طرح" کلیک می کند. پیامدهای طراحی و نظارت برای عواملی که برنامه‌ریزی و پیشنهاد می‌کنند، طراحی باید اطمینان حاصل کند که طرح‌های پیشنهادی به راحتی قابل درک هستند و کاربران راه‌های بصری برای اصلاح یا رد آن‌ها دارند. نظارت در نظارت بر کیفیت پیشنهادات و منطق برنامه ریزی عامل بسیار مهم است. متخصصان UX باید تجسم‌های واضحی از برنامه‌های پیشنهادی طراحی کنند و مدیران محصول باید گردش‌های کاری بررسی و تأیید واضح را ایجاد کنند. اقدام با تأیید عامل تمام کارهای آماده سازی را تکمیل می کند و عمل نهایی را در حالت مرحله ای قرار می دهد. به طور موثر در را باز نگه می دارد و منتظر تکان دادن سر است. تمایز این با "طرح و پیشنهاد" متفاوت است زیرا کار قبلاً انجام شده و صحنه سازی شده است. اصطکاک را کاهش می دهد. کاربر نتیجه را تأیید می کند، نه استراتژی. مثال یک نماینده استخدام پیش نویس پنج دعوت نامه مصاحبه را تهیه می کند، اوقات باز را در تقویم ها پیدا می کند و رویدادهای تقویم را ایجاد می کند. این دکمه "ارسال همه" را نشان می دهد. کاربر مجوز نهایی را برای راه اندازی اقدام خارجی ارائه می دهد. پیامدهای طراحی و نظارت هنگامی که نمایندگان با تأیید عمل می کنند، طرح باید خلاصه و خلاصه ای شفاف و مختصر از اقدام مورد نظر ارائه کند و پیامدهای بالقوه را به وضوح بیان کند. نظارت باید تأیید کند که فرآیند تأیید قوی است و از کاربران خواسته نمی‌شود کورکورانه اقدامات را تأیید کنند. متخصصان UX باید اعلان‌های تأیید را طراحی کنند که واضح باشد و تمام اطلاعات لازم را ارائه دهد و مدیران محصول باید یک مسیر حسابرسی قوی را برای همه اقدامات تأیید شده در اولویت قرار دهند. به طور مستقل عمل کنید عامل وظایف را به طور مستقل در محدوده های تعریف شده اجرا می کند. تفاوت کاربر تاریخچه اقدامات را بررسی می کند، نه خود اقدامات را. مثال عامل استخدام تضاد می بیند، مصاحبه را به یک شکاف پشتیبان منتقل می کند، نامزد را به روز می کند و به مدیر استخدام اطلاع می دهد. انسان فقط یک اعلان می بیند: مصاحبه به روز سه شنبه موکول شد. پیامدهای طراحی و نظارت برای عوامل مستقل، طراحی نیاز به ایجاد مرزهای از پیش تأیید شده واضح و ارائه ابزارهای نظارتی قوی دارد. نظارت مستلزم ارزیابی مستمر عملکرد عامل در این مرزها، نیاز حیاتی برای ثبت گزارش قوی، مکانیسم‌های نادیده گرفتن واضح، و سوئیچ‌های کشتن تعریف‌شده توسط کاربر برای حفظ کنترل و اعتماد کاربر است. متخصصان UX باید روی طراحی داشبوردهای موثر برای نظارت بر رفتار عامل مستقل تمرکز کنند و مدیران محصول باید از وجود دستورالعمل‌های اخلاقی و حاکمیت شفاف اطمینان حاصل کنند.

بیایید به یک برنامه کاربردی دنیای واقعی در فناوری منابع انسانی نگاه کنیم تا این حالت ها را در عمل ببینیم. یک "عامل هماهنگی مصاحبه" را در نظر بگیرید که برای مدیریت تدارکات استخدام طراحی شده است.

در حالت پیشنهاد، نماینده متوجه می شود که مصاحبه کننده دو بار رزرو شده است. این تضاد در داشبورد استخدام‌کننده را برجسته می‌کند: "هشدار: سارا برای مصاحبه ساعت 2 بعدازظهر دو بار رزرو شده است." در حالت پلان، نماینده تقویم سارا و در دسترس بودن نامزد را تجزیه و تحلیل می کند. این یک راه حل ارائه می دهد: "من توصیه می کنم مصاحبه را به پنج شنبه ساعت 10 صبح منتقل کنید. این مستلزم انتقال 1:1 سارا با مدیرش است." استخدام کننده این منطق را بررسی می کند. در حالت تأیید، نماینده پیش‌نویس ایمیل‌ها را برای نامزد و مدیر می‌نویسد. دعوت‌های تقویم را پر می‌کند. استخدام‌کننده خلاصه‌ای را می‌بیند: "آماده ای برای برنامه ریزی مجدد تا پنجشنبه. ارسال به روز رسانی؟" استخدام کننده روی "تأیید" کلیک می کند. در حالت خودمختار، عامل فوراً درگیری را مدیریت می کند. این قانون به یک قانون از پیش تعیین شده احترام می گذارد: "همیشه مصاحبه های نامزدها را بر 1:1 داخلی اولویت دهید." جلسه را جابجا می کند و اعلان ها را ارسال می کند. استخدام‌کننده یک ورودی گزارش را می‌بیند: «حل شدتضاد برنامه برای کاندید B.

Research Primer: در مورد چه چیزی و چگونه تحقیق کنیم توسعه هوش مصنوعی عاملی موثر نیازمند یک رویکرد تحقیقاتی متمایز در مقایسه با نرم افزارهای سنتی یا حتی هوش مصنوعی مولد است. ماهیت مستقل عوامل هوش مصنوعی، توانایی آنها در تصمیم گیری، و پتانسیل آنها برای اقدام پیشگیرانه، نیازمند روش های تخصصی برای درک انتظارات کاربر، نقشه برداری از رفتارهای پیچیده عامل و پیش بینی شکست های احتمالی است. آغازگر تحقیقاتی زیر روش‌های کلیدی برای اندازه‌گیری و ارزیابی این جنبه‌های منحصر به فرد هوش مصنوعی عامل را تشریح می‌کند. مصاحبه های مدل ذهنی این مصاحبه ها عقاید از پیش تعیین شده کاربران را در مورد نحوه رفتار یک عامل هوش مصنوعی آشکار می کند. به جای اینکه به سادگی بپرسیم کاربران چه می خواهند، تمرکز بر درک مدل های داخلی آنها از قابلیت ها و محدودیت های عامل است. ما باید از استفاده از کلمه "عامل" در مورد شرکت کنندگان خودداری کنیم. حمل بارهای علمی تخیلی است یا اصطلاحی است که به راحتی با یک عامل انسانی ارائه دهنده پشتیبانی یا خدمات اشتباه گرفته می شود. در عوض، بحث را حول محور «دستیاران» یا «سیستم» قرار دهید. ما باید کشف کنیم که کاربران در کجا مرز بین اتوماسیون مفید و کنترل نفوذی را ترسیم می کنند.

روش: از کاربران بخواهید تعاملات مورد انتظار خود را با عامل در سناریوهای فرضی مختلف توصیف، ترسیم یا روایت کنند. پروب های کلیدی (منعکس کننده انواع صنایع): برای درک مرزهای اتوماسیون مورد نظر و نگرانی های احتمالی در مورد اتوماسیون بیش از حد، بپرسید: اگر پرواز شما لغو شود، می خواهید سیستم به طور خودکار چه کاری انجام دهد؟ اگر این کار را بدون دستور صریح شما انجام دهد، چه چیزی شما را نگران می کند؟

برای کشف درک کاربر از فرآیندهای داخلی عامل و ارتباطات ضروری، بپرسید: تصور کنید یک دستیار دیجیتال خانه هوشمند شما را مدیریت می کند. اگر بسته ای تحویل داده شود، تصور می کنید چه مراحلی طی می شود، و انتظار دارید چه اطلاعاتی دریافت کنید؟

برای کشف انتظارات در مورد کنترل و رضایت در یک فرآیند چند مرحله ای، بپرسید: اگر از دستیار دیجیتال خود بخواهید یک جلسه را برنامه ریزی کند، چه مراحلی را پیش بینی می کنید؟ در چه نقاطی می خواهید با شما مشورت شود یا انتخاب هایی به شما داده شود؟

مزایای روش: مفروضات ضمنی را آشکار می کند، مناطقی را برجسته می کند که رفتار برنامه ریزی شده عامل ممکن است از انتظارات کاربر متفاوت باشد، و طراحی کنترل های مناسب و مکانیسم های بازخورد را آگاه می کند.

نقشه برداری سفر عامل: مشابه نقشه‌برداری سفر کاربر سنتی، نقشه‌برداری سفر عامل به طور خاص بر اقدامات پیش‌بینی‌شده و نقاط تصمیم خود عامل هوش مصنوعی، در کنار تعامل کاربر متمرکز است. این به شناسایی پیشگیرانه مشکلات احتمالی کمک می کند.

روش: یک نقشه بصری ایجاد کنید که مراحل مختلف عملیات یک عامل، از شروع تا تکمیل، شامل تمام اقدامات بالقوه، تصمیم گیری ها و تعاملات با سیستم ها یا کاربران خارجی را مشخص می کند. عناصر کلیدی نقشه: اقدامات عامل: عامل چه وظایف یا تصمیمات خاصی را انجام می دهد؟ ورودی/خروجی اطلاعات: عامل به چه داده هایی نیاز دارد و چه اطلاعاتی را تولید یا ارسال می کند؟ نقاط تصمیم: نماینده کجا انتخاب می کند و معیارهای آن انتخاب ها چیست؟ نقاط تعامل کاربر: کاربر از کجا ورودی، بررسی یا تأیید اقدامات را ارائه می دهد؟ نقاط شکست: به طور اساسی، موارد خاصی را شناسایی کنید که در آن عامل ممکن است دستورالعمل ها را اشتباه تفسیر کند، تصمیم نادرستی بگیرد یا با موجودیت اشتباه تعامل داشته باشد. مثال‌ها: گیرنده نادرست (مثلاً ارسال اطلاعات حساس به شخص اشتباه)، اضافه برداشت (به عنوان مثال، پرداخت خودکار بیش از وجوه موجود)، تفسیر نادرست از قصد (مانند رزرو پرواز برای تاریخ اشتباه به دلیل زبان مبهم).

مسیرهای بازیابی: چگونه عامل یا کاربر می تواند از این خرابی ها بازیابی کند؟ چه مکانیسم هایی برای اصلاح یا مداخله وجود دارد؟

مزایای روش: دیدی جامع از جریان عملیاتی عامل ارائه می‌کند، وابستگی‌های پنهان را آشکار می‌کند، و امکان طراحی فعال حفاظت‌ها، مدیریت خطا، و نقاط مداخله کاربر را برای جلوگیری یا کاهش نتایج منفی فراهم می‌کند.

آزمایش بد رفتاری شبیه سازی شده: این رویکرد برای تست استرس سیستم و مشاهده واکنش های کاربر در زمانی که عامل هوش مصنوعی شکست می خورد یا از انتظارات منحرف می شود، طراحی شده است. این در مورد درک ترمیم اعتماد و پاسخ های احساسی در موقعیت های نامطلوب است.

روش: در مطالعات آزمایشگاهی کنترل‌شده، عمداً سناریوهایی را معرفی کنید که در آن عامل اشتباه می‌کند، دستوری را اشتباه تعبیر می‌کند یا رفتار غیرمنتظره‌ای انجام می‌دهد. انواع "سوء رفتار" برای شبیه سازی: فرمانتفسیر نادرست: عامل عملی را انجام می دهد که کمی متفاوت از آنچه کاربر در نظر داشت (به عنوان مثال، سفارش دو مورد به جای یک مورد). Overload/Underload اطلاعات: عامل اطلاعات بیش از حد نامربوط یا جزئیات مهم کافی را ارائه نمی دهد. اقدام ناخواسته: نماینده اقدامی را انجام می دهد که کاربر صراحتاً نمی خواست یا انتظارش را نداشت (مثلاً خرید سهام بدون تأیید). سیستم Failure: عامل از کار می افتد، پاسخ نمی دهد یا یک پیام خطا ارائه می دهد. معضلات اخلاقی: نماینده تصمیمی با پیامدهای اخلاقی می گیرد (به عنوان مثال، اولویت دادن یک کار بر دیگری بر اساس معیارهای پیش بینی نشده).

تمرکز مشاهده: واکنش های کاربر: کاربران چگونه از نظر احساسی (ناامیدی، عصبانیت، سردرگمی، از دست دادن اعتماد) واکنش نشان می دهند؟ تلاش‌های بازیابی: کاربران چه اقداماتی را برای اصلاح رفتار عامل یا لغو اقدامات آن انجام می‌دهند؟ مکانیسم‌های تعمیر اعتماد: آیا مکانیزم‌های بازیابی داخلی یا بازخورد سیستم به بازیابی اعتماد کمک می‌کنند؟ کاربران چگونه می خواهند از خطاها مطلع شوند؟ تغییر مدل ذهنی: آیا این رفتار نادرست درک کاربر را از قابلیت ها یا محدودیت های عامل تغییر می دهد؟

مزایای روش: برای شناسایی شکاف های طراحی مربوط به بازیابی خطا، بازخورد و کنترل کاربر بسیار مهم است. این اطلاعات بینش‌هایی را در مورد انعطاف‌پذیری کاربران در برابر شکست‌های عامل و آنچه برای حفظ یا بازسازی اعتماد لازم است، ارائه می‌دهد که منجر به سیستم‌های عاملی قوی‌تر و بخشنده‌تر می‌شود.

با یکپارچه‌سازی این روش‌های تحقیقاتی، متخصصان UX می‌توانند از ساختن ساده سیستم‌های عاملی که قابل استفاده هستند فراتر رفته و آنها را قابل اعتماد، کنترل‌پذیر و پاسخگو می‌سازند و یک رابطه مثبت و سازنده بین کاربران و عوامل هوش مصنوعی آنها تقویت می‌کنند. توجه داشته باشید که این‌ها تنها روش‌های مرتبط با کاوش مؤثر هوش مصنوعی نیستند. بسیاری از روش‌های دیگر وجود دارد، اما این روش‌ها در آینده نزدیک برای پزشکان قابل دسترس هستند. من قبلاً روش Wizard of Oz را پوشش داده‌ام، روشی کمی پیشرفته‌تر برای آزمایش مفهوم، که همچنین ابزار ارزشمندی برای کاوش مفاهیم هوش مصنوعی عامل است. ملاحظات اخلاقی در روش تحقیق هنگام تحقیق در مورد هوش مصنوعی عامل، به ویژه هنگام شبیه سازی رفتار یا خطاها، ملاحظات اخلاقی کلیدی است که باید در نظر گرفته شود. انتشارات زیادی وجود دارد که بر تحقیقات اخلاقی UX تمرکز دارند، از جمله مقاله ای که برای مجله Smashing نوشتم، این دستورالعمل ها از موسسه طراحی UX، و این صفحه از مجموعه ابزار طراحی فراگیر. معیارهای کلیدی برای هوش مصنوعی عاملی برای ارزیابی موثر عملکرد و قابلیت اطمینان سیستم های هوش مصنوعی عاملی، به مجموعه ای جامع از معیارهای کلیدی نیاز دارید. این معیارها بینش هایی را در مورد اعتماد کاربر، دقت سیستم و تجربه کلی کاربر ارائه می دهند. با ردیابی این شاخص ها، توسعه دهندگان و طراحان می توانند زمینه های بهبود را شناسایی کرده و اطمینان حاصل کنند که عوامل هوش مصنوعی به طور ایمن و کارآمد عمل می کنند. 1. نرخ مداخله برای عوامل مستقل، ما موفقیت را با سکوت می سنجیم. اگر یک عامل وظیفه ای را اجرا کند و کاربر در یک پنجره تنظیم شده مداخله نکرده یا آن عمل را معکوس نکند (مثلاً 24 ساعت)، آن را به عنوان پذیرش حساب می کنیم. ما نرخ مداخله را دنبال می کنیم: هر چند وقت یکبار یک انسان برای متوقف کردن یا تصحیح عامل به داخل می پرد؟ نرخ مداخله بالا نشانه عدم همسویی در اعتماد یا منطق است. 2. فراوانی اقدامات ناخواسته به ازای هر 1000 کار این معیار حیاتی تعداد اقدامات انجام شده توسط عامل هوش مصنوعی را که توسط کاربر مورد نظر یا مورد انتظار نبوده و به ازای هر 1000 کار تکمیل شده عادی شده است، کمیت می کند. فرکانس پایین اقدامات ناخواسته نشان‌دهنده یک هوش مصنوعی است که به‌خوبی هدف کاربر را تفسیر می‌کند و در محدوده‌های تعریف‌شده عمل می‌کند. این معیار ارتباط نزدیکی با درک هوش مصنوعی از زمینه، توانایی آن در ابهام‌زدایی از دستورات و استحکام پروتکل‌های ایمنی آن دارد. 3. نرخ بازگشت یا واگرد این متریک تعداد دفعاتی را که کاربران نیاز به معکوس کردن یا لغو یک عمل انجام شده توسط هوش مصنوعی دارند، ردیابی می کند. نرخ بازگشت بالا نشان می دهد که هوش مصنوعی اشتباهات مکرری انجام می دهد، دستورالعمل ها را اشتباه تفسیر می کند یا به روش هایی عمل می کند که با انتظارات کاربر همسو نیست. تجزیه و تحلیل دلایل پشت این عقب‌نشینی‌ها می‌تواند بازخورد ارزشمندی برای بهبود الگوریتم‌های هوش مصنوعی، درک اولویت‌های کاربر و توانایی آن برای پیش‌بینی نتایج مطلوب ارائه دهد. برای درک چرایی آن، باید یک بررسی ریز در مورد عمل واگرد اجرا کنید. به عنوان مثال، هنگامی که یک کاربر تغییر زمان‌بندی را معکوس می‌کند، یک درخواست ساده می‌تواند بپرسد: "زمان اشتباه است؟ فرد اشتباهی؟ یا فقط می‌خواستید این کار را خودتان انجام دهید؟" اجازه دادن به کاربر برای کلیک بر روی گزینه ای که بهترین مطابقت را با استدلال او دارد. 4. زمان به وضوح پس از یک خطا این متریکمدت زمانی را که کاربر برای تصحیح خطای AI یا بازیابی خود سیستم هوش مصنوعی از وضعیت اشتباه نیاز دارد، اندازه گیری می کند. زمان کوتاه برای حل، یک فرآیند بازیابی خطا کارآمد و کاربرپسند را نشان می دهد، که می تواند ناامیدی کاربر را کاهش دهد و بهره وری را حفظ کند. این شامل سهولت شناسایی خطا، دسترسی به مکانیسم‌های لغو یا تصحیح، و شفافیت پیام‌های خطا ارائه‌شده توسط هوش مصنوعی است.

جمع‌آوری این معیارها نیازمند ابزارسازی سیستم شما برای ردیابی شناسه‌های اقدام عامل است. هر اقدام متمایزی که نماینده انجام می دهد، مانند پیشنهاد برنامه یا رزرو پرواز، باید یک شناسه منحصر به فرد ایجاد کند که در گزارش ها باقی بماند. برای اندازه گیری میزان مداخله، ما به دنبال واکنش فوری کاربر نیستیم. ما به دنبال عدم وجود یک اقدام متقابل در یک پنجره تعریف شده هستیم. اگر یک Action ID در ساعت 9:00 صبح ایجاد شود و هیچ کاربر انسانی آن شناسه خاص را تا ساعت 9:00 صبح روز بعد تغییر دهد یا برگرداند، سیستم به طور منطقی آن را به عنوان Accepted برچسب گذاری می کند. این به ما امکان می دهد موفقیت را بر اساس سکوت کاربر به جای تأیید فعال، کمی سازی کنیم. برای نرخ بازگشت، تعداد خام کافی نیست زیرا فاقد زمینه هستند. برای درک دلیل اصلی، باید منطق رهگیری را در توابع Undo یا Revert برنامه خود پیاده سازی کنید. هنگامی که کاربر یک اقدام آغاز شده توسط عامل را معکوس می کند، یک ریزنظرسنجی سبک را آغاز کنید. این می‌تواند یک مدال سه گزینه‌ای ساده باشد که از کاربر می‌خواهد خطا را به‌عنوان نادرست واقعی، فاقد زمینه، یا ترجیح ساده برای انجام کار به صورت دستی طبقه‌بندی کند. این تله متری کمی را با بینش کیفی ترکیب می کند. این تیم‌های مهندسی را قادر می‌سازد تا بین الگوریتم شکسته و عدم تطابق ترجیحات کاربر تمایز قائل شوند. این معیارها، هنگامی که به طور مداوم ردیابی شده و به صورت کلی تحلیل شوند، چارچوبی قوی برای ارزیابی عملکرد سیستم‌های هوش مصنوعی عاملی فراهم می‌کنند که امکان بهبود مستمر در کنترل، رضایت و مسئولیت‌پذیری را فراهم می‌کند. طراحی در برابر فریب همانطور که عوامل به طور فزاینده ای توانمند می شوند، ما با خطر جدیدی روبرو هستیم: لجن عامل. لجن سنتی اصطکاک ایجاد می کند که لغو اشتراک یا حذف یک حساب کاربری را دشوار می کند. لجن عامل برعکس عمل می کند. اصطکاک ناشی از یک خطا را از بین می برد، و موافقت کاربر با اقدامی را که به جای منافع خود به نفع کسب و کار است، بسیار آسان می کند. نماینده ای را در نظر بگیرید که به رزرو سفر کمک می کند. بدون نرده‌های محافظ واضح، سیستم ممکن است یک شرکت هواپیمایی شریک یا یک هتل با حاشیه بالاتر را در اولویت قرار دهد. این انتخاب را به عنوان مسیر بهینه نشان می دهد. کاربر با اعتماد به اقتدار سیستم، توصیه را بدون بررسی می‌پذیرد. این یک الگوی فریبنده ایجاد می کند که در آن سیستم برای درآمد به بهانه راحتی بهینه می شود. خطر صلاحیت تصور نادرست فریب ممکن است ناشی از نیت مخرب نباشد. اغلب در هوش مصنوعی به عنوان صلاحیت تصوری ظاهر می شود. مدل‌های زبان بزرگ اغلب حتی زمانی که نادرست باشند معتبر به نظر می‌رسند. آنها یک تأییدیه رزرو نادرست یا یک خلاصه نادرست را با همان اطمینان به عنوان یک واقعیت تأیید شده ارائه می دهند. کاربران ممکن است به طور طبیعی به این لحن مطمئن اعتماد کنند. این عدم تطابق شکاف خطرناکی بین قابلیت سیستم و انتظارات کاربر ایجاد می کند. ما باید به طور خاص برای پر کردن این شکاف طراحی کنیم. اگر یک عامل نتواند یک کار را کامل کند، رابط باید آن شکست را به وضوح نشان دهد. اگر سیستم مطمئن نیست، باید عدم قطعیت را به جای پوشاندن آن با نثر صیقلی بیان کند. شفافیت از طریق Primitives پادزهر هم برای لجن و هم توهم منشأ دارد. هر اقدام مستقلی نیاز به یک تگ ابرداده خاص دارد که منشا تصمیم را توضیح دهد. کاربران به توانایی بازرسی زنجیره منطقی پشت نتیجه نیاز دارند. برای رسیدن به این هدف، ما باید ابتدائی ها را به پاسخ های عملی تبدیل کنیم. در مهندسی نرم افزار، ابتدایی ها به واحدهای اصلی اطلاعات یا اقداماتی اطلاق می شود که یک عامل انجام می دهد. برای مهندس، این به نظر یک تماس API یا یک گیت منطقی است. برای کاربر، باید به عنوان یک توضیح واضح ظاهر شود. چالش طراحی در نگاشت این مراحل فنی به منطق قابل خواندن برای انسان نهفته است. اگر یک نماینده پرواز خاصی را توصیه کند، کاربر باید دلیل آن را بداند. رابط نمی تواند پشت یک پیشنهاد عمومی پنهان شود. باید اصل اولیه اصلی را آشکار کند: منطق: ارزانترین_پرواز_مستقیم یا منطق: شریک_ایرلاین_ اولویت. شکل 4 این جریان ترجمه را نشان می دهد. ما سیستم اولیه اولیه - منطق کد واقعی - را می گیریم و آن را به یک رشته رو به کاربر نگاشت می کنیم. به عنوان مثال، بررسی ابتدایی یک برنامه تقویم یک جلسه به یک بیانیه واضح تبدیل می شود: من یک ساعت 4 بعد از ظهر را پیشنهاد کرده ام.جلسه این سطح از شفافیت تضمین می کند که اقدامات نماینده منطقی و سودمند به نظر می رسد. این به کاربر اجازه می دهد تا تأیید کند که عامل به نفع او عمل کرده است. با افشای چیزهای ابتدایی، ما یک جعبه سیاه را به یک جعبه شیشه ای تبدیل می کنیم، و اطمینان می دهیم که کاربران در زندگی دیجیتالی خود قدرت نهایی باقی می مانند.

تنظیم صحنه برای طراحی ساختن یک سیستم عامل نیاز به سطح جدیدی از درک روانشناختی و رفتاری دارد. این ما را وادار می کند که از تست قابلیت استفاده مرسوم فراتر برویم و به حوزه اعتماد، رضایت و مسئولیت پذیری برویم. روش‌های تحقیقی که مورد بحث قرار گرفتیم، از بررسی مدل‌های ذهنی گرفته تا شبیه‌سازی رفتار نادرست و ایجاد معیارهای جدید، پایه و اساس لازم را فراهم می‌کنند. این شیوه‌ها ابزارهای ضروری برای شناسایی پیشگیرانه مکان‌هایی هستند که یک سیستم خودمختار ممکن است از کار بیفتد و مهم‌تر از آن، چگونه می‌توان رابطه کاربر-عامل را در صورت بروز مشکل ترمیم کرد. تغییر به هوش مصنوعی عاملی، بازتعریف رابطه کاربر-سیستم است. ما دیگر برای ابزارهایی طراحی نمی کنیم که به سادگی به دستورات پاسخ می دهند. ما برای شرکای طراحی می کنیم که از طرف ما عمل می کنند. این امر الزام طراحی را از کارایی و سهولت استفاده به شفافیت، پیش بینی پذیری و کنترل تغییر می دهد. هنگامی که یک هوش مصنوعی می تواند بدون کلیک نهایی یک پرواز رزرو کند یا سهامی را معامله کند، طراحی "روی رمپ" و "خارج از رمپ" آن بسیار مهم می شود. مسئولیت ما این است که اطمینان حاصل کنیم که کاربران احساس می کنند روی صندلی راننده هستند، حتی زمانی که فرمان را تحویل داده اند. این واقعیت جدید همچنین نقش محقق UX را بالا می برد. ما حافظ اعتماد کاربران می‌شویم و با مهندسین و مدیران محصول همکاری می‌کنیم تا نرده‌های محافظ استقلال یک نماینده را تعریف و آزمایش کنیم. ما فراتر از محقق بودن، مدافع کنترل کاربر، شفافیت و پادمان های اخلاقی در فرآیند توسعه هستیم. با تبدیل سوالات اولیه به سوالات عملی و شبیه سازی بدترین سناریوها، می توانیم سیستم های قوی ای بسازیم که هم قدرتمند و هم ایمن هستند. این مقاله «چی» و «چرا» تحقیق در مورد هوش مصنوعی عامل را تشریح کرده است. نشان داده است که ابزارهای سنتی ما ناکافی هستند و باید روش‌های جدید و آینده‌نگر را اتخاذ کنیم. مقاله بعدی بر این اساس استوار خواهد شد و الگوهای طراحی خاص و شیوه‌های سازمانی را ارائه می‌کند که ابزار یک نماینده را برای کاربران شفاف می‌سازد و اطمینان می‌دهد که آنها می‌توانند با اطمینان و کنترل از قدرت هوش مصنوعی عامل استفاده کنند. آینده UX در مورد قابل اعتماد کردن سیستم ها است. برای درک بیشتر هوش مصنوعی عامل، می توانید منابع زیر را کشف کنید:

وبلاگ هوش مصنوعی گوگل در هوش مصنوعی عاملی تحقیقات مایکروسافت در مورد عوامل هوش مصنوعی

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free