Agentic AI على أهبة الاستعداد لتحويل تجربة العملاء والكفاءة التشغيلية، مما يستلزم اتباع نهج استراتيجي جديد من القيادة. يعمل هذا التطور في الذكاء الاصطناعي على تمكين الأنظمة من التخطيط للمهام وتنفيذها والاستمرار فيها، والانتقال من التوصيات البسيطة إلى الإجراءات الاستباقية. بالنسبة لفرق تجربة المستخدم ومديري المنتجات والمديرين التنفيذيين، يعد فهم هذا التحول أمرًا بالغ الأهمية لفتح الفرص في الابتكار وتبسيط سير العمل وإعادة تعريف كيفية خدمة التكنولوجيا للأشخاص. من السهل الخلط بين Agentic AI وRobotic Process Automation (RPA)، وهي تقنية تركز على المهام القائمة على القواعد التي يتم تنفيذها على أجهزة الكمبيوتر. الفرق يكمن في الصلابة مقابل المنطق. تقنية RPA ممتازة في اتباع سيناريو صارم: إذا حدث X، فافعل Y. فهو يحاكي الأيدي البشرية. وكيل الذكاء الاصطناعي يحاكي المنطق البشري. ولا يتبع نصًا خطيًا؛ يخلق واحدة. فكر في سير عمل التوظيف. يمكن لروبوت RPA فحص السيرة الذاتية وتحميلها إلى قاعدة البيانات. ينفذ مهمة متكررة على أكمل وجه. ينظر نظام Agentic إلى السيرة الذاتية، ويلاحظ أن المرشح يدرج شهادة معينة، ويراجع المراجع الترافقية مع متطلبات العميل الجديدة، ويقرر صياغة رسالة بريد إلكتروني مخصصة للتواصل تسلط الضوء على تلك المطابقة. ينفذ RPA خطة محددة مسبقًا؛ يقوم Agentic AI بصياغة الخطة بناءً على الهدف. تفصل هذه الاستقلالية الوكلاء عن الأدوات التنبؤية التي استخدمناها خلال العقد الماضي. مثال آخر هو إدارة تعارضات الاجتماعات. قد يقوم النموذج التنبؤي المدمج في التقويم الخاص بك بتحليل جدول اجتماعاتك وجداول زملائك. ويمكنه بعد ذلك اقتراح تعارضات محتملة، مثل عقد اجتماعين مهمين في نفس الوقت، أو اجتماع مجدول عندما يكون أحد المشاركين الرئيسيين في إجازة. فهو يزودك بالمعلومات ويحدد المشكلات المحتملة، ولكنك مسؤول عن اتخاذ الإجراء. في نفس السيناريو، سيذهب الذكاء الاصطناعي الوكيل إلى ما هو أبعد من مجرد اقتراح الصراعات التي يجب تجنبها. عند تحديد وجود تعارض مع أحد المشاركين الرئيسيين، يمكن للوكيل التصرف من خلال:
التحقق من توافر جميع المشاركين اللازمين. تحديد فترات زمنية بديلة تناسب الجميع. إرسال دعوات الاجتماع الجديدة المقترحة لجميع الحضور. إذا كان الصراع مع مشارك خارجي، فيمكن للوكيل صياغة وإرسال بريد إلكتروني يشرح فيه الحاجة إلى إعادة الجدولة وعرض أوقات بديلة. تحديث التقويم الخاص بك وتقويمات زملائك بتفاصيل الاجتماع الجديدة بمجرد تأكيدها.
يفهم هذا الذكاء الاصطناعي الوكيل الهدف (حل تعارض الاجتماع)، ويخطط للخطوات (التحقق من التوفر، والعثور على بدائل، وإرسال الدعوات)، وينفذ تلك الخطوات، ويستمر حتى يتم حل التعارض، كل ذلك بأقل تدخل مباشر من المستخدم. وهذا يوضح الفرق "الوكيل": حيث يتخذ النظام خطوات استباقية للمستخدم، بدلاً من مجرد توفير المعلومات للمستخدم. تفهم أنظمة الذكاء الاصطناعي الوكيل الهدف، وتخطط لسلسلة من الخطوات لتحقيقه، وتنفذ تلك الخطوات، وحتى تتكيف إذا ساءت الأمور. فكر في الأمر كمساعد رقمي استباقي. غالبًا ما تجمع التكنولوجيا الأساسية بين نماذج اللغة الكبيرة (LLMs) للفهم والاستدلال، مع خوارزميات التخطيط التي تقسم المهام المعقدة إلى إجراءات يمكن التحكم فيها. يمكن لهؤلاء الوكلاء التفاعل مع العديد من الأدوات وواجهات برمجة التطبيقات وحتى نماذج الذكاء الاصطناعي الأخرى لتحقيق أهدافهم، والأهم من ذلك، يمكنهم الحفاظ على حالة مستمرة، مما يعني أنهم يتذكرون الإجراءات السابقة ويواصلون العمل لتحقيق الهدف بمرور الوقت. وهذا يجعلها مختلفة بشكل أساسي عن الذكاء الاصطناعي التوليدي النموذجي، والذي عادةً ما يكمل طلبًا واحدًا ثم يعيد تعيينه. تصنيف بسيط للسلوكيات الوكيلة يمكننا تصنيف سلوك الوكيل إلى أربعة أنماط مختلفة من الاستقلالية. في حين أن هذه غالبًا ما تبدو وكأنها تقدم، إلا أنها تعمل كأوضاع تشغيل مستقلة. قد يثق المستخدم في وكيل للعمل بشكل مستقل للجدولة، ولكن يبقيه في "وضع الاقتراح" للمعاملات المالية. لقد اشتقنا هذه المستويات من خلال تكييف معايير الصناعة للمركبات ذاتية القيادة (مستويات SAE) مع سياقات تجربة المستخدم الرقمية. مراقبة واقتراح يعمل الوكيل كمراقب. فهو يحلل تدفقات البيانات ويحدد الحالات الشاذة أو الفرص، لكنه لا يتخذ أي إجراء. التمايز: على عكس المستوى التالي، لا يقوم الوكيل بإنشاء خطة معقدة. ويشير إلى مشكلة. لاحظ وكيل DevOps ارتفاعًا كبيرًا في وحدة المعالجة المركزية للخادم وقام بتنبيه المهندس عند الطلب. إنه لا يعرف كيف أو يحاول إصلاحه، لكنه يعلم أن هناك خطأ ما. الآثار المترتبة على التصميم والإشرافيجب أن يعطي التصميم والرقابة الأولوية للإخطارات الواضحة وغير التدخلية وعملية محددة جيدًا للمستخدمين للتصرف بناءً على الاقتراحات. وينصب التركيز على تمكين المستخدم بالمعلومات ذات الصلة وفي الوقت المناسب دون السيطرة. يجب أن يركز ممارسي تجربة المستخدم على تقديم اقتراحات واضحة وسهلة الفهم، بينما يحتاج مديرو المنتجات إلى التأكد من أن النظام يوفر قيمة دون إرباك المستخدم. خطة واقتراح يحدد الوكيل الهدف ويولد استراتيجية متعددة الخطوات لتحقيقه. ويقدم الخطة الكاملة للمراجعة البشرية. التمايز الوكيل يعمل كخبير استراتيجي. لا ينفذ؛ فهو ينتظر الموافقة على النهج بأكمله. مثال: لاحظ وكيل DevOps نفسه ارتفاع وحدة المعالجة المركزية، وقام بتحليل السجلات واقتراح خطة إصلاح:
قم بتدوير حالتين إضافيتين. أعد تشغيل موازن التحميل. أرشفة السجلات القديمة.
يراجع الإنسان المنطق وينقر على "الموافقة على الخطة". الآثار المترتبة على التصميم والإشراف بالنسبة للوكلاء الذين يخططون ويقترحون، يجب أن يضمن التصميم أن الخطط المقترحة سهلة الفهم وأن المستخدمين لديهم طرق بديهية لتعديلها أو رفضها. تعتبر الرقابة أمرًا بالغ الأهمية في مراقبة جودة العروض ومنطق تخطيط الوكيل. يجب على ممارسي تجربة المستخدم تصميم تصورات واضحة للخطط المقترحة، ويجب على مديري المنتجات إنشاء سير عمل واضح للمراجعة والموافقة. التصرف مع التأكيد يكمل الوكيل جميع الأعمال التحضيرية ويضع الإجراء النهائي في حالة مرحلية. إنه يبقي الباب مفتوحًا بشكل فعال، في انتظار الإيماءة. التمايز: يختلف هذا عن "التخطيط والاقتراح" لأن العمل قد تم بالفعل وتم تنظيمه. أنه يقلل من الاحتكاك. يؤكد المستخدم النتيجة، وليس الاستراتيجية. مثال: يقوم وكيل التوظيف بصياغة خمس دعوات للمقابلة، ويبحث عن الأوقات المفتوحة في التقويمات، ويقوم بإنشاء أحداث التقويم. ويقدم زر "إرسال الكل". يقدم المستخدم التفويض النهائي لبدء الإجراء الخارجي. الآثار المترتبة على التصميم والإشراف عندما يتصرف الوكلاء مع التأكيد، يجب أن يوفر التصميم ملخصات شفافة وموجزة للإجراء المقصود، مع تحديد العواقب المحتملة بوضوح. تحتاج الرقابة إلى التحقق من أن عملية التأكيد قوية وأنه لا يُطلب من المستخدمين الموافقة بشكل أعمى على الإجراءات. يجب على ممارسي تجربة المستخدم تصميم مطالبات تأكيد واضحة وتوفير جميع المعلومات الضرورية، ويجب على مديري المنتجات إعطاء الأولوية لمسار تدقيق قوي لجميع الإجراءات المؤكدة. التصرف بشكل مستقل يقوم الوكيل بتنفيذ المهام بشكل مستقل ضمن حدود محددة. التمايز يقوم المستخدم بمراجعة تاريخ الإجراءات، وليس الإجراءات نفسها. مثال: يرى وكيل التوظيف وجود تعارض، فينقل المقابلة إلى خانة احتياطية، ويقوم بتحديث المرشح، ويخطر مدير التوظيف. لا يرى الإنسان سوى إشعار: تمت إعادة جدولة المقابلة إلى الثلاثاء. الآثار المترتبة على التصميم والإشراف بالنسبة للوكلاء المستقلين، يحتاج التصميم إلى إنشاء حدود واضحة معتمدة مسبقًا وتوفير أدوات مراقبة قوية. تتطلب الرقابة تقييمًا مستمرًا لأداء الوكيل ضمن هذه الحدود، وهي حاجة ماسة لتسجيل قوي، وآليات تجاوز واضحة، ومفاتيح إيقاف محددة من قبل المستخدم للحفاظ على تحكم المستخدم وثقته. يجب أن يركز ممارسي تجربة المستخدم على تصميم لوحات معلومات فعالة لمراقبة سلوك الوكيل المستقل، ويجب على مديري المنتجات التأكد من وجود حوكمة واضحة ومبادئ توجيهية أخلاقية.
دعونا نلقي نظرة على تطبيق واقعي في مجال تكنولوجيا الموارد البشرية لرؤية هذه الأوضاع أثناء العمل. فكر في "وكيل تنسيق المقابلة" المصمم للتعامل مع لوجستيات التوظيف.
في وضع الاقتراح، يلاحظ الوكيل أن أحد القائمين على المقابلة قد تم حجزه مرتين. إنه يسلط الضوء على الصراع على لوحة معلومات مسؤول التوظيف: "تحذير: سارة محجوزة مرتين لمقابلة الساعة الثانية بعد الظهر". في وضع الخطة، يقوم الوكيل بتحليل تقويم سارة ومدى توفر المرشح. ويقدم حلاً: "أوصي بنقل المقابلة إلى يوم الخميس الساعة 10 صباحًا. وهذا يتطلب نقل مقابلة سارة 1:1 مع مديرها." يقوم المجند بمراجعة هذا المنطق. في وضع التأكيد، يقوم الوكيل بصياغة رسائل البريد الإلكتروني للمرشح والمدير. يقوم بملء دعوات التقويم. يرى مسؤول التوظيف ملخصًا: "هل أنت جاهز لإعادة الجدولة إلى الخميس. هل تريد إرسال التحديثات؟" ينقر مسؤول التوظيف على "تأكيد". في الوضع المستقل، يتعامل الوكيل مع الصراع على الفور. إنه يحترم قاعدة محددة مسبقًا: "قم دائمًا بإعطاء الأولوية لمقابلات المرشحين على المقابلات الداخلية 1: 1." ينقل الاجتماع ويرسل الإخطارات. يرى مسؤول التوظيف إدخال سجل: "تم الحلتعارض الجدول الزمني للمرشح ب."
التمهيدي للبحث: ما الذي يجب البحث فيه وكيف يتطلب تطوير الذكاء الاصطناعي الفعال اتباع نهج بحثي متميز مقارنةً بالبرامج التقليدية أو حتى الذكاء الاصطناعي التوليدي. إن الطبيعة المستقلة لوكلاء الذكاء الاصطناعي، وقدرتهم على اتخاذ القرارات، وقدرتهم على اتخاذ إجراءات استباقية تتطلب منهجيات متخصصة لفهم توقعات المستخدم، ورسم خرائط لسلوكيات الوكيل المعقدة، وتوقع حالات الفشل المحتملة. يوضح البحث التمهيدي التالي الطرق الرئيسية لقياس وتقييم هذه الجوانب الفريدة للذكاء الاصطناعي الوكيل. مقابلات النموذج العقلي تكشف هذه المقابلات عن أفكار المستخدمين المسبقة حول كيفية تصرف وكيل الذكاء الاصطناعي. بدلاً من مجرد السؤال عما يريده المستخدمون، ينصب التركيز على فهم نماذجهم الداخلية لقدرات الوكيل وقيوده. يجب أن نتجنب استخدام كلمة "وكيل" مع المشاركين. إنه يحمل أمتعة الخيال العلمي أو أنه من السهل جدًا الخلط بينه وبين وكيل بشري يقدم الدعم أو الخدمات. وبدلاً من ذلك، قم بتأطير المناقشة حول "المساعدين" أو "النظام". نحن بحاجة إلى الكشف عن المكان الذي يرسم فيه المستخدمون الخط الفاصل بين الأتمتة المفيدة والتحكم المتطفل.
الطريقة: اطلب من المستخدمين وصف تفاعلاتهم المتوقعة مع الوكيل أو رسمها أو سردها في سيناريوهات افتراضية مختلفة. المجسات الرئيسية (التي تعكس مجموعة متنوعة من الصناعات): لفهم حدود الأتمتة المرغوبة والمخاوف المحتملة حول الإفراط في الأتمتة، اسأل: إذا تم إلغاء رحلتك، ما الذي تريد أن يفعله النظام تلقائيًا؟ ما الذي سيقلقك إذا فعلت ذلك دون تعليمات صريحة منك؟
لاستكشاف فهم المستخدم للعمليات الداخلية للوكيل والاتصالات الضرورية، اسأل: تخيل أن المساعد الرقمي يدير منزلك الذكي. إذا تم تسليم الطرد، ما هي الخطوات التي تتخيل أنها ستتخذ، وما هي المعلومات التي تتوقع الحصول عليها؟
للكشف عن التوقعات المتعلقة بالتحكم والموافقة ضمن عملية متعددة الخطوات، اسأل: إذا طلبت من مساعدك الرقمي تحديد موعد لاجتماع، ما هي الخطوات التي تتصور أن يتخذها؟ في أي النقاط تريد أن تتم استشارتك أو إعطاء خيارات لك؟
فوائد الطريقة: تكشف عن الافتراضات الضمنية، وتسلط الضوء على المجالات التي قد يختلف فيها السلوك المخطط للوكيل عن توقعات المستخدم، وتبلغ تصميم الضوابط المناسبة وآليات ردود الفعل.
رسم خرائط رحلة الوكيل: على غرار رسم خرائط رحلة المستخدم التقليدية، يركز رسم خرائط رحلة الوكيل بشكل خاص على الإجراءات المتوقعة ونقاط القرار لوكيل الذكاء الاصطناعي نفسه، إلى جانب تفاعل المستخدم. وهذا يساعد على تحديد المخاطر المحتملة بشكل استباقي.
الطريقة: قم بإنشاء خريطة مرئية توضح المراحل المختلفة لتشغيل الوكيل، من البداية إلى الانتهاء، بما في ذلك جميع الإجراءات والقرارات والتفاعلات المحتملة مع الأنظمة الخارجية أو المستخدمين. العناصر الرئيسية للخريطة: إجراءات الوكيل: ما المهام أو القرارات المحددة التي يقوم بها الوكيل؟ مدخلات/مخرجات المعلومات: ما هي البيانات التي يحتاجها الوكيل، وما هي المعلومات التي يولدها أو ينقلها؟ نقاط القرار: أين يقوم الوكيل باتخاذ الاختيارات، وما هي معايير تلك الاختيارات؟ نقاط تفاعل المستخدم: أين يقدم المستخدم المدخلات أو المراجعة أو الموافقة على الإجراءات؟ نقاط الفشل: الأهم من ذلك، تحديد حالات محددة حيث يمكن للوكيل أن يسيء تفسير التعليمات، أو اتخاذ قرار غير صحيح، أو التفاعل مع الكيان الخطأ. أمثلة: المستلم غير الصحيح (على سبيل المثال، إرسال معلومات حساسة إلى الشخص الخطأ)، والسحب على المكشوف (على سبيل المثال، دفعة آلية تتجاوز الأموال المتاحة)، وسوء تفسير النية (على سبيل المثال، حجز رحلة طيران بتاريخ خاطئ بسبب لغة غامضة).
مسارات الاسترداد: كيف يمكن للوكيل أو المستخدم التعافي من حالات الفشل هذه؟ ما هي الآليات الموجودة للتصحيح أو التدخل؟
فوائد الطريقة: توفر رؤية شاملة للتدفق التشغيلي للوكيل، وتكشف عن التبعيات المخفية، وتسمح بالتصميم الاستباقي للضمانات، ومعالجة الأخطاء، ونقاط تدخل المستخدم لمنع النتائج السلبية أو تخفيفها.
محاكاة اختبار سوء السلوك: تم تصميم هذا النهج لاختبار إجهاد النظام ومراقبة ردود أفعال المستخدم عندما يفشل وكيل الذكاء الاصطناعي أو ينحرف عن التوقعات. يتعلق الأمر بفهم إصلاح الثقة والاستجابات العاطفية في المواقف المعاكسة.
الطريقة: في الدراسات المعملية الخاضعة للرقابة، قم بتقديم سيناريوهات متعمدة حيث يرتكب الوكيل خطأً، أو يسيء تفسير أمر ما، أو يتصرف بشكل غير متوقع. أنواع "سوء السلوك" التي يجب محاكاتها: الأمرالتفسير الخاطئ: ينفذ الوكيل إجراءً مختلفًا قليلاً عما قصده المستخدم (على سبيل المثال، طلب عنصرين بدلاً من عنصر واحد). التحميل الزائد/الناقص للمعلومات: يقدم الوكيل الكثير من المعلومات غير ذات الصلة أو لا يحتوي على تفاصيل مهمة كافية. الإجراء غير المرغوب فيه: يتخذ الوكيل إجراءً لم يكن المستخدم يريده أو يتوقعه صراحةً (على سبيل المثال، شراء الأسهم دون موافقة). فشل النظام: يتعطل الوكيل أو يصبح غير مستجيب أو يقدم رسالة خطأ. المعضلات الأخلاقية: يتخذ الوكيل قرارًا له آثار أخلاقية (على سبيل المثال، إعطاء الأولوية لمهمة على أخرى بناءً على مقياس غير متوقع).
تركيز المراقبة: ردود فعل المستخدم: كيف يتفاعل المستخدمون عاطفياً (الإحباط، الغضب، الارتباك، فقدان الثقة)؟ محاولات الاسترداد: ما الخطوات التي يتخذها المستخدمون لتصحيح سلوك الوكيل أو التراجع عن تصرفاته؟ آليات إصلاح الثقة: هل تساعد آليات الاسترداد أو ردود الفعل المضمنة في النظام على استعادة الثقة؟ كيف يريد المستخدمون أن يكونوا على علم بالأخطاء؟ تحول النموذج العقلي: هل يغير سوء السلوك فهم المستخدم لقدرات الوكيل أو حدوده؟
فوائد الطريقة: حاسمة لتحديد فجوات التصميم المتعلقة باسترداد الأخطاء والملاحظات والتحكم في المستخدم. فهو يوفر رؤى حول مدى مرونة المستخدمين في مواجهة فشل الوكلاء وما هو مطلوب للحفاظ على الثقة أو إعادة بنائها، مما يؤدي إلى أنظمة وكيل أكثر قوة وتسامحًا.
من خلال دمج منهجيات البحث هذه، يمكن لممارسي تجربة المستخدم تجاوز مجرد جعل الأنظمة الوكيلة قابلة للاستخدام لجعلها موثوقة وقابلة للتحكم وخاضعة للمساءلة، مما يعزز العلاقة الإيجابية والمثمرة بين المستخدمين ووكلاء الذكاء الاصطناعي الخاصين بهم. لاحظ أن هذه ليست الطرق الوحيدة ذات الصلة باستكشاف الذكاء الاصطناعي الفعال بشكل فعال. وتوجد العديد من الأساليب الأخرى، ولكنها في متناول الممارسين على المدى القريب. لقد قمت سابقًا بتغطية طريقة ساحر أوز، وهي طريقة أكثر تقدمًا قليلاً لاختبار المفاهيم، وهي أيضًا أداة قيمة لاستكشاف مفاهيم الذكاء الاصطناعي الوكيل. الاعتبارات الأخلاقية في منهجية البحث عند البحث في الذكاء الاصطناعي الوكيل، خاصة عند محاكاة سوء السلوك أو الأخطاء، تعتبر الاعتبارات الأخلاقية أمرًا أساسيًا يجب أخذه في الاعتبار. هناك العديد من المنشورات التي تركز على أبحاث تجربة المستخدم الأخلاقية، بما في ذلك مقال كتبته لمجلة Smashing، وهذه الإرشادات من معهد تصميم تجربة المستخدم، وهذه الصفحة من مجموعة أدوات التصميم الشامل. المقاييس الرئيسية للذكاء الاصطناعي الوكيل ستحتاج إلى مجموعة شاملة من المقاييس الأساسية لتقييم أداء وموثوقية أنظمة الذكاء الاصطناعي الفعالة بشكل فعال. توفر هذه المقاييس رؤى حول ثقة المستخدم ودقة النظام وتجربة المستخدم الشاملة. ومن خلال تتبع هذه المؤشرات، يمكن للمطورين والمصممين تحديد مجالات التحسين والتأكد من أن وكلاء الذكاء الاصطناعي يعملون بأمان وكفاءة. 1. معدل التدخل بالنسبة للعملاء المستقلين، فإننا نقيس النجاح بالصمت. إذا نفذ وكيل مهمة ولم يتدخل المستخدم أو يعكس الإجراء خلال فترة محددة (على سبيل المثال، 24 ساعة)، فإننا نعتبر ذلك بمثابة قبول. نحن نتتبع معدل التدخل: كم مرة يتدخل الإنسان لإيقاف العامل أو تصحيحه؟ ويشير معدل التدخل المرتفع إلى وجود خلل في الثقة أو المنطق. 2. تكرار الإجراءات غير المقصودة لكل 1000 مهمة يحدد هذا المقياس الهام عدد الإجراءات التي يؤديها وكيل الذكاء الاصطناعي والتي لم تكن مرغوبة أو متوقعة من قبل المستخدم، ويتم تطبيعها لكل 1000 مهمة مكتملة. يشير التكرار المنخفض للإجراءات غير المقصودة إلى وجود ذكاء اصطناعي جيد التنسيق يفسر نية المستخدم بدقة ويعمل ضمن حدود محددة. ويرتبط هذا المقياس ارتباطًا وثيقًا بفهم الذكاء الاصطناعي للسياق، وقدرته على إزالة الغموض عن الأوامر، ومتانة بروتوكولات السلامة الخاصة به. 3. معدلات التراجع أو التراجع يتتبع هذا المقياس عدد المرات التي يحتاج فيها المستخدمون إلى عكس أو التراجع عن إجراء تم تنفيذه بواسطة الذكاء الاصطناعي. تشير معدلات التراجع المرتفعة إلى أن الذكاء الاصطناعي يرتكب أخطاء متكررة، أو يسيء تفسير التعليمات، أو يتصرف بطرق لا تتماشى مع توقعات المستخدم. يمكن أن يوفر تحليل الأسباب الكامنة وراء هذه التراجعات تعليقات قيمة لتحسين خوارزميات الذكاء الاصطناعي، وفهم تفضيلات المستخدم، وقدرته على التنبؤ بالنتائج المرغوبة. لفهم السبب، يجب عليك تنفيذ مسح دقيق على إجراء التراجع. على سبيل المثال، عندما يقوم مستخدم بعكس تغيير في الجدولة، يمكن أن يسألك موجه بسيط: "الوقت الخطأ؟ الشخص الخطأ؟ أم أنك تريد فقط القيام بذلك بنفسك؟" السماح للمستخدم بالنقر على الخيار الذي يتوافق بشكل أفضل مع منطقه. 4. وقت الحل بعد حدوث خطأ في هذا المقياسيقيس المدة التي يستغرقها المستخدم لتصحيح الخطأ الذي ارتكبه الذكاء الاصطناعي أو نظام الذكاء الاصطناعي نفسه للتعافي من حالة خاطئة. يشير الوقت القصير للحل إلى وجود عملية فعالة وسهلة لاستعادة الأخطاء، والتي يمكن أن تخفف من إحباط المستخدم وتحافظ على الإنتاجية. يتضمن ذلك سهولة تحديد الخطأ، وإمكانية الوصول إلى آليات التراجع أو التصحيح، ووضوح رسائل الخطأ التي يوفرها الذكاء الاصطناعي.
يتطلب جمع هذه المقاييس استخدام أدوات النظام الخاص بك لتتبع معرفات إجراءات الوكيل. كل إجراء مميز يتخذه الوكيل، مثل اقتراح جدول زمني أو حجز رحلة طيران، يجب أن ينشئ معرفًا فريدًا يظل ثابتًا في السجلات. لقياس معدل التدخل، نحن لا نبحث عن رد فعل فوري للمستخدم. نحن نبحث عن عدم وجود إجراء مضاد ضمن نافذة محددة. إذا تم إنشاء معرف الإجراء في الساعة 9:00 صباحًا ولم يقم أي مستخدم بشري بتعديل هذا المعرف المحدد أو إرجاعه بحلول الساعة 9:00 صباحًا في اليوم التالي، فسيضع النظام علامة عليه منطقيًا على أنه مقبول. يتيح لنا ذلك قياس النجاح بناءً على صمت المستخدم بدلاً من التأكيد النشط. بالنسبة لمعدلات التراجع، تكون الأعداد الأولية غير كافية لأنها تفتقر إلى السياق. للتعرف على السبب الأساسي، يجب عليك تنفيذ منطق الاعتراض على وظائف التراجع أو التراجع في تطبيقك. عندما يقوم مستخدم بعكس إجراء بدأه الوكيل، قم بتشغيل استطلاع دقيق خفيف الوزن. يمكن أن يكون هذا نموذجًا بسيطًا من ثلاثة خيارات يطلب من المستخدم تصنيف الخطأ على أنه غير صحيح في الواقع، أو يفتقر إلى السياق، أو تفضيل بسيط للتعامل مع المهمة يدويًا. يجمع هذا بين القياس الكمي عن بعد والبصيرة النوعية. فهو يمكّن الفرق الهندسية من التمييز بين الخوارزمية المعطلة وعدم تطابق تفضيلات المستخدم. توفر هذه المقاييس، عند تتبعها باستمرار وتحليلها بشكل كلي، إطارًا قويًا لتقييم أداء أنظمة الذكاء الاصطناعي الوكيل، مما يسمح بالتحسين المستمر في التحكم والموافقة والمساءلة. تصميم ضد الخداع مع تزايد قدرة العملاء، فإننا نواجه خطرًا جديدًا: Agentic Sludge. تخلق الحمأة التقليدية احتكاكًا يجعل من الصعب إلغاء الاشتراك أو حذف الحساب. الحمأة الوكيلة تعمل في الاتجاه المعاكس. إنه يزيل الاحتكاك بالخطأ، مما يجعل من السهل جدًا على المستخدم الموافقة على إجراء يفيد الشركة بدلاً من مصالحه الخاصة. فكر في وكيل يساعد في حجز السفر. وبدون حواجز حماية واضحة، قد يعطي النظام الأولوية لشركة طيران شريكة أو فندق ذو هامش ربح أعلى. ويعرض هذا الاختيار باعتباره المسار الأمثل. ويقبل المستخدم، الذي يثق بسلطة النظام، التوصية دون تدقيق. يؤدي هذا إلى إنشاء نمط خادع حيث يقوم النظام بتحسين الإيرادات تحت ستار الراحة. خطر الكفاءة المتخيلة زورا لا يجوز أن يكون الخداع نابعًا من نوايا خبيثة. وغالبًا ما تظهر في الذكاء الاصطناعي على أنها كفاءة متخيلة. غالبًا ما تبدو نماذج اللغات الكبيرة موثوقة حتى عندما تكون غير صحيحة. إنهم يقدمون تأكيدًا خاطئًا للحجز أو ملخصًا غير دقيق بنفس الثقة التي تتمتع بها حقيقة تم التحقق منها. من الطبيعي أن يثق المستخدمون بهذه النبرة الواثقة. يؤدي عدم التطابق هذا إلى إنشاء فجوة خطيرة بين قدرة النظام وتوقعات المستخدم. ويجب علينا أن نصمم خصيصًا لسد هذه الفجوة. إذا فشل الوكيل في إكمال المهمة، فيجب أن تشير الواجهة إلى هذا الفشل بوضوح. إذا كان النظام غير متأكد، فيجب عليه التعبير عن عدم اليقين بدلاً من إخفاءه بنثر مصقول. الشفافية عبر البدائيات الترياق لكل من الحمأة والهلوسة هو المصدر. يتطلب كل إجراء مستقل علامة بيانات وصفية محددة تشرح أصل القرار. يحتاج المستخدمون إلى القدرة على فحص السلسلة المنطقية وراء النتيجة. ولتحقيق ذلك، يجب علينا ترجمة البدائيات إلى إجابات عملية. في هندسة البرمجيات، تشير البدائيات إلى الوحدات الأساسية للمعلومات أو الإجراءات التي يقوم بها الوكيل. بالنسبة للمهندس، يبدو هذا بمثابة استدعاء واجهة برمجة التطبيقات (API) أو بوابة منطقية. ويجب أن يظهر للمستخدم كتفسير واضح. ويكمن تحدي التصميم في رسم خرائط لهذه الخطوات التقنية لمبررات يمكن للإنسان قراءتها. إذا أوصى وكيل برحلة معينة، يحتاج المستخدم إلى معرفة السبب. لا يمكن للواجهة أن تختبئ خلف اقتراح عام. يجب أن يكشف عن البدائية الأساسية: المنطق: Cheapest_Direct_Flight أو المنطق: Partner_Airline_Priority. ويوضح الشكل 4 تدفق الترجمة هذا. نحن نأخذ النظام الأولي البدائي - منطق الكود الفعلي - ونقوم بتعيينه إلى سلسلة تواجه المستخدم. على سبيل المثال، التحقق البدائي من جدول زمني لاجتماع يصبح عبارة واضحة: لقد اقترحت الساعة 4 مساءًمقابلة. يضمن هذا المستوى من الشفافية أن تبدو تصرفات الوكيل منطقية ومفيدة. فهو يسمح للمستخدم بالتحقق من أن الوكيل تصرف بما يحقق مصلحته. من خلال الكشف عن البدائيين، نقوم بتحويل الصندوق الأسود إلى صندوق زجاجي، مما يضمن أن يظل المستخدمون هم السلطة النهائية في حياتهم الرقمية الخاصة.
إعداد المسرح للتصميم يتطلب بناء نظام فعال مستوى جديدًا من الفهم النفسي والسلوكي. إنه يجبرنا على تجاوز اختبارات قابلية الاستخدام التقليدية إلى عالم الثقة والموافقة والمساءلة. إن طرق البحث التي ناقشناها، بدءًا من اختبار النماذج العقلية ووصولاً إلى محاكاة سوء السلوك وإنشاء مقاييس جديدة، توفر أساسًا ضروريًا. هذه الممارسات هي الأدوات الأساسية لتحديد الأماكن التي قد يفشل فيها النظام المستقل بشكل استباقي، والأهم من ذلك، كيفية إصلاح العلاقة بين المستخدم والوكيل عندما يحدث ذلك. إن التحول إلى الذكاء الاصطناعي الوكيل هو إعادة تعريف للعلاقة بين المستخدم والنظام. لم نعد نصمم الأدوات التي تستجيب للأوامر ببساطة؛ نحن نصمم للشركاء الذين يعملون نيابة عنا. يؤدي هذا إلى تغيير ضرورة التصميم من الكفاءة وسهولة الاستخدام إلى الشفافية والقدرة على التنبؤ والتحكم. عندما يتمكن الذكاء الاصطناعي من حجز رحلة طيران أو تداول سهم دون نقرة نهائية، يصبح تصميم "المنحدرات الداخلية" و"المنحدرات الجانبية" أمرًا بالغ الأهمية. تقع على عاتقنا مسؤولية التأكد من أن المستخدمين يشعرون أنهم في مقعد السائق، حتى عندما يسلمون عجلة القيادة. هذا الواقع الجديد يرفع أيضًا من دور باحث تجربة المستخدم. لقد أصبحنا أوصياء على ثقة المستخدم، ونعمل بشكل تعاوني مع المهندسين ومديري المنتجات لتحديد واختبار حواجز الحماية لاستقلالية الوكيل. وبعيدًا عن كوننا باحثين، فإننا ندافع عن مراقبة المستخدم والشفافية والضمانات الأخلاقية في عملية التطوير. ومن خلال ترجمة البدائيات إلى أسئلة عملية ومحاكاة أسوأ السيناريوهات، يمكننا بناء أنظمة قوية قوية وآمنة في نفس الوقت. لقد أوضحت هذه المقالة "ماذا" و"لماذا" البحث في الذكاء الاصطناعي الوكيل. لقد أظهر أن أدواتنا التقليدية غير كافية وأننا يجب أن نعتمد منهجيات جديدة تطلعية. ستعتمد المقالة التالية على هذا الأساس، حيث تقدم أنماط التصميم المحددة والممارسات التنظيمية التي تجعل فائدة الوكيل شفافة للمستخدمين، مما يضمن قدرتهم على تسخير قوة الذكاء الاصطناعي الوكيل بثقة وتحكم. مستقبل تجربة المستخدم يدور حول جعل الأنظمة جديرة بالثقة. للحصول على فهم إضافي للذكاء الاصطناعي الوكيل، يمكنك استكشاف الموارد التالية:
مدونة Google AI على Agentic AI أبحاث مايكروسوفت حول وكلاء الذكاء الاصطناعي