يمثل التصميم للوكلاء المستقلين إحباطًا فريدًا. نقوم بتسليم مهمة معقدة إلى الذكاء الاصطناعي، ويختفي لمدة 30 ثانية (أو 30 دقيقة)، ثم يعود بنتيجة. نحن نحدق في الشاشة. هل نجحت؟ هل هلوسة؟ هل تحققت من قاعدة بيانات الامتثال أم تخطيت تلك الخطوة؟ عادة ما نرد على هذا القلق بأحد النقيضين. إما أن نحتفظ بالنظام كصندوق أسود، ونخفي كل شيء للحفاظ على البساطة، أو نذعر ونوفر تفريغ البيانات، ونقوم بدفق كل سطر سجل واستدعاء واجهة برمجة التطبيقات (API) إلى المستخدم. ولا يعالج أي من النهجين بشكل مباشر الفروق الدقيقة اللازمة لتزويد المستخدمين بالمستوى المثالي من الشفافية. الصندوق الأسود يترك المستخدمين يشعرون بالعجز. يؤدي تفريغ البيانات إلى عمى الإشعارات، مما يؤدي إلى تدمير الكفاءة التي وعد الوكيل بتوفيرها. يتجاهل المستخدمون التدفق المستمر للمعلومات حتى ينكسر شيء ما، وعند هذه النقطة يفتقرون إلى السياق لإصلاحه. نحن بحاجة إلى طريقة منظمة لإيجاد التوازن. في مقالتي السابقة، "Designing For Agentic AI"، نظرنا إلى عناصر الواجهة التي تبني الثقة، مثل إظهار الإجراء المقصود للذكاء الاصطناعي مسبقًا (Intent Previews) ومنح المستخدمين التحكم في مقدار ما يفعله الذكاء الاصطناعي من تلقاء نفسه (Autonomy Dials). لكن معرفة العناصر التي يجب استخدامها ليس سوى جزء من التحدي. السؤال الأصعب بالنسبة للمصممين هو معرفة متى يستخدمونها. كيف يمكنك معرفة أي لحظة محددة في سير عمل مدته 30 ثانية تتطلب معاينة الغرض وأي لحظة يمكن التعامل معها من خلال إدخال سجل بسيط؟ توفر هذه المقالة طريقة للإجابة على هذا السؤال. سوف نسير عبر تدقيق عقدة القرار. تجمع هذه العملية المصممين والمهندسين في نفس الغرفة لتعيين منطق الواجهة الخلفية لواجهة المستخدم. سوف تتعلم كيفية تحديد اللحظات الدقيقة التي يحتاج فيها المستخدم إلى تحديث ما يفعله الذكاء الاصطناعي. سنغطي أيضًا مصفوفة التأثير/المخاطر التي ستساعد في تحديد أولويات عقد القرار التي سيتم عرضها وأي نمط تصميم مرتبط للاقتران بهذا القرار. لحظات الشفافية: مثال لدراسة حالة ولنتأمل هنا شركة ميريديان (اسم مستعار)، وهي شركة تأمين تستخدم الذكاء الاصطناعي الوكيل لمعالجة المطالبات الأولية للحوادث. يقوم المستخدم بتحميل صور الأضرار التي لحقت بالسيارة وتقرير الشرطة. ثم يختفي الوكيل لمدة دقيقة قبل أن يعود بتقييم المخاطر ونطاق الدفع المقترح. في البداية، أظهرت واجهة Meridian ببساطة حساب حالة المطالبة. أصبح المستخدمون محبطين. وقد قدموا عدة وثائق مفصلة، وشعروا بعدم اليقين بشأن ما إذا كانت منظمة العفو الدولية قد قامت بمراجعة تقرير الشرطة، الذي يتضمن الظروف المخففة. لقد خلق الصندوق الأسود حالة من عدم الثقة. لإصلاح هذه المشكلة، أجرى فريق التصميم تدقيقًا لعقدة القرار. ووجدوا أن الذكاء الاصطناعي قام بثلاث خطوات متميزة مبنية على الاحتمالات، مع تضمين العديد من الخطوات الأصغر:
تحليل الصور قام الوكيل بمقارنة صور الأضرار بقاعدة بيانات لسيناريوهات حوادث السيارات النموذجية لتقدير تكلفة الإصلاح. وهذا ينطوي على درجة الثقة. مراجعة نصية: قامت بفحص تقرير الشرطة بحثًا عن الكلمات الرئيسية التي تؤثر على المسؤولية (مثل الخطأ، والظروف الجوية، والرصانة). وشمل ذلك تقييم احتمالية الوضع القانوني. مرجع السياسة المرجعي: قام بمطابقة تفاصيل المطالبة مع شروط السياسة المحددة للمستخدم، والبحث عن الاستثناءات أو حدود التغطية. وشمل هذا أيضًا المطابقة الاحتمالية.
وقد حول الفريق هذه الخطوات إلى لحظات شفافية. تم تحديث تسلسل الواجهة إلى:
تقييم صور الأضرار: المقارنة مع 500 ملف تعريف لصدمات المركبات. مراجعة تقرير الشرطة: تحليل الكلمات الرئيسية للمسؤولية والسوابق القانونية. التحقق من تغطية السياسة: التحقق من وجود استثناءات محددة في خطتك.
لا يزال النظام يستغرق نفس القدر من الوقت، لكن التواصل الصريح حول الأعمال الداخلية للوكيل أعاد ثقة المستخدم. لقد أدرك المستخدمون أن الذكاء الاصطناعي كان يؤدي المهمة المعقدة التي تم تصميمه من أجلها، وكانوا يعرفون بالضبط أين يركزون اهتمامهم إذا بدا التقييم النهائي غير دقيق. أدى اختيار التصميم هذا إلى تحويل لحظة القلق إلى لحظة اتصال مع المستخدم. تطبيق مصفوفة التأثير/المخاطر: ما اخترنا إخفاءه لا تعاني معظم تجارب الذكاء الاصطناعي من نقص في الأحداث وعقد القرار التي يمكن عرضها أثناء المعالجة. كانت إحدى أهم نتائج التدقيق هي تحديد ما يجب إبقاؤه غير مرئي. في مثال Meridian، قامت سجلات الواجهة الخلفية بإنشاء أكثر من 50 حدثًا لكل مطالبة. كان من الممكن أن نكون قد تخلفنا عن عرض كل حدث حيث تمت معالجته كجزء من واجهة المستخدم. بدلاً من ذلك، قمنا بتطبيق مصفوفة المخاطر لتهذيبها:
حدث السجل: خادم PingingWest-2 للتحقق من التكرار. حكم التصفية: إخفاء. (رهانات منخفضة، تقنية عالية).
حدث السجل: مقارنة تقدير الإصلاح بقيمة BlueBook. حكم التصفية: العرض. (الرهانات العالية تؤثر على دفعات المستخدم).
ومن خلال استبعاد التفاصيل غير الضرورية، أصبحت المعلومات المهمة - مثل التحقق من التغطية - أكثر تأثيرًا. لقد أنشأنا واجهة مفتوحة وصممنا تجربة مفتوحة. يستخدم هذا النهج فكرة أن الناس يشعرون بالرضا تجاه الخدمة عندما يمكنهم رؤية العمل يتم إنجازه. ومن خلال عرض الخطوات المحددة (التقييم، والمراجعة، والتحقق)، قمنا بتغيير فترة الانتظار لمدة 30 ثانية من وقت القلق ("هل تم كسره؟") إلى وقت الشعور وكأنه يتم إنشاء شيء ذي قيمة ("إنه يفكر"). دعونا الآن نلقي نظرة فاحصة على كيفية مراجعة عملية اتخاذ القرار في منتجاتنا لتحديد اللحظات الرئيسية التي تتطلب معلومات واضحة. تدقيق عقدة القرار تفشل الشفافية عندما نتعامل معها كاختيار للأسلوب وليس كمتطلبات وظيفية. نحن نميل إلى التساؤل: "كيف يجب أن تبدو واجهة المستخدم؟" قبل أن نسأل: "ما الذي يقرره الوكيل فعليًا؟" تعد عملية تدقيق عقدة القرار طريقة مباشرة لتسهيل فهم أنظمة الذكاء الاصطناعي. إنه يعمل عن طريق رسم خريطة للعملية الداخلية للنظام بعناية. الهدف الرئيسي هو العثور على اللحظات الدقيقة التي يتوقف فيها النظام عن اتباع قواعده المحددة وتحديدها بوضوح، ويقوم بدلاً من ذلك بالاختيار بناءً على الصدفة أو التقدير. من خلال رسم خريطة لهذا الهيكل، يمكن للمبدعين إظهار نقاط عدم اليقين هذه مباشرة للأشخاص الذين يستخدمون النظام. يؤدي هذا إلى تغيير تحديثات النظام من كونها بيانات غامضة إلى تقارير محددة وموثوقة حول كيفية وصول الذكاء الاصطناعي إلى استنتاجه. بالإضافة إلى دراسة حالة التأمين المذكورة أعلاه، عملت مؤخرًا مع فريق لبناء وكيل مشتريات. قام النظام بمراجعة عقود البائعين والمخاطر التي تم الإبلاغ عنها. في الأصل، كانت الشاشة تعرض شريط تقدم بسيط: "مراجعة العقود". يكرهها المستخدمون. أشار بحثنا إلى أنهم شعروا بالقلق بشأن الآثار القانونية المترتبة على البند المفقود. لقد أصلحنا هذا من خلال إجراء تدقيق لعقدة القرار. لقد قمت بتضمين قائمة مرجعية خطوة بخطوة لإجراء هذا التدقيق في ختام هذه المقالة. أجرينا جلسة مع المهندسين وشرحنا كيفية عمل النظام. لقد حددنا "نقاط القرار" - وهي اللحظات التي يتعين فيها على الذكاء الاصطناعي الاختيار بين خيارين جيدين. في برامج الكمبيوتر القياسية، تكون العملية واضحة: إذا حدث A، فسيحدث B دائمًا. في أنظمة الذكاء الاصطناعي، غالبًا ما تعتمد العملية على الصدفة. يعتقد الذكاء الاصطناعي أن الخيار A ربما يكون الخيار الأفضل، ولكن قد يكون متأكدًا بنسبة 65% فقط. في نظام العقود، وجدنا لحظة قام فيها الذكاء الاصطناعي بفحص شروط المسؤولية مقابل قواعد شركتنا. نادرا ما كانت مباراة مثالية. كان على الذكاء الاصطناعي أن يقرر ما إذا كانت مطابقة 90% جيدة بما فيه الكفاية. وكانت هذه نقطة قرار رئيسية.
وبمجرد أن حددنا هذه العقدة، قمنا بعرضها للمستخدم. بدلاً من "مراجعة العقود"، تم تحديث الواجهة لتقول: "يختلف شرط المسؤولية عن القالب القياسي. تحليل مستوى المخاطر." أعطى هذا التحديث المحدد ثقة المستخدمين. كانوا يعلمون أن الوكيل قد فحص بند المسؤولية. لقد فهموا سبب التأخير واكتسبوا الثقة في أن الإجراء المطلوب كان يحدث في النهاية الخلفية. لقد عرفوا أيضًا مكان التعمق أكثر بمجرد قيام الوكيل بإنشاء العقد. للتحقق من كيفية اتخاذ الذكاء الاصطناعي للقرارات، يتعين عليك العمل بشكل وثيق مع المهندسين ومديري المنتجات ومحللي الأعمال والأشخاص الرئيسيين الذين يتخذون الاختيارات (المخفية غالبًا) التي تؤثر على كيفية عمل أداة الذكاء الاصطناعي. ارسم الخطوات التي تتخذها الأداة. حدد كل نقطة يتغير فيها اتجاه العملية بسبب تحقيق الاحتمال. هذه هي الأماكن التي يجب أن تركز فيها على أن تكون أكثر شفافية. كما هو مبين في الشكل 2 أدناه، تتضمن عملية تدقيق عقدة القرار الخطوات التالية:
اجمع الفريق معًا: اجمع أصحاب المنتجات ومحللي الأعمال والمصممين وصناع القرار الرئيسيين والمهندسين الذين قاموا ببناء الذكاء الاصطناعي. على سبيل المثال، فكر في فريق منتج يقوم ببناء أداة ذكاء اصطناعي مصممة لمراجعة العقود القانونية الفوضوية. يضم الفريق مصمم تجربة المستخدم، ومدير المنتج، وباحث تجربة المستخدم، ومحاميًا ممارسًا يعمل كخبير في الموضوع، ومهندس الواجهة الخلفية الذي كتب كود تحليل النص.
ارسم العملية بأكملها: قم بتوثيق كل خطوة يتخذها الذكاء الاصطناعي، بدءًا من الإجراء الأول للمستخدم وحتى النتيجة النهائية. يقف الفريق على السبورة البيضاء ويرسم التسلسل الكامل لسير العمل الرئيسي الذي يتضمن بحث الذكاء الاصطناعي عن بند المسؤولية في عقد معقد. يقوم المحامي بتحميلملف PDF مكون من خمسين صفحة → يقوم النظام بتحويل المستند إلى نص قابل للقراءة. → يقوم الذكاء الاصطناعي بمسح الصفحات بحثًا عن بنود المسؤولية. → ينتظر المستخدم. → بعد لحظات أو دقائق، تقوم الأداة بتمييز الفقرات الموجودة باللون الأصفر على واجهة المستخدم. يفعلون ذلك للعديد من مسارات العمل الأخرى التي تستوعبها الأداة أيضًا.
ابحث عن الأماكن غير الواضحة: انظر إلى خريطة العملية لأي مكان حيث يقوم الذكاء الاصطناعي بمقارنة الخيارات أو المدخلات التي ليس لها تطابق كامل. ينظر الفريق إلى السبورة البيضاء لاكتشاف الخطوات الغامضة. تحويل الصورة إلى نص يتبع قواعد صارمة. العثور على بند مسؤولية محدد ينطوي على التخمين. تكتب كل شركة هذه البنود بشكل مختلف، لذلك يتعين على الذكاء الاصطناعي أن يزن خيارات متعددة ويقوم بالتنبؤ بدلاً من العثور على تطابق تام للكلمات.
حدد خطوات "أفضل تخمين": بالنسبة لكل نقطة غير واضحة، تحقق مما إذا كان النظام يستخدم درجة الثقة (على سبيل المثال، هل هو متأكد بنسبة 85٪؟). هذه هي النقاط التي يتخذ فيها الذكاء الاصطناعي القرار النهائي. يجب على النظام أن يخمن (يعطي احتمالًا) أي فقرة (فقرات) تشبه إلى حد كبير شرط المسؤولية القياسي. فهو يعين درجة الثقة لأفضل تخمين لها. هذا التخمين هو عقدة القرار. تحتاج الواجهة إلى إخبار المحامي بأنها تسلط الضوء على تطابق محتمل، بدلاً من الإشارة إلى أنها عثرت على البند النهائي.
افحص الاختيار: بالنسبة لكل نقطة اختيار، اكتشف العمليات الحسابية الداخلية المحددة أو المقارنة التي يتم إجراؤها (على سبيل المثال، مطابقة جزء من العقد مع سياسة أو مقارنة صورة سيارة مكسورة بمكتبة صور السيارات التالفة). يوضح المهندس أن النظام يقارن الفقرات المختلفة بقاعدة بيانات لشروط المسؤولية القياسية من قضايا الشركات السابقة. يقوم بحساب درجة تشابه النص لتحديد المطابقة بناءً على الاحتمالات.
اكتب تفسيرات واضحة: قم بإنشاء رسائل للمستخدم تصف بوضوح الإجراء الداخلي المحدد الذي يحدث عندما يقوم الذكاء الاصطناعي باختيار ما. يقوم مصمم المحتوى بكتابة رسالة محددة لهذه اللحظة بالتحديد. يقرأ النص: مقارنة نص المستند بشروط الشركة القياسية لتحديد مخاطر المسؤولية المحتملة.
تحديث الشاشة: ضع هذه التوضيحات الجديدة والواضحة في واجهة المستخدم، واستبدل الرسائل الغامضة مثل "مراجعة العقود". يقوم فريق التصميم بإزالة أداة التحميل العامة لمعالجة ملفات PDF. يقومون بإدراج التفسير الجديد في شريط الحالة الموجود مباشرة فوق عارض المستندات بينما يفكر الذكاء الاصطناعي.
التحقق من الثقة: تأكد من أن رسائل الشاشة الجديدة تعطي المستخدمين سببًا بسيطًا لأي وقت انتظار أو نتيجة، مما يجعلهم يشعرون بمزيد من الثقة والثقة.
مصفوفة التأثير/المخاطر بمجرد إلقاء نظرة فاحصة على عملية الذكاء الاصطناعي، فمن المحتمل أن تجد العديد من النقاط التي يقوم فيها بالاختيار. قد يتخذ الذكاء الاصطناعي عشرات الاختيارات الصغيرة لمهمة واحدة معقدة. يؤدي عرضها جميعًا إلى إنشاء الكثير من المعلومات غير الضرورية. تحتاج إلى تجميع هذه الاختيارات. يمكنك استخدام مصفوفة التأثير/المخاطر لفرز هذه الاختيارات بناءً على أنواع الإجراء (الإجراءات) التي يتخذها الذكاء الاصطناعي. فيما يلي أمثلة لمصفوفات التأثير/المخاطر: أولاً، ابحث عن القرارات ذات المخاطر المنخفضة والتأثير المنخفض. مخاطر منخفضة / تأثير منخفض
مثال: تنظيم بنية ملف أو إعادة تسمية مستند. الحاجة إلى الشفافية: الحد الأدنى. يكفي إعلام نخب دقيق أو إدخال سجل. يمكن للمستخدمين التراجع عن هذه الإجراءات بسهولة.
ثم حدد القرارات عالية المخاطر وعالية التأثير. مخاطر عالية / تأثير كبير
مثال: رفض طلب القرض أو تنفيذ تداول الأسهم. الحاجة إلى الشفافية: عالية. تتطلب هذه الإجراءات إثبات العمل. يجب أن يوضح النظام الأساس المنطقي قبل أو فورًا أثناء قيامه بالتصرف.
فكر في روبوت تداول مالي يتعامل مع جميع أوامر الشراء/البيع بنفس الطريقة. إنه ينفذ تداولًا بقيمة 5 دولارات بنفس درجة التعتيم مثل تداول 50000 دولار. قد يتساءل المستخدمون عما إذا كانت الأداة تدرك التأثير المحتمل للشفافية على التداول بمبلغ كبير بالدولار. إنهم بحاجة إلى توقف النظام مؤقتًا وإظهار عمله في الصفقات عالية المخاطر. ويتمثل الحل في تقديم حالة منطق المراجعة لأي معاملة تتجاوز مبلغًا محددًا بالدولار، مما يسمح للمستخدم برؤية العوامل التي تدفع القرار قبل التنفيذ. تعيين العقد إلى الأنماط: عنوان اختيار نمط التصميم بمجرد تحديد نقاط القرار الرئيسية لتجربتك، يجب عليك تحديد نمط واجهة المستخدم الذي ينطبق على كل نمط ستعرضه. في Designing For Agentic AI، قدمنا أنماطًا مثل Intent Preview (للتحكم في المخاطر العالية) وتدقيق الإجراء (للسلامة بأثر رجعي). والعامل الحاسم في الاختيار بينهما هو الرجوع. نقوم بتصفية كلعقدة القرار من خلال مصفوفة التأثير لتعيين النمط الصحيح: مخاطر عالية ولا رجعة فيها: تتطلب هذه العقد معاينة النية. نظرًا لأنه لا يمكن للمستخدم التراجع عن الإجراء بسهولة (على سبيل المثال، حذف قاعدة بيانات نهائيًا)، يجب أن تحدث لحظة الشفافية قبل التنفيذ. يجب أن يتوقف النظام مؤقتًا ويشرح نيته ويطلب التأكيد. مخاطر عالية وقابلة للعكس: يمكن أن تعتمد هذه العقد على نمط تدقيق الإجراء والتراجع. إذا قام وكيل المبيعات المدعوم بالذكاء الاصطناعي بنقل عميل محتمل إلى مسار مختلف، فيمكنه القيام بذلك بشكل مستقل طالما أنه يقوم بإخطار المستخدم ويقدم زر تراجع فوري. ومن خلال التصنيف الدقيق للعقد بهذه الطريقة، فإننا نتجنب "إرهاق التنبيه". نحن نحتفظ بمعاينة النوايا عالية الاحتكاك فقط للحظات التي لا رجعة فيها حقًا، مع الاعتماد على تدقيق الإجراء للحفاظ على السرعة لكل شيء آخر.
عكسها لا رجعة فيه تأثير منخفض النوع: تنفيذ تلقائي: واجهة المستخدم: نخب سلبي / LogEx: إعادة تسمية ملف النوع: تأكيد واجهة المستخدم: خيار تراجع بسيط، مثال: أرشفة البريد الإلكتروني تأثير عالي النوع: ReviewUI: إعلام + مراجعة TrailEx: إرسال مسودة إلى العميل النوع: معاينة النية: واجهة المستخدم: مشروط / إذن صريح: حذف الخادم
الجدول 1: يمكن بعد ذلك استخدام مصفوفة التأثير والانعكاس لرسم خريطة لحظات الشفافية الخاصة بك لأنماط التصميم. التحقق النوعي: "الانتظار، لماذا؟" اختبار يمكنك تحديد العقد المحتملة على السبورة البيضاء، ولكن يجب عليك التحقق من صحتها من خلال السلوك البشري. يتعين عليك التحقق مما إذا كانت خريطتك تتوافق مع النموذج العقلي للمستخدم. أستخدم بروتوكولًا يسمى "انتظر، لماذا؟" امتحان. اطلب من المستخدم مشاهدة الوكيل وهو يكمل مهمة. اطلب منهم التحدث بصوت عالٍ. كلما طرحوا سؤالاً: "انتظر، لماذا فعل ذلك؟" أو "هل هو عالق؟" أو "هل سمعتني؟" - قمت بوضع علامة على الطابع الزمني. تشير هذه الأسئلة إلى ارتباك المستخدم. يشعر المستخدم أن سيطرته تفلت من أيديه. على سبيل المثال، في دراسة لمساعد جدولة الرعاية الصحية، شاهد المستخدمون الوكيل وهو يحجز موعدًا. ظلت الشاشة ثابتة لمدة أربع ثوانٍ. سأل المشاركون باستمرار: "هل أتحقق من تقويمي أم تقويم الطبيب؟"
كشف هذا السؤال عن لحظة الشفافية المفقودة. يحتاج النظام إلى تقسيم الانتظار لمدة أربع ثوانٍ إلى خطوتين متميزتين: "التحقق من التوفر" متبوعًا بـ "المزامنة مع جدول الموفر". أدى هذا التغيير البسيط إلى خفض مستويات القلق التي أعرب عنها المستخدمون. تفشل الشفافية عندما تصف إجراء النظام فقط. يجب أن تربط الواجهة العملية الفنية بالهدف المحدد للمستخدم. تظهر الشاشة التي تعرض عبارة "التحقق من التوفر" بشكل مسطح لأنها تفتقر إلى السياق. يفهم المستخدم أن الذكاء الاصطناعي ينظر إلى التقويم، لكنه لا يعرف السبب. يجب أن نقرن العمل بالنتيجة. يحتاج النظام إلى تقسيم فترة الانتظار لمدة أربع ثوانٍ إلى خطوتين مختلفتين. أولاً، تعرض الواجهة "التحقق من التقويم الخاص بك للعثور على أوقات العمل". ثم يتم تحديثه إلى "المزامنة مع جدول الموفر لتأمين موعدك". وهذا يؤسس للعملية التقنية في الحياة الفعلية للمستخدم. فكر في إدارة مخزون الذكاء الاصطناعي لمقهى محلي. يواجه النظام نقصًا في العرض. تؤدي الواجهة التي تقرأ "الاتصال بالبائع" أو "مراجعة الخيارات" إلى خلق القلق. يتساءل المدير عما إذا كان النظام يلغي الطلب أو يشتري بديلاً باهظ الثمن. النهج الأفضل هو شرح النتيجة المقصودة: "تقييم الموردين البديلين للحفاظ على جدول التسليم الخاص بك يوم الجمعة". وهذا يخبر المستخدم بالضبط بما يحاول الذكاء الاصطناعي تحقيقه. تفعيل عملية التدقيق لقد أكملت تدقيق عقدة القرار وقمت بتصفية قائمتك من خلال مصفوفة التأثير والمخاطر. لديك الآن قائمة باللحظات الأساسية لتكون شفافًا. بعد ذلك، تحتاج إلى إنشائها في واجهة المستخدم. تتطلب هذه الخطوة العمل الجماعي عبر الأقسام المختلفة. لا يمكنك تصميم الشفافية بنفسك باستخدام أداة التصميم. عليك أن تفهم كيف يعمل النظام خلف الكواليس. ابدأ بمراجعة المنطق. يجتمع مع مصمم النظام الرئيسي الخاص بك. أحضر خريطة عقد القرار الخاصة بك. تحتاج إلى التأكد من أن النظام يمكنه بالفعل مشاركة هذه الحالات. كثيرا ما أجد أن النظام الفني لا يكشف عن الحالة الدقيقة التي أريد إظهارها. قد يقول المهندس أن النظام يُرجع فقط حالة "العمل" العامة. يجب عليك الدفع للحصول على تحديث مفصل. تحتاج إلى النظام لإرسال إشعار محددعندما يتحول من قراءة النص إلى التحقق من القواعد. بدون هذا الاتصال الفني، سيكون من المستحيل بناء التصميم الخاص بك. بعد ذلك، قم بإشراك فريق تصميم المحتوى. لديك السبب الفني وراء تصرفات الذكاء الاصطناعي، لكنك تحتاج إلى تفسير واضح وسهل الاستخدام. يوفر المهندسون العملية الأساسية، لكن مصممي المحتوى يوفرون الطريقة التي يتم بها توصيلها. لا تكتب هذه الرسائل وحدها. قد يكتب المطور "تنفيذ الوظيفة 402"، وهو صحيح من الناحية الفنية ولكنه لا معنى له بالنسبة للمستخدم. قد يكتب المصمم "التفكير"، وهو أمر ودود ولكنه غامض للغاية. يجد استراتيجي المحتوى الحل الأوسط الصحيح. يقومون بإنشاء عبارات محددة، مثل "البحث عن مخاطر المسؤولية"، والتي توضح أن الذكاء الاصطناعي يعمل دون إرباك المستخدم. وأخيرا، اختبر شفافية رسائلك. لا تنتظر حتى يتم إنشاء المنتج النهائي لمعرفة ما إذا كان النص يعمل أم لا. أقوم بإجراء اختبارات المقارنة على نماذج أولية بسيطة حيث الشيء الوحيد الذي يتغير هو رسالة الحالة. على سبيل المثال، أعرض على إحدى المجموعات (المجموعة أ) رسالة مفادها "التحقق من الهوية" ومجموعة أخرى (المجموعة ب) رسالة تقول "التحقق من قواعد البيانات الحكومية" (هذه أمثلة مختلقة، لكنك تفهم هذه النقطة). ثم أسألهم ما هو الذكاء الاصطناعي الأكثر أمانًا. ستكتشف غالبًا أن بعض الكلمات تسبب القلق، بينما بعضها الآخر يبني الثقة. يجب عليك التعامل مع الصياغة كشيء تحتاج إلى اختباره وإثبات فعاليته. كيف يغير هذا عملية التصميم إن إجراء عمليات التدقيق هذه لديه القدرة على تعزيز كيفية عمل الفريق معًا. نتوقف عن تسليم ملفات التصميم المصقولة. نبدأ في استخدام النماذج الأولية الفوضوية وجداول البيانات المشتركة. تصبح الأداة الأساسية مصفوفة الشفافية. يقوم المهندسون ومصممو المحتوى بتحرير جدول البيانات هذا معًا. يقومون بتعيين الرموز التقنية الدقيقة للكلمات التي سيقرأها المستخدم. ستواجه الفرق احتكاكًا أثناء مراجعة المنطق. تخيل أن مصممًا يسأل المهندس كيف يقرر الذكاء الاصطناعي رفض معاملة مقدمة في تقرير النفقات. قد يقول المهندس أن الواجهة الخلفية لا تُخرج سوى رمز حالة عام مثل "خطأ: بيانات مفقودة". يوضح المصمم أن هذه ليست معلومات قابلة للتنفيذ على الشاشة. يتفاوض المصمم مع المهندس لإنشاء خطاف فني محدد. يكتب المهندس قاعدة جديدة حتى يقوم النظام بالإبلاغ بالضبط عما هو مفقود، مثل صورة الإيصال المفقودة. يعمل مصممو المحتوى كمترجمين خلال هذه المرحلة. قد يكتب المطور سلسلة دقيقة من الناحية الفنية مثل "حساب حد الثقة لمطابقة البائع". يقوم مصمم المحتوى بترجمة تلك السلسلة إلى عبارة تبني الثقة بنتيجة محددة. أعاد الخبير الاستراتيجي كتابته على أنه "مقارنة أسعار البائعين المحليين لتأمين التسليم يوم الجمعة". يفهم المستخدم الإجراء والنتيجة. يشارك الفريق متعدد الوظائف بأكمله في جلسات اختبار المستخدم. يشاهدون شخصًا حقيقيًا يتفاعل مع رسائل الحالة المختلفة. رؤية ذعر المستخدم لأن الشاشة تقول "تنفيذ التجارة" تجبر الفريق على إعادة التفكير في نهجهم. يتفق المهندسون والمصممون على صياغة أفضل. يقومون بتغيير النص إلى "التحقق من الأموال الكافية" قبل شراء الأسهم. يضمن الاختبار معًا أن الواجهة النهائية تخدم منطق النظام وراحة البال للمستخدم. يتطلب الأمر وقتًا لدمج هذه الأنشطة الإضافية في تقويم الفريق. ومع ذلك، يجب أن تكون النتيجة النهائية فريقًا يتواصل بشكل أكثر انفتاحًا، ومستخدمين لديهم فهم أفضل لما تفعله أدواتهم المدعومة بالذكاء الاصطناعي نيابةً عنهم (ولماذا). يعد هذا النهج المتكامل حجر الزاوية في تصميم تجارب ذكاء اصطناعي جديرة بالثقة حقًا. الثقة هي خيار التصميم غالبًا ما ننظر إلى الثقة باعتبارها نتيجة ثانوية عاطفية لتجربة مستخدم جيدة. من الأسهل النظر إلى الثقة كنتيجة ميكانيكية للتواصل الذي يمكن التنبؤ به. نحن نبني الثقة من خلال عرض المعلومات الصحيحة في الوقت المناسب. نقوم بتدميرها عن طريق إرباك المستخدم أو إخفاء الآلة بالكامل. ابدأ بتدقيق عقدة القرار، خاصة بالنسبة لأدوات ومنتجات الذكاء الاصطناعي الوكيل. ابحث عن اللحظات التي يصدر فيها النظام حكمًا. قم بتعيين تلك اللحظات إلى مصفوفة المخاطر. إذا كانت المخاطر كبيرة، افتح الصندوق. عرض العمل. في المقالة التالية، سننظر في كيفية تصميم هذه اللحظات: كيفية كتابة النسخة، وهيكلة واجهة المستخدم، والتعامل مع الأخطاء التي لا مفر منها عندما يخطئ الوكيل. الملحق: قائمة مراجعة تدقيق عقدة القرار المرحلة 1: الإعداد ورسم الخرائط ✅ اجمع الفريق معًا: قم بإحضار أصحاب المنتجات، ومحللي الأعمال، والمصممين،صناع القرار الرئيسيين، والمهندسين الذين بنوا الذكاء الاصطناعي. تلميح: أنت بحاجة إلى المهندسين لشرح منطق الواجهة الخلفية الفعلي. لا تحاول هذه الخطوة وحدها. ✅ ارسم العملية بأكملها: قم بتوثيق كل خطوة يتخذها الذكاء الاصطناعي، بدءًا من الإجراء الأول للمستخدم وحتى النتيجة النهائية. تلميح: غالبًا ما تكون جلسة السبورة الفعلية هي الأفضل لرسم هذه الخطوات الأولية. المرحلة الثانية: تحديد موقع المنطق المخفي ✅ ابحث عن الأماكن غير الواضحة: انظر إلى خريطة العملية لأي مكان حيث يقوم الذكاء الاصطناعي بمقارنة الخيارات أو المدخلات التي ليس لها تطابق كامل. ✅ تحديد أفضل خطوات التخمين: لكل نقطة غير واضحة، تحقق مما إذا كان النظام يستخدم درجة الثقة. على سبيل المثال، اسأل ما إذا كان النظام متأكدًا بنسبة 85 بالمائة. هذه هي النقاط التي يتخذ فيها الذكاء الاصطناعي القرار النهائي. ✅ افحص الاختيار: بالنسبة لكل نقطة اختيار، اكتشف العمليات الحسابية الداخلية المحددة أو المقارنة التي يتم إجراؤها. ومن الأمثلة على ذلك مطابقة جزء من العقد مع السياسة. مثال آخر يتضمن مقارنة صورة سيارة مكسورة بمكتبة صور السيارات التالفة. المرحلة 3: إنشاء تجربة المستخدم ✅ اكتب تفسيرات واضحة: قم بإنشاء رسائل للمستخدم تصف بوضوح الإجراء الداخلي المحدد الذي يحدث عندما يقوم الذكاء الاصطناعي بالاختيار. تلميح: أسس رسائلك على واقع ملموس. إذا حجز الذكاء الاصطناعي اجتماعًا مع عميل في مقهى محلي، فأخبر المستخدم أن النظام يتحقق من نظام حجز المقهى. ✅ تحديث الشاشة: ضع هذه الشروحات الجديدة والواضحة في واجهة المستخدم. استبدل الرسائل الغامضة مثل مراجعة العقود بتفسيراتك المحددة. ✅ التحقق من الثقة: تأكد من أن رسائل الشاشة الجديدة تعطي المستخدمين سببًا بسيطًا لأي وقت انتظار أو نتيجة. وهذا يجب أن يجعلهم يشعرون بالثقة والثقة. تلميح: اختبر هذه الرسائل مع مستخدمين فعليين للتأكد من أنهم يفهمون النتيجة المحددة التي يتم تحقيقها.