في مقالتي الأخيرة، أثبتنا حقيقة أساسية: لكي يعتمد المستخدمون الذكاء الاصطناعي ويعتمدون عليه، يجب عليهم أن يثقوا به. تحدثنا عن الثقة باعتبارها بناء متعدد الأوجه، مبني على تصورات حول قدرة الذكاء الاصطناعي، والإحسان، والنزاهة، والقدرة على التنبؤ. ولكن ماذا يحدث عندما يتخذ الذكاء الاصطناعي، بحكمته الخوارزمية الصامتة، قرارًا يترك المستخدم في حيرة من أمره، أو محبطًا، أو حتى متألمًا؟ يتم رفض طلب الرهن العقاري، وتختفي الأغنية المفضلة فجأة من قائمة التشغيل، ويتم رفض السيرة الذاتية المؤهلة قبل أن يراها الإنسان. في هذه اللحظات، تتحطم القدرة والقدرة على التنبؤ، ويشعر الخير بأنه عالم بعيد. ويجب أن تتطور محادثتنا الآن من سبب الثقة إلى كيفية الشفافية. لقد ظهر مجال الذكاء الاصطناعي القابل للتفسير (XAI)، والذي يركز على تطوير أساليب لجعل مخرجات الذكاء الاصطناعي مفهومة للبشر، لمعالجة هذه المشكلة، ولكن غالبًا ما يتم تأطيره باعتباره تحديًا تقنيًا بحتًا لعلماء البيانات. أعتقد أن هذا يمثل تحديًا حاسمًا في التصميم بالنسبة للمنتجات التي تعتمد على الذكاء الاصطناعي. إن مهمتنا كمحترفين في تجربة المستخدم هي سد الفجوة بين اتخاذ القرار الخوارزمي والفهم البشري. توفر هذه المقالة إرشادات عملية وقابلة للتنفيذ حول كيفية البحث والتصميم من أجل التوضيح. سنتجاوز الكلمات الطنانة وننتقل إلى النماذج بالحجم الطبيعي، ونترجم مفاهيم XAI المعقدة إلى أنماط تصميم ملموسة يمكنك البدء في استخدامها اليوم. إزالة الغموض عن XAI: المفاهيم الأساسية لممارسي تجربة المستخدم يتعلق XAI بالإجابة على سؤال المستخدم: "لماذا؟" لماذا ظهر لي هذا الإعلان؟ لماذا يوصى بهذا الفيلم بالنسبة لي؟ لماذا تم رفض طلبي؟ فكر في الأمر على أنه الذكاء الاصطناعي يُظهر عمله في مسألة رياضية. بدونها، لديك فقط إجابة، وستكون مجبرًا على قبولها بالإيمان. من خلال عرض الخطوات، يمكنك بناء الفهم والثقة. أنت تسمح أيضًا بمراجعة عملك والتحقق منه من قبل الأشخاص الذين يؤثر عليهم. أهمية الميزة والواقع المضاد هناك عدد من التقنيات التي يمكننا استخدامها لتوضيح أو شرح ما يحدث مع الذكاء الاصطناعي. في حين تتراوح الأساليب من توفير المنطق الكامل لشجرة القرار إلى إنشاء ملخصات باللغة الطبيعية للمخرجات، فإن اثنين من أكثر أنواع المعلومات عملية وتأثيرًا التي يمكن لممارسي تجربة المستخدم تقديمها في التجربة هما أهمية الميزة (الشكل 1) والواقع المضاد. غالبًا ما تكون هذه هي الأسهل على المستخدمين لفهمها والأكثر قابلية للتنفيذ بالنسبة للمصممين لتنفيذها.

أهمية الميزة تجيب طريقة التفسير هذه على السؤال التالي: "ما هي أهم العوامل التي أخذها الذكاء الاصطناعي في الاعتبار؟" يتعلق الأمر بتحديد أهم 2-3 متغيرات كان لها التأثير الأكبر على النتيجة. إنه العنوان وليس القصة بأكملها. على سبيل المثال: تخيل الذكاء الاصطناعي الذي يتنبأ بما إذا كان العميل سيتخلى عن خدمته أم لا. قد تكشف أهمية الميزة أن "عدد مكالمات الدعم في الشهر الماضي" و"الزيادات الأخيرة في الأسعار" كانا أهم عاملين في تحديد ما إذا كان من المحتمل أن يتخلى العميل عن خدماته.

حقائق مضادة تجيب هذه الطريقة القوية على السؤال التالي: "ما الذي أحتاج إلى تغييره للحصول على نتيجة مختلفة؟" وهذا أمر بالغ الأهمية لأنه يمنح المستخدمين إحساسًا بالقوة. إنه يحول "لا" المحبطة إلى "ليس بعد" قابلة للتنفيذ. مثال: تخيل نظام طلب قرض يستخدم الذكاء الاصطناعي. تم رفض المستخدم للحصول على قرض. بدلاً من مجرد رؤية "تم رفض الطلب"، قد يظهر تفسير مخالف للواقع أيضًا، "إذا كانت درجة الائتمان الخاصة بك أعلى بمقدار 50 نقطة، أو إذا كانت نسبة الدين إلى الدخل أقل بنسبة 10٪، فستتم الموافقة على قرضك". وهذا يمنح سارة خطوات واضحة وقابلة للتنفيذ يمكنها اتخاذها للحصول على قرض محتمل في المستقبل.

استخدام بيانات النموذج لتعزيز الشرح على الرغم من أن علماء البيانات يتعاملون مع التفاصيل الفنية غالبًا، إلا أنه من المفيد لممارسي تجربة المستخدم معرفة أن أدوات مثل LIME (التفسيرات المحلية غير القابلة للتفسير للنموذج) التي تشرح التنبؤات الفردية عن طريق تقريب النموذج محليًا، وSHAP (التفسيرات الإضافية لـ SHapley) التي تستخدم منهج نظرية اللعبة لشرح مخرجات أي نموذج للتعلم الآلي تُستخدم بشكل شائع لاستخراج رؤى "السبب" من النماذج المعقدة. تساعد هذه المكتبات بشكل أساسي في تحليل قرار الذكاء الاصطناعي لإظهار المدخلات الأكثر تأثيرًا على نتيجة معينة. عند القيام بذلك بشكل صحيح، يمكن استخدام البيانات الكامنة وراء قرار أداة الذكاء الاصطناعي لسرد قصة مؤثرة. دعنا نتعرف على أهمية الميزات والحقائق المضادة ونوضح كيف يمكن استخدام علم البيانات وراء القرار لتحسين تجربة المستخدم. الآن دعوناأهمية ميزة الغلاف بمساعدة بيانات التفسيرات المحلية (على سبيل المثال، LIME): يجيب هذا النهج على السؤال التالي: "لماذا قدم الذكاء الاصطناعي هذه التوصية المحددة لي الآن؟" فبدلاً من تقديم شرح عام لكيفية عمل النموذج، فإنه يوفر سببًا مركّزًا لحالة واحدة محددة. إنها شخصية وسياقية. مثال: تخيل نظام توصيات موسيقية مدعوم بالذكاء الاصطناعي مثل Spotify. قد يجيب التفسير المحلي: "لماذا أوصى النظام بهذه الأغنية المحددة لأديل لك الآن؟" قد يكون التفسير: "لأنك استمعت مؤخرًا إلى العديد من الأغاني والأغاني العاطفية الأخرى لمطربات".

أخيرًا، دعونا نغطي تضمين التفسيرات القائمة على القيمة (على سبيل المثال، بيانات تفسيرات شابلي المضافة (SHAP) لتفسير القرار: هذه نسخة أكثر دقة لأهمية الميزة التي تجيب على "كيف دفع كل عامل القرار بطريقة أو بأخرى؟" فهي تساعد على تصور ما يهم، وما إذا كان تأثيره إيجابيًا أم سلبيًا. مثال: تخيل أن أحد البنوك يستخدم نموذج الذكاء الاصطناعي ليقرر ما إذا كان سيوافق على طلب القرض أم لا.

أهمية الميزة: قد يُظهر مخرج النموذج أن درجة الائتمان لمقدم الطلب والدخل ونسبة الدين إلى الدخل كانت أهم العوامل في قراره. هذا يجيب على ما يهم. أهمية الميزة مع التفسيرات القائمة على القيمة (SHAP): ستأخذ قيم SHAP أهمية الميزة بشكل أكبر بناءً على عناصر النموذج.

بالنسبة للقرض المعتمد، قد يُظهر SHAP أن درجة الائتمان المرتفعة دفعت القرار بشكل كبير نحو الموافقة (تأثير إيجابي)، في حين أن نسبة الدين إلى الدخل الأعلى قليلاً من المتوسط قد أبعدته قليلاً (تأثير سلبي)، ولكن ليس بما يكفي لرفض القرض. بالنسبة للقرض المرفوض، يمكن أن تكشف SHAP أن الدخل المنخفض والعدد الكبير من الاستفسارات الائتمانية الأخيرة دفع بقوة القرار نحو الرفض، حتى لو كانت درجة الائتمان لائقة.

وهذا يساعد مسؤول القرض على أن يشرح لمقدم الطلب ما هو أبعد مما تم أخذه في الاعتبار، وكيف ساهم كل عامل في القرار النهائي بـ "نعم" أو "لا". من المهم أن ندرك أن القدرة على تقديم تفسيرات جيدة غالبًا ما تبدأ في وقت مبكر جدًا من دورة التطوير. يلعب علماء ومهندسو البيانات دورًا محوريًا من خلال هيكلة النماذج وخطوط أنابيب البيانات بشكل متعمد بطرق تدعم بطبيعتها إمكانية التفسير، بدلاً من محاولة تثبيتها كفكرة لاحقة. يمكن لفرق البحث والتصميم تعزيز ذلك من خلال بدء محادثات مبكرة مع علماء البيانات والمهندسين حول احتياجات المستخدم للفهم، والمساهمة في تطوير مقاييس التفسير، ووضع نماذج أولية للتفسيرات بشكل تعاوني للتأكد من أنها دقيقة وسهلة الاستخدام. XAI والذكاء الاصطناعي الأخلاقي: تفريغ التحيز والمسؤولية إلى جانب بناء الثقة، تلعب XAI دورًا حاسمًا في معالجة الآثار الأخلاقية العميقة للذكاء الاصطناعي*، لا سيما فيما يتعلق بالتحيز الخوارزمي. يمكن لتقنيات التفسير، مثل تحليل قيم SHAP، أن تكشف ما إذا كانت قرارات النموذج تتأثر بشكل غير متناسب بالسمات الحساسة مثل العرق أو الجنس أو الحالة الاجتماعية والاقتصادية، حتى لو لم يتم استخدام هذه العوامل بشكل صريح كمدخلات مباشرة. على سبيل المثال، إذا كان نموذج الموافقة على القروض يعين باستمرار قيم SHAP سلبية لمقدمي الطلبات من مجموعة سكانية معينة، فهذا يشير إلى تحيز محتمل يحتاج إلى التحقيق، وتمكين الفرق من إبراز هذه النتائج غير العادلة والتخفيف منها. تأتي قوة XAI أيضًا مع إمكانية "غسل التفسير". وكما يضلل "الغسل الأخضر" المستهلكين بشأن الممارسات البيئية، فإن الغسل القابل للتفسير من الممكن أن يحدث عندما تكون التفسيرات مصممة لإخفاء، بدلا من إلقاء الضوء، على السلوك الخوارزمي الإشكالي أو التحيزات المتأصلة. ويمكن أن يظهر ذلك على شكل تفسيرات مفرطة في التبسيط تغفل العوامل المؤثرة الحاسمة، أو تفسيرات تضع النتائج في إطار استراتيجي لتبدو أكثر حيادية أو عدلاً مما هي عليه بالفعل. إنه يؤكد على المسؤولية الأخلاقية لممارسي تجربة المستخدم لتصميم تفسيرات شفافة وقابلة للتحقق حقًا. يتحمل متخصصو تجربة المستخدم، بالتعاون مع علماء البيانات وعلماء الأخلاق، مسؤولية حاسمة في إيصال سبب اتخاذ القرار، وكذلك القيود والتحيزات المحتملة لنموذج الذكاء الاصطناعي الأساسي. يتضمن ذلك وضع توقعات واقعية للمستخدم بشأن دقة الذكاء الاصطناعي، وتحديد المجالات التي قد يكون فيها النموذج أقل موثوقية، وتوفير قنوات واضحة للرجوع أو تقديم الملاحظات عندما يرى المستخدمون نتائج غير عادلة أو غير صحيحة. معالجة هذه الأمور بشكل استباقيستسمح لنا الأبعاد الأخلاقية ببناء أنظمة ذكاء اصطناعي عادلة وجديرة بالثقة حقًا. من الأساليب إلى النماذج بالحجم الطبيعي: أنماط تصميم XAI العملية معرفة المفاهيم شيء واحد؛ تصميمها هو شيء آخر. وإليك كيف يمكننا ترجمة أساليب XAI هذه إلى أنماط تصميم بديهية. النمط 1: عبارة "لأن" (لأهمية الميزة) هذا هو النمط الأبسط والأكثر فعالية في كثير من الأحيان. إنه بيان مباشر ومبسط يبرز السبب الرئيسي لإجراءات الذكاء الاصطناعي.

الإرشادي: كن مباشرًا وموجزًا. قم بالقيادة بالسبب الوحيد الأكثر تأثيرًا. تجنب المصطلحات بأي ثمن.

مثال: تخيل خدمة بث الموسيقى. بدلاً من مجرد تقديم قائمة تشغيل "Discover Weekly"، يمكنك إضافة سطر صغير من النسخ المصغرة. توصية الأغنية: "Velvet Morning" لأنك تستمع إلى "The Fuzz" وغيرها من موسيقى الروك المخدرة.

النمط 2: تفاعل "ماذا لو" (للواقع المخالف) إن الحقائق المضادة تتعلق بطبيعتها بالتمكين. وأفضل طريقة لتمثيلها هي منح المستخدمين أدوات تفاعلية لاستكشاف الإمكانيات بأنفسهم. يعد هذا مثاليًا للتطبيقات المالية أو الصحية أو غيرها من التطبيقات الموجهة نحو الأهداف.

الإرشادي: اجعل التفسيرات تفاعلية وتمكينية. دع المستخدمين يرون سبب وتأثير اختياراتهم.

مثال: واجهة طلب القرض. بعد الرفض، بدلاً من الوصول إلى طريق مسدود، يحصل المستخدم على أداة لتحديد كيفية تنفيذ السيناريوهات المختلفة (ماذا لو) (انظر الشكل 1).

النمط 3: بكرة التمييز (للشروحات المحلية) عندما يقوم الذكاء الاصطناعي بإجراء ما على محتوى المستخدم (مثل تلخيص مستند أو التعرف على الوجوه في الصور)، يجب أن يكون الشرح مرتبطًا بصريًا بالمصدر.

إرشادي: استخدم الإشارات المرئية مثل التمييز أو الخطوط العريضة أو التعليقات التوضيحية لربط الشرح مباشرة بعنصر الواجهة الذي يشرحه.

مثال: أداة ذكاء اصطناعي تلخص مقالات طويلة. نقطة تلخيص تم إنشاؤها بواسطة الذكاء الاصطناعي: أظهرت الأبحاث الأولية وجود فجوة في السوق بالنسبة للمنتجات المستدامة. المصدر في الوثيقة: "...أظهر تحليلنا لاتجاهات السوق في الربع الثاني بشكل قاطع أنه لم يكن هناك منافس رئيسي يخدم بشكل فعال المستهلك الواعي بالبيئة، مما يكشف عن فجوة سوقية كبيرة للمنتجات المستدامة..."

النموذج 4: مرئيات الدفع والسحب (للتفسيرات القائمة على القيمة) بالنسبة لاتخاذ قرارات أكثر تعقيدًا، قد يحتاج المستخدمون إلى فهم التفاعل بين العوامل. يمكن لتصورات البيانات البسيطة أن توضح ذلك دون أن تكون ساحقة.

إرشادي: استخدم تصورات بيانات بسيطة ومرمزة بالألوان (مثل المخططات الشريطية) لإظهار العوامل التي أثرت إيجابًا وسلبًا على القرار.

مثال: يقوم الذكاء الاصطناعي بفحص الملف الشخصي للمرشح لوظيفة ما. لماذا يتطابق هذا المرشح بنسبة 75%: العوامل التي ترفع النتيجة: أكثر من 5 سنوات من الخبرة البحثية في تجربة المستخدم إتقان لغة بايثون العوامل التي تدفع النتيجة إلى الأسفل: لا توجد خبرة في B2B SaaS

سيساعد تعلم أنماط التصميم هذه واستخدامها في تجربة المستخدم لمنتج الذكاء الاصطناعي الخاص بك على زيادة إمكانية الشرح. يمكنك أيضًا استخدام تقنيات إضافية لا أغطيها بالتفصيل هنا. وهذا يشمل ما يلي:

تفسيرات اللغة الطبيعية: ترجمة المخرجات الفنية للذكاء الاصطناعي إلى لغة بشرية بسيطة للمحادثة يمكن لغير الخبراء فهمها بسهولة. التفسيرات السياقية: توفير الأساس المنطقي لمخرجات الذكاء الاصطناعي في لحظة ومكان محددين، وهو الأكثر صلة بمهمة المستخدم. المرئيات ذات الصلة: استخدام المخططات أو الرسوم البيانية أو الخرائط الحرارية لتمثيل عملية اتخاذ القرار في الذكاء الاصطناعي بشكل مرئي، مما يجعل البيانات المعقدة بديهية ويسهل على المستخدمين فهمها.

ملاحظة للواجهة الأمامية: إن ترجمة مخرجات التوضيح هذه إلى تجارب مستخدم سلسة تقدم أيضًا مجموعة من الاعتبارات الفنية الخاصة بها. غالبًا ما يتعامل مطورو الواجهة الأمامية مع تصميم واجهة برمجة التطبيقات (API) لاسترداد بيانات الشرح بكفاءة، وتحتاج الآثار المترتبة على الأداء (مثل إنشاء التفسيرات في الوقت الفعلي لكل تفاعل للمستخدم) إلى تخطيط دقيق لتجنب زمن الوصول. بعض الأمثلة في العالم الحقيقي UPS Capital’s DeliveryDefense تستخدم UPS الذكاء الاصطناعي لتعيين "درجة ثقة التسليم" للعناوين للتنبؤ باحتمالية سرقة الطرد. يقوم برنامج DeliveryDefense الخاص بهم بتحليل البيانات التاريخية حول الموقع وتكرار الخسارة وعوامل أخرى. إذا حصل العنوان على درجة منخفضة، فيمكن للنظام إعادة توجيه الحزمة بشكل استباقي إلى نقطة وصول UPS آمنة، مع تقديم تفسير للقرار (على سبيل المثال، "تم إعادة توجيه الحزمة إلى موقع آمن بسبب تاريخ السرقة"). يوضح هذا النظام كيف يمكن استخدام XAI لتخفيف المخاطر وبناء ثقة العملاء من خلالهالشفافية. المركبات ذاتية القيادة ستحتاج مركبات المستقبل هذه إلى استخدام XAI بشكل فعال لمساعدة مركباتها على اتخاذ قرارات آمنة وقابلة للتفسير. عندما تقوم سيارة ذاتية القيادة بالفرملة فجأة، يمكن للنظام تقديم تفسير فوري لعملها، على سبيل المثال، من خلال تحديد أحد المشاة الذي يدخل إلى الطريق. وهذا ليس أمرًا بالغ الأهمية لراحة الركاب وثقتهم فحسب، بل إنه متطلب تنظيمي لإثبات سلامة ومساءلة نظام الذكاء الاصطناعي. IBM Watson Health (والتحديات التي تواجهها) على الرغم من أنه غالبًا ما يتم الاستشهاد به كمثال عام للذكاء الاصطناعي في مجال الرعاية الصحية، فهو أيضًا دراسة حالة قيمة لأهمية XAI. ويسلط فشل مشروع واتسون لعلم الأورام الضوء على الأخطاء التي يمكن أن تحدث عندما تكون التفسيرات غير واضحة، أو عندما تكون البيانات الأساسية متحيزة أو غير محلية. وكانت توصيات النظام في بعض الأحيان غير متسقة مع الممارسات السريرية المحلية لأنها كانت تستند إلى المبادئ التوجيهية التي تتمحور حول الولايات المتحدة. وهذا بمثابة حكاية تحذيرية حول الحاجة إلى تفسير قوي ومدرك للسياق. دور الباحث في تجربة المستخدم: تحديد التفسيرات والتحقق من صحتها لا تكون حلول التصميم لدينا فعالة إلا إذا تناولت أسئلة المستخدم الصحيحة في الوقت المناسب. التفسير الذي يجيب على سؤال ليس لدى المستخدم هو مجرد ضجيج. هذا هو المكان الذي تصبح فيه أبحاث تجربة المستخدم بمثابة النسيج الضام المهم في إستراتيجية XAI، مما يضمن أننا نشرح ما يهم مستخدمينا وكيف يهمهم ذلك بالفعل. إن دور الباحث ذو شقين: أولاً، إبلاغ الإستراتيجية عن طريق تحديد الأماكن التي تحتاج إلى تفسيرات، وثانيًا، التحقق من صحة التصاميم التي تقدم تلك التفسيرات. إعلام استراتيجية XAI (ما يجب شرحه) قبل أن نتمكن من تصميم تفسير واحد، يجب علينا أن نفهم النموذج العقلي للمستخدم لنظام الذكاء الاصطناعي. ماذا يعتقدون أنها تفعل؟ وأين الفجوات بين فهمهم وواقع النظام؟ هذا هو العمل التأسيسي لباحث تجربة المستخدم. مقابلات النموذج العقلي: تفريغ تصورات المستخدم لأنظمة الذكاء الاصطناعي من خلال المقابلات العميقة وشبه المنظمة، يمكن لممارسي تجربة المستخدم الحصول على رؤى لا تقدر بثمن حول كيفية إدراك المستخدمين لأنظمة الذكاء الاصطناعي وفهمهم لها. تم تصميم هذه الجلسات لتشجيع المستخدمين على رسم أو وصف "النموذج العقلي" الداخلي الخاص بهم حول كيفية اعتقادهم بأن الذكاء الاصطناعي يعمل. يتضمن هذا غالبًا طرح أسئلة مفتوحة تحث المستخدمين على شرح منطق النظام ومدخلاته ومخرجاته، بالإضافة إلى العلاقات بين هذه العناصر. تعتبر هذه المقابلات قوية لأنها تكشف في كثير من الأحيان عن مفاهيم وافتراضات خاطئة عميقة لدى المستخدمين حول الذكاء الاصطناعي. على سبيل المثال، قد يؤكد المستخدم الذي يتفاعل مع محرك التوصيات بثقة أن النظام يعتمد فقط على سجل المشاهدة السابق. قد لا يدركون أن الخوارزمية تتضمن أيضًا العديد من العوامل الأخرى، مثل الوقت من اليوم الذي يتصفحون فيه، أو العناصر الشائعة الحالية عبر النظام الأساسي، أو حتى عادات المشاهدة للمستخدمين المماثلين. يعد الكشف عن هذه الفجوة بين النموذج العقلي للمستخدم ومنطق الذكاء الاصطناعي الأساسي أمرًا بالغ الأهمية. فهو يخبرنا بدقة بالمعلومات المحددة التي نحتاج إلى توصيلها للمستخدمين لمساعدتهم على بناء نموذج عقلي أكثر دقة وقوة للنظام. وهذا بدوره يشكل خطوة أساسية في تعزيز الثقة. عندما يفهم المستخدمون، حتى على مستوى عالٍ، كيف يتوصل الذكاء الاصطناعي إلى استنتاجاته أو توصياته، فمن المرجح أن يثقوا بمخرجاته ويعتمدوا على وظائفه. رسم خرائط رحلة الذكاء الاصطناعي: الغوص العميق في ثقة المستخدم وقابلية التفسير من خلال رسم خريطة دقيقة لرحلة المستخدم باستخدام ميزة مدعومة بالذكاء الاصطناعي، نكتسب رؤى لا تقدر بثمن في اللحظات الدقيقة التي يظهر فيها الارتباك أو الإحباط أو حتى عدم الثقة العميق. يكشف هذا عن منعطفات حرجة حيث يتعارض النموذج العقلي للمستخدم لكيفية عمل الذكاء الاصطناعي مع سلوكه الفعلي. لنأخذ على سبيل المثال خدمة بث الموسيقى: هل تنخفض ثقة المستخدم عندما تبدو توصية قائمة التشغيل "عشوائية"، وتفتقر إلى أي صلة واضحة بعادات الاستماع السابقة أو التفضيلات المعلنة؟ تمثل هذه العشوائية المتصورة تحديًا مباشرًا لتوقعات المستخدم بشأن التنظيم الذكي وخرقًا للوعد الضمني بأن الذكاء الاصطناعي يفهم ذوقه. وبالمثل، في تطبيق إدارة الصور، هل يشعر المستخدمون بإحباط كبير عندما تخطئ ميزة وضع علامات على الصور التي تعمل بالذكاء الاصطناعي باستمرار في التعرف على أحد أفراد العائلة العزيزين؟ وهذا الخطأ أكثر من مجرد خلل فني؛ إنه يضرب في قلب الدقة والتخصيص وحتىاتصال عاطفي. نقاط الألم هذه عبارة عن إشارات حية تشير بدقة إلى المكان الذي يلزم فيه تقديم تفسير جيد وواضح وموجز. وتخدم مثل هذه التفسيرات كآليات إصلاح حاسمة، إذ تعمل على إصلاح انتهاك الثقة الذي قد يؤدي، إذا ترك دون معالجة، إلى هجر المستخدم. تكمن قوة رسم خرائط رحلة الذكاء الاصطناعي في قدرته على نقلنا إلى ما هو أبعد من مجرد شرح المخرجات النهائية لنظام الذكاء الاصطناعي. على الرغم من أهمية فهم ما ينتجه الذكاء الاصطناعي، إلا أنه غالبًا ما يكون غير كافٍ. وبدلاً من ذلك، تجبرنا هذه العملية على التركيز على شرح العملية في اللحظات الحرجة. وهذا يعني معالجة:

لماذا تم إنشاء مخرجات معينة: هل كان ذلك بسبب بيانات إدخال محددة؟ بنية نموذجية معينة؟ ما هي العوامل التي أثرت على قرار الذكاء الاصطناعي: هل تم ترجيح ميزات معينة بشكل أكبر؟ كيف وصل الذكاء الاصطناعي إلى استنتاجه: هل يمكننا تقديم تفسير مبسط ومماثل لأعماله الداخلية؟ ما هي الافتراضات التي وضعها الذكاء الاصطناعي: هل كانت هناك فهمات ضمنية لنية المستخدم أو البيانات التي يجب الكشف عنها؟ ما هي حدود الذكاء الاصطناعي: إن توصيل ما لا يستطيع الذكاء الاصطناعي فعله بوضوح، أو ما قد تتذبذب دقته، يبني توقعات واقعية.

يعمل رسم خرائط رحلة الذكاء الاصطناعي على تحويل المفهوم المجرد لـ XAI إلى إطار عمل عملي وقابل للتنفيذ لممارسي تجربة المستخدم. فهو يمكّننا من تجاوز المناقشات النظرية حول قابلية التفسير وبدلاً من ذلك تحديد اللحظات الدقيقة التي تكون فيها ثقة المستخدم على المحك، مما يوفر الرؤى اللازمة لبناء تجارب الذكاء الاصطناعي التي تكون قوية وشفافة ومفهومة وجديرة بالثقة. في نهاية المطاف، البحث هو كيف نكتشف المجهول. ربما يناقش فريقك كيفية تفسير سبب رفض القرض، ولكن قد تكشف الأبحاث أن المستخدمين مهتمون أكثر بكثير بفهم كيفية استخدام بياناتهم في المقام الأول. بدون البحث، نحن ببساطة نخمن ما يتساءل عنه مستخدمونا. التعاون في التصميم (كيفية شرح الذكاء الاصطناعي الخاص بك) بمجرد أن يحدد البحث ما يجب تفسيره، تبدأ حلقة التعاون مع التصميم. يمكن للمصممين إنشاء نماذج أولية للأنماط التي ناقشناها سابقًا - عبارة "لأن"، وشرائح التمرير التفاعلية - ويمكن للباحثين وضع هذه التصاميم أمام المستخدمين لمعرفة ما إذا كانت صامدة أم لا. اختبار قابلية الاستخدام والفهم المستهدف: يمكننا تصميم دراسات بحثية تختبر مكونات XAI على وجه التحديد. نحن لا نسأل فقط: "هل هذا سهل الاستخدام؟" نسأل: "بعد رؤية هذا، هل يمكنك أن تخبرني بكلماتك الخاصة لماذا أوصى النظام بهذا المنتج؟" أو "أرني ما ستفعله لمعرفة ما إذا كان بإمكانك الحصول على نتيجة مختلفة." الهدف هنا هو قياس الفهم وقابلية التنفيذ، إلى جانب سهولة الاستخدام. قياس الثقة نفسها: يمكننا استخدام المسوحات البسيطة ومقاييس التصنيف قبل وبعد عرض الشرح. على سبيل المثال، يمكننا أن نسأل المستخدم على مقياس مكون من 5 نقاط، "ما مدى ثقتك بهذه التوصية؟" قبل أن يروا عبارة "لأن"، ثم اسألهم مرة أخرى بعد ذلك. وهذا يوفر بيانات كمية حول ما إذا كانت تفسيراتنا تؤثر بالفعل على الثقة. تُنشئ هذه العملية حلقة تكرارية قوية. نتائج البحوث تبلغ التصميم الأولي. يتم بعد ذلك اختبار هذا التصميم، ويتم إرسال النتائج الجديدة إلى فريق التصميم لتحسينها. ربما كانت عبارة "لأن" كانت عبارة عن لغة اصطلاحية للغاية، أو أن شريط التمرير "ماذا لو" كان أكثر إرباكًا من التمكين. ومن خلال هذا التحقق التعاوني، نضمن أن تكون التفسيرات النهائية دقيقة تقنيًا ومفهومة حقًا ومفيدة وتبني الثقة للأشخاص الذين يستخدمون المنتج. منطقة المعتدل من التفسير كلمة تحذير حاسمة: من الممكن المبالغة في الشرح. كما هو الحال في الحكاية الخيالية، حيث سعى جولديلوكس إلى الحصول على العصيدة التي كانت "مناسبة تمامًا"، فإن الهدف من التفسير الجيد هو توفير القدر المناسب من التفاصيل - ليس كثيرًا وليس قليلًا جدًا. إن قصف المستخدم بكل متغير في النموذج سيؤدي إلى الحمل المعرفي الزائد ويمكن أن يؤدي في الواقع إلى تقليل الثقة. الهدف ليس جعل المستخدم عالم بيانات. أحد الحلول هو الكشف التدريجي.

ابدأ بالبساطة. ابدأ بجملة موجزة "لأن". بالنسبة لمعظم المستخدمين، سيكون هذا كافيا. تقديم طريق للتفاصيل. قم بتوفير رابط واضح ومنخفض الاحتكاك مثل "معرفة المزيد" أو "انظر كيف تم تحديد ذلك". كشف التعقيد. خلف هذا الرابط، يمكنك تقديم أشرطة التمرير التفاعلية أو المرئيات أو قائمة أكثر تفصيلاً بالعوامل المساهمة.

يحترم هذا النهج متعدد الطبقات اهتمام المستخدم وخبرته، ويوفر القدر المناسب فقطمن المعلومات لاحتياجاتهم. لنتخيل أنك تستخدم جهازًا منزليًا ذكيًا يوصي بالتدفئة المثالية بناءً على عوامل مختلفة. ابدأ بالأمر البسيط: "يتم حاليًا تسخين منزلك إلى 72 درجة، وهي درجة الحرارة المثالية لتوفير الطاقة والراحة". قم بتوفير مسار للتفاصيل: أسفل ذلك، يوجد رابط أو زر صغير: "لماذا تعتبر 72 درجة مثالية؟" كشف التعقيد: قد يؤدي النقر على هذا الرابط إلى فتح شاشة جديدة تعرض:

أشرطة تمرير تفاعلية لدرجة الحرارة الخارجية والرطوبة ومستوى الراحة المفضل لديك، توضح كيفية ضبط درجة الحرارة الموصى بها. تصور لاستهلاك الطاقة في درجات حرارة مختلفة. قائمة بالعوامل المساهمة مثل "الوقت من اليوم" و"درجة الحرارة الخارجية الحالية" و"الاستخدام التاريخي للطاقة" و"أجهزة استشعار الإشغال".

من الفعال الجمع بين أساليب XAI المتعددة ونمط منطقة الشرح المعتدل هذا، الذي يدعو إلى الكشف التدريجي، ويشجع ذلك ضمنيًا. يمكنك أن تبدأ بعبارة "لأن" بسيطة (النمط 1) للفهم الفوري، ثم تقدم رابط "معرفة المزيد" الذي يكشف عن تفاعل "ماذا لو" (النمط 2) أو "مرئي بالدفع والسحب" (النمط 4) لاستكشاف أعمق. على سبيل المثال، يمكن لنظام طلب القروض أن يذكر في البداية السبب الرئيسي للرفض (أهمية الميزة)، ثم يسمح للمستخدم بالتفاعل مع أداة "ماذا لو" لمعرفة كيف ستغير التغييرات في دخله أو ديونه النتيجة (حقائق مضادة)، وأخيرًا، تقديم مخطط "الدفع والسحب" التفصيلي (تفسير قائم على القيمة) لتوضيح المساهمات الإيجابية والسلبية لجميع العوامل. يتيح هذا النهج متعدد الطبقات للمستخدمين الوصول إلى مستوى التفاصيل التي يحتاجون إليها، عندما يحتاجون إليها، مما يمنع التحميل الزائد المعرفي مع الاستمرار في توفير الشفافية الشاملة. إن تحديد أدوات وأساليب XAI التي سيتم استخدامها هو في المقام الأول وظيفة بحث شامل عن تجربة المستخدم. تعد المقابلات النموذجية العقلية ورسم خرائط رحلة الذكاء الاصطناعي أمرًا بالغ الأهمية لتحديد احتياجات المستخدم ونقاط الضعف المتعلقة بفهم الذكاء الاصطناعي والثقة به. تساعد مقابلات النموذج العقلي في الكشف عن المفاهيم الخاطئة لدى المستخدم حول كيفية عمل الذكاء الاصطناعي، مع الإشارة إلى المجالات التي تحتاج إلى تفسيرات أساسية (مثل أهمية الميزة أو التفسيرات المحلية). ومن ناحية أخرى، يحدد رسم خرائط رحلة الذكاء الاصطناعي اللحظات الحرجة من الارتباك أو عدم الثقة في تفاعل المستخدم مع الذكاء الاصطناعي، مما يشير إلى أن التفسيرات الأكثر تفصيلاً أو التفاعلية (مثل التفسيرات المضادة أو التفسيرات القائمة على القيمة) ستكون أكثر فائدة لإعادة بناء الثقة وتوفير الوكالة.

في نهاية المطاف، أفضل طريقة لاختيار الأسلوب هي السماح لأبحاث المستخدم بتوجيه قراراتك، والتأكد من أن التفسيرات التي تصممها تتناول بشكل مباشر أسئلة واهتمامات المستخدم الفعلية، بدلاً من مجرد تقديم تفاصيل فنية لمصلحتها الخاصة. XAI لوكلاء التفكير العميق تنتج بعض أحدث أنظمة الذكاء الاصطناعي، والمعروفة باسم عوامل التفكير العميق، "سلسلة فكرية" واضحة لكل مهمة معقدة. إنهم لا يستشهدون بالمصادر فحسب؛ فهي تظهر المسار المنطقي خطوة بخطوة الذي سلكوه للتوصل إلى نتيجة. على الرغم من أن هذه الشفافية توفر سياقًا قيمًا، إلا أن اللعب تلو الآخر الذي يمتد على عدة فقرات يمكن أن يكون مرهقًا للمستخدم الذي يحاول ببساطة إكمال المهمة. تنطبق مبادئ XAI، وخاصة منطقة الشرح المعتدلة، هنا مباشرة. يمكننا تنظيم الرحلة، باستخدام الكشف التدريجي لإظهار الاستنتاج النهائي فقط والخطوة الأكثر بروزًا في عملية التفكير أولاً. يمكن للمستخدمين بعد ذلك الاشتراك لرؤية المنطق الكامل والمفصل والمتعدد الخطوات عندما يحتاجون إلى التحقق مرة أخرى من المنطق أو العثور على حقيقة محددة. يحترم هذا النهج انتباه المستخدم مع الحفاظ على الشفافية الكاملة للوكيل. الخطوات التالية: تمكين رحلة XAI الخاصة بك تعد قابلية الشرح ركيزة أساسية لبناء منتجات ذكاء اصطناعي جديرة بالثقة وفعالة. بالنسبة للممارسين المتقدمين الذين يتطلعون إلى قيادة هذا التغيير داخل مؤسستهم، تمتد الرحلة إلى ما هو أبعد من أنماط التصميم إلى المناصرة والتعلم المستمر. لتعميق فهمك وتطبيقك العملي، فكر في استكشاف موارد مثل مجموعة أدوات AI Explanability 360 (AIX360) من IBM Research أو أداة What-If من Google، والتي توفر طرقًا تفاعلية لاستكشاف السلوك النموذجي والتفسيرات. إن التفاعل مع مجتمعات مثل منتدى الذكاء الاصطناعي المسؤول أو مجموعات بحثية محددة تركز على الذكاء الاصطناعي الذي يركز على الإنسان يمكن أن يوفر رؤى لا تقدر بثمن وفرص تعاون. أخيرًا، كن مناصرًا لـ XAI داخل مؤسستك.تفسير الإطار كاستثمار استراتيجي. فكر في عرض تقديمي موجز لقيادتك أو فرقك متعددة الوظائف: "من خلال الاستثمار في XAI، سنذهب إلى ما هو أبعد من بناء الثقة؛ سنعمل على تسريع اعتماد المستخدم، وتقليل تكاليف الدعم من خلال تمكين المستخدمين من الفهم، وتخفيف المخاطر الأخلاقية والتنظيمية الكبيرة من خلال الكشف عن التحيزات المحتملة. هذا هو التصميم الجيد والأعمال الذكية."

يعد صوتك، المرتكز على الفهم العملي، أمرًا بالغ الأهمية في إخراج الذكاء الاصطناعي من الصندوق الأسود إلى شراكة تعاونية مع المستخدمين.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free