ในส่วนสุดท้ายของฉัน เราได้กำหนดความจริงพื้นฐาน: สำหรับผู้ใช้ที่จะนำมาใช้และพึ่งพา AI พวกเขาจะต้องเชื่อถือมัน เราได้พูดคุยเกี่ยวกับความไว้วางใจซึ่งเป็นโครงสร้างที่มีหลายแง่มุม ซึ่งสร้างขึ้นจากการรับรู้ถึงความสามารถของ AI ความเมตตากรุณา ความซื่อสัตย์ และความสามารถในการคาดการณ์ แต่จะเกิดอะไรขึ้นเมื่อ AI ตัดสินใจแบบเงียบๆ ด้วยระบบอัลกอริธึม ทำให้ผู้ใช้สับสน หงุดหงิด หรือแม้แต่เจ็บปวด การสมัครจำนองถูกปฏิเสธ เพลงโปรดก็หายไปจากเพลย์ลิสต์ และเรซูเม่ที่ผ่านการรับรองก็ถูกปฏิเสธก่อนที่มนุษย์จะเคยเห็น ในช่วงเวลาเหล่านี้ ความสามารถและความสามารถในการคาดการณ์จะพังทลายลง และความเมตตากรุณาทำให้โลกนี้ห่างไกลออกไป การสนทนาของเราต้องพัฒนาจากเหตุผลของความไว้วางใจไปสู่ความโปร่งใส สาขา Explainable AI (XAI) ซึ่งมุ่งเน้นไปที่การพัฒนาวิธีการเพื่อทำให้ผลลัพธ์ของ AI เป็นที่เข้าใจของมนุษย์ ได้เกิดขึ้นเพื่อแก้ไขปัญหานี้ แต่มักถูกมองว่าเป็นความท้าทายทางเทคนิคล้วนๆ สำหรับนักวิทยาศาสตร์ด้านข้อมูล ฉันขอยืนยันว่านี่เป็นความท้าทายที่สำคัญในการออกแบบสำหรับผลิตภัณฑ์ที่ต้องอาศัย AI เป็นหน้าที่ของเราในฐานะผู้เชี่ยวชาญด้าน UX ที่จะเชื่อมช่องว่างระหว่างการตัดสินใจด้วยอัลกอริทึมและความเข้าใจของมนุษย์ บทความนี้ให้คำแนะนำที่เป็นประโยชน์และนำไปปฏิบัติได้เกี่ยวกับวิธีการวิจัยและออกแบบเพื่อให้สามารถอธิบายได้ เราจะก้าวไปไกลกว่าคำศัพท์เฉพาะและไปสู่การจำลอง โดยแปลแนวคิด XAI ที่ซับซ้อนให้เป็นรูปแบบการออกแบบที่เป็นรูปธรรมที่คุณเริ่มใช้ได้ตั้งแต่วันนี้ XAI ที่ลึกลับ: แนวคิดหลักสำหรับผู้ปฏิบัติงาน UX XAI เกี่ยวกับการตอบคำถามของผู้ใช้: "ทำไม" เหตุใดฉันจึงเห็นโฆษณานี้ ทำไมหนังเรื่องนี้ถึงแนะนำฉัน? เหตุใดคำขอของฉันจึงถูกปฏิเสธ? ลองคิดดูว่า AI กำลังแสดงผลงานเกี่ยวกับปัญหาทางคณิตศาสตร์ หากไม่มีคำตอบ คุณก็แค่มีคำตอบ และคุณถูกบังคับให้เชื่อตามนั้น ในการแสดงขั้นตอน คุณสร้างความเข้าใจและความไว้วางใจ คุณยังอนุญาตให้งานของคุณได้รับการตรวจสอบซ้ำอีกครั้งและตรวจสอบโดยมนุษย์ที่ได้รับผลกระทบ ความสำคัญและข้อเท็จจริงที่ขัดแย้งกัน มีเทคนิคมากมายที่เราสามารถใช้เพื่อชี้แจงหรืออธิบายสิ่งที่เกิดขึ้นกับ AI แม้ว่าวิธีการจะมีตั้งแต่การให้ตรรกะทั้งหมดของแผนผังการตัดสินใจไปจนถึงการสร้างการสรุปผลลัพธ์ด้วยภาษาที่เป็นธรรมชาติ แต่ข้อมูลที่ผู้ปฏิบัติงาน UX สามารถนำไปใช้ได้จริงและมีผลกระทบมากที่สุดสองประเภทสามารถนำเข้าสู่ประสบการณ์ได้คือ ความสำคัญของคุณลักษณะ (รูปที่ 1) และสิ่งที่ขัดแย้งกับข้อเท็จจริง สิ่งเหล่านี้มักจะตรงไปตรงมาที่สุดสำหรับผู้ใช้ในการทำความเข้าใจ และเป็นสิ่งที่นักออกแบบนำไปปฏิบัติได้มากที่สุด
ความสำคัญของคุณสมบัติ วิธีการอธิบายนี้ตอบว่า “อะไรคือปัจจัยที่สำคัญที่สุดที่ AI พิจารณา” เป็นเรื่องเกี่ยวกับการระบุตัวแปร 2-3 อันดับแรกที่มีผลกระทบต่อผลลัพธ์มากที่สุด มันเป็นพาดหัวไม่ใช่เรื่องราวทั้งหมด ตัวอย่าง: ลองนึกภาพ AI ที่คาดการณ์ว่าลูกค้าจะเลิกใช้งานหรือไม่ (ยกเลิกบริการ) ความสำคัญของคุณลักษณะอาจเผยให้เห็นว่า "จำนวนการโทรสนับสนุนในเดือนที่ผ่านมา" และ "การเพิ่มขึ้นของราคาล่าสุด" เป็นสองปัจจัยที่สำคัญที่สุดในการพิจารณาว่าลูกค้ามีแนวโน้มที่จะเลิกใช้งานหรือไม่
การต่อต้านข้อเท็จจริง วิธีการอันทรงพลังนี้ตอบว่า “ฉันต้องเปลี่ยนแปลงอะไรบ้างเพื่อให้ได้ผลลัพธ์ที่แตกต่างออกไป” นี่เป็นสิ่งสำคัญเนื่องจากจะทำให้ผู้ใช้รู้สึกถึงเอเจนซี่ มันเปลี่ยนคำว่า “ไม่” ที่น่าหงุดหงิดให้กลายเป็น “ยังไม่ใช่” ที่ดำเนินการได้ ตัวอย่าง: ลองนึกภาพระบบการขอสินเชื่อที่ใช้ AI ผู้ใช้ถูกปฏิเสธการกู้ยืม แทนที่จะเห็นเพียง "ใบสมัครถูกปฏิเสธ" คำอธิบายที่ขัดแย้งกันก็จะแชร์เช่นกันว่า "หากคะแนนเครดิตของคุณสูงกว่า 50 คะแนน หรือหากอัตราส่วนหนี้สินต่อรายได้ของคุณลดลง 10% เงินกู้ของคุณก็จะได้รับการอนุมัติแล้ว" สิ่งนี้ทำให้ Sarah มีขั้นตอนที่ชัดเจนและนำไปปฏิบัติได้ซึ่งเธอสามารถนำไปใช้เพื่อรับเงินกู้ในอนาคต
การใช้ข้อมูลโมเดลเพื่อปรับปรุงคำอธิบาย แม้ว่านักวิทยาศาสตร์ข้อมูลมักจะจัดการข้อมูลเฉพาะทางเทคนิค แต่ก็เป็นประโยชน์สำหรับผู้ปฏิบัติงาน UX ที่จะรู้ว่าเครื่องมือต่างๆ เช่น LIME (Local Interpretable Model-agnostic Explanations) ซึ่งอธิบายการคาดการณ์แต่ละรายการโดยการประมาณโมเดลในเครื่อง และ SHAP (คำอธิบายเพิ่มเติมของ SHapley) ซึ่งใช้แนวทางทฤษฎีเกมเพื่ออธิบายผลลัพธ์ของโมเดลการเรียนรู้ของเครื่องใดๆ มักใช้เพื่อแยกข้อมูลเชิงลึก “ทำไม” เหล่านี้ออกจากโมเดลที่ซับซ้อน ไลบรารีเหล่านี้ช่วยแยกย่อยการตัดสินใจของ AI เพื่อแสดงว่าอินพุตใดมีอิทธิพลมากที่สุดสำหรับผลลัพธ์ที่กำหนด เมื่อทำอย่างถูกต้อง ข้อมูลที่เป็นพื้นฐานของการตัดสินใจของเครื่องมือ AI จะสามารถนำมาใช้ในการบอกเล่าเรื่องราวที่มีประสิทธิภาพได้ มาดูความสำคัญของคุณลักษณะและข้อเท็จจริงที่ขัดแย้งกัน และแสดงให้เห็นว่าวิทยาศาสตร์ข้อมูลที่อยู่เบื้องหลังการตัดสินใจสามารถนำมาใช้เพื่อปรับปรุงประสบการณ์ของผู้ใช้ได้อย่างไร ตอนนี้มาเลยครอบคลุมความสำคัญของฟีเจอร์ด้วยความช่วยเหลือจากข้อมูลคำอธิบายในพื้นที่ (เช่น LIME): แนวทางนี้ตอบว่า “เหตุใด AI จึงให้คำแนะนำเฉพาะนี้ให้ฉันในตอนนี้” แทนที่จะให้คำอธิบายทั่วไปเกี่ยวกับวิธีการทำงานของโมเดล โมเดลจะให้เหตุผลที่เน้นสำหรับอินสแตนซ์ที่เฉพาะเจาะจงเพียงตัวเดียว มันเป็นเรื่องส่วนตัวและบริบท ตัวอย่าง: ลองนึกภาพระบบแนะนำเพลงที่ขับเคลื่อนด้วย AI เช่น Spotify คำอธิบายในท้องถิ่นจะตอบว่า “เหตุใดระบบจึงแนะนำเพลงนี้ของ Adele ให้กับคุณในตอนนี้” คำอธิบายอาจเป็น: “เพราะว่าเมื่อเร็วๆ นี้คุณได้ฟังเพลงบัลลาดและเพลงที่เข้าถึงอารมณ์อื่นๆ ของนักร้องหญิงหลายเพลง”
สุดท้าย เราจะกล่าวถึงการรวมคำอธิบายตามมูลค่า (เช่น ข้อมูล Shapley Additive Explanations (SHAP) เข้ากับคำอธิบายของการตัดสินใจ: นี่เป็นเวอร์ชันที่ละเอียดยิ่งขึ้นของความสำคัญของคุณลักษณะที่ตอบว่า "แต่ละปัจจัยผลักดันการตัดสินใจอย่างไรหรืออีกทางหนึ่ง" ซึ่งจะช่วยให้เห็นภาพสิ่งที่สำคัญ และอิทธิพลของปัจจัยนั้นเป็นเชิงบวกหรือเชิงลบ ตัวอย่าง: ลองนึกภาพธนาคารใช้แบบจำลอง AI เพื่อตัดสินใจว่าจะอนุมัติการสมัครขอสินเชื่อหรือไม่
ความสำคัญของคุณลักษณะ: ผลลัพธ์ของแบบจำลองอาจแสดงให้เห็นว่าคะแนนเครดิต รายได้ และอัตราส่วนหนี้สินต่อรายได้ของผู้สมัครเป็นปัจจัยที่สำคัญที่สุดในการตัดสินใจ สิ่งนี้จะตอบสิ่งที่สำคัญ ความสำคัญของคุณลักษณะพร้อมคำอธิบายตามมูลค่า (SHAP): ค่า SHAP จะให้ความสำคัญกับคุณลักษณะเพิ่มเติมตามองค์ประกอบของแบบจำลอง
สำหรับเงินกู้ที่ได้รับอนุมัติ SHAP อาจแสดงให้เห็นว่าคะแนนเครดิตที่สูงผลักดันการตัดสินใจในการอนุมัติอย่างมีนัยสำคัญ (อิทธิพลเชิงบวก) ในขณะที่อัตราส่วนหนี้สินต่อรายได้ที่สูงกว่าค่าเฉลี่ยเล็กน้อยดึงมันออกไปเล็กน้อย (อิทธิพลเชิงลบ) แต่ไม่เพียงพอที่จะปฏิเสธเงินกู้ สำหรับเงินกู้ที่ถูกปฏิเสธ SHAP สามารถเปิดเผยได้ว่ารายได้ต่ำและการสอบถามสินเชื่อจำนวนมากเมื่อเร็วๆ นี้ ผลักดันการตัดสินใจไปสู่การปฏิเสธอย่างมาก แม้ว่าคะแนนเครดิตจะดีก็ตาม
ซึ่งจะช่วยให้เจ้าหน้าที่สินเชื่ออธิบายให้ผู้สมัครทราบนอกเหนือจากสิ่งที่ได้รับการพิจารณาว่าแต่ละปัจจัยมีส่วนทำให้การตัดสินใจขั้นสุดท้ายว่า "ใช่" หรือ "ไม่ใช่" อย่างไร สิ่งสำคัญคือต้องรับรู้ว่าความสามารถในการให้คำอธิบายที่ดีมักจะเริ่มต้นเร็วกว่ามากในวงจรการพัฒนา นักวิทยาศาสตร์ข้อมูลและวิศวกรมีบทบาทสำคัญในการวางโครงสร้างแบบจำลองและไปป์ไลน์ข้อมูลโดยเจตนาในลักษณะที่สนับสนุนความสามารถในการอธิบายโดยธรรมชาติ แทนที่จะพยายามยึดติดไว้ในภายหลัง ทีมวิจัยและออกแบบสามารถสนับสนุนสิ่งนี้ได้โดยเริ่มการสนทนาตั้งแต่เนิ่นๆ กับนักวิทยาศาสตร์ข้อมูลและวิศวกรเกี่ยวกับความต้องการของผู้ใช้ในการทำความเข้าใจ มีส่วนช่วยในการพัฒนาตัวชี้วัดความสามารถในการอธิบาย และการสร้างต้นแบบคำอธิบายร่วมกันเพื่อให้แน่ใจว่าถูกต้องและใช้งานง่าย XAI และ AI เชิงจริยธรรม: การขจัดอคติและความรับผิดชอบ นอกเหนือจากการสร้างความไว้วางใจแล้ว XAI ยังมีบทบาทสำคัญในการจัดการกับผลกระทบทางจริยธรรมอันลึกซึ้งของ AI* โดยเฉพาะอย่างยิ่งที่เกี่ยวข้องกับอคติของอัลกอริทึม เทคนิคที่สามารถอธิบายได้ เช่น การวิเคราะห์ค่า SHAP สามารถเปิดเผยได้ว่าการตัดสินใจของแบบจำลองได้รับอิทธิพลอย่างไม่เป็นสัดส่วนจากคุณลักษณะที่ละเอียดอ่อน เช่น เชื้อชาติ เพศ หรือสถานะทางเศรษฐกิจและสังคม แม้ว่าปัจจัยเหล่านี้จะไม่ได้ถูกใช้เป็นข้อมูลโดยตรงโดยตรงก็ตาม ตัวอย่างเช่น หากรูปแบบการอนุมัติสินเชื่อกำหนดค่า SHAP ที่เป็นลบให้กับผู้สมัครจากกลุ่มประชากรบางกลุ่มอย่างสม่ำเสมอ จะส่งสัญญาณถึงอคติที่อาจเกิดขึ้นซึ่งจำเป็นต้องได้รับการตรวจสอบ เพิ่มขีดความสามารถให้ทีมสามารถแสดงและบรรเทาผลลัพธ์ที่ไม่ยุติธรรมดังกล่าวได้ พลังของ XAI ยังมาพร้อมกับศักยภาพในการ "ล้างที่อธิบายได้" เช่นเดียวกับที่ "การล้างสีเขียว" ทำให้ผู้บริโภคเข้าใจผิดเกี่ยวกับหลักปฏิบัติด้านสิ่งแวดล้อม การล้างที่สามารถอธิบายได้สามารถเกิดขึ้นได้เมื่อคำอธิบายได้รับการออกแบบให้คลุมเครือ แทนที่จะให้ความกระจ่างถึงพฤติกรรมอัลกอริทึมที่เป็นปัญหาหรืออคติโดยธรรมชาติ สิ่งนี้อาจแสดงออกมาว่าเป็นคำอธิบายที่ง่ายเกินไปซึ่งละเว้นปัจจัยที่มีอิทธิพลที่สำคัญ หรือคำอธิบายที่วางกรอบผลลัพธ์อย่างมีกลยุทธ์ให้ดูเป็นกลางหรือยุติธรรมมากกว่าที่เป็นจริง โดยเน้นย้ำความรับผิดชอบทางจริยธรรมของผู้ปฏิบัติงาน UX ในการออกแบบคำอธิบายที่โปร่งใสและตรวจสอบได้อย่างแท้จริง ผู้เชี่ยวชาญด้าน UX ร่วมมือกับนักวิทยาศาสตร์ข้อมูลและนักจริยธรรม มีหน้าที่รับผิดชอบที่สำคัญในการสื่อสารถึงเหตุผลในการตัดสินใจ รวมถึงข้อจำกัดและอคติที่อาจเกิดขึ้นของโมเดล AI ที่ซ่อนอยู่ สิ่งนี้เกี่ยวข้องกับการตั้งค่าความคาดหวังของผู้ใช้ตามความเป็นจริงเกี่ยวกับความแม่นยำของ AI การระบุจุดที่โมเดลอาจมีความน่าเชื่อถือน้อยกว่า และการให้ช่องทางที่ชัดเจนในการขอความช่วยเหลือหรือข้อเสนอแนะเมื่อผู้ใช้รับรู้ถึงผลลัพธ์ที่ไม่ยุติธรรมหรือไม่ถูกต้อง การจัดการกับสิ่งเหล่านี้ในเชิงรุกมิติทางจริยธรรมจะทำให้เราสามารถสร้างระบบ AI ที่ยุติธรรมและเชื่อถือได้อย่างแท้จริง จากวิธีการสู่การจำลอง: รูปแบบการออกแบบ XAI ที่ใช้งานได้จริง การรู้แนวคิดเป็นสิ่งหนึ่ง การออกแบบมันเป็นอีกเรื่องหนึ่ง ต่อไปนี้คือวิธีที่เราสามารถแปลวิธี XAI เหล่านี้เป็นรูปแบบการออกแบบที่ใช้งานง่าย รูปแบบที่ 1: คำชี้แจง "เพราะ" (สำหรับความสำคัญของคุณลักษณะ) นี่เป็นรูปแบบที่ง่ายที่สุดและมักจะมีประสิทธิภาพมากที่สุด เป็นข้อความที่ตรงไปตรงมาและตรงไปตรงมาซึ่งแสดงถึงเหตุผลหลักในการดำเนินการของ AI
การศึกษาพฤติกรรมมนุษย์: ตรงไปตรงมาและกระชับ เป็นผู้นำด้วยเหตุผลเดียวที่มีอิทธิพลมากที่สุด หลีกเลี่ยงศัพท์แสงในทุกกรณี
ตัวอย่าง: ลองนึกภาพบริการสตรีมเพลง แทนที่จะแค่นำเสนอเพลย์ลิสต์ "Discover Weekly" คุณเพิ่มไมโครคัดลอกบรรทัดเล็กๆ คำแนะนำเพลง: "Velvet Morning" เพราะคุณฟัง "The Fuzz" และเพลงแนวไซคีเดลิกอื่นๆ
รูปแบบที่ 2: การโต้ตอบแบบ "เกิดอะไรขึ้นถ้า" (สำหรับการต่อต้านข้อเท็จจริง) การต่อต้านข้อเท็จจริงเป็นเรื่องเกี่ยวกับการเสริมอำนาจโดยธรรมชาติ วิธีที่ดีที่สุดในการเป็นตัวแทนคือการให้เครื่องมือแบบโต้ตอบแก่ผู้ใช้เพื่อสำรวจความเป็นไปได้ด้วยตนเอง เหมาะสำหรับการใช้งานด้านการเงิน สุขภาพ หรือด้านเป้าหมายอื่นๆ
การศึกษาพฤติกรรมมนุษย์: สร้างคำอธิบายเชิงโต้ตอบและเสริมศักยภาพ ให้ผู้ใช้เห็นสาเหตุและผลของการเลือกของตน
ตัวอย่าง: อินเทอร์เฟซการสมัครสินเชื่อ หลังจากการปฏิเสธ แทนที่จะเป็นทางตัน ผู้ใช้จะได้รับเครื่องมือเพื่อพิจารณาว่าสถานการณ์ต่างๆ (จะเป็นอย่างไร) อาจเกิดขึ้นได้อย่างไร (ดูรูปที่ 1)
รูปแบบที่ 3: ม้วนไฮไลท์ (สำหรับคำอธิบายในท้องถิ่น) เมื่อ AI ดำเนินการกับเนื้อหาของผู้ใช้ (เช่น การสรุปเอกสารหรือการระบุใบหน้าในภาพถ่าย) คำอธิบายควรเชื่อมโยงกับแหล่งที่มาด้วยภาพ
การศึกษาพฤติกรรม: ใช้ภาพ เช่น การไฮไลต์ โครงร่าง หรือคำอธิบายประกอบ เพื่อเชื่อมต่อคำอธิบายโดยตรงกับองค์ประกอบอินเทอร์เฟซที่คำอธิบายนั้นอธิบาย
ตัวอย่าง: เครื่องมือ AI ที่สรุปบทความขนาดยาว จุดสรุปที่สร้างโดย AI:การวิจัยเบื้องต้นแสดงให้เห็นช่องว่างทางการตลาดสำหรับผลิตภัณฑ์ที่ยั่งยืน แหล่งที่มาในเอกสาร:“...การวิเคราะห์แนวโน้มตลาดในไตรมาสที่ 2 ของเราแสดงให้เห็นอย่างแน่ชัดว่าไม่มีคู่แข่งรายใหญ่รายใดที่ให้บริการผู้บริโภคที่คำนึงถึงสิ่งแวดล้อมอย่างมีประสิทธิภาพ ซึ่งเผยให้เห็นช่องว่างทางการตลาดที่สำคัญสำหรับผลิตภัณฑ์ที่ยั่งยืน...”
รูปแบบที่ 4: ภาพแบบกดแล้วดึง (สำหรับคำอธิบายตามค่า) สำหรับการตัดสินใจที่ซับซ้อนมากขึ้น ผู้ใช้อาจจำเป็นต้องเข้าใจอิทธิพลของปัจจัยต่างๆ การแสดงภาพข้อมูลอย่างง่ายสามารถทำให้สิ่งนี้ชัดเจนโดยไม่ต้องมากเกินไป
การศึกษาพฤติกรรม: ใช้การแสดงข้อมูลด้วยรหัสสีที่เรียบง่าย (เช่น แผนภูมิแท่ง) เพื่อแสดงปัจจัยที่มีอิทธิพลต่อการตัดสินใจทั้งเชิงบวกและเชิงลบ
ตัวอย่าง: AI คัดกรองโปรไฟล์ผู้สมัครงาน เหตุใดผู้สมัครรายนี้จึงตรงกัน 75%:ปัจจัยที่ผลักดันคะแนนให้สูงขึ้น:ประสบการณ์การวิจัย UX 5 ปีขึ้นไป มีความเชี่ยวชาญใน Python ปัจจัยที่ผลักดันคะแนนให้ลดลง:ไม่มีประสบการณ์กับ B2B SaaS
การเรียนรู้และการใช้รูปแบบการออกแบบเหล่านี้ใน UX ของผลิตภัณฑ์ AI ของคุณจะช่วยเพิ่มความสามารถในการอธิบาย คุณยังสามารถใช้เทคนิคเพิ่มเติมที่ฉันไม่ได้กล่าวถึงในเชิงลึกได้ที่นี่ ซึ่งรวมถึงสิ่งต่อไปนี้:
คำอธิบายด้วยภาษาธรรมชาติ: การแปลผลลัพธ์ทางเทคนิคของ AI ให้เป็นภาษามนุษย์เชิงสนทนาที่เรียบง่าย ซึ่งผู้ที่ไม่ใช่ผู้เชี่ยวชาญสามารถเข้าใจได้ง่าย คำอธิบายตามบริบท: การให้เหตุผลสำหรับเอาท์พุตของ AI ในช่วงเวลาและสถานที่ที่เฉพาะเจาะจง ซึ่งเกี่ยวข้องกับงานของผู้ใช้มากที่สุด การแสดงภาพที่เกี่ยวข้อง: การใช้แผนภูมิ กราฟ หรือแผนที่ความร้อนเพื่อแสดงกระบวนการตัดสินใจของ AI ทำให้ข้อมูลที่ซับซ้อนใช้งานง่ายและง่ายสำหรับผู้ใช้ในการเข้าใจ
หมายเหตุสำหรับส่วนหน้า: การแปลผลลัพธ์ที่สามารถอธิบายได้เหล่านี้ให้เป็นประสบการณ์ผู้ใช้ที่ราบรื่นยังนำเสนอชุดข้อควรพิจารณาทางเทคนิคด้วย นักพัฒนาส่วนหน้ามักจะต่อสู้กับการออกแบบ API เพื่อดึงข้อมูลคำอธิบายอย่างมีประสิทธิภาพ และผลกระทบด้านประสิทธิภาพ (เช่น การสร้างคำอธิบายแบบเรียลไทม์สำหรับการโต้ตอบของผู้ใช้ทุกครั้ง) จำเป็นต้องวางแผนอย่างรอบคอบเพื่อหลีกเลี่ยงเวลาแฝง ตัวอย่างในโลกแห่งความเป็นจริงบางส่วน DeliveryDefense ของ UPS Capital UPS ใช้ AI เพื่อกำหนด “คะแนนความเชื่อมั่นในการจัดส่ง” เพื่อระบุที่อยู่เพื่อคาดการณ์ความเป็นไปได้ที่พัสดุจะถูกขโมย ซอฟต์แวร์ DeliveryDefense วิเคราะห์ข้อมูลในอดีตเกี่ยวกับสถานที่ ความถี่ในการสูญเสีย และปัจจัยอื่นๆ หากที่อยู่มีคะแนนต่ำ ระบบจะสามารถเปลี่ยนเส้นทางพัสดุไปยัง UPS Access Point ที่ปลอดภัยได้ในเชิงรุก โดยให้คำอธิบายสำหรับการตัดสินใจ (เช่น “พัสดุถูกเปลี่ยนเส้นทางไปยังตำแหน่งที่ปลอดภัยเนื่องจากมีประวัติการโจรกรรม”) ระบบนี้แสดงให้เห็นว่า XAI สามารถใช้ลดความเสี่ยงและสร้างความไว้วางใจของลูกค้าได้อย่างไรความโปร่งใส ยานพาหนะขับเคลื่อนอัตโนมัติ ยานพาหนะแห่งอนาคตเหล่านี้จะต้องใช้ XAI อย่างมีประสิทธิภาพเพื่อช่วยให้ยานพาหนะของพวกเขาตัดสินใจได้อย่างปลอดภัยและอธิบายได้ เมื่อรถที่ขับเคลื่อนด้วยตนเองเบรกกะทันหัน ระบบสามารถให้คำอธิบายแบบเรียลไทม์สำหรับการดำเนินการ เช่น โดยการระบุคนเดินเท้าที่ก้าวเข้าสู่ถนน สิ่งนี้ไม่เพียงมีความสำคัญต่อความสะดวกสบายและความไว้วางใจของผู้โดยสารเท่านั้น แต่ยังเป็นข้อกำหนดด้านกฎระเบียบเพื่อพิสูจน์ความปลอดภัยและความรับผิดชอบของระบบ AI IBM Watson Health (และความท้าทาย) แม้ว่ามักถูกอ้างถึงว่าเป็นตัวอย่างทั่วไปของ AI ในการดูแลสุขภาพ แต่ก็เป็นกรณีศึกษาที่มีคุณค่าเกี่ยวกับความสำคัญของ XAI เช่นกัน ความล้มเหลวของโครงการ Watson for Oncology ตอกย้ำถึงสิ่งที่อาจผิดพลาดได้เมื่อคำอธิบายไม่ชัดเจน หรือเมื่อข้อมูลพื้นฐานมีอคติหรือไม่ได้แปลเป็นภาษาท้องถิ่น คำแนะนำของระบบบางครั้งไม่สอดคล้องกับแนวทางปฏิบัติทางคลินิกในท้องถิ่น เนื่องจากคำแนะนำเหล่านี้อิงตามหลักเกณฑ์ที่มีสหรัฐอเมริกาเป็นศูนย์กลาง สิ่งนี้ทำหน้าที่เป็นคำเตือนเกี่ยวกับความจำเป็นในการอธิบายที่มีประสิทธิภาพและคำนึงถึงบริบท บทบาทของนักวิจัย UX: การระบุและตรวจสอบคำอธิบาย โซลูชันการออกแบบของเราจะมีประสิทธิภาพก็ต่อเมื่อตอบคำถามของผู้ใช้ที่ถูกต้องในเวลาที่เหมาะสม คำอธิบายที่ตอบคำถามที่ผู้ใช้ไม่มีเป็นเพียงเสียงรบกวน นี่คือจุดที่การวิจัย UX กลายเป็นเนื้อเยื่อเกี่ยวพันที่สำคัญในกลยุทธ์ XAI เพื่อให้มั่นใจว่าเราจะอธิบายว่าอะไรและอย่างไรที่สำคัญต่อผู้ใช้ของเรา บทบาทของผู้วิจัยมีสองเท่า ประการแรก แจ้งกลยุทธ์โดยระบุว่าจำเป็นต้องมีคำอธิบายที่ใด และประการที่สอง เพื่อตรวจสอบความถูกต้องของการออกแบบที่ให้คำอธิบายเหล่านั้น แจ้งกลยุทธ์ XAI (จะอธิบายอะไร) ก่อนที่เราจะสามารถออกแบบคำอธิบายเดียวได้ เราต้องเข้าใจโมเดลทางจิตของผู้ใช้ของระบบ AI ก่อน พวกเขาเชื่อว่ามันกำลังทำอะไรอยู่? ช่องว่างระหว่างความเข้าใจกับความเป็นจริงของระบบอยู่ที่ไหน? นี่เป็นงานพื้นฐานของนักวิจัย UX การสัมภาษณ์แบบจำลองทางจิต: การเปิดโปงการรับรู้ของผู้ใช้เกี่ยวกับระบบ AI ด้วยการสัมภาษณ์เชิงลึกแบบกึ่งโครงสร้าง ผู้ปฏิบัติงาน UX จะได้รับข้อมูลเชิงลึกอันล้ำค่าเกี่ยวกับวิธีที่ผู้ใช้รับรู้และเข้าใจระบบ AI เซสชันเหล่านี้ได้รับการออกแบบมาเพื่อสนับสนุนให้ผู้ใช้วาดหรืออธิบาย "แบบจำลองทางจิต" ภายในของตนว่าพวกเขาเชื่อว่า AI ทำงานอย่างไร ซึ่งมักจะเกี่ยวข้องกับการถามคำถามปลายเปิดที่แจ้งให้ผู้ใช้อธิบายตรรกะของระบบ ข้อมูลนำเข้า และผลลัพธ์ของระบบ ตลอดจนความสัมพันธ์ระหว่างองค์ประกอบเหล่านี้ การสัมภาษณ์เหล่านี้มีประสิทธิภาพเนื่องจากมักเปิดเผยความเข้าใจผิดและข้อสันนิษฐานที่ผู้ใช้มีเกี่ยวกับ AI ตัวอย่างเช่น ผู้ใช้โต้ตอบกับเครื่องมือแนะนำอาจยืนยันอย่างมั่นใจว่าระบบอิงตามประวัติการดูที่ผ่านมาเพียงอย่างเดียว พวกเขาอาจไม่ทราบว่าอัลกอริทึมยังรวมเอาปัจจัยอื่น ๆ มากมาย เช่น ช่วงเวลาของวันที่พวกเขากำลังเรียกดู รายการที่กำลังมาแรงในปัจจุบันทั่วทั้งแพลตฟอร์ม หรือแม้แต่พฤติกรรมการดูของผู้ใช้ที่คล้ายกัน การเปิดเผยช่องว่างระหว่างแบบจำลองทางจิตของผู้ใช้และตรรกะ AI ที่แท้จริงเป็นสิ่งสำคัญอย่างยิ่ง โดยบอกเราได้อย่างแม่นยำว่าเราต้องการข้อมูลเฉพาะใดบ้างในการสื่อสารกับผู้ใช้ เพื่อช่วยพวกเขาสร้างแบบจำลองทางจิตของระบบที่แม่นยำและแข็งแกร่งยิ่งขึ้น นี่เป็นขั้นตอนพื้นฐานในการส่งเสริมความไว้วางใจ เมื่อผู้ใช้เข้าใจแม้ในระดับสูงว่า AI บรรลุข้อสรุปหรือคำแนะนำได้อย่างไร พวกเขามีแนวโน้มที่จะเชื่อถือผลลัพธ์และพึ่งพาฟังก์ชันการทำงานของ AI มากขึ้น การทำแผนที่การเดินทางของ AI: เจาะลึกถึงความน่าเชื่อถือและคำอธิบายของผู้ใช้ ด้วยการจัดทำแผนที่การเดินทางของผู้ใช้อย่างพิถีพิถันด้วยฟีเจอร์ที่ขับเคลื่อนด้วย AI เราได้รับข้อมูลเชิงลึกอันล้ำค่าในช่วงเวลาที่แม่นยำซึ่งเกิดความสับสน ความหงุดหงิด หรือแม้แต่ความไม่ไว้วางใจอย่างลึกซึ้ง สิ่งนี้เผยให้เห็นจุดเชื่อมต่อที่สำคัญซึ่งแบบจำลองทางจิตของผู้ใช้เกี่ยวกับวิธีการทำงานของ AI ขัดแย้งกับพฤติกรรมที่แท้จริง พิจารณาบริการสตรีมเพลง: ความไว้วางใจของผู้ใช้ลดลงเมื่อการแนะนำเพลย์ลิสต์รู้สึกว่า "สุ่ม" โดยขาดความเชื่อมโยงที่มองเห็นได้กับพฤติกรรมการฟังในอดีตหรือการตั้งค่าที่ระบุไว้หรือไม่ การรับรู้แบบสุ่มนี้เป็นความท้าทายโดยตรงต่อความคาดหวังของผู้ใช้เกี่ยวกับการดูแลจัดการอย่างชาญฉลาด และเป็นการละเมิดคำสัญญาโดยปริยายที่ว่า AI เข้าใจรสนิยมของพวกเขา ในทำนองเดียวกัน ในแอปพลิเคชันการจัดการรูปภาพ ผู้ใช้จะรู้สึกหงุดหงิดอย่างมากเมื่อฟีเจอร์การแท็กรูปภาพด้วย AI ระบุสมาชิกในครอบครัวอันเป็นที่รักอย่างไม่ถูกต้องอยู่เสมอหรือไม่ ข้อผิดพลาดนี้เป็นมากกว่าความผิดพลาดทางเทคนิค โดยถือเป็นหัวใจสำคัญของความแม่นยำ ความเป็นส่วนตัว และแม้กระทั่งการเชื่อมต่อทางอารมณ์ จุดบอดเหล่านี้เป็นสัญญาณที่ชัดเจนซึ่งบ่งชี้ได้อย่างชัดเจนว่าจำเป็นต้องมีคำอธิบายที่วางไว้อย่างดี ชัดเจน และรัดกุม คำอธิบายดังกล่าวทำหน้าที่เป็นกลไกการซ่อมแซมที่สำคัญ ซึ่งแก้ไขการละเมิดความไว้วางใจซึ่งหากปล่อยทิ้งไว้โดยไม่ได้รับการจัดการ อาจนำไปสู่การละทิ้งผู้ใช้ได้ พลังของการทำแผนที่การเดินทางของ AI อยู่ที่ความสามารถในการขับเคลื่อนเราไปมากกว่าแค่การอธิบายผลลัพธ์สุดท้ายของระบบ AI แม้ว่าการทำความเข้าใจสิ่งที่ AI สร้างขึ้นนั้นมีความสำคัญ แต่ก็มักจะไม่เพียงพอ กระบวนการนี้บังคับให้เรามุ่งเน้นไปที่การอธิบายกระบวนการในช่วงเวลาวิกฤติแทน นี่หมายถึงที่อยู่:
เหตุใดจึงมีการสร้างเอาต์พุตเฉพาะ: เป็นเพราะข้อมูลอินพุตเฉพาะหรือไม่ สถาปัตยกรรมแบบจำลองเฉพาะ? ปัจจัยใดที่มีอิทธิพลต่อการตัดสินใจของ AI: คุณลักษณะบางอย่างมีน้ำหนักมากกว่าหรือไม่ AI มาถึงข้อสรุปได้อย่างไร: เราสามารถเสนอคำอธิบายที่เรียบง่ายและคล้ายคลึงเกี่ยวกับการทำงานภายในของมันได้หรือไม่ AI ตั้งสมมติฐานอะไรบ้าง: มีความเข้าใจโดยนัยเกี่ยวกับจุดประสงค์ของผู้ใช้หรือข้อมูลที่ต้องแสดงหรือไม่? ข้อจำกัดของ AI คืออะไร: การสื่อสารอย่างชัดเจนถึงสิ่งที่ AI ไม่สามารถทำได้ หรือจุดที่ความถูกต้องแม่นยำอาจลดลง จะสร้างความคาดหวังที่สมจริง
การทำแผนที่การเดินทางของ AI เปลี่ยนแนวคิดเชิงนามธรรมของ XAI ให้เป็นเฟรมเวิร์กที่ใช้งานได้จริงและนำไปปฏิบัติได้สำหรับผู้ปฏิบัติงาน UX ช่วยให้เราสามารถก้าวไปไกลกว่าการอภิปรายเชิงทฤษฎีเกี่ยวกับความสามารถในการอธิบาย และระบุช่วงเวลาที่แน่นอนซึ่งความไว้วางใจของผู้ใช้เป็นเดิมพัน โดยให้ข้อมูลเชิงลึกที่จำเป็นในการสร้างประสบการณ์ AI ที่ทรงพลัง โปร่งใส เข้าใจได้ และเชื่อถือได้ ท้ายที่สุดแล้ว การวิจัยคือวิธีที่เราค้นพบสิ่งแปลกปลอม ทีมของคุณอาจกำลังถกเถียงกันว่าจะอธิบายได้อย่างไรว่าทำไมเงินกู้จึงถูกปฏิเสธ แต่การวิจัยอาจเผยให้เห็นว่าผู้ใช้มีความกังวลมากกว่ามากในการทำความเข้าใจว่าข้อมูลของพวกเขาถูกใช้อย่างไรตั้งแต่แรก หากไม่มีการวิจัย เราก็เพียงแค่เดาว่าผู้ใช้ของเรากำลังสงสัยอะไร การทำงานร่วมกันในการออกแบบ (วิธีอธิบาย AI ของคุณ) เมื่อการวิจัยระบุสิ่งที่ต้องอธิบายได้แล้ว วงความร่วมมือกับการออกแบบก็เริ่มต้นขึ้น นักออกแบบสามารถสร้างต้นแบบของรูปแบบที่เราพูดคุยกันก่อนหน้านี้ได้ เช่น คำสั่ง "Because" แถบเลื่อนแบบโต้ตอบ และนักวิจัยสามารถนำการออกแบบเหล่านั้นไปแสดงต่อหน้าผู้ใช้เพื่อดูว่ายังรองรับหรือไม่ การทดสอบการใช้งานและความเข้าใจตามเป้าหมาย: เราสามารถออกแบบการศึกษาวิจัยที่ทดสอบส่วนประกอบ XAI โดยเฉพาะ เราไม่เพียงแค่ถามว่า “มันใช้งานง่ายไหม?” เราถามว่า “หลังจากเห็นสิ่งนี้แล้ว คุณช่วยบอกฉันด้วยคำพูดของคุณเองได้ไหมว่าทำไมระบบถึงแนะนำผลิตภัณฑ์นี้” หรือ “แสดงให้ฉันดูว่าคุณจะทำอย่างไรเพื่อดูว่าคุณจะได้ผลลัพธ์ที่แตกต่างออกไปหรือไม่” เป้าหมายคือการวัดความเข้าใจและความสามารถในการดำเนินการควบคู่ไปกับการใช้งาน การวัดความน่าเชื่อถือในตัวเอง: เราสามารถใช้แบบสำรวจง่ายๆ และระดับการให้คะแนนก่อนและหลังการแสดงคำอธิบาย ตัวอย่างเช่น เราสามารถถามผู้ใช้ในระดับ 5 คะแนนว่า "คุณเชื่อถือคำแนะนำนี้มากแค่ไหน" ก่อนที่จะเห็นข้อความ “เพราะ” แล้วจึงถามอีกครั้งในภายหลัง ข้อมูลนี้จะให้ข้อมูลเชิงปริมาณว่าคำอธิบายของเรากำลังกระตุ้นความไว้วางใจหรือไม่ กระบวนการนี้จะสร้างการวนซ้ำที่มีประสิทธิภาพและวนซ้ำ ผลการวิจัยแจ้งการออกแบบเบื้องต้น การออกแบบนั้นจะได้รับการทดสอบ และข้อค้นพบใหม่จะถูกส่งกลับไปยังทีมออกแบบเพื่อการปรับแต่ง บางทีข้อความ "เพราะ" อาจใช้ศัพท์เฉพาะมากเกินไป หรือแถบเลื่อน "จะเกิดอะไรขึ้น" ทำให้เกิดความสับสนมากกว่าการเสริมศักยภาพ ด้วยการตรวจสอบความถูกต้องร่วมกันนี้ เรารับรองว่าคำอธิบายขั้นสุดท้ายมีความถูกต้องทางเทคนิค เข้าใจได้อย่างแท้จริง มีประโยชน์ และสร้างความไว้วางใจให้กับผู้ที่ใช้ผลิตภัณฑ์ โซนคำอธิบายของ Goldilocks คำเตือนที่สำคัญ: เป็นไปได้ที่จะอธิบายมากเกินไป เช่นเดียวกับในเทพนิยาย ที่ Goldilocks ค้นหาโจ๊กที่ "ถูกต้อง" เป้าหมายของการอธิบายที่ดีคือการให้รายละเอียดในปริมาณที่เหมาะสม ไม่มากเกินไปและไม่น้อยเกินไป การระดมโจมตีผู้ใช้ด้วยตัวแปรทุกตัวในแบบจำลองจะนำไปสู่การโอเวอร์โหลดการรับรู้ และอาจลดความน่าเชื่อถือได้จริง เป้าหมายไม่ใช่เพื่อให้ผู้ใช้เป็นนักวิทยาศาสตร์ข้อมูล แนวทางแก้ไขประการหนึ่งคือการเปิดเผยข้อมูลแบบก้าวหน้า
เริ่มต้นด้วยสิ่งง่ายๆ เริ่มต้นด้วยข้อความ “เพราะ” ที่กระชับ สำหรับผู้ใช้ส่วนใหญ่ก็เพียงพอแล้ว เสนอเส้นทางสู่รายละเอียด ระบุลิงก์ที่ชัดเจนและเสียดสีต่ำ เช่น “เรียนรู้เพิ่มเติม” หรือ “ดูว่าสิ่งนี้ได้รับการพิจารณาอย่างไร” เผยความซับซ้อน ด้านหลังลิงก์นั้น คุณสามารถเสนอแถบเลื่อนแบบโต้ตอบ การแสดงภาพ หรือรายการปัจจัยที่มีส่วนร่วมโดยละเอียดเพิ่มเติมได้
วิธีการแบบหลายชั้นนี้คำนึงถึงความสนใจและความเชี่ยวชาญของผู้ใช้ โดยให้ในปริมาณที่เหมาะสมข้อมูลตามความต้องการของพวกเขา สมมติว่าคุณกำลังใช้อุปกรณ์สมาร์ทโฮมที่แนะนำระบบทำความร้อนที่เหมาะสมที่สุดโดยพิจารณาจากปัจจัยต่างๆ เริ่มต้นง่ายๆ ด้วย: “ปัจจุบันบ้านของคุณมีอุณหภูมิร้อนถึง 72 องศา ซึ่งเป็นอุณหภูมิที่เหมาะสมที่สุดสำหรับการประหยัดพลังงานและความสะดวกสบาย” เสนอเส้นทางสู่รายละเอียด: ด้านล่างมีลิงก์หรือปุ่มเล็กๆ: “เหตุใด 72 องศาจึงเหมาะสมที่สุด” เปิดเผยความซับซ้อน: การคลิกลิงก์นั้นอาจเปิดหน้าจอใหม่ที่แสดง:
แถบเลื่อนแบบโต้ตอบสำหรับอุณหภูมิภายนอก ความชื้น และระดับความสบายที่คุณต้องการ ซึ่งสาธิตวิธีการปรับอุณหภูมิที่แนะนำ การแสดงภาพการใช้พลังงานที่อุณหภูมิต่างๆ รายการปัจจัยที่มีส่วนร่วม เช่น "เวลาของวัน" "อุณหภูมิภายนอกปัจจุบัน" "การใช้พลังงานในอดีต" และ "เซ็นเซอร์ตรวจจับการเข้าใช้"
การรวมวิธี XAI หลายวิธีเข้ากับรูปแบบคำอธิบายของ Goldilocks Zone ซึ่งสนับสนุนการเปิดเผยข้อมูลแบบก้าวหน้าจะมีประสิทธิภาพ โดยสนับสนุนสิ่งนี้โดยปริยาย คุณอาจเริ่มต้นด้วยข้อความ “Because” ง่ายๆ (รูปแบบที่ 1) เพื่อให้เข้าใจได้ทันที จากนั้นจึงเสนอลิงก์ “เรียนรู้เพิ่มเติม” ที่แสดงข้อความเชิงโต้ตอบ “จะเกิดอะไรขึ้นหาก” (รูปแบบที่ 2) หรือ “ภาพแบบ Push-and-Pull” (รูปแบบที่ 4) เพื่อการสำรวจเชิงลึก ตัวอย่างเช่น ระบบการสมัครขอสินเชื่อสามารถระบุเหตุผลหลักในการปฏิเสธได้ในขั้นต้น (ความสำคัญของคุณลักษณะ) จากนั้นให้ผู้ใช้สามารถโต้ตอบกับเครื่องมือ "What-If" เพื่อดูว่าการเปลี่ยนแปลงในรายได้หรือหนี้ของตนจะเปลี่ยนแปลงผลลัพธ์อย่างไร (ข้อเท็จจริงที่ขัดแย้งกัน) และสุดท้าย ให้แผนภูมิ "Push-and-Pull" โดยละเอียด (คำอธิบายตามมูลค่า) เพื่อแสดงให้เห็นการมีส่วนร่วมทั้งเชิงบวกและเชิงลบของปัจจัยทั้งหมด วิธีการแบบหลายชั้นนี้ช่วยให้ผู้ใช้สามารถเข้าถึงระดับรายละเอียดที่ต้องการได้ในเวลาที่ต้องการ ป้องกันการรับรู้ที่มากเกินไปในขณะที่ยังคงให้ความโปร่งใสที่ครอบคลุม การพิจารณาว่าจะใช้เครื่องมือและวิธีการ XAI ใดนั้นเป็นหน้าที่หลักของการวิจัย UX อย่างละเอียด การสัมภาษณ์โมเดลทางจิตและการทำแผนที่การเดินทางของ AI มีความสำคัญอย่างยิ่งในการระบุความต้องการของผู้ใช้และประเด็นปัญหาที่เกี่ยวข้องกับความเข้าใจและความไว้วางใจของ AI การสัมภาษณ์แบบจำลองจิตช่วยเปิดเผยความเข้าใจผิดของผู้ใช้เกี่ยวกับวิธีการทำงานของ AI โดยระบุส่วนที่จำเป็นต้องมีคำอธิบายพื้นฐาน (เช่น ความสำคัญของคุณลักษณะหรือคำอธิบายในท้องถิ่น) ในทางกลับกัน การทำแผนที่การเดินทางของ AI ระบุช่วงเวลาวิกฤตของความสับสนหรือไม่ไว้วางใจในการโต้ตอบของผู้ใช้กับ AI โดยส่งสัญญาณว่าคำอธิบายที่ละเอียดหรือเชิงโต้ตอบมากขึ้น (เช่น คำอธิบายที่โต้แย้งหรืออิงตามมูลค่า) จะมีประโยชน์มากที่สุดในการสร้างความไว้วางใจใหม่และให้เอเจนซี่
ท้ายที่สุดแล้ว วิธีที่ดีที่สุดในการเลือกเทคนิคคือการให้การวิจัยผู้ใช้เป็นแนวทางในการตัดสินใจของคุณ เพื่อให้มั่นใจว่าคำอธิบายที่คุณออกแบบจะตอบคำถามและข้อกังวลของผู้ใช้จริงได้โดยตรง แทนที่จะนำเสนอรายละเอียดทางเทคนิคเพื่อประโยชน์ของผู้ใช้เอง XAI สำหรับตัวแทนการใช้เหตุผลเชิงลึก ระบบ AI ใหม่ล่าสุดบางระบบซึ่งรู้จักกันในชื่อตัวแทนการให้เหตุผลเชิงลึก ก่อให้เกิด “สายโซ่แห่งความคิด” ที่ชัดเจนสำหรับงานที่ซับซ้อนทุกอย่าง พวกเขาไม่เพียงแค่อ้างอิงแหล่งที่มาเท่านั้น พวกเขาแสดงเส้นทางทีละขั้นตอนที่สมเหตุสมผลเพื่อให้ได้ข้อสรุป แม้ว่าความโปร่งใสนี้จะให้บริบทที่มีคุณค่า แต่การเล่นทีละเล่นซึ่งครอบคลุมหลายย่อหน้าอาจทำให้ผู้ใช้รู้สึกหนักใจเพียงแค่พยายามทำงานให้เสร็จ หลักการของ XAI โดยเฉพาะ Goldilocks Zone of Explanation สามารถนำไปใช้ได้โดยตรงที่นี่ เราสามารถดูแลการเดินทางได้โดยใช้การเปิดเผยข้อมูลแบบก้าวหน้าเพื่อแสดงเฉพาะข้อสรุปสุดท้ายและขั้นตอนที่สำคัญที่สุดในกระบวนการคิดก่อน จากนั้นผู้ใช้สามารถเลือกที่จะดูการให้เหตุผลแบบหลายขั้นตอนโดยละเอียดโดยละเอียด เมื่อต้องการตรวจสอบตรรกะอีกครั้งหรือค้นหาข้อเท็จจริงที่เฉพาะเจาะจง แนวทางนี้เคารพความสนใจของผู้ใช้ในขณะที่ยังคงรักษาความโปร่งใสของตัวแทนไว้ ขั้นตอนถัดไป: เสริมศักยภาพการเดินทาง XAI ของคุณ ความสามารถในการอธิบายเป็นเสาหลักพื้นฐานสำหรับการสร้างผลิตภัณฑ์ AI ที่น่าเชื่อถือและมีประสิทธิภาพ สำหรับผู้ปฏิบัติงานขั้นสูงที่ต้องการขับเคลื่อนการเปลี่ยนแปลงนี้ภายในองค์กร การเดินทางได้ขยายไปไกลกว่ารูปแบบการออกแบบไปสู่การสนับสนุนและการเรียนรู้อย่างต่อเนื่อง เพื่อเพิ่มความเข้าใจและการใช้งานจริงของคุณให้ลึกซึ้งยิ่งขึ้น ลองสำรวจแหล่งข้อมูล เช่น ชุดเครื่องมือ AI Explainability 360 (AIX360) จาก IBM Research หรือ What-If Tool ของ Google ซึ่งนำเสนอวิธีการเชิงโต้ตอบในการสำรวจพฤติกรรมและคำอธิบายของโมเดล การมีส่วนร่วมกับชุมชน เช่น ฟอรัม AI ที่มีความรับผิดชอบ หรือกลุ่มวิจัยเฉพาะที่มุ่งเน้นไปที่ AI ที่คำนึงถึงมนุษย์เป็นหลัก สามารถให้ข้อมูลเชิงลึกอันล้ำค่าและโอกาสในการทำงานร่วมกัน สุดท้ายนี้ เป็นผู้สนับสนุน XAI ภายในองค์กรของคุณเองความสามารถในการอธิบายกรอบเป็นการลงทุนเชิงกลยุทธ์ พิจารณาการนำเสนอสั้นๆ สำหรับผู้นำหรือทีมข้ามสายงานของคุณ: “ด้วยการลงทุนใน XAI เราจะไปไกลกว่าการสร้างความไว้วางใจ เราจะเร่งการยอมรับของผู้ใช้ ลดต้นทุนการสนับสนุนโดยการเพิ่มขีดความสามารถของผู้ใช้ด้วยความเข้าใจ และลดความเสี่ยงด้านจริยธรรมและกฎระเบียบที่สำคัญโดยการเปิดเผยอคติที่อาจเกิดขึ้น นี่คือการออกแบบที่ดีและธุรกิจที่ชาญฉลาด”
เสียงของคุณซึ่งมีพื้นฐานมาจากความเข้าใจเชิงปฏิบัตินั้นมีความสำคัญอย่างยิ่งในการนำ AI ออกจากกล่องดำและเข้าสู่ความร่วมมือในการทำงานร่วมกันกับผู้ใช้