Trong phần cuối cùng của tôi, chúng tôi đã thiết lập một sự thật cơ bản: để người dùng chấp nhận và dựa vào AI, họ phải tin tưởng vào nó. Chúng tôi đã nói về niềm tin là một cấu trúc nhiều mặt, được xây dựng dựa trên nhận thức về Khả năng, Lòng nhân từ, Tính chính trực và Khả năng dự đoán của AI. Nhưng điều gì sẽ xảy ra khi AI, với trí tuệ thuật toán thầm lặng của nó, đưa ra quyết định khiến người dùng bối rối, thất vọng hoặc thậm chí bị tổn thương? Đơn đăng ký thế chấp bị từ chối, một bài hát yêu thích đột nhiên biến mất trong danh sách phát và một bản lý lịch đủ điều kiện bị từ chối trước khi con người nhìn thấy nó. Trong những khoảnh khắc này, khả năng và khả năng dự đoán bị phá vỡ, và lòng nhân từ dường như đã biến mất. Cuộc trò chuyện của chúng ta bây giờ phải phát triển từ lý do tin cậy đến cách thức minh bạch. Lĩnh vực AI có thể giải thích (XAI), tập trung vào phát triển các phương pháp giúp con người có thể hiểu được kết quả đầu ra của AI, đã xuất hiện để giải quyết vấn đề này, nhưng nó thường được coi là một thách thức thuần túy kỹ thuật đối với các nhà khoa học dữ liệu. Tôi cho rằng đây là một thách thức thiết kế quan trọng đối với các sản phẩm dựa trên AI. Công việc của chúng tôi với tư cách là chuyên gia UX là thu hẹp khoảng cách giữa việc ra quyết định bằng thuật toán và sự hiểu biết của con người. Bài viết này cung cấp hướng dẫn thực tế, khả thi về cách nghiên cứu và thiết kế để có thể giải thích được. Chúng tôi sẽ vượt ra ngoài các từ thông dụng và chuyển sang các mô hình, chuyển các khái niệm XAI phức tạp thành các mẫu thiết kế cụ thể mà bạn có thể bắt đầu sử dụng ngay hôm nay. Làm sáng tỏ XAI: Các khái niệm cốt lõi dành cho người thực hành UX XAI nhằm mục đích trả lời câu hỏi của người dùng: “Tại sao?” Tại sao tôi được hiển thị quảng cáo này? Tại sao bộ phim này được đề xuất cho tôi? Tại sao yêu cầu của tôi bị từ chối? Hãy coi nó như AI đang thể hiện công việc của mình khi giải một bài toán. Không có nó, bạn chỉ có câu trả lời và bạn buộc phải tin vào nó. Khi chỉ ra các bước, bạn xây dựng được sự hiểu biết và sự tin tưởng. Bạn cũng cho phép công việc của mình được kiểm tra và xác minh kỹ lưỡng bởi chính con người mà nó tác động. Tầm quan trọng của tính năng và phản thực tế Có một số kỹ thuật chúng ta có thể sử dụng để làm rõ hoặc giải thích những gì đang xảy ra với AI. Mặc dù các phương pháp bao gồm từ việc cung cấp toàn bộ logic của cây quyết định đến tạo ra các bản tóm tắt bằng ngôn ngữ tự nhiên của đầu ra, hai trong số các loại thông tin thực tế và có tác động nhất mà người thực hành UX có thể đưa vào trải nghiệm là tầm quan trọng của tính năng (Hình 1) và thông tin phản thực. Đây thường là những cách đơn giản nhất để người dùng hiểu và dễ thực hiện nhất đối với các nhà thiết kế để thực hiện.
Tầm quan trọng của tính năng Phương pháp giải thích này trả lời: “Các yếu tố quan trọng nhất mà AI đã xem xét là gì?” Đó là việc xác định 2-3 biến số hàng đầu có tác động lớn nhất đến kết quả. Đó là tiêu đề, không phải toàn bộ câu chuyện. Ví dụ: Hãy tưởng tượng một AI dự đoán liệu khách hàng có rời bỏ (hủy dịch vụ của họ hay không). Tầm quan trọng của tính năng có thể tiết lộ rằng “số lượng cuộc gọi hỗ trợ trong tháng trước” và “sự tăng giá gần đây” là hai yếu tố quan trọng nhất trong việc xác định liệu khách hàng có khả năng rời bỏ hay không.
phản thực tế Phương pháp mạnh mẽ này trả lời: “Tôi cần thay đổi điều gì để đạt được kết quả khác?” Điều này rất quan trọng vì nó mang lại cho người dùng cảm giác tự chủ. Nó biến từ “không” bực bội thành “chưa” có thể hành động được. Ví dụ: Hãy tưởng tượng một hệ thống ứng dụng cho vay sử dụng AI. Một người dùng bị từ chối cho vay. Thay vì chỉ nhìn thấy “Đơn đăng ký bị từ chối”, một lời giải thích phản thực tế cũng sẽ chia sẻ: “Nếu điểm tín dụng của bạn cao hơn 50 điểm hoặc nếu tỷ lệ nợ trên thu nhập của bạn thấp hơn 10% thì khoản vay của bạn sẽ được chấp thuận”. Điều này giúp Sarah có những bước đi rõ ràng, khả thi mà cô có thể thực hiện để có thể vay được khoản vay trong tương lai.
Sử dụng dữ liệu mô hình để nâng cao giải thích Mặc dù các chi tiết kỹ thuật cụ thể thường được các nhà khoa học dữ liệu xử lý, nhưng sẽ rất hữu ích cho những người thực hành UX khi biết rằng các công cụ như LIME (Giải thích bất khả tri về mô hình có thể giải thích cục bộ) giải thích các dự đoán riêng lẻ bằng cách xấp xỉ mô hình cục bộ và SHAP (SHapley Additive exPlanations) sử dụng cách tiếp cận lý thuyết trò chơi để giải thích đầu ra của bất kỳ mô hình học máy nào thường được sử dụng để trích xuất những hiểu biết “tại sao” này từ các mô hình phức tạp. Về cơ bản, các thư viện này giúp phân tích quyết định của AI để chỉ ra đầu vào nào có ảnh hưởng nhất đến một kết quả nhất định. Khi được thực hiện đúng cách, dữ liệu làm nền tảng cho quyết định của công cụ AI có thể được sử dụng để kể một câu chuyện có sức thuyết phục. Hãy cùng tìm hiểu tầm quan trọng của tính năng và các phản thực tế, đồng thời chỉ ra cách sử dụng khoa học dữ liệu đằng sau quyết định để nâng cao trải nghiệm của người dùng. Bây giờ chúng ta hãyđề cập đến tầm quan trọng của tính năng với sự hỗ trợ của dữ liệu Giải thích cục bộ (ví dụ: LIME): Cách tiếp cận này trả lời: "Tại sao AI lại đưa ra đề xuất cụ thể này cho tôi ngay bây giờ?" Thay vì giải thích chung chung về cách thức hoạt động của mô hình, nó đưa ra lý do tập trung cho một trường hợp cụ thể, đơn lẻ. Đó là vấn đề cá nhân và theo ngữ cảnh. Ví dụ: Hãy tưởng tượng một hệ thống đề xuất âm nhạc được hỗ trợ bởi AI như Spotify. Lời giải thích cục bộ sẽ trả lời: “Tại sao hệ thống lại đề xuất bài hát cụ thể này của Adele cho bạn ngay bây giờ?” Lời giải thích có thể là: “Bởi vì gần đây bạn đã nghe một số bản ballad và bài hát đầy cảm xúc khác của giọng ca nữ”.
Cuối cùng, hãy đề cập đến việc đưa Dữ liệu Giải thích dựa trên Giá trị (ví dụ: Dữ liệu Giải thích bổ sung Shapley (SHAP) vào phần giải thích về một quyết định: Đây là phiên bản mang nhiều sắc thái hơn về tầm quan trọng của tính năng sẽ trả lời: “Mỗi yếu tố đã thúc đẩy quyết định theo cách này hay cách khác như thế nào?” Nó giúp hình dung những gì quan trọng và liệu ảnh hưởng của nó là tích cực hay tiêu cực. Ví dụ: Hãy tưởng tượng một ngân hàng sử dụng mô hình AI để quyết định xem có phê duyệt đơn xin vay hay không.
Tầm quan trọng của đặc điểm: Đầu ra của mô hình có thể cho thấy rằng điểm tín dụng, thu nhập và tỷ lệ nợ trên thu nhập của người nộp đơn là những yếu tố quan trọng nhất trong quyết định của họ. Điều này trả lời những gì quan trọng. Tầm quan trọng của tính năng với Giải thích dựa trên giá trị (SHAP): Giá trị SHAP sẽ nâng cao tầm quan trọng của tính năng dựa trên các thành phần của mô hình.
Đối với một khoản vay đã được phê duyệt, SHAP có thể cho thấy rằng điểm tín dụng cao đã thúc đẩy đáng kể quyết định phê duyệt (ảnh hưởng tích cực), trong khi tỷ lệ nợ trên thu nhập cao hơn một chút so với mức trung bình đã kéo nó đi một chút (ảnh hưởng tiêu cực), nhưng không đủ để từ chối khoản vay. Đối với một khoản vay bị từ chối, SHAP có thể tiết lộ rằng thu nhập thấp và số lượng yêu cầu tín dụng gần đây cao đã thúc đẩy mạnh mẽ quyết định từ chối, ngay cả khi điểm tín dụng ở mức khá.
Điều này giúp nhân viên cho vay giải thích cho người nộp đơn ngoài những gì đã được xem xét, về việc mỗi yếu tố góp phần như thế nào vào quyết định “có” hoặc “không” cuối cùng. Điều quan trọng là phải nhận ra rằng khả năng đưa ra những lời giải thích hợp lý thường bắt đầu sớm hơn nhiều trong chu kỳ phát triển. Các nhà khoa học và kỹ sư dữ liệu đóng một vai trò quan trọng bằng cách cố tình cấu trúc các mô hình và đường dẫn dữ liệu theo những cách vốn hỗ trợ khả năng giải thích, thay vì cố gắng củng cố nó như một suy nghĩ sau. Các nhóm nghiên cứu và thiết kế có thể thúc đẩy điều này bằng cách bắt đầu các cuộc trò chuyện sớm với các nhà khoa học và kỹ sư dữ liệu về nhu cầu hiểu biết của người dùng, góp phần phát triển các số liệu về khả năng giải thích và cộng tác tạo mẫu giải thích để đảm bảo chúng vừa chính xác vừa thân thiện với người dùng. XAI và AI có đạo đức: Giải quyết thành kiến và trách nhiệm Ngoài việc xây dựng lòng tin, XAI còn đóng một vai trò quan trọng trong việc giải quyết các tác động đạo đức sâu sắc của AI*, đặc biệt liên quan đến sai lệch thuật toán. Các kỹ thuật giải thích, chẳng hạn như phân tích giá trị SHAP, có thể tiết lộ liệu các quyết định của mô hình có bị ảnh hưởng không tương xứng bởi các thuộc tính nhạy cảm như chủng tộc, giới tính hoặc tình trạng kinh tế xã hội hay không, ngay cả khi những yếu tố này không được sử dụng rõ ràng làm đầu vào trực tiếp. Ví dụ: nếu mô hình phê duyệt khoản vay liên tục chỉ định các giá trị SHAP âm cho những người nộp đơn từ một nhóm nhân khẩu học nhất định, thì điều đó báo hiệu một thành kiến tiềm ẩn cần được điều tra, trao quyền cho các nhóm phát hiện và giảm thiểu những kết quả không công bằng như vậy. Sức mạnh của XAI cũng đi kèm với khả năng “rửa sạch khả năng giải thích”. Cũng giống như việc “tẩy xanh” đánh lừa người tiêu dùng về các hoạt động bảo vệ môi trường, việc rửa sạch có thể giải thích có thể xảy ra khi các giải thích được thiết kế để che khuất, thay vì làm sáng tỏ, hành vi thuật toán có vấn đề hoặc những thành kiến cố hữu. Điều này có thể biểu hiện dưới dạng những lời giải thích quá đơn giản, bỏ qua các yếu tố ảnh hưởng quan trọng hoặc những lời giải thích khiến kết quả có vẻ trung lập hoặc công bằng hơn thực tế. Nó nhấn mạnh trách nhiệm đạo đức của những người thực hành UX trong việc thiết kế các giải thích thực sự minh bạch và có thể kiểm chứng được. Các chuyên gia UX, phối hợp với các nhà khoa học dữ liệu và nhà đạo đức, chịu trách nhiệm quan trọng trong việc truyền đạt lý do đưa ra quyết định cũng như những hạn chế và thành kiến tiềm ẩn của mô hình AI cơ bản. Điều này liên quan đến việc đặt ra những kỳ vọng thực tế của người dùng về độ chính xác của AI, xác định nơi mô hình có thể kém tin cậy hơn và cung cấp các kênh rõ ràng để truy đòi hoặc phản hồi khi người dùng nhận thấy kết quả không công bằng hoặc không chính xác. Chủ động giải quyết những vấn đề nàycác khía cạnh đạo đức sẽ cho phép chúng ta xây dựng các hệ thống AI thực sự công bằng và đáng tin cậy. Từ phương pháp đến mô hình: Các mẫu thiết kế XAI thực tế Biết các khái niệm là một chuyện; thiết kế chúng là chuyện khác. Đây là cách chúng tôi có thể chuyển các phương pháp XAI này thành các mẫu thiết kế trực quan. Mẫu 1: Câu lệnh "Bởi vì" (đối với tầm quan trọng của tính năng) Đây là mẫu đơn giản nhất và thường hiệu quả nhất. Đó là một tuyên bố trực tiếp, bằng ngôn ngữ đơn giản nêu rõ lý do chính cho hành động của AI.
Heuristic: Hãy trực tiếp và ngắn gọn. Dẫn đầu với lý do có tác động mạnh mẽ nhất. Tránh biệt ngữ bằng mọi giá.
Ví dụ: Hãy tưởng tượng một dịch vụ phát nhạc trực tuyến. Thay vì chỉ trình bày danh sách phát “Khám phá hàng tuần”, bạn thêm một dòng nhỏ vi mô. Đề xuất bài hát: “Velvet Morning”Bởi vì bạn nghe “The Fuzz” và nhạc rock ảo giác khác.
Mẫu 2: Tương tác "Nếu-thì" (dành cho phản thực tế) Phản thực tế vốn dĩ là về việc trao quyền. Cách tốt nhất để thể hiện chúng là cung cấp cho người dùng các công cụ tương tác để họ tự khám phá các khả năng. Điều này hoàn hảo cho các ứng dụng tài chính, sức khỏe hoặc hướng đến mục tiêu khác.
Heuristic: Làm cho những lời giải thích mang tính tương tác và trao quyền. Hãy để người dùng thấy được nguyên nhân và kết quả của sự lựa chọn của họ.
Ví dụ: Giao diện ứng dụng vay vốn. Sau khi từ chối, thay vì đi vào ngõ cụt, người dùng sẽ nhận được một công cụ để xác định các tình huống khác nhau (điều gì xảy ra nếu) có thể diễn ra (Xem Hình 1).
Mẫu 3: Cuộn phim nổi bật (Dành cho giải thích cục bộ) Khi AI thực hiện một hành động đối với nội dung của người dùng (như tóm tắt tài liệu hoặc nhận dạng khuôn mặt trong ảnh), phần giải thích phải được liên kết trực quan với nguồn.
Heuristic: Sử dụng các dấu hiệu trực quan như đánh dấu, phác thảo hoặc chú thích để kết nối trực tiếp lời giải thích với thành phần giao diện mà nó đang giải thích.
Ví dụ: Một công cụ AI tóm tắt các bài viết dài. Điểm tóm tắt do AI tạo ra: Nghiên cứu ban đầu cho thấy khoảng cách thị trường đối với các sản phẩm bền vững. Nguồn trong Tài liệu: “...Phân tích quý 2 của chúng tôi về xu hướng thị trường đã chứng minh một cách thuyết phục rằng không có đối thủ cạnh tranh lớn nào phục vụ hiệu quả người tiêu dùng quan tâm đến môi trường, cho thấy khoảng cách thị trường đáng kể đối với các sản phẩm bền vững…”
Mẫu 4: Trực quan Đẩy và Kéo (để giải thích dựa trên giá trị) Đối với những quyết định phức tạp hơn, người dùng có thể cần hiểu sự tương tác giữa các yếu tố. Trực quan hóa dữ liệu đơn giản có thể làm rõ điều này mà không bị choáng ngợp.
Heuristic: Sử dụng trực quan hóa dữ liệu đơn giản, được mã hóa bằng màu sắc (như biểu đồ thanh) để hiển thị các yếu tố ảnh hưởng tích cực và tiêu cực đến quyết định.
Ví dụ: AI sàng lọc hồ sơ của ứng viên cho một công việc. Tại sao ứng viên này phù hợp 75%: Các yếu tố nâng điểm lên: Hơn 5 năm Kinh nghiệm nghiên cứu UX Thành thạo Python Các yếu tố đẩy điểm xuống: Không có kinh nghiệm với B2B SaaS
Việc học và sử dụng các mẫu thiết kế này trong UX của sản phẩm AI của bạn sẽ giúp tăng khả năng giải thích. Bạn cũng có thể sử dụng các kỹ thuật bổ sung mà tôi không đề cập sâu ở đây. Điều này bao gồm những điều sau đây:
Giải thích bằng ngôn ngữ tự nhiên: Dịch kết quả kỹ thuật của AI sang ngôn ngữ đàm thoại đơn giản của con người mà những người không phải là chuyên gia có thể dễ dàng hiểu được. Giải thích theo ngữ cảnh: Cung cấp cơ sở lý luận cho kết quả đầu ra của AI tại thời điểm và vị trí cụ thể, phù hợp nhất với nhiệm vụ của người dùng. Trực quan hóa có liên quan: Sử dụng biểu đồ, đồ thị hoặc bản đồ nhiệt để thể hiện trực quan quá trình ra quyết định của AI, giúp dữ liệu phức tạp trở nên trực quan và dễ nắm bắt hơn đối với người dùng.
Lưu ý dành cho giao diện người dùng: Việc chuyển các kết quả đầu ra có thể giải thích này thành trải nghiệm người dùng liền mạch cũng đưa ra những cân nhắc kỹ thuật riêng. Các nhà phát triển giao diện người dùng thường gặp khó khăn trong việc thiết kế API để truy xuất dữ liệu giải thích một cách hiệu quả và ý nghĩa về hiệu suất (như tạo giải thích theo thời gian thực cho mọi tương tác của người dùng) cần lập kế hoạch cẩn thận để tránh độ trễ. Một số ví dụ thực tế DeliveryDefense của UPS Capital UPS sử dụng AI để ấn định “điểm tin cậy giao hàng” cho các địa chỉ nhằm dự đoán khả năng gói hàng bị đánh cắp. Phần mềm DeliveryDefense của họ phân tích dữ liệu lịch sử về vị trí, tần suất mất mát và các yếu tố khác. Nếu một địa chỉ có điểm thấp, hệ thống có thể chủ động định tuyến lại gói hàng đến Điểm truy cập UPS an toàn, đưa ra lời giải thích cho quyết định đó (ví dụ: “Gói hàng được định tuyến lại đến một địa điểm an toàn do có lịch sử trộm cắp”). Hệ thống này chứng minh cách XAI có thể được sử dụng để giảm thiểu rủi ro và xây dựng niềm tin của khách hàng thông quasự minh bạch. Xe tự hành Những phương tiện này trong tương lai sẽ cần sử dụng XAI một cách hiệu quả để giúp phương tiện của họ đưa ra những quyết định an toàn và có thể giải thích được. Khi một chiếc ô tô tự lái phanh đột ngột, hệ thống có thể đưa ra lời giải thích theo thời gian thực cho hành động của nó, chẳng hạn như bằng cách xác định một người đi bộ đang bước xuống đường. Điều này không chỉ quan trọng đối với sự thoải mái và tin cậy của hành khách mà còn là yêu cầu pháp lý để chứng minh tính an toàn và trách nhiệm của hệ thống AI. IBM Watson Health (và những thách thức của nó) Mặc dù thường được trích dẫn như một ví dụ chung về AI trong chăm sóc sức khỏe, nhưng đây cũng là một trường hợp điển hình có giá trị về tầm quan trọng của XAI. Sự thất bại của dự án Watson for Oncology nêu bật những sai sót có thể xảy ra khi các giải thích không rõ ràng hoặc khi dữ liệu cơ bản bị sai lệch hoặc không được bản địa hóa. Các khuyến nghị của hệ thống đôi khi không phù hợp với thực tiễn lâm sàng tại địa phương vì chúng dựa trên các hướng dẫn lấy Hoa Kỳ làm trung tâm. Điều này đóng vai trò như một câu chuyện cảnh báo về sự cần thiết của khả năng giải thích rõ ràng, phù hợp với bối cảnh. Vai trò của Nhà nghiên cứu UX: Xác định và xác thực các giải thích Các giải pháp thiết kế của chúng tôi chỉ hiệu quả nếu chúng giải quyết đúng câu hỏi của người dùng vào đúng thời điểm. Lời giải thích trả lời câu hỏi mà người dùng không có chỉ là tiếng ồn. Đây là nơi nghiên cứu UX trở thành mô liên kết quan trọng trong chiến lược XAI, đảm bảo rằng chúng tôi giải thích điều gì và làm thế nào điều đó thực sự quan trọng đối với người dùng của chúng tôi. Vai trò của nhà nghiên cứu gồm có hai phần: thứ nhất, cung cấp thông tin cho chiến lược bằng cách xác định nơi cần giải thích và thứ hai, xác nhận các thiết kế đưa ra những lời giải thích đó. Thông báo chiến lược XAI (Giải thích điều gì) Trước khi có thể thiết kế một lời giải thích duy nhất, chúng ta phải hiểu mô hình tinh thần của người dùng về hệ thống AI. Họ tin nó đang làm gì? Đâu là khoảng cách giữa sự hiểu biết của họ và thực tế của hệ thống? Đây là công việc nền tảng của một nhà nghiên cứu UX. Phỏng vấn mô hình tinh thần: Giải mã nhận thức của người dùng về hệ thống AI Thông qua các cuộc phỏng vấn sâu, bán cấu trúc, những người thực hành UX có thể thu được những hiểu biết sâu sắc vô giá về cách người dùng nhận thức và hiểu các hệ thống AI. Các phiên này được thiết kế để khuyến khích người dùng vẽ hoặc mô tả “mô hình tinh thần” bên trong của họ về cách họ tin rằng AI hoạt động. Điều này thường liên quan đến việc đặt các câu hỏi mở nhằm nhắc nhở người dùng giải thích logic của hệ thống, đầu vào và đầu ra của nó, cũng như mối quan hệ giữa các yếu tố này. Những cuộc phỏng vấn này có tác dụng mạnh mẽ vì chúng thường tiết lộ những quan niệm sai lầm và giả định sâu sắc mà người dùng có về AI. Ví dụ: người dùng tương tác với công cụ đề xuất có thể tự tin khẳng định rằng hệ thống này hoàn toàn dựa trên lịch sử xem trước đây của họ. Họ có thể không nhận ra rằng thuật toán cũng kết hợp vô số yếu tố khác, chẳng hạn như thời gian họ duyệt trong ngày, các mục thịnh hành hiện tại trên nền tảng hoặc thậm chí cả thói quen xem của những người dùng tương tự. Việc khám phá khoảng cách giữa mô hình tinh thần của người dùng và logic AI cơ bản thực tế là cực kỳ quan trọng. Nó cho chúng tôi biết chính xác thông tin cụ thể nào chúng tôi cần truyền đạt tới người dùng để giúp họ xây dựng mô hình tinh thần chính xác và mạnh mẽ hơn của hệ thống. Ngược lại, đây là một bước cơ bản trong việc thúc đẩy niềm tin. Khi người dùng hiểu, ngay cả ở mức độ cao, cách AI đưa ra kết luận hoặc đề xuất, họ có nhiều khả năng tin tưởng vào kết quả đầu ra và chức năng của nó hơn. Lập bản đồ hành trình AI: Đi sâu vào niềm tin của người dùng và khả năng giải thích Bằng cách lập bản đồ tỉ mỉ hành trình của người dùng bằng tính năng được hỗ trợ bởi AI, chúng tôi có được thông tin chi tiết vô giá về những thời điểm chính xác khi xuất hiện sự bối rối, thất vọng hoặc thậm chí là mất lòng tin sâu sắc. Điều này phát hiện ra những thời điểm quan trọng trong đó mô hình tinh thần của người dùng về cách AI vận hành xung đột với hành vi thực tế của nó. Hãy xem xét một dịch vụ phát nhạc trực tuyến: Niềm tin của người dùng có giảm sút khi đề xuất danh sách phát mang lại cảm giác “ngẫu nhiên”, thiếu bất kỳ mối liên hệ rõ ràng nào với thói quen nghe trước đây hoặc sở thích đã nêu của họ không? Tính ngẫu nhiên được nhận thức này là một thách thức trực tiếp đối với kỳ vọng của người dùng về khả năng quản lý thông minh và vi phạm lời hứa ngầm rằng AI hiểu được sở thích của họ. Tương tự, trong một ứng dụng quản lý ảnh, người dùng có cảm thấy thất vọng đáng kể khi tính năng gắn thẻ ảnh AI liên tục xác định nhầm một thành viên thân yêu trong gia đình không? Lỗi này không chỉ là trục trặc kỹ thuật; nó tập trung vào tính chính xác, cá nhân hóa và thậm chíkết nối tình cảm. Những điểm yếu này là những tín hiệu sống động cho biết chính xác nơi nào cần có lời giải thích hợp lý, rõ ràng và ngắn gọn. Những lời giải thích như vậy đóng vai trò là cơ chế sửa chữa quan trọng, khắc phục sự vi phạm lòng tin mà nếu không được giải quyết có thể dẫn đến việc người dùng bỏ rơi. Sức mạnh của việc lập bản đồ hành trình AI nằm ở khả năng giúp chúng ta vượt ra ngoài việc chỉ giải thích đầu ra cuối cùng của hệ thống AI. Mặc dù hiểu được những gì AI tạo ra là quan trọng nhưng điều đó thường chưa đủ. Thay vào đó, quá trình này buộc chúng ta phải tập trung vào việc giải thích quá trình vào những thời điểm quan trọng. Điều này có nghĩa là địa chỉ:
Tại sao một đầu ra cụ thể được tạo ra: Có phải do dữ liệu đầu vào cụ thể không? Một kiến trúc mô hình cụ thể? Yếu tố nào ảnh hưởng đến quyết định của AI: Một số tính năng nhất định có được chú trọng nhiều hơn không? Làm thế nào AI đi đến kết luận: Chúng ta có thể đưa ra lời giải thích đơn giản, tương tự về hoạt động bên trong của nó không? AI đã đưa ra những giả định nào: Có sự hiểu biết tiềm ẩn nào về ý định hoặc dữ liệu của người dùng cần được hiển thị không? Hạn chế của AI là gì: Truyền đạt rõ ràng những gì AI không thể làm hoặc độ chính xác của nó có thể dao động ở đâu, tạo nên những kỳ vọng thực tế.
Lập bản đồ hành trình AI biến khái niệm trừu tượng về XAI thành một khuôn khổ thực tế, hữu ích cho những người thực hành UX. Nó cho phép chúng tôi vượt ra ngoài các cuộc thảo luận lý thuyết về khả năng giải thích và thay vào đó xác định chính xác những thời điểm mà niềm tin của người dùng đang bị đe dọa, cung cấp những hiểu biết cần thiết để xây dựng trải nghiệm AI mạnh mẽ, minh bạch, dễ hiểu và đáng tin cậy. Cuối cùng, nghiên cứu là cách chúng ta khám phá những điều chưa biết. Nhóm của bạn có thể đang tranh luận về cách giải thích lý do khoản vay bị từ chối, nhưng nghiên cứu có thể tiết lộ rằng người dùng quan tâm nhiều hơn đến việc hiểu cách dữ liệu của họ được sử dụng ngay từ đầu. Nếu không có nghiên cứu, chúng tôi chỉ đoán xem người dùng đang thắc mắc điều gì. Cộng tác trên thiết kế (Cách giải thích AI của bạn) Sau khi nghiên cứu đã xác định được điều gì cần giải thích, vòng lặp hợp tác với thiết kế sẽ bắt đầu. Các nhà thiết kế có thể tạo nguyên mẫu cho các mẫu mà chúng ta đã thảo luận trước đó—câu lệnh “Bởi vì”, thanh trượt tương tác—và các nhà nghiên cứu có thể đưa những thiết kế đó ra trước mặt người dùng để xem liệu chúng có phù hợp hay không. Kiểm tra mức độ hiểu biết và khả năng sử dụng có mục tiêu: Chúng tôi có thể thiết kế các nghiên cứu để kiểm tra cụ thể các thành phần XAI. Chúng tôi không chỉ hỏi “Cái này có dễ sử dụng không?” Chúng tôi hỏi, "Sau khi nhìn thấy điều này, bạn có thể nói cho tôi biết bằng lời của bạn tại sao hệ thống lại đề xuất sản phẩm này không?" hoặc “Hãy cho tôi biết bạn sẽ làm gì để xem liệu bạn có thể đạt được kết quả khác hay không”. Mục tiêu ở đây là đo lường mức độ hiểu và khả năng hành động, bên cạnh khả năng sử dụng. Đo lường niềm tin: Chúng ta có thể sử dụng các khảo sát đơn giản và thang đánh giá trước và sau khi đưa ra lời giải thích. Ví dụ: chúng tôi có thể hỏi người dùng theo thang điểm 5: "Bạn tin tưởng đề xuất này đến mức nào?" trước khi họ nhìn thấy câu “Bởi vì” và sau đó hãy hỏi lại họ. Điều này cung cấp dữ liệu định lượng về việc liệu những lời giải thích của chúng tôi có thực sự tác động đến niềm tin hay không. Quá trình này tạo ra một vòng lặp mạnh mẽ và lặp đi lặp lại. Kết quả nghiên cứu cung cấp thông tin cho thiết kế ban đầu. Sau đó, thiết kế đó sẽ được thử nghiệm và những phát hiện mới sẽ được phản hồi lại cho nhóm thiết kế để sàng lọc. Có thể câu nói “Bởi vì” quá biệt ngữ hoặc thanh trượt “Điều gì xảy ra nếu” gây nhầm lẫn hơn là trao quyền. Thông qua xác nhận hợp tác này, chúng tôi đảm bảo rằng những giải thích cuối cùng là chính xác về mặt kỹ thuật, thực sự dễ hiểu, hữu ích và tạo dựng niềm tin cho những người sử dụng sản phẩm. Vùng giải thích Goldilocks Một lời cảnh báo quan trọng: có thể giải thích quá mức. Như trong câu chuyện cổ tích, nơi Goldilocks tìm kiếm món cháo “vừa phải”, mục tiêu của một lời giải thích hợp lý là cung cấp lượng chi tiết vừa phải—không quá nhiều cũng không quá ít. Việc tấn công người dùng bằng mọi biến số trong mô hình sẽ dẫn đến tình trạng quá tải về nhận thức và thực sự có thể làm giảm lòng tin. Mục tiêu không phải là biến người dùng thành nhà khoa học dữ liệu. Một giải pháp là tiết lộ dần dần.
Bắt đầu với sự đơn giản. Dẫn đầu bằng câu nói “Bởi vì” ngắn gọn. Đối với hầu hết người dùng, điều này là đủ. Cung cấp một đường dẫn đến chi tiết. Cung cấp liên kết rõ ràng, ít ma sát như “Tìm hiểu thêm” hoặc “Xem cách xác định điều này”. Tiết lộ sự phức tạp. Đằng sau liên kết đó, bạn có thể cung cấp các thanh trượt tương tác, hình ảnh trực quan hoặc danh sách chi tiết hơn về các yếu tố góp phần.
Cách tiếp cận theo lớp này tôn trọng sự chú ý và kiến thức chuyên môn của người dùng, chỉ cung cấp lượng vừa đủthông tin cho nhu cầu của họ. Hãy tưởng tượng bạn đang sử dụng một thiết bị nhà thông minh đề xuất hệ thống sưởi tối ưu dựa trên nhiều yếu tố khác nhau. Bắt đầu với câu hỏi đơn giản: “Ngôi nhà của bạn hiện được sưởi ấm đến 72 độ, đây là nhiệt độ tối ưu để tiết kiệm năng lượng và thoải mái”. Cung cấp đường dẫn đến chi tiết: Bên dưới đó, một liên kết hoặc nút nhỏ: “Tại sao 72 độ là tối ưu?” Tiết lộ sự phức tạp: Nhấp vào liên kết đó có thể mở một màn hình mới hiển thị:
Các thanh trượt tương tác về nhiệt độ, độ ẩm bên ngoài và mức độ thoải mái ưa thích của bạn, minh họa cách điều chỉnh nhiệt độ được khuyến nghị. Một hình dung về mức tiêu thụ năng lượng ở các nhiệt độ khác nhau. Danh sách các yếu tố góp phần như “Thời gian trong ngày”, “Nhiệt độ hiện tại bên ngoài”, “Mức sử dụng năng lượng trước đây” và “Cảm biến sử dụng”.
Sẽ rất hiệu quả khi kết hợp nhiều phương pháp XAI và mẫu Giải thích Vùng Goldilocks này, vốn ủng hộ việc tiết lộ tiến bộ, ngầm khuyến khích điều này. Bạn có thể bắt đầu bằng một câu nói đơn giản “Bởi vì” (Mẫu 1) để hiểu ngay lập tức và sau đó đưa ra liên kết “Tìm hiểu thêm” tiết lộ tính tương tác “Điều gì-Nếu” (Mẫu 2) hoặc “Hình ảnh đẩy và kéo” (Mẫu 4) để khám phá sâu hơn. Ví dụ: ban đầu, hệ thống đăng ký khoản vay có thể nêu lý do chính từ chối (tầm quan trọng của tính năng), sau đó cho phép người dùng tương tác với công cụ “What-If” để xem những thay đổi đối với thu nhập hoặc khoản nợ của họ sẽ thay đổi kết quả như thế nào (phản thực tế) và cuối cùng, cung cấp biểu đồ “Đẩy và kéo” chi tiết (giải thích dựa trên giá trị) để minh họa những đóng góp tích cực và tiêu cực của tất cả các yếu tố. Cách tiếp cận theo lớp này cho phép người dùng truy cập vào mức độ chi tiết họ cần, khi họ cần, ngăn chặn tình trạng quá tải về nhận thức trong khi vẫn mang lại sự minh bạch toàn diện. Việc xác định sử dụng công cụ và phương pháp XAI nào chủ yếu là chức năng của nghiên cứu UX kỹ lưỡng. Phỏng vấn mô hình tư duy và lập bản đồ hành trình AI là rất quan trọng để xác định nhu cầu của người dùng và các điểm yếu liên quan đến sự hiểu biết và tin cậy của AI. Các cuộc phỏng vấn mô hình tư duy giúp khám phá những quan niệm sai lầm của người dùng về cách hoạt động của AI, chỉ ra các lĩnh vực cần giải thích cơ bản (như tầm quan trọng của tính năng hoặc giải thích cục bộ). Mặt khác, việc lập bản đồ hành trình AI sẽ xác định những thời điểm quan trọng gây nhầm lẫn hoặc mất lòng tin trong tương tác của người dùng với AI, báo hiệu những giải thích chi tiết hoặc mang tính tương tác hơn (như giải thích phản thực tế hoặc giải thích dựa trên giá trị) sẽ có lợi nhất để xây dựng lại niềm tin và cung cấp đại lý.
Cuối cùng, cách tốt nhất để chọn một kỹ thuật là để nghiên cứu của người dùng hướng dẫn các quyết định của bạn, đảm bảo rằng những giải thích bạn thiết kế trực tiếp giải quyết các câu hỏi và mối quan tâm thực tế của người dùng, thay vì chỉ cung cấp các chi tiết kỹ thuật vì lợi ích của riêng họ. XAI dành cho tác nhân lý luận sâu sắc Một số hệ thống AI mới nhất, được gọi là tác nhân suy luận sâu, tạo ra “chuỗi suy nghĩ” rõ ràng cho mọi nhiệm vụ phức tạp. Họ không chỉ trích dẫn nguồn; họ chỉ ra con đường hợp lý, từng bước mà họ đã đi để đi đến kết luận. Mặc dù tính minh bạch này cung cấp bối cảnh có giá trị, nhưng việc chơi từng đoạn kéo dài nhiều đoạn văn có thể khiến người dùng cảm thấy choáng ngợp khi chỉ cố gắng hoàn thành một nhiệm vụ. Các nguyên tắc của XAI, đặc biệt là Vùng giải thích Goldilocks, được áp dụng trực tiếp tại đây. Chúng ta có thể sắp xếp hành trình bằng cách sử dụng tiết lộ lũy tiến để chỉ hiển thị kết luận cuối cùng và bước quan trọng nhất trong quá trình suy nghĩ trước tiên. Sau đó, người dùng có thể chọn tham gia để xem lý do đầy đủ, chi tiết, nhiều bước khi họ cần kiểm tra lại tính logic hoặc tìm một sự thật cụ thể. Cách tiếp cận này tôn trọng sự chú ý của người dùng trong khi vẫn đảm bảo tính minh bạch hoàn toàn của tác nhân. Các bước tiếp theo: Trao quyền cho hành trình XAI của bạn Khả năng giải thích là trụ cột cơ bản để xây dựng các sản phẩm AI đáng tin cậy và hiệu quả. Đối với những người thực hành cấp cao muốn thúc đẩy sự thay đổi này trong tổ chức của họ, hành trình này không chỉ dừng lại ở các mẫu thiết kế mà còn đi vào vận động chính sách và học hỏi liên tục. Để hiểu sâu hơn và ứng dụng thực tế, hãy cân nhắc khám phá các tài nguyên như bộ công cụ AI Giải thích 360 (AIX360) từ IBM Research hoặc Công cụ What-If của Google, cung cấp các cách tương tác để khám phá hành vi và giải thích của mô hình. Tương tác với các cộng đồng như Diễn đàn AI có trách nhiệm hoặc các nhóm nghiên cứu cụ thể tập trung vào AI lấy con người làm trung tâm có thể mang lại những hiểu biết sâu sắc và cơ hội hợp tác vô giá. Cuối cùng, hãy là người ủng hộ XAI trong tổ chức của chính bạn.Định nghĩa khả năng giải thích như một khoản đầu tư chiến lược. Hãy cân nhắc một bài thuyết trình ngắn gọn dành cho lãnh đạo hoặc các nhóm đa chức năng của bạn: "Bằng cách đầu tư vào XAI, chúng tôi sẽ vượt xa việc xây dựng niềm tin; chúng tôi sẽ tăng tốc độ chấp nhận của người dùng, giảm chi phí hỗ trợ bằng cách trao quyền cho người dùng hiểu biết và giảm thiểu rủi ro đáng kể về đạo đức và quy định bằng cách bộc lộ những thành kiến tiềm ẩn. Đây là thiết kế tốt và hoạt động kinh doanh thông minh."
Tiếng nói của bạn, dựa trên sự hiểu biết thực tế, rất quan trọng trong việc đưa AI ra khỏi hộp đen và trở thành mối quan hệ hợp tác cộng tác với người dùng.