В моей последней статье мы установили основополагающую истину: чтобы пользователи могли принять ИИ и полагаться на него, они должны ему доверять. Мы говорили о доверии как о многогранной конструкции, построенной на представлениях о способностях, доброжелательности, честности и предсказуемости ИИ. Но что происходит, когда ИИ в своей молчаливой алгоритмической мудрости принимает решение, которое сбивает пользователя с толку, расстраивает или даже ранит его? Заявку на ипотеку отклоняют, любимая песня внезапно исчезает из плейлиста, а квалифицированное резюме отклоняется еще до того, как человек его увидит. В такие моменты способности и предсказуемость разрушаются, а доброжелательность ощущается как нечто далекое. Наш разговор сейчас должен перейти от того, почему доверять, к тому, как обеспечить прозрачность. Для решения этой проблемы возникла область объяснимого ИИ (XAI), которая фокусируется на разработке методов, позволяющих сделать результаты ИИ понятными для людей, но ее часто преподносят как чисто техническую задачу для специалистов по данным. Я утверждаю, что это важнейшая задача проектирования продуктов, основанных на искусственном интеллекте. Наша работа как профессионалов в области UX — преодолеть разрыв между алгоритмическим принятием решений и человеческим пониманием. В этой статье представлены практические и действенные рекомендации о том, как исследовать и разрабатывать объяснимость. Мы выйдем за рамки модных словечек и перейдем к макетам, преобразуя сложные концепции XAI в конкретные шаблоны проектирования, которые вы можете начать использовать уже сегодня. Демистифицируем XAI: основные концепции для UX-практиков XAI – это ответ на вопрос пользователя: «Почему?» Почему мне показали это объявление? Почему мне рекомендуют этот фильм? Почему мой запрос был отклонен? Думайте об этом как об ИИ, показывающем свою работу над математической задачей. Без этого у вас просто есть ответ, и вы вынуждены принять его на веру. Показывая шаги, вы создаете понимание и доверие. Вы также позволяете перепроверять и проверять вашу работу теми самыми людьми, на которых она влияет. Важность функции и контрфакты Существует ряд методов, которые мы можем использовать, чтобы прояснить или объяснить, что происходит с ИИ. Хотя методы варьируются от предоставления всей логики дерева решений до создания сводок результатов на естественном языке, два наиболее практичных и эффективных типа информации, которые специалисты по UX могут внедрить в свой опыт, — это важность функций (рис. 1) и контрфактические сведения. Зачастую они наиболее просты для понимания пользователей и наиболее практичны для реализации дизайнерами.

Важность функции Этот метод объяснения отвечает на вопрос: «Какие наиболее важные факторы учитывал ИИ?» Речь идет об определении 2–3 основных переменных, которые оказали наибольшее влияние на результат. Это заголовок, а не вся история. Пример: представьте себе ИИ, который предсказывает, уйдет ли клиент (откажется от услуги). Важность функции может указывать на то, что «количество обращений в службу поддержки за последний месяц» и «недавнее повышение цен» были двумя наиболее важными факторами, определяющими вероятность ухода клиента.

Контрфакты Этот мощный метод отвечает на вопрос: «Что мне нужно изменить, чтобы получить другой результат?» Это очень важно, поскольку дает пользователям ощущение свободы воли. Это превращает разочаровывающее «нет» в действенное «пока нет». Пример: представьте себе систему подачи заявок на получение кредита, использующую ИИ. Пользователю отказано в кредите. Вместо простого сообщения «Заявка отклонена» можно было бы предложить контрфактическое объяснение: «Если бы ваш кредитный рейтинг был на 50 пунктов выше или если бы соотношение вашего долга к доходу было на 10% ниже, ваш кредит был бы одобрен». Это дает Саре четкие и действенные шаги, которые она может предпринять, чтобы потенциально получить кредит в будущем.

Использование данных модели для улучшения объяснения Хотя техническими особенностями часто занимаются ученые, занимающиеся данными, специалистам по UX полезно знать, что такие инструменты, как LIME (локальные интерпретируемые модельно-агностические объяснения), которые объясняют отдельные прогнозы путем локальной аппроксимации модели, и SHAP (аддитивные объяснения SHapley), которые используют подход теории игр для объяснения результатов любой модели машинного обучения, обычно используются для извлечения этих «почему» идей из сложных моделей. Эти библиотеки, по сути, помогают проанализировать решения ИИ и показать, какие входные данные оказали наибольшее влияние на тот или иной результат. Если все сделано правильно, данные, лежащие в основе решения инструмента ИИ, могут быть использованы для того, чтобы рассказать убедительную историю. Давайте пройдемся по важности функций и контрфактам и покажем, как наука о данных, лежащая в основе решения, может быть использована для улучшения пользовательского опыта. Теперь давайтепокрыть важность функции с помощью данных местных пояснений (например, LIME): этот подход отвечает на вопрос: «Почему ИИ дал мне эту конкретную рекомендацию прямо сейчас?» Вместо общего объяснения того, как работает модель, она дает конкретное обоснование для одного конкретного случая. Это личное и контекстуальное. Пример: представьте себе систему музыкальных рекомендаций на базе искусственного интеллекта, такую ​​​​как Spotify. Местное объяснение ответило бы: «Почему система порекомендовала вам именно эту песню Адель именно сейчас?» Объяснение может быть таким: «Потому что недавно вы прослушали несколько других эмоциональных баллад и песен вокалисток».

Наконец, давайте рассмотрим включение объяснений на основе ценностей (например, данных аддитивных объяснений Шепли (SHAP) в объяснение решения: это более тонкая версия важности функции, которая отвечает на вопрос: «Как каждый фактор подтолкнул решение в ту или иную сторону?» Это помогает визуализировать, что имело значение, и было ли его влияние положительным или отрицательным. Пример: представьте, что банк использует модель искусственного интеллекта, чтобы решить, одобрить ли заявку на кредит.

Важность функции: результаты модели могут показать, что кредитный рейтинг заявителя, доход и соотношение долга к доходу были наиболее важными факторами при принятии решения. Это ответ на то, что имело значение. Важность функций с пояснениями на основе значений (SHAP). Значения SHAP будут дополнительно повышать важность функций на основе элементов модели.

Для одобренного кредита SHAP может показать, что высокий кредитный рейтинг значительно подталкивает решение к одобрению (положительное влияние), в то время как соотношение долга к доходу, немного превышающее средний уровень, немного отклоняет его (негативное влияние), но недостаточно, чтобы отказать в выдаче кредита. В случае отказа в кредите SHAP может обнаружить, что низкий доход и большое количество недавних кредитных запросов сильно подтолкнули к принятию решения об отказе, даже если кредитный рейтинг был приличным.

Это помогает кредитному специалисту объяснить заявителю, помимо того, что было рассмотрено, как каждый фактор повлиял на окончательное решение «да» или «нет». Крайне важно осознавать, что способность давать хорошие объяснения часто возникает гораздо раньше в цикле разработки. Специалисты по данным и инженеры играют ключевую роль, намеренно структурируя модели и конвейеры данных таким образом, чтобы они изначально поддерживали объяснимость, а не пытались использовать это как второстепенную мысль. Исследовательские и проектные группы могут способствовать этому, инициируя ранние беседы с учеными по данным и инженерами о потребностях пользователей в понимании, способствуя разработке показателей объяснимости и совместно создавая прототипы объяснений, чтобы гарантировать, что они точны и удобны для пользователя. XAI и этический ИИ: распаковка предвзятости и ответственности Помимо укрепления доверия, XAI играет решающую роль в устранении глубоких этических последствий ИИ*, особенно в отношении алгоритмической предвзятости. Методы объяснительности, такие как анализ значений SHAP, могут выявить, находятся ли на решениях модели непропорционально сильное влияние чувствительных атрибутов, таких как раса, пол или социально-экономический статус, даже если эти факторы явно не использовались в качестве прямых входных данных. Например, если модель одобрения кредита последовательно присваивает отрицательные значения SHAP заявителям из определенной демографической группы, это сигнализирует о потенциальной предвзятости, которая требует расследования, что дает командам возможность выявить и смягчить такие несправедливые результаты. Сила XAI также связана с возможностью «размывания объяснимости». Точно так же, как «зеленое промывание» вводит потребителей в заблуждение относительно экологических практик, замалчивание объяснимости может происходить, когда объяснения предназначены для того, чтобы скрыть, а не пролить свет на проблемное алгоритмическое поведение или присущие предубеждения. Это может проявляться в чрезмерно упрощенных объяснениях, которые упускают из виду критически важные факторы, или в объяснениях, которые стратегически представляют результаты так, чтобы они выглядели более нейтральными или справедливыми, чем они есть на самом деле. Это подчеркивает этическую ответственность UX-практиков за разработку по-настоящему прозрачных и проверяемых объяснений. UX-специалисты в сотрудничестве с учеными по данным и специалистами по этике несут важнейшую ответственность за объяснение причин решения, а также ограничений и потенциальных предубеждений базовой модели ИИ. Это включает в себя установление реалистичных ожиданий пользователей относительно точности ИИ, определение того, где модель может быть менее надежной, и предоставление четких каналов для обращения или обратной связи, когда пользователи считают несправедливые или неправильные результаты. Активное решение этих проблемэтические аспекты позволят нам создавать действительно справедливые и заслуживающие доверия системы ИИ. От методов к макетам: практические шаблоны проектирования XAI Знать концепции — это одно; их проектирование – это другое. Вот как мы можем перевести эти методы XAI в интуитивно понятные шаблоны проектирования. Шаблон 1: утверждение «потому что» (для важности функции) Это самый простой и зачастую самый эффективный шаблон. Это прямое заявление, изложенное простым языком, которое раскрывает основную причину действий ИИ.

Эвристика: будьте прямыми и краткими. Руководствуйтесь единственной наиболее влиятельной причиной. Избегайте жаргона любой ценой.

Пример: представьте себе сервис потоковой передачи музыки. Вместо того, чтобы просто представлять плейлист «Discover Weekly», вы добавляете небольшую строчку микрокопии. Рекомендация к песне: «Velvet Morning». Потому что вы слушаете «The Fuzz» и другой психоделический рок.

Схема 2: Интерактив «Что, если» (для контрфактических событий) Контрафакты по своей сути связаны с расширением прав и возможностей. Лучший способ представить их — предоставить пользователям интерактивные инструменты для самостоятельного изучения возможностей. Это идеально подходит для финансовых, медицинских или других целевых приложений.

Эвристика: сделайте объяснения интерактивными и расширяющими возможности. Позвольте пользователям увидеть причину и следствие своего выбора.

Пример: интерфейс заявки на кредит. После отказа, вместо тупика, пользователь получает инструмент, позволяющий определить, как могут развиваться различные сценарии («что, если») (см. рис. 1).

Схема 3: Ролик основных моментов (для местных пояснений) Когда ИИ выполняет действие над пользовательским контентом (например, суммирует документ или распознает лица на фотографиях), объяснение должно быть визуально связано с источником.

Эвристика: используйте визуальные подсказки, такие как выделение, контуры или аннотации, чтобы связать объяснение непосредственно с объясняемым элементом интерфейса.

Пример: инструмент искусственного интеллекта, обобщающий длинные статьи. Итоговый результат, созданный искусственным интеллектом: Первоначальные исследования показали дефицит рынка устойчивых продуктов. Источник в документе: «...Наш анализ рыночных тенденций во втором квартале убедительно продемонстрировал, что ни один крупный конкурент не эффективно обслуживает экологически сознательного потребителя, выявив значительный разрыв на рынке устойчивых продуктов...»

Шаблон 4: Визуализация «Тяни и толкай» (для объяснений, основанных на значениях) Для принятия более сложных решений пользователям может потребоваться понимание взаимодействия факторов. Простая визуализация данных может прояснить это, не перегружая ситуацию.

Эвристика: используйте простые визуализации данных с цветовой кодировкой (например, гистограммы), чтобы показать факторы, которые положительно и отрицательно повлияли на решение.

Пример: ИИ проверяет профиль кандидата на вакансию. Почему этот кандидат соответствует 75%: Факторы, повышающие балл: 5+ лет опыта UX-исследований. Знание Python. Факторы, снижающие балл: Отсутствие опыта работы с B2B SaaS.

Изучение и использование этих шаблонов проектирования в UX вашего ИИ-продукта поможет повысить объяснимость. Вы также можете использовать дополнительные методы, которые я здесь не рассматриваю подробно. Сюда входит следующее:

Объяснения на естественном языке: перевод технических результатов ИИ на простой разговорный человеческий язык, который легко поймут неспециалисты. Контекстуальные объяснения: предоставление обоснования вывода ИИ в конкретный момент и в определенном месте наиболее соответствует задаче пользователя. Соответствующие визуализации: использование диаграмм, графиков или тепловых карт для визуального представления процесса принятия решений ИИ, что делает сложные данные интуитивно понятными и простыми для понимания пользователями.

Примечание для внешнего интерфейса: преобразование этих объяснимых результатов в понятный пользовательский опыт также требует ряда технических соображений. Разработчики внешнего интерфейса часто сталкиваются с проблемами проектирования API, чтобы эффективно получать поясняющие данные, а последствия для производительности (например, генерация объяснений в реальном времени для каждого взаимодействия с пользователем) требуют тщательного планирования, чтобы избежать задержек. Некоторые примеры из реальной жизни UPS Capital’s DeliveryDefense UPS использует искусственный интеллект для присвоения адресам «оценки достоверности доставки» и прогнозирования вероятности кражи посылки. Их программное обеспечение DeliveryDefense анализирует исторические данные о местоположении, частоте потерь и других факторах. Если адрес имеет низкий балл, система может заранее перенаправить посылку в безопасную точку доступа UPS, предоставив объяснение решения (например, «Посылка перенаправлена ​​в безопасное место из-за истории кражи»). Эта система демонстрирует, как XAI можно использовать для снижения рисков и укрепления доверия клиентов посредствомпрозрачность. Автономные транспортные средства Эти автомобили будущего должны будут эффективно использовать XAI, чтобы помочь своим автомобилям принимать безопасные и объяснимые решения. Когда беспилотный автомобиль внезапно тормозит, система может предоставить объяснение своего действия в режиме реального времени, например, определив пешехода, вышедшего на дорогу. Это не только имеет решающее значение для комфорта и доверия пассажиров, но и является нормативным требованием, подтверждающим безопасность и подотчетность системы искусственного интеллекта. IBM Watson Health (и его проблемы) Хотя его часто называют общим примером использования ИИ в здравоохранении, он также является ценным примером важности XAI. Провал проекта Watson for Oncology показывает, что может пойти не так, если объяснения неясны или когда лежащие в основе данные необъективны или не локализованы. Рекомендации системы иногда не соответствовали местной клинической практике, поскольку они основывались на руководствах, ориентированных на США. Это служит предостережением о необходимости надежного, контекстно-зависимого объяснения. Роль UX-исследователя: определение и проверка объяснений Наши дизайнерские решения эффективны только в том случае, если они отвечают на правильные вопросы пользователей в нужное время. Объяснение, отвечающее на вопрос, которого нет у пользователя, — это просто шум. Именно здесь UX-исследования становятся важнейшей соединительной тканью в стратегии XAI, гарантируя, что мы объясним, что и как на самом деле важно для наших пользователей. Роль исследователя двоякая: во-первых, информировать стратегию, определяя, где необходимы объяснения, и, во-вторых, проверять проекты, которые обеспечивают эти объяснения. Информирование стратегии XAI (что объяснять) Прежде чем мы сможем разработать единое объяснение, мы должны понять ментальную модель системы ИИ, которую представляет пользователь. Что, по их мнению, он делает? Где разрывы между их пониманием и реальностью системы? Это фундаментальная работа UX-исследователя. Интервью с ментальными моделями: раскрытие представлений пользователей о системах искусственного интеллекта Посредством глубоких, полуструктурированных интервью специалисты по UX могут получить бесценную информацию о том, как пользователи воспринимают и понимают системы искусственного интеллекта. Эти занятия призваны побудить пользователей буквально нарисовать или описать свою внутреннюю «мысленную модель» того, как, по их мнению, работает ИИ. Это часто предполагает задание открытых вопросов, которые побуждают пользователей объяснить логику системы, ее входные и выходные данные, а также взаимосвязи между этими элементами. Эти интервью имеют большое значение, поскольку они часто раскрывают глубокие заблуждения и предположения пользователей об ИИ. Например, пользователь, взаимодействующий с механизмом рекомендаций, может с уверенностью утверждать, что система основана исключительно на его прошлой истории просмотров. Они могут не осознавать, что алгоритм также учитывает множество других факторов, таких как время суток, которые они просматривают, текущие тренды на платформе или даже привычки просмотра схожих пользователей. Крайне важно выявить этот разрыв между ментальной моделью пользователя и реальной логикой искусственного интеллекта. Он сообщает нам, какую именно информацию нам нужно сообщить пользователям, чтобы помочь им построить более точную и надежную мысленную модель системы. Это, в свою очередь, является фундаментальным шагом в укреплении доверия. Когда пользователи понимают, даже на высоком уровне, как ИИ приходит к своим выводам или рекомендациям, они с большей вероятностью будут доверять его выводам и полагаться на его функциональность. Картирование путешествий с помощью ИИ: глубокое погружение в доверие пользователей и объяснимость Тщательно отображая путь пользователя с помощью функции искусственного интеллекта, мы получаем бесценную информацию о тех именно моментах, когда возникает замешательство, разочарование или даже глубокое недоверие. Это выявляет критические моменты, когда мысленная модель пользователя о том, как работает ИИ, вступает в противоречие с его реальным поведением. Рассмотрим сервис потоковой передачи музыки: падает ли доверие пользователя, когда рекомендация плейлиста кажется «случайной», лишенной какой-либо заметной связи с его прошлыми привычками прослушивания или заявленными предпочтениями? Эта воспринимаемая случайность является прямым вызовом ожиданиям пользователя от интеллектуального курирования и нарушением неявного обещания, что ИИ понимает его вкус. Аналогичным образом, в приложении для управления фотографиями испытывают ли пользователи значительное разочарование, когда функция ИИ-тегов к фотографиям постоянно ошибочно идентифицирует дорогого члена семьи? Эта ошибка — нечто большее, чем просто технический сбой; он поражает точность, персонализацию и дажеэмоциональная связь. Эти болевые точки являются яркими сигналами, указывающими, где именно необходимо четкое, ясное и краткое объяснение. Подобные объяснения служат важнейшим механизмом исправления ситуации, устраняя нарушение доверия, которое, если оставить его без внимания, может привести к отказу пользователя. Сила картирования пути ИИ заключается в его способности вывести нас за рамки простого объяснения конечного результата системы ИИ. Понимание того, что производит ИИ, важно, но зачастую этого недостаточно. Вместо этого этот процесс заставляет нас сосредоточиться на объяснении процесса в критические моменты. Это означает обращение:

Почему был получен тот или иной результат: было ли это связано с конкретными входными данными? Конкретная модель архитектуры? Какие факторы повлияли на решение ИИ: были ли определенные функции более весомыми? Как ИИ пришел к такому выводу: можем ли мы предложить упрощенное, аналогичное объяснение его внутренней работы? Какие предположения сделал ИИ: существовало ли неявное понимание намерений пользователя или данных, которые необходимо раскрыть? Каковы ограничения ИИ. Четкое сообщение о том, что ИИ не может сделать или где его точность может поколебаться, формирует реалистичные ожидания.

Картирование путешествий ИИ превращает абстрактную концепцию XAI в практическую и действенную основу для практиков UX. Это позволяет нам выйти за рамки теоретических обсуждений объяснимости и вместо этого точно определить моменты, когда доверие пользователей находится под угрозой, предоставляя необходимую информацию для создания мощного, прозрачного, понятного и заслуживающего доверия опыта ИИ. В конечном счете, исследования – это то, как мы раскрываем неизвестное. Ваша команда может обсуждать, как объяснить, почему было отказано в кредите, но исследования могут показать, что пользователи гораздо больше озабочены пониманием того, как их данные использовались в первую очередь. Без исследований мы просто догадываемся, что интересует наших пользователей. Совместная работа над дизайном (как объяснить свой ИИ) Как только исследование определило, что именно нужно объяснить, начинается цикл сотрудничества с дизайном. Дизайнеры могут создавать прототипы шаблонов, которые мы обсуждали ранее — утверждение «Потому что», интерактивные ползунки — а исследователи могут представить эти проекты пользователям, чтобы проверить, выдержат ли они свою эффективность. Целевое тестирование удобства использования и понимания: мы можем разработать исследования, в которых конкретно проверяются компоненты XAI. Мы не просто спрашиваем: «Просто ли этим пользоваться?» Мы спрашиваем: «После этого, можете ли вы сказать мне своими словами, почему система рекомендовала этот продукт?» или «Покажите мне, что бы вы сделали, чтобы увидеть, сможете ли вы получить другой результат». Целью здесь является измерение понимания и практичности, а также удобства использования. Измерение самого доверия: мы можем использовать простые опросы и рейтинговые шкалы до и после объяснения. Например, мы можем спросить пользователя по 5-балльной шкале: «Насколько вы доверяете этой рекомендации?» прежде чем они увидят утверждение «Потому что», а затем спросите их снова. Это дает количественные данные о том, действительно ли наши объяснения влияют на доверие. Этот процесс создает мощный итеративный цикл. Результаты исследований легли в основу первоначального дизайна. Затем этот проект тестируется, и новые результаты передаются обратно команде разработчиков для доработки. Возможно, фраза «Потому что» была слишком жаргонной, или ползунок «Что, если» больше сбивал с толку, чем расширял возможности. Благодаря этой совместной проверке мы гарантируем, что окончательные объяснения будут технически точными, действительно понятными, полезными и вызывающими доверие у людей, использующих продукт. Зона объяснения Златовласки Важное предостережение: можно дать слишком много объяснений. Как и в сказке, где Златовласка искала «правильную» кашу, цель хорошего объяснения — предоставить нужное количество деталей — не слишком много и не слишком мало. Бомбардировка пользователя каждой переменной в модели приведет к когнитивной перегрузке и может фактически снизить доверие. Цель не в том, чтобы сделать пользователя специалистом по данным. Одним из решений является постепенное раскрытие информации.

Начните с простого. Начните с краткого утверждения «Потому что». Большинству пользователей этого будет достаточно. Предложите путь к деталям. Обеспечьте четкую и понятную ссылку, например «Подробнее» или «Посмотрите, как это было определено». Раскройте сложность. За этой ссылкой вы можете предложить интерактивные слайдеры, визуализации или более подробный список факторов, способствующих этому.

Этот многоуровневый подход учитывает внимание и опыт пользователя, обеспечивая необходимое количествоинформации для своих нужд. Давайте представим, что вы используете устройство «умный дом», которое рекомендует оптимальное отопление на основе различных факторов. Начните с простого: «Ваш дом в настоящее время нагрет до 72 градусов, что является оптимальной температурой для экономии энергии и комфорта». Предложите путь к деталям: Ниже небольшая ссылка или кнопка: «Почему 72 градуса оптимально?» Раскройте сложность: нажатие на эту ссылку может открыть новый экран, показывающий:

Интерактивные ползунки для наружной температуры, влажности и предпочитаемого вами уровня комфорта, демонстрирующие, как они регулируют рекомендуемую температуру. Визуализация энергопотребления при различных температурах. Список влияющих факторов, таких как «Время суток», «Текущая наружная температура», «Историческое использование энергии» и «Датчики присутствия».

Эффективно комбинировать несколько методов XAI, и этот шаблон «Зона объяснения Златовласки», который выступает за постепенное раскрытие информации, неявно поощряет это. Вы можете начать с простого утверждения «Потому что» (Шаблон 1) для немедленного понимания, а затем предложить ссылку «Узнать больше», которая открывает интерактивный «Что, если» (Шаблон 2) или «Визуальное изображение «Тяни и тяни»» (Шаблон 4) для более глубокого изучения. Например, система подачи заявки на кредит может сначала указать основную причину отказа (важность функции), затем позволить пользователю взаимодействовать с инструментом «Что, если», чтобы увидеть, как изменения в его доходе или долге повлияют на результат (контрфактические данные), и, наконец, предоставить подробную диаграмму «Тяни и тяни» (объяснение на основе стоимости), чтобы иллюстрировать положительный и отрицательный вклад всех факторов. Такой многоуровневый подход позволяет пользователям получать доступ к нужному им уровню детализации, когда им это необходимо, предотвращая когнитивную перегрузку и сохраняя при этом полную прозрачность. Определение того, какие инструменты и методы XAI использовать, в первую очередь зависит от тщательного исследования UX. Интервью с ментальными моделями и составление карт пути ИИ имеют решающее значение для выявления потребностей пользователей и болевых точек, связанных с пониманием и доверием к ИИ. Интервью с ментальными моделями помогают выявить неправильные представления пользователей о том, как работает ИИ, указывая области, где необходимы фундаментальные объяснения (например, важность функций или локальные объяснения). С другой стороны, картирование пути ИИ выявляет критические моменты замешательства или недоверия во взаимодействии пользователя с ИИ, сигнализируя, где более подробные или интерактивные объяснения (например, контрфактические или основанные на ценностях объяснения) будут наиболее полезны для восстановления доверия и обеспечения свободы действий.

В конечном счете, лучший способ выбрать метод — позволить исследованиям пользователей определять ваши решения, гарантируя, что объяснения, которые вы разрабатываете, напрямую касаются реальных вопросов и проблем пользователей, а не просто предлагают технические детали ради них самих. XAI для агентов глубокого мышления Некоторые из новейших систем искусственного интеллекта, известные как агенты глубокого мышления, создают явную «цепочку мыслей» для каждой сложной задачи. Они не просто цитируют источники; они показывают логический, шаг за шагом путь, который они прошли, чтобы прийти к выводу. Хотя эта прозрачность обеспечивает ценный контекст, пошаговое описание, охватывающее несколько абзацев, может показаться утомительным для пользователя, просто пытающегося выполнить задачу. Принципы XAI, особенно зона объяснения Златовласки, применимы и здесь. Мы можем курировать этот путь, используя постепенное раскрытие информации, чтобы сначала показать только окончательный вывод и наиболее важный шаг в мыслительном процессе. Затем пользователи могут подписаться на просмотр полных, подробных, многоэтапных рассуждений, когда им нужно перепроверить логику или найти конкретный факт. Этот подход учитывает внимание пользователя, сохраняя при этом полную прозрачность агента. Следующие шаги: расширение возможностей вашего путешествия по XAI Объясняемость — это фундаментальная основа создания надежных и эффективных продуктов искусственного интеллекта. Для опытного специалиста, стремящегося осуществить эти изменения в своей организации, путь выходит за рамки шаблонов проектирования и переходит к пропаганде и непрерывному обучению. Чтобы углубить понимание и практическое применение, рассмотрите возможность изучения таких ресурсов, как набор инструментов AI Объяснение 360 (AIX360) от IBM Research или инструмент What-If от Google, которые предлагают интерактивные способы изучения поведения модели и объяснений. Взаимодействие с такими сообществами, как Форум по ответственному ИИ или конкретными исследовательскими группами, занимающимися ИИ, ориентированным на человека, может предоставить бесценную информацию и возможности для сотрудничества. Наконец, будьте сторонником XAI в своей организации.Представьте объяснимость как стратегическую инвестицию. Рассмотрите краткую презентацию для вашего руководства или межфункциональных команд: "Инвестируя в XAI, мы выйдем за рамки укрепления доверия; мы ускорим принятие пользователями, сократим затраты на поддержку, предоставив пользователям понимание, и смягчим значительные этические и нормативные риски, выявив потенциальные предубеждения. Это хороший дизайн и разумный бизнес".

Ваш голос, основанный на практическом понимании, имеет решающее значение для вывода ИИ из «черного ящика» и налаживания сотрудничества с пользователями.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free