Agentic AI готов изменить качество обслуживания клиентов и повысить операционную эффективность, что требует нового стратегического подхода со стороны руководства. Эта эволюция искусственного интеллекта позволяет системам планировать, выполнять и упорно выполнять задачи, переходя от простых рекомендаций к упреждающим действиям. Для UX-команд, менеджеров по продуктам и руководителей понимание этого изменения имеет решающее значение для раскрытия возможностей в области инноваций, оптимизации рабочих процессов и переосмысления того, как технологии служат людям. Легко спутать агентный ИИ с роботизированной автоматизацией процессов (RPA), которая представляет собой технологию, которая фокусируется на задачах, основанных на правилах, выполняемых на компьютерах. Различие заключается в жесткости и рассуждениях. RPA отлично выполняет строгий сценарий: если происходит X, делайте Y. Он имитирует человеческие руки. Агентический ИИ имитирует человеческое мышление. Он не следует линейному сценарию; он создает его. Рассмотрим процесс подбора персонала. RPA-бот может сканировать резюме и загружать его в базу данных. Он отлично справляется с повторяющимися задачами. Агентская система просматривает резюме, замечает, что кандидат перечисляет конкретную сертификацию, сопоставляет ее с требованиями нового клиента и решает составить персонализированное информационное письмо, подчеркивающее это соответствие. RPA выполняет заранее определенный план; Агентический ИИ формулирует план, основанный на цели. Эта автономия отделяет агентов от инструментов прогнозирования, которые мы использовали в течение последнего десятилетия. Другой пример — управление конфликтами на собраниях. Прогнозная модель, интегрированная в ваш календарь, может анализировать расписание ваших встреч и графики ваших коллег. Тогда это может указывать на потенциальные конфликты, например, две важные встречи, запланированные на одно и то же время, или встреча, запланированная на время, когда ключевой участник находится в отпуске. Он предоставляет вам информацию и отмечает потенциальные проблемы, но вы несете ответственность за принятие мер. В том же сценарии агентный ИИ выйдет за рамки простого предложения конфликтов, которых следует избегать. При выявлении конфликта с ключевым участником агент может действовать следующим образом:

Проверка наличия всех необходимых участников. Определение альтернативных временных интервалов, которые подходят всем. Рассылка приглашений на новые встречи всем участникам. Если конфликт возник с внешним участником, агент может составить и отправить электронное письмо с объяснением необходимости переноса встречи и предложением альтернативного времени. Обновление вашего календаря и календарей ваших коллег новыми сведениями о встрече после подтверждения.

Этот агентный ИИ понимает цель (разрешение конфликта собрания), планирует шаги (проверка доступности, поиск альтернатив, отправка приглашений), выполняет эти шаги и действует до тех пор, пока конфликт не будет разрешен, и все это с минимальным прямым вмешательством пользователя. Это демонстрирует «агентское» отличие: система предпринимает упреждающие действия для пользователя, а не просто предоставляет пользователю информацию. Агентные системы искусственного интеллекта понимают цель, планируют ряд шагов для ее достижения, выполняют эти шаги и даже адаптируются, если что-то пойдет не так. Думайте об этом как об активном цифровом помощнике. Базовая технология часто сочетает в себе большие языковые модели (LLM) для понимания и рассуждения с алгоритмами планирования, которые разбивают сложные задачи на управляемые действия. Эти агенты могут взаимодействовать с различными инструментами, API и даже другими моделями ИИ для достижения своих целей, и, что особенно важно, они могут поддерживать постоянное состояние, то есть запоминают предыдущие действия и продолжают работать над достижением цели с течением времени. Это принципиально отличает их от типичного генеративного ИИ, который обычно выполняет один запрос, а затем сбрасывается. Простая таксономия агентского поведения Мы можем разделить поведение агентов на четыре различных режима автономии. Хотя они часто выглядят как прогрессия, они функционируют как независимые режимы работы. Пользователь может доверить агенту действовать автономно при планировании, но оставить его в «режиме предложения» для финансовых транзакций. Мы получили эти уровни путем адаптации отраслевых стандартов для автономных транспортных средств (уровни SAE) к контексту цифрового пользовательского опыта. Наблюдайте и предлагайте Агент выполняет функцию монитора. Он анализирует потоки данных и отмечает аномалии или возможности, но не предпринимает никаких действий. Дифференциация. В отличие от следующего уровня, агент не создает сложный план. Это указывает на проблему. Пример. Агент DevOps замечает всплеск загрузки ЦП сервера и предупреждает дежурного инженера. Он не знает, как это исправить, и не пытается это исправить, но знает, что что-то не так. Последствия для проектирования и надзора На этом уровнеПри проектировании и надзоре следует отдавать приоритет четким, ненавязчивым уведомлениям и четко определенному процессу реагирования пользователей на предложения. Основное внимание уделяется предоставлению пользователю своевременной и актуальной информации без принятия на себя контроля. Специалисты по UX должны сосредоточиться на том, чтобы сделать предложения ясными и простыми для понимания, в то время как менеджеры по продуктам должны убедиться, что система приносит пользу, не перегружая пользователя. Планируй и предлагай Агент определяет цель и генерирует многоэтапную стратегию для ее достижения. В нем представлен полный план на рассмотрение человека. ДифференциацияАгент действует как стратег. Он не выполняется; он ожидает одобрения всего подхода. Пример: Тот же агент DevOps замечает скачок нагрузки на ЦП, анализирует журналы и предлагает план исправления:

Раскрутите два дополнительных экземпляра. Перезапустите балансировщик нагрузки. Архивируйте старые журналы.

Человек просматривает логику и нажимает «Утвердить план». Последствия для проектирования и надзора. Для агентов, которые планируют и предлагают, дизайн должен гарантировать, что предлагаемые планы легко понятны и что у пользователей есть интуитивные способы изменить или отклонить их. Надзор имеет решающее значение для мониторинга качества предложений и логики планирования агента. Специалисты по UX должны разработать четкую визуализацию предлагаемых планов, а менеджеры по продуктам должны установить четкие рабочие процессы проверки и утверждения. Акт с подтверждением Агент завершает всю подготовительную работу и переводит финальное действие в постановочное состояние. Он эффективно удерживает дверь открытой, ожидая кивка. Дифференциация. Это отличается от «Планирования и предложения», поскольку работа уже сделана и поставлена. Это уменьшает трение. Пользователь подтверждает результат, а не стратегию. Пример. Агент по подбору персонала составляет пять приглашений на собеседование, находит свободное время в календарях и создает календарные мероприятия. Он представляет собой кнопку «Отправить все». Пользователь предоставляет окончательную авторизацию для запуска внешнего действия. Последствия для проектирования и надзора. Когда агенты действуют с подтверждением, дизайн должен обеспечивать прозрачное и краткое изложение предполагаемого действия, четко описывая потенциальные последствия. Надзору необходимо убедиться, что процесс подтверждения является надежным и что пользователей не просят слепо одобрять действия. Специалисты по UX должны разрабатывать понятные подсказки для подтверждения и предоставлять всю необходимую информацию, а менеджеры по продуктам должны уделять приоритетное внимание надежному контрольному журналу для всех подтвержденных действий. Действуйте автономно Агент выполняет задачи независимо в определенных границах. Дифференциация: пользователь просматривает историю действий, а не сами действия. Пример. Агент по подбору персонала видит конфликт, перемещает собеседование в резервный слот, сообщает кандидату и уведомляет об этом менеджера по найму. Человек видит только уведомление: Интервью перенесено на вторник. Последствия для проектирования и надзора. Для автономных агентов при проектировании необходимо установить четкие заранее утвержденные границы и предоставить надежные инструменты мониторинга. Надзор требует постоянной оценки производительности агента в этих границах, острой необходимости в надежном журналировании, четких механизмах обхода и определяемых пользователем аварийных переключателях для поддержания контроля и доверия пользователей. Специалисты по UX должны сосредоточиться на разработке эффективных информационных панелей для мониторинга поведения автономных агентов, а менеджеры по продуктам должны обеспечить наличие четкого управления и этических принципов.

Давайте посмотрим на реальное применение HR-технологий, чтобы увидеть эти режимы в действии. Рассмотрим «агента по координации собеседований», предназначенного для управления логистикой найма.

В режиме предложенияАгент замечает, что интервьюер забронирован дважды. В нем подчеркивается конфликт на панели рекрутера: «Внимание: Сару дважды записали на собеседование в 14:00». В режиме планирования агент анализирует календарь Сары и доступность кандидата. Там представлено решение: "Я рекомендую перенести собеседование на четверг в 10 утра. Для этого необходимо перенести встречу Сары 1:1 с ее менеджером". Рекрутер анализирует эту логику. В режиме подтверждения агент готовит электронные письма кандидату и менеджеру. Он заполняет приглашения в календаре. Рекрутер видит сводку: "Готовы перенести на четверг. Присылать обновления?" Рекрутер нажимает «Подтвердить». В автономном режиме агент мгновенно разрешает конфликт. Он соблюдает заранее установленное правило: «Всегда отдавайте приоритет собеседованиям с кандидатами, а не внутренним собеседованиям один на один». Он перемещает собрание и отправляет уведомления. Рекрутер видит запись в журнале: «Решено».запланируйте конфликт для кандидата Б».

Учебник по исследованиям: что и как исследовать Разработка эффективного агентного ИИ требует особого исследовательского подхода по сравнению с традиционным программным обеспечением или даже генеративным ИИ. Автономная природа агентов ИИ, их способность принимать решения и их потенциал к упреждающим действиям требуют специальных методологий для понимания ожиданий пользователей, картирования сложного поведения агентов и прогнозирования потенциальных сбоев. В следующем учебном пособии описаны ключевые методы измерения и оценки этих уникальных аспектов агентного ИИ. Ментально-модельные интервью Эти интервью раскрывают предвзятые представления пользователей о том, как должен вести себя ИИ-агент. Вместо того, чтобы просто спрашивать, чего хотят пользователи, основное внимание уделяется пониманию их внутренних моделей возможностей и ограничений агента. Нам следует избегать использования слова «агент» по отношению к участникам. Он несет в себе научно-фантастический багаж, или этот термин слишком легко спутать с человеческим агентом, предлагающим поддержку или услуги. Вместо этого организуйте дискуссию вокруг «помощников» или «системы». Нам необходимо выяснить, где пользователи проводят грань между полезной автоматизацией и навязчивым контролем.

Метод: попросите пользователей описать, нарисовать или рассказать об их ожидаемом взаимодействии с агентом в различных гипотетических сценариях. Ключевые зонды (отражающие различные отрасли): Чтобы понять границы желаемой автоматизации и потенциальные опасения по поводу чрезмерной автоматизации, спросите: Если ваш рейс отменен, что бы вы хотели, чтобы система делала автоматически? Что бы вас беспокоило, если бы он сделал это без вашего явного указания?

Чтобы изучить понимание пользователем внутренних процессов агента и необходимой коммуникации, спросите: Представьте, что вашим умным домом управляет цифровой помощник. Если посылка доставлена, какие шаги, по вашему мнению, она предпримет и какую информацию вы ожидаете получить?

Чтобы раскрыть ожидания относительно контроля и согласия в рамках многоэтапного процесса, спросите: Если вы попросите своего цифрового помощника запланировать встречу, какие шаги, по вашему мнению, он предпримет? В каких моментах вы хотели бы, чтобы с вами проконсультировались или предоставили выбор?

Преимущества метода: выявляет неявные предположения, выделяет области, в которых запланированное поведение агента может отличаться от ожиданий пользователя, и дает информацию для разработки соответствующих механизмов контроля и обратной связи.

Составление карты путешествия агента: Подобно традиционному картированию пути пользователя, картирование пути агента конкретно фокусируется на ожидаемых действиях и точках принятия решений самого агента ИИ, а также на взаимодействии пользователя. Это помогает заранее выявить возможные подводные камни.

Метод: Создайте визуальную карту, описывающую различные этапы работы агента, от начала до завершения, включая все потенциальные действия, решения и взаимодействия с внешними системами или пользователями. Ключевые элементы для карты: Действия агента: какие конкретные задачи или решения выполняет агент? Информационные входы/выходы: какие данные нужны агенту и какую информацию он генерирует или передает? Точки принятия решения: где агент делает выбор и каковы критерии этого выбора? Точки взаимодействия с пользователем: где пользователь вводит данные, проверяет или одобряет действия? Точки сбоя. Очень важно определить конкретные случаи, когда агент может неправильно истолковать инструкции, принять неправильное решение или взаимодействовать с неправильным объектом. Примеры: неверный получатель (например, отправка конфиденциальной информации не тому человеку), овердрафт (например, автоматический платеж, превышающий доступные средства), неправильное толкование намерений (например, бронирование рейса на неправильную дату из-за двусмысленных формулировок).

Пути восстановления: как агент или пользователь могут восстановиться после этих сбоев? Какие механизмы существуют для коррекции или вмешательства?

Преимущества метода: обеспечивает целостное представление о рабочем процессе агента, выявляет скрытые зависимости и позволяет активно разрабатывать меры защиты, обработку ошибок и точки вмешательства пользователя для предотвращения или смягчения негативных последствий.

Тестирование на имитацию неправильного поведения: Этот подход предназначен для стресс-тестирования системы и наблюдения за реакцией пользователя, когда агент ИИ дает сбой или отклоняется от ожиданий. Речь идет о понимании восстановления доверия и эмоциональных реакций в неблагоприятных ситуациях.

Метод: В контролируемых лабораторных исследованиях намеренно представляйте сценарии, в которых агент совершает ошибку, неправильно интерпретирует команду или ведет себя неожиданно. Типы «неправильного поведения», которое следует имитировать: КомандаНеверное толкование: агент выполняет действие, немного отличающееся от того, что намеревался пользователь (например, заказывает два товара вместо одного). Информационная перегрузка/недогрузка: агент предоставляет слишком много нерелевантной информации или недостаточно важных сведений. Нежелательное действие: агент предпринимает действие, которого пользователь явно не хотел или не ожидал (например, покупка акций без одобрения). Системный сбой: агент выходит из строя, перестает отвечать на запросы или выдает сообщение об ошибке. Этические дилеммы: агент принимает решение с этическими последствиями (например, определение приоритета одной задачи над другой на основе непредвиденных показателей).

Фокус наблюдения: Реакции пользователей: как пользователи реагируют эмоционально (разочарование, гнев, замешательство, потеря доверия)? Попытки восстановления. Какие действия предпринимают пользователи, чтобы исправить поведение агента или отменить его действия? Механизмы восстановления доверия. Помогают ли встроенные в систему механизмы восстановления или обратной связи восстановить доверие? Как пользователи хотят получать информацию об ошибках? Сдвиг ментальной модели: изменяет ли неправильное поведение понимание пользователем возможностей или ограничений агента?

Преимущества метода: Крайне важен для выявления пробелов в проекте, связанных с устранением ошибок, обратной связью и контролем пользователя. Он дает представление о том, насколько устойчивы пользователи к сбоям агентов и что необходимо для поддержания или восстановления доверия, что приводит к созданию более надежных и прощающих агентских систем.

Интегрируя эти исследовательские методологии, специалисты по UX могут выйти за рамки простого создания удобных для использования агентских систем и сделать их надежными, управляемыми и подотчетными, способствуя позитивным и продуктивным отношениям между пользователями и их агентами ИИ. Обратите внимание, что это не единственные методы, необходимые для эффективного изучения агентного ИИ. Существует множество других методов, но они станут наиболее доступными для практиков в ближайшем будущем. Ранее я рассказывал о методе «Волшебник страны Оз», несколько более продвинутом методе тестирования концепций, который также является ценным инструментом для изучения концепций агентного ИИ. Этические соображения в методологии исследования При исследовании агентного ИИ, особенно при моделировании неправомерного поведения или ошибок, важно учитывать этические соображения. Существует множество публикаций, посвященных этическим исследованиям UX, включая статью, которую я написал для Smashing Magazine, эти рекомендации Института UX-дизайна и эту страницу из Inclusive Design Toolkit. Ключевые показатели агентного ИИ Вам понадобится полный набор ключевых показателей для эффективной оценки производительности и надежности агентных систем ИИ. Эти метрики дают представление о доверии пользователей, точности системы и общем пользовательском опыте. Отслеживая эти показатели, разработчики и дизайнеры могут определить области для улучшения и обеспечить безопасную и эффективную работу агентов ИИ. 1. Частота вмешательства. Для автономных агентов мы измеряем успех молчанием. Если агент выполняет задачу, а пользователь не вмешивается и не отменяет действие в течение установленного периода (например, 24 часов), мы считаем это принятием. Мы отслеживаем уровень вмешательства: как часто человек вмешивается, чтобы остановить или исправить агента? Высокий уровень вмешательства сигнализирует о несоответствии доверия или логики. 2. Частота непреднамеренных действий на 1000 задач. Этот критический показатель количественно определяет количество действий, выполненных агентом ИИ, которые не были желательны или ожидаемы пользователем, нормализованное на 1000 выполненных задач. Низкая частота непреднамеренных действий означает хорошо отлаженный ИИ, который точно интерпретирует намерения пользователя и действует в определенных границах. Этот показатель тесно связан с пониманием ИИ контекста, его способностью устранять неоднозначность команд и надежностью его протоколов безопасности. 3. Частота отката или отмены. Этот показатель отслеживает, как часто пользователям необходимо отменить или отменить действие, выполненное ИИ. Высокие показатели отката говорят о том, что ИИ часто допускает ошибки, неправильно интерпретирует инструкции или действует не так, как ожидает пользователь. Анализ причин этих откатов может предоставить ценную информацию для улучшения алгоритмов ИИ, понимания предпочтений пользователей и его способности прогнозировать желаемые результаты. Чтобы понять причину, необходимо провести микрообследование действий по отмене. Например, когда пользователь отменяет изменение расписания, простой запрос может спросить: "Неправильное время? Не тот человек? Или вы просто хотели сделать это сами?" Разрешение пользователю выбрать вариант, который лучше всего соответствует его рассуждениям. 4. Время разрешения проблемы после ошибки. Этот показательизмеряет время, необходимое пользователю для исправления ошибки, допущенной ИИ, или для восстановления самой системы ИИ из ошибочного состояния. Короткое время устранения ошибки указывает на эффективный и удобный процесс восстановления ошибок, который может уменьшить разочарование пользователей и сохранить производительность. Это включает в себя простоту выявления ошибки, доступность механизмов отмены или исправления, а также четкость сообщений об ошибках, предоставляемых ИИ.

Для сбора этих показателей необходимо настроить вашу систему для отслеживания идентификаторов действий агента. Каждое отдельное действие, предпринимаемое агентом, например предложение расписания или бронирование рейса, должно генерировать уникальный идентификатор, который сохраняется в журналах. Чтобы измерить уровень вмешательства, мы не ожидаем немедленной реакции пользователя. Мы ищем отсутствие противодействия в пределах определенного окна. Если идентификатор действия создается в 9:00 утра и ни один пользователь-человек не изменяет и не отменяет этот конкретный идентификатор к 9:00 следующего дня, система логически помечает его как «Принято». Это позволяет нам количественно оценивать успех на основе молчания пользователя, а не активного подтверждения. Для показателей отката необработанных подсчетов недостаточно, поскольку им не хватает контекста. Чтобы выявить основную причину, вы должны реализовать логику перехвата в функциях отмены или возврата вашего приложения. Когда пользователь отменяет действие, инициированное агентом, запускает упрощенный микроопрос. Это может быть простое модальное окно с тремя опциями, предлагающее пользователю классифицировать ошибку как фактически неверную, лишенную контекста или простое предпочтение выполнить задачу вручную. Это сочетает в себе количественную телеметрию с качественным пониманием. Это позволяет инженерным группам отличать сломанный алгоритм от несоответствия предпочтений пользователя. Эти показатели при последовательном отслеживании и комплексном анализе обеспечивают надежную основу для оценки производительности агентных систем искусственного интеллекта, позволяя постоянно совершенствовать контроль, согласие и подотчетность. Проектирование против обмана По мере того, как агенты становятся все более способными, мы сталкиваемся с новым риском: агентной грязью. Традиционная грязь создает трения, из-за которых сложно отменить подписку или удалить учетную запись. Агентный ил действует наоборот. Это устраняет препятствия к ошибке, позволяя пользователю слишком легко согласиться на действие, которое принесет пользу бизнесу, а не его собственным интересам. Рассмотрим агента, помогающего с бронированием поездок. Без четких ограничений система может отдать приоритет авиакомпании-партнеру или более прибыльному отелю. Он представляет этот выбор как оптимальный путь. Пользователь, доверяя авторитету системы, принимает рекомендацию без проверки. Это создает обманчивую модель, когда система оптимизирует доходы под видом удобства. Риск ложно воображаемой компетентности Обман не может быть вызван злым умыслом. В ИИ это часто проявляется как воображаемая компетентность. Большие языковые модели часто звучат авторитетно, даже если они неверны. Они предоставляют ложное подтверждение бронирования или неточную сводку с той же уверенностью, что и проверенный факт. Пользователи, естественно, могут доверять этому уверенному тону. Это несоответствие создает опасный разрыв между возможностями системы и ожиданиями пользователей. Мы должны разрабатывать специальные проекты, направленные на преодоление этого разрыва. Если агенту не удается выполнить задачу, интерфейс должен четко сигнализировать об этой неудаче. Если система неуверенна, она должна выражать неуверенность, а не маскировать ее отточенной прозой. Прозрачность через примитивы Противоядием от грязи и галлюцинаций является происхождение. Для каждого автономного действия требуется определенный тег метаданных, объясняющий происхождение решения. Пользователям нужна возможность проверять логическую цепочку, лежащую в основе результата. Чтобы достичь этого, мы должны перевести примитивы в практические ответы. В разработке программного обеспечения примитивы относятся к основным единицам информации или действиям, которые выполняет агент. Для инженера это выглядит как вызов API или логический элемент. Для пользователя это должно выглядеть как четкое объяснение. Задача проектирования заключается в том, чтобы сопоставить эти технические шаги с понятным для человека обоснованием. Если агент рекомендует конкретный рейс, пользователю необходимо знать, почему. Интерфейс не может скрыться за общим предложением. Он должен предоставить базовый примитив: Logic: Cheapest_Direct_Flight или Logic: Partner_Airline_Priority. Рисунок 4 иллюстрирует этот процесс перевода. Мы берем необработанный системный примитив — реальную логику кода — и сопоставляем его со строкой, доступной пользователю. Например, простая проверка календаря и графика встречи становится четким заявлением: я предложил встречу в 16:00.встреча. Такой уровень прозрачности гарантирует, что действия агента будут выглядеть логичными и полезными. Это позволяет пользователю убедиться, что агент действовал в его интересах. Обнажая примитивы, мы превращаем черный ящик в стеклянный ящик, гарантируя, что пользователи останутся последней инстанцией в своей цифровой жизни.

Подготовка почвы для дизайна Построение агентной системы требует нового уровня психологического и поведенческого понимания. Это заставляет нас выйти за рамки традиционного юзабилити-тестирования и перейти в сферу доверия, согласия и ответственности. Методы исследования, которые мы обсуждали, от проверки ментальных моделей до моделирования неправильного поведения и установления новых показателей, обеспечивают необходимую основу. Эти методы являются важными инструментами для упреждающего определения того, где автономная система может дать сбой, и, что более важно, как восстановить отношения пользователь-агент, когда это произойдет. Переход к агентному ИИ — это переопределение отношений между пользователем и системой. Мы больше не разрабатываем инструменты, которые просто реагируют на команды; мы разрабатываем для партнеров, которые действуют от нашего имени. Это меняет императив проектирования с эффективности и простоты использования на прозрачность, предсказуемость и контроль. Когда ИИ может забронировать рейс или торговать акциями без последнего щелчка, дизайн его «въездов» и «съездов» становится первостепенным. Мы несем ответственность за то, чтобы пользователи чувствовали себя на месте водителя, даже когда они передают руль. Эта новая реальность также повышает роль исследователя UX. Мы становимся хранителями доверия пользователей, работая совместно с инженерами и менеджерами по продуктам над определением и тестированием границ автономии агентов. Мы не только являемся исследователями, но и выступаем за пользовательский контроль, прозрачность и этические гарантии в процессе разработки. Преобразуя примитивы в практические вопросы и моделируя наихудшие сценарии, мы можем построить надежные системы, одновременно мощные и безопасные. В этой статье изложено «что» и «почему» исследования агентного ИИ. Он показал, что наших традиционных инструментов недостаточно и что мы должны принять новые, перспективные методологии. Следующая статья будет опираться на эту основу, предоставляя конкретные шаблоны проектирования и организационные практики, которые делают утилиту агента прозрачной для пользователей, гарантируя, что они смогут использовать возможности агентного ИИ с уверенностью и контролем. Будущее UX — в том, чтобы сделать системы заслуживающими доверия. Для дополнительного понимания агентного ИИ вы можете изучить следующие ресурсы:

Блог Google AI об агентном искусственном интеллекте Исследование Microsoft об агентах искусственного интеллекта

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free