Agentic AI は顧客エクスペリエンスと業務効率を変革する準備ができており、リーダーによる新しい戦略的アプローチが必要です。この人工知能の進化により、システムはタスクを計画、実行、継続できるようになり、単純な推奨を超えてプロアクティブなアクションに移行します。 UX チーム、プロダクト マネージャー、経営幹部にとって、この変化を理解することは、イノベーションの機会を開拓し、ワークフローを合理化し、テクノロジーが人々にどのように役立つかを再定義するために非常に重要です。 Agentic AI とロボット プロセス オートメーション (RPA) は混同されがちです。RPA は、コンピューター上で実行されるルールベースのタスクに焦点を当てたテクノロジーです。違いは、厳格性と論理性です。 RPA は、「X が発生したら Y を実行する」という厳密なスクリプトに従うことに優れています。人間の手を模倣します。エージェント AI は人間の推論を模倣します。それは直線的なスクリプトに従っていません。それはそれを作成します。 採用ワークフローを考えてみましょう。 RPA ボットは履歴書をスキャンしてデータベースにアップロードできます。反復的なタスクを完璧に実行します。 Agentic システムは履歴書を見て、候補者が特定の認定資格をリストしていることに気付き、それを新しいクライアントの要件と相互参照し、その一致を強調するパーソナライズされたアウトリーチ メールの草案を作成することを決定します。 RPA は事前定義された計画を実行します。 Agentic AI は目標に基づいて計画を策定します。この自律性により、エージェントは過去 10 年間使用してきた予測ツールから切り離されます。 別の例は、会議の競合の管理です。カレンダーに統合された予測モデルは、会議のスケジュールと同僚のスケジュールを分析する可能性があります。次に、2 つの重要な会議が同時にスケジュールされている、または主要な参加者が休暇中にスケジュールされている会議など、競合の可能性を示唆する可能性があります。情報が提供され、潜在的な問題にフラグが立てられますが、行動を起こす責任はユーザーにあります。 エージェント AI は、同じシナリオで、回避すべき競合を提案するだけではありません。主要な参加者との競合を特定すると、エージェントは次のように行動できます。

必要な参加者全員が参加可能かどうかを確認しています。 誰にとっても都合の良い別の時間帯を特定する。 提案された新しい会議への招待状をすべての出席者に送信します。 外部の参加者との競合の場合、エージェントはスケジュール変更の必要性を説明し、別の時間を提案する電子メールを作成して送信できます。 確認したら、新しい会議の詳細で自分のカレンダーと同僚のカレンダーを更新します。

このエージェント AI は、目的 (会議の競合の解決) を理解し、ステップ (空き状況の確認、代替案の検索、招待の送信) を計画し、それらのステップを実行し、競合が解決されるまで継続します。これらはすべて、最小限のユーザーの直接介入で行われます。これは、「エージェント」の違いを示しています。システムは、単にユーザーに情報を提供するのではなく、ユーザーに代わって事前の措置を講じます。 エージェント型 AI システムは、目標を理解し、それを達成するための一連のステップを計画し、それらのステップを実行し、問題が発生した場合にも適応します。プロアクティブなデジタル アシスタントのようなものだと考えてください。基盤となるテクノロジーは、多くの場合、理解と推論のための大規模言語モデル (LLM) と、複雑なタスクを管理可能なアクションに分割する計画アルゴリズムを組み合わせています。これらのエージェントは、さまざまなツール、API、さらには他の AI モデルと対話して目的を達成できます。また重要なことに、エージェントは永続的な状態を維持できます。つまり、以前のアクションを記憶し、時間をかけて目標に向かって作業を継続します。このため、通常は 1 つのリクエストを完了してからリセットする典型的な生成 AI とは根本的に異なります。 エージェントの行動の単純な分類法 エージェントの行動は 4 つの異なる自律モードに分類できます。これらは多くの場合、一連の動作のように見えますが、独立した動作モードとして機能します。ユーザーは、エージェントがスケジューリングに関して自律的に動作することを信頼している可能性がありますが、金融取引に関してはエージェントを「提案モード」のままにします。 これらのレベルは、自動運転車の業界標準 (SAE レベル) をデジタル ユーザー エクスペリエンス コンテキストに適応させることで導き出されています。 観察して提案する エージェントはモニターとして機能します。データ ストリームを分析し、異常または機会にフラグを立てますが、アクションは必要ありません。 差別化次のレベルとは異なり、エージェントは複雑な計画を生成しません。それは問題を指摘しています。 例DevOps エージェントはサーバーの CPU スパイクに気づき、オンコール エンジニアに警告します。それを修正する方法や修正しようとすることはわかりませんが、何かが間違っていることはわかっています。 設計と監視への影響このレベルでは、設計と監視では、明確で非侵入的な通知と、ユーザーが提案に基づいて行動するための明確に定義されたプロセスを優先する必要があります。ユーザーが制御することなく、タイムリーで関連性の高い情報を提供できるようにすることに重点を置いています。 UX 担当者は提案を明確で理解しやすいものにすることに重点を置く必要がありますが、プロダクト マネージャーはユーザーを圧倒することなくシステムが価値を提供できるようにする必要があります。 企画提案 エージェントは目標を特定し、それを達成するための複数段階の戦略を生成します。人間によるレビューの完全な計画が示されています。 差別化エージェントは戦略家として機能します。実行されません。アプローチ全体の承認を待ちます。 例同じ DevOps エージェントが CPU のスパイクに気づき、ログを分析し、修復計画を提案します。

追加の 2 つのインスタンスをスピンアップします。 ロードバランサーを再起動します。 古いログをアーカイブします。

人間はロジックを確認し、「計画を承認」をクリックします。 設計と監視への影響計画と提案を行うエージェントにとって、設計では、提案された計画が理解しやすく、ユーザーが直感的に変更または拒否できることを保証する必要があります。監督は、提案の品質とエージェントの計画ロジックを監視する上で非常に重要です。 UX 担当者は、提案された計画を明確に視覚化してデザインする必要があり、プロダクト マネージャーは、明確なレビューと承認のワークフローを確立する必要があります。 確認を伴う行為 エージェントはすべての準備作業を完了し、最終アクションを段階的な状態にします。効果的にドアを開けたままにし、うなずくのを待ちます。 差別化これは、作業がすでに完了し段階化されているため、「計画と提案」とは異なります。摩擦を軽減します。ユーザーは戦略ではなく結果を確認します。 例 採用エージェントは 5 件の面接招待状を作成し、カレンダーで空き時間を見つけて、カレンダー イベントを作成します。 「すべて送信」ボタンが表示されます。ユーザーは、外部アクションをトリガーするための最終的な承認を提供します。 設計と監視への影響エージェントが確認を持って行動する場合、設計では、意図したアクションの透明性のある簡潔な概要を提供し、潜在的な結果を明確に説明する必要があります。監督は、確認プロセスが堅牢であり、ユーザーがやみくもにアクションを承認するよう求められていないことを検証する必要があります。 UX 担当者は、明確で必要な情報をすべて提供する確認プロンプトを設計する必要があり、製品マネージャーは、確認されたすべてのアクションに対する堅牢な監査証跡を優先する必要があります。 自律的に行動する エージェントは、定義された境界内で独立してタスクを実行します。 差別化ユーザーは、アクション自体ではなく、アクションの履歴をレビューします。 例 採用エージェントは競合を認識し、面接をバックアップ スロットに移動し、候補者を更新し、採用マネージャーに通知します。人間には、「面接が火曜日に変更されました」という通知のみが表示されます。 設計と監視への影響自律型エージェントの場合、設計では事前に承認された明確な境界を確立し、堅牢な監視ツールを提供する必要があります。監視には、これらの境界内でエージェントのパフォーマンスを継続的に評価する必要があり、ユーザーの制御と信頼を維持するための堅牢なロギング、明確なオーバーライド メカニズム、およびユーザー定義のキル スイッチが重要です。 UX 担当者は、自律エージェントの動作を監視するための効果的なダッシュボードの設計に重点を置く必要があり、プロダクト マネージャーは、明確なガバナンスと倫理ガイドラインが整備されていることを確認する必要があります。

これらのモードが実際に動作していることを確認するために、HR テクノロジーの実際のアプリケーションを見てみましょう。採用のロジスティクスを処理するために設計された「面接調整エージェント」を考えてみましょう。

サジェスト モードでは、エージェントは面接官がダブルブッキングされていることに気づきました。この記事では、採用担当者のダッシュボード上の矛盾を強調しています。「警告: サラは午後 2 時の面接にダブルブッキングされています。」 計画モードでは、エージェントはサラのカレンダーと候補者の空き状況を分析します。 「面接を木曜日の午前 10 時に変更することをお勧めします。そのためには、サラとマネージャーの 1 対 1 を変更する必要があります。」採用担当者はこのロジックをレビューします。 確認モードでは、エージェントが候補者とマネージャーに送信する電子メールの下書きを作成します。カレンダーの招待状が表示されます。採用担当者には「木曜日にスケジュールを変更する準備はできています。最新情報を送信しますか?」という概要が表示されます。採用担当者は「確認」をクリックします。 自律モードでは、エージェントが競合を即座に処理します。 「社内での 1 対 1 の面接よりも常に候補者の面接を優先する」という事前に設定されたルールが尊重されます。会議を移動し、通知を送信します。採用担当者には次のログ エントリが表示されます。候補者 B のスケジュールが競合します。」

研究入門: 何をどのように研究するか 効果的なエージェント AI を開発するには、従来のソフトウェアや生成 AI とは異なる研究アプローチが必要です。 AI エージェントの自律的な性質、意思決定能力、プロアクティブなアクションの可能性により、ユーザーの期待を理解し、複雑なエージェントの動作をマッピングし、潜在的な障害を予測するための特殊な方法論が必要になります。次の研究入門書では、エージェント AI のこれらの独自の側面を測定および評価するための主要な方法の概要を説明します。 メンタルモデルインタビュー これらのインタビューでは、AI エージェントがどのように動作すべきかについてのユーザーの先入観が明らかになります。ユーザーが何を望んでいるのかを単に尋ねるのではなく、エージェントの機能と制限に関するユーザーの内部モデルを理解することに重点を置きます。参加者に対して「エージェント」という言葉を使用することは避けるべきです。これは SF の荷物を運ぶものであり、サポートやサービスを提供する人間のエージェントと混同されやすい用語です。代わりに、「アシスタント」または「システム」を中心に議論を組み立てます。 私たちは、ユーザーが役立つ自動化と煩わしい制御の間の境界線をどこに引くかを明らかにする必要があります。

方法: ユーザーに、さまざまな仮想シナリオでのエージェントとの予想される対話を説明、描画、またはナレーションしてもらいます。 主要なプローブ (さまざまな業界を反映): 望ましい自動化の限界と、過剰な自動化に関する潜在的な不安を理解するには、次のように尋ねてください。 フライトがキャンセルされた場合、システムに自動的に何を実行させたいですか?あなたの明確な指示なしにそれが行われた場合、何を心配しますか?

エージェントの内部プロセスと必要なコミュニケーションについてのユーザーの理解を調べるには、次のように尋ねます。 デジタル アシスタントがスマート ホームを管理していると想像してください。荷物が配達された場合、どのような手順が必要になると思いますか?また、どのような情報が届くと予想されますか?

複数段階のプロセスにおける制御と同意に関する期待を明らかにするには、次のように尋ねてください。 デジタル アシスタントに会議のスケジュールを依頼する場合、どのような手順が必要になると思いますか?どのような時点で相談を受けたり、選択肢を与えてもらいたいですか?

この方法の利点: 暗黙の仮定を明らかにし、エージェントの計画された動作がユーザーの期待と異なる可能性がある領域を強調表示し、適切な制御とフィードバック メカニズムの設計に情報を提供します。

エージェントジャーニーマッピング: 従来のユーザー ジャーニー マッピングと同様に、エージェント ジャーニー マッピングは、ユーザーのインタラクションと並行して、AI エージェント自体の予想されるアクションと意思決定ポイントに特に焦点を当てています。これは、潜在的な落とし穴を事前に特定するのに役立ちます。

方法: エージェントの操作の開始から完了までのさまざまな段階の概要を示す視覚的なマップを作成します。これには、潜在的なすべてのアクション、意思決定、外部システムまたはユーザーとの対話が含まれます。 マッピングする主要な要素: エージェントのアクション: エージェントは具体的にどのようなタスクや決定を実行しますか? 情報の入力/出力: エージェントはどのようなデータを必要とし、どのような情報を生成または伝達しますか? 意思決定ポイント: エージェントはどこで選択を行いますか?その選択の基準は何ですか? ユーザー インタラクション ポイント: ユーザーはどこで入力、レビュー、またはアクションの承認を行いますか? 失敗のポイント: 重要なのは、エージェントが指示を誤解したり、誤った決定を下したり、間違ったエンティティとやり取りしたりする可能性がある具体的な事例を特定することです。 例: 間違った受信者 (例: 機密情報を間違った人に送信する)、当座貸越 (例: 利用可能な資金を超える自動支払い)、意図の誤解 (例: 曖昧な表現により間違った日付のフライトを予約する)。

回復パス: エージェントまたはユーザーはこれらの障害からどのように回復できますか?矯正や介入のためにどのようなメカニズムが導入されていますか?

この方法の利点: エージェントの操作フローの全体的なビューを提供し、隠れた依存関係を明らかにし、マイナスの結果を防止または軽減するための保護手段、エラー処理、およびユーザー介入ポイントのプロアクティブな設計を可能にします。

模擬不正行為テスト: このアプローチは、システムのストレス テストを行い、AI エージェントが失敗した場合や期待から逸脱した場合のユーザーの反応を観察するように設計されています。それは、信頼の修復と逆境における感情的な反応を理解することです。

方法: 管理されたラボ研究では、エージェントが間違いを犯したり、コマンドを誤解したり、予期せぬ行動をしたりするシナリオを意図的に導入します。 シミュレートする「不正行為」の種類: コマンド誤解: エージェントは、ユーザーが意図したものとはわずかに異なるアクションを実行します (例: 1 つの商品ではなく 2 つの商品を注文する)。 情報の過多/過少: エージェントが提供する無関係な情報が多すぎるか、重要な詳細が不十分です。 要求されていないアクション: エージェントは、ユーザーが明示的に望んでいない、または期待していないアクションを実行します (承認なしで株式を購入するなど)。 システム障害: エージェントがクラッシュするか、応答しなくなるか、エラー メッセージが表示されます。 倫理的ジレンマ: エージェントは、倫理的な影響を伴う決定を下します (たとえば、予期しない指標に基づいて、あるタスクを別のタスクよりも優先するなど)。

観察の焦点: ユーザーの反応: ユーザーは感情的にどのように反応しますか (不満、怒り、混乱、信頼の喪失)。 回復の試み: ユーザーはエージェントの動作を修正する、またはそのアクションを元に戻すためにどのような手順を実行しますか? 信頼修復メカニズム: システムに組み込まれた回復メカニズムまたはフィードバック メカニズムは信頼を回復するのに役立ちますか?ユーザーはエラーについてどのように通知されることを希望しますか? メンタルモデルの変化: 不正行為により、エージェントの能力や限界についてのユーザーの理解が変わりますか?

この方法の利点: エラー回復、フィードバック、ユーザー制御に関連する設計のギャップを特定するのに重要です。これにより、エージェントの障害に対するユーザーの回復力や、信頼を維持または再構築するために何が必要かについての洞察が得られ、より堅牢で寛容なエージェント システムが実現します。

これらの調査手法を統合することで、UX 実践者は、エージェント システムを単に使いやすくするだけでなく、エージェント システムを信頼でき、制御可能で、説明責任のあるものにし、ユーザーと AI エージェントの間に前向きで生産的な関係を促進することができます。エージェント AI を効果的に探索することに関連する方法はこれらだけではないことに注意してください。他にも多くの方法が存在しますが、短期的にはこれらが実践者にとって最も利用しやすい方法です。以前、コンセプト テストの少し高度な方法であるオズの魔法使いの方法について説明しました。これは、エージェント AI の概念を検討するための貴重なツールでもあります。 研究方法における倫理的考慮事項 エージェント AI を研究する場合、特に不正行為やエラーをシミュレートする場合、倫理的な考慮事項を考慮することが重要です。私が Smashing Magazine に書いた記事、UX Design Institute のガイドライン、Inclusive Design Toolkit のこのページなど、倫理的な UX 研究に焦点を当てた出版物が数多くあります。 Agentic AI の主要な指標 エージェント AI システムのパフォーマンスと信頼性を効果的に評価するには、主要な指標の包括的なセットが必要です。これらの指標は、ユーザーの信頼性、システムの精度、全体的なユーザー エクスペリエンスに関する洞察を提供します。これらの指標を追跡することで、開発者と設計者は改善の余地がある領域を特定し、AI エージェントが安全かつ効率的に動作することを確認できます。 1. 介入率自律エージェントの場合、沈黙によって成功を測定します。エージェントがタスクを実行し、ユーザーが設定された時間枠 (24 時間など) 内にアクションを介入したり取り消したりしなかった場合、それは承認されたものとしてカウントされます。私たちは介入率を追跡します。人間がエージェントを停止または修正するために介入する頻度はどれくらいですか?介入率が高い場合は、信頼または論理の不整合を示します。 2. 1,000 タスクあたりの意図しないアクションの頻度この重要な指標は、AI エージェントによって実行された、ユーザーが望ましくない、または期待していなかったアクションの数を、完了したタスク 1,000 件あたりで正規化して定量化します。意図しないアクションの頻度が低いということは、ユーザーの意図を正確に解釈し、定義された境界内で動作する、適切に調整された AI を意味します。この指標は、AI のコンテキストの理解、コマンドの曖昧さを解消する能力、安全プロトコルの堅牢性に密接に関係しています。 3. ロールバックまたは元に戻す率この指標は、AI によって実行されたアクションをユーザーが元に戻すまたは元に戻す必要がある頻度を追跡します。ロールバック率が高いということは、AI が頻繁にエラーを起こしたり、指示を誤解したり、ユーザーの期待と異なる動作をしたりしていることを示唆しています。これらのロールバックの背後にある理由を分析すると、AI のアルゴリズムを改善し、ユーザーの好みを理解し、望ましい結果を予測する能力を向上させるための貴重なフィードバックが得られます。 その理由を理解するには、元に戻すアクションに関するマイクロ調査を実装する必要があります。たとえば、ユーザーがスケジュール変更を取り消す場合、「時間は間違っていますか? 担当者を間違えましたか? それとも自分でやりたかっただけですか?」という単純なプロンプトが表示されます。ユーザーが自分の推論に最も適切なオプションをクリックできるようにします。 4. エラー後の解決までの時間この指標ユーザーが AI によるエラーを修正するまで、または AI システム自体がエラー状態から回復するまでにかかる時間を測定します。解決までの時間が短いということは、エラー回復プロセスが効率的でユーザーフレンドリーであることを示しており、ユーザーのフラストレーションを軽減し、生産性を維持できます。これには、エラーの特定の容易さ、元に戻すまたは修正のメカニズムへのアクセスのしやすさ、AI によって提供されるエラー メッセージの明瞭さが含まれます。

これらのメトリクスを収集するには、エージェント アクション ID を追跡するようにシステムを設定する必要があります。スケジュールの提案やフライトの予約など、エージェントが実行するすべての個別のアクションは、ログに保存される一意の ID を生成する必要があります。介入率を測定するために、ユーザーの即時の反応は求めません。定義されたウィンドウ内にカウンターアクションがないことを探します。アクション ID が午前 9 時に生成され、翌日の午前 9 時までにユーザーがその特定の ID を変更または元に戻さなかった場合、システムは論理的にその ID に承認済みのタグを付けます。これにより、積極的な確認ではなく、ユーザーの沈黙に基づいて成功を定量化することができます。 ロールバック レートの場合、コンテキストが不足しているため、生のカウントでは不十分です。根本的な理由を把握するには、アプリケーションの「元に戻す」または「元に戻す」機能にインターセプト ロジックを実装する必要があります。ユーザーがエージェントによって開始されたアクションを取り消すと、軽量のマイクロアンケートがトリガーされます。これは、エラーを事実が間違っている、コンテキストが欠如している、またはタスクを手動で処理するという単純な設定として分類するようユーザーに求める単純な 3 つのオプションのモーダルです。これにより、定量的なテレメトリと定性的な洞察が組み合わされます。これにより、エンジニアリング チームは、壊れたアルゴリズムとユーザー設定の不一致を区別できるようになります。 これらの指標を一貫して追跡し、総合的に分析すると、エージェント AI システムのパフォーマンスを評価するための堅牢なフレームワークが提供され、制御、同意、説明責任の継続的な改善が可能になります。 欺瞞に対抗する設計 エージェントの能力がますます高まるにつれて、私たちはエージェントのスラッジという新たなリスクに直面しています。従来のスラッジは摩擦を引き起こし、サブスクリプションのキャンセルやアカウントの削除を困難にします。薬剤汚泥は逆に作用します。これにより、障害に対する摩擦がなくなり、ユーザーは自分の利益ではなくビジネスに利益をもたらす行動に同意することが非常に簡単になります。 旅行予約をサポートするエージェントを検討してください。明確なガードレールがなければ、システムは提携航空会社や利益率の高いホテルを優先する可能性があります。この選択が最適なパスとして表示されます。ユーザーはシステムの権限を信頼し、精査することなく推奨を受け入れます。これにより、システムが利便性を装って収益を最適化するという欺瞞的なパターンが生まれます。 誤って想像された能力のリスク 欺瞞は悪意から生じたものではない可能性があります。それは多くの場合、想像上の能力として AI に現れます。大規模な言語モデルは、たとえ正しくない場合でも、権威があるように聞こえることがよくあります。彼らは、検証された事実と同じ自信を持って、虚偽の予約確認書または不正確な概要を提示します。ユーザーはこの自信に満ちた口調を自然に信頼するかもしれません。この不一致により、システムの機能とユーザーの期待の間に危険なギャップが生じます。 このギャップを埋めるために特別に設計する必要があります。エージェントがタスクを完了できなかった場合、インターフェイスはその失敗を明確に通知する必要があります。システムに不確実性がある場合は、洗練された散文で不確実性を隠すのではなく、不確実性を表現する必要があります。 プリミティブによる透明性 ヘドロと幻覚の両方に対する解毒剤は出所です。すべての自律的なアクションには、決定の起源を説明する特定のメタデータ タグが必要です。ユーザーは、結果の背後にあるロジック チェーンを検査する機能を必要とします。 これを達成するには、プリミティブを実践的な答えに変換する必要があります。ソフトウェア エンジニアリングでは、プリミティブとは、エージェントが実行する情報またはアクションの中心的な単位を指します。エンジニアにとって、これは API 呼び出しまたはロジック ゲートのように見えます。ユーザーにとって、それは明確な説明として現れる必要があります。 設計上の課題は、これらの技術的ステップを人間が判読できる理論的根拠にマッピングすることにあります。エージェントが特定のフライトを推奨する場合、ユーザーはその理由を知る必要があります。インターフェースは一般的な提案の背後に隠れることはできません。基礎となるプリミティブ: Logic:Cheapest_Direct_Flight または Logic:Partner_Airline_Priority を公開する必要があります。 図 4 は、この変換フローを示しています。生のシステム プリミティブ (実際のコード ロジック) を取得し、それをユーザー向けの文字列にマップします。たとえば、カレンダーをチェックして会議のスケジュールを設定するという原始的な行為は、明確なステートメントになります。「私は午後 4 時を提案しました」ミーティング。 このレベルの透明性により、エージェントのアクションが論理的で有益であるように見えます。これにより、ユーザーはエージェントが自分の利益を最優先に行動したことを確認できます。プリミティブを公開することで、ブラック ボックスをガラスのボックスに変換し、ユーザーが自分のデジタル ライフに対する最終的な権限を維持できるようにします。

デザインの舞台設定 エージェント システムを構築するには、新たなレベルの心理的および行動的理解が必要です。これにより、私たちは従来のユーザビリティ テストを超えて、信頼、同意、説明責任の領域に移行する必要があります。メンタル モデルの調査から不正行為のシミュレーション、新しい指標の確立まで、これまで説明してきた研究方法は、必要な基盤を提供します。これらのプラクティスは、自律システムに障害が発生する可能性のある場所を事前に特定し、さらに重要なことに、障害が発生した場合にユーザーとエージェントの関係を修復する方法を事前に特定するための重要なツールです。 エージェント AI への移行は、ユーザーとシステムの関係の再定義です。私たちはもはや、単にコマンドに応答するツールを設計しているのではありません。私たちは、私たちに代わって行動するパートナーのために設計しています。これにより、設計の必須事項が効率性と使いやすさから透明性、予測可能性、制御へと変化します。 AI が最終クリックを行わずに航空券を予約したり株を取引したりできるようにする場合、その「オンランプ」と「オフランプ」の設計が最も重要になります。ユーザーがハンドルを握った後でも、自分が運転席に座っていると感じられるようにするのが私たちの責任です。 この新たな現実により、UX リサーチャーの役割も高まります。私たちはユーザーの信頼の管理人となり、エンジニアやプロダクト マネージャーと協力してエージェントの自律性のガードレールを定義し、テストします。私たちは研究者であることを超えて、開発プロセスにおけるユーザー制御、透明性、倫理的保護の擁護者となります。プリミティブを実践的な質問に変換し、最悪のシナリオをシミュレートすることで、強力かつ安全な堅牢なシステムを構築できます。 この記事では、エージェント AI を研究する「何を」と「なぜ」について概説しました。これは、従来のツールキットでは不十分であり、新しい将来を見据えた方法論を採用する必要があることを示しています。次の記事では、この基盤に基づいて、エージェントのユーティリティをユーザーに透過的にし、ユーザーが確実にエージェント AI のパワーを確実に制御できるようにするための具体的な設計パターンと組織的な実践方法を提供します。 UX の将来は、システムを信頼できるものにすることにあります。 エージェント AI についてさらに理解するには、次のリソースを参照してください。

Agentic AI に関する Google AI ブログ Microsoft の AI エージェントに関する研究

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free