Agentic AI พร้อมที่จะเปลี่ยนแปลงประสบการณ์ของลูกค้าและประสิทธิภาพการดำเนินงาน โดยจำเป็นต้องมีแนวทางเชิงกลยุทธ์ใหม่จากผู้นำ วิวัฒนาการของปัญญาประดิษฐ์นี้ช่วยให้ระบบสามารถวางแผน ดำเนินการ และคงอยู่ในงานได้ ก้าวไปไกลกว่าคำแนะนำง่ายๆ ไปสู่การดำเนินการเชิงรุก สำหรับทีม UX ผู้จัดการผลิตภัณฑ์ และผู้บริหาร การทำความเข้าใจการเปลี่ยนแปลงนี้เป็นสิ่งสำคัญในการปลดล็อกโอกาสด้านนวัตกรรม ปรับปรุงขั้นตอนการทำงาน และกำหนดนิยามใหม่ว่าเทคโนโลยีจะให้บริการผู้คนอย่างไร เป็นเรื่องง่ายที่จะสับสนระหว่าง Agentic AI กับ Robotic Process Automation (RPA) ซึ่งเป็นเทคโนโลยีที่มุ่งเน้นไปที่งานตามกฎที่ดำเนินการบนคอมพิวเตอร์ ความแตกต่างอยู่ที่ความเข้มงวดกับการใช้เหตุผล RPA นั้นยอดเยี่ยมในการปฏิบัติตามสคริปต์ที่เข้มงวด: ถ้า X เกิดขึ้น ให้ทำ Y มันเลียนแบบมือมนุษย์ Agentic AI เลียนแบบการใช้เหตุผลของมนุษย์ มันไม่เป็นไปตามสคริปต์เชิงเส้น มันสร้างสิ่งหนึ่งขึ้นมา พิจารณาขั้นตอนการทำงานในการสรรหาบุคลากร บอท RPA สามารถสแกนเรซูเม่และอัพโหลดไปยังฐานข้อมูลได้ มันทำหน้าที่ซ้ำซ้อนได้อย่างสมบูรณ์แบบ ระบบตัวแทนจะดูเรซูเม่ สังเกตว่าผู้สมัครแสดงรายการใบรับรองเฉพาะ การอ้างอิงโยงกับข้อกำหนดของลูกค้าใหม่ และตัดสินใจร่างอีเมลประชาสัมพันธ์เฉพาะบุคคลโดยเน้นที่ตรงกัน RPA ดำเนินการตามแผนที่กำหนดไว้ล่วงหน้า Agentic AI กำหนดแผนตามเป้าหมาย ความเป็นอิสระนี้แยกตัวแทนออกจากเครื่องมือคาดการณ์ที่เราใช้ในทศวรรษที่ผ่านมา อีกตัวอย่างหนึ่งคือการจัดการข้อขัดแย้งในการประชุม โมเดลการคาดการณ์ที่รวมอยู่ในปฏิทินของคุณอาจวิเคราะห์กำหนดการประชุมและกำหนดการของเพื่อนร่วมงานของคุณ จากนั้นอาจแนะนำข้อขัดแย้งที่อาจเกิดขึ้น เช่น การประชุมสำคัญสองครั้งที่กำหนดเวลาไว้ในเวลาเดียวกัน หรือการประชุมที่กำหนดเวลาไว้เมื่อผู้เข้าร่วมหลักลาพักร้อน จะให้ข้อมูลแก่คุณและแจ้งปัญหาที่อาจเกิดขึ้น แต่คุณมีหน้าที่รับผิดชอบในการดำเนินการ AI ตัวแทนในสถานการณ์เดียวกันจะทำได้มากกว่าแค่แนะนำข้อขัดแย้งที่ควรหลีกเลี่ยง เมื่อระบุข้อขัดแย้งกับผู้เข้าร่วมหลักแล้ว ตัวแทนสามารถดำเนินการได้โดย:
การตรวจสอบความพร้อมของผู้เข้าร่วมที่จำเป็นทั้งหมด การระบุช่วงเวลาอื่นที่เหมาะกับทุกคน การส่งคำเชิญการประชุมใหม่ที่เสนอไปยังผู้เข้าร่วมประชุมทุกคน หากข้อขัดแย้งเกิดขึ้นกับผู้เข้าร่วมภายนอก ตัวแทนสามารถร่างและส่งอีเมลอธิบายความจำเป็นในการจัดกำหนดการใหม่และเสนอเวลาอื่นได้ อัปเดตปฏิทินและปฏิทินของเพื่อนร่วมงานด้วยรายละเอียดการประชุมใหม่เมื่อได้รับการยืนยันแล้ว
AI ตัวแทนนี้เข้าใจเป้าหมาย (แก้ไขข้อขัดแย้งในการประชุม) วางแผนขั้นตอน (การตรวจสอบความพร้อมใช้งาน ค้นหาทางเลือกอื่น การส่งคำเชิญ) ดำเนินการตามขั้นตอนเหล่านั้น และคงอยู่จนกว่าข้อขัดแย้งจะได้รับการแก้ไข ทั้งหมดนี้โดยอาศัยการแทรกแซงจากผู้ใช้โดยตรงเพียงเล็กน้อย สิ่งนี้แสดงให้เห็นถึงความแตกต่างแบบ "ตัวแทน": ระบบจะดำเนินการตามขั้นตอนเชิงรุกสำหรับผู้ใช้ แทนที่จะให้ข้อมูลแก่ผู้ใช้เท่านั้น ระบบ Agentic AI เข้าใจเป้าหมาย วางแผนชุดขั้นตอนเพื่อให้บรรลุเป้าหมาย ดำเนินการตามขั้นตอนเหล่านั้น และแม้แต่ปรับเปลี่ยนหากมีสิ่งผิดปกติเกิดขึ้น คิดว่ามันเหมือนกับผู้ช่วยดิจิทัลเชิงรุก เทคโนโลยีพื้นฐานมักจะรวมโมเดลภาษาขนาดใหญ่ (LLM) เพื่อการทำความเข้าใจและการให้เหตุผล เข้ากับอัลกอริธึมการวางแผนที่แบ่งงานที่ซับซ้อนออกเป็นการดำเนินการที่สามารถจัดการได้ เจ้าหน้าที่เหล่านี้สามารถโต้ตอบกับเครื่องมือ API และแม้แต่โมเดล AI ต่างๆ เพื่อให้บรรลุวัตถุประสงค์ และที่สำคัญคือ พวกเขาสามารถรักษาสถานะที่คงอยู่ได้ ซึ่งหมายความว่าพวกเขาจะจดจำการกระทำก่อนหน้านี้และทำงานต่อไปเพื่อให้บรรลุเป้าหมายเมื่อเวลาผ่านไป สิ่งนี้ทำให้พวกเขาแตกต่างโดยพื้นฐานจาก AI เจนเนอเรชั่นทั่วไป ซึ่งโดยปกติจะทำคำขอเดียวให้เสร็จสิ้นแล้วจึงรีเซ็ต อนุกรมวิธานอย่างง่ายของพฤติกรรมตัวแทน เราสามารถจัดหมวดหมู่พฤติกรรมของตัวแทนได้เป็นสี่โหมดของความเป็นอิสระที่แตกต่างกัน แม้ว่าสิ่งเหล่านี้มักจะดูเหมือนมีความก้าวหน้า แต่ก็ทำงานเป็นโหมดการทำงานอิสระ ผู้ใช้อาจเชื่อถือตัวแทนให้ดำเนินการโดยอัตโนมัติในการกำหนดเวลา แต่เก็บไว้ใน "โหมดคำแนะนำ" สำหรับธุรกรรมทางการเงิน เราได้รับระดับเหล่านี้โดยการปรับมาตรฐานอุตสาหกรรมสำหรับรถยนต์ขับเคลื่อนอัตโนมัติ (ระดับ SAE) ให้เข้ากับบริบทประสบการณ์ผู้ใช้ดิจิทัล สังเกตและแนะนำ เอเจนต์ทำหน้าที่เป็นผู้ตรวจสอบ โดยจะวิเคราะห์สตรีมข้อมูลและแจ้งความผิดปกติหรือโอกาส แต่ไม่ต้องดำเนินการใดๆ การสร้างความแตกต่างต่างจากระดับถัดไป เอเจนต์ไม่ได้สร้างแผนที่ซับซ้อน มันชี้ให้เห็นถึงปัญหา ตัวอย่างตัวแทน DevOps สังเกตเห็น CPU ของเซิร์ฟเวอร์ที่พุ่งสูงขึ้น และแจ้งเตือนวิศวกรที่โทรมา ไม่รู้ว่าจะแก้ไขอย่างไรหรือพยายามแก้ไข แต่รู้ว่ามีบางอย่างผิดปกติ ผลกระทบต่อการออกแบบและการกำกับดูแลในระดับนี้การออกแบบและการกำกับดูแลควรจัดลำดับความสำคัญของการแจ้งเตือนที่ชัดเจนและไม่ก้าวก่าย และกระบวนการที่กำหนดไว้อย่างดีสำหรับผู้ใช้ในการดำเนินการตามข้อเสนอแนะ จุดเน้นอยู่ที่การเสริมศักยภาพผู้ใช้ด้วยข้อมูลที่ตรงเวลาและเกี่ยวข้องโดยไม่ต้องควบคุม ผู้ปฏิบัติงาน UX ควรมุ่งเน้นไปที่การให้ข้อเสนอแนะที่ชัดเจนและเข้าใจง่าย ในขณะที่ผู้จัดการผลิตภัณฑ์จำเป็นต้องตรวจสอบให้แน่ใจว่าระบบให้คุณค่าโดยไม่ทำให้ผู้ใช้ล้นหลาม วางแผนและเสนอ ตัวแทนระบุเป้าหมายและสร้างกลยุทธ์หลายขั้นตอนเพื่อให้บรรลุเป้าหมาย โดยนำเสนอแผนเต็มรูปแบบสำหรับการตรวจสอบโดยมนุษย์ การสร้างความแตกต่างตัวแทนทำหน้าที่เป็นนักยุทธศาสตร์ มันไม่ได้ดำเนินการ รอการอนุมัติตลอดแนวทาง ตัวอย่างเอเจนต์ DevOps เดียวกันสังเกตเห็นการเพิ่มขึ้นอย่างรวดเร็วของ CPU วิเคราะห์บันทึก และเสนอแผนการแก้ไข:
หมุนอินสแตนซ์พิเศษอีกสองอัน รีสตาร์ทโหลดบาลานเซอร์ เก็บบันทึกเก่า
เจ้าหน้าที่ตรวจสอบตรรกะแล้วคลิก "อนุมัติแผน" ผลกระทบสำหรับการออกแบบและการกำกับดูแล สำหรับตัวแทนที่วางแผนและเสนอ การออกแบบจะต้องให้แน่ใจว่าแผนที่เสนอนั้นเข้าใจได้ง่าย และผู้ใช้มีวิธีแก้ไขหรือปฏิเสธตามสัญชาตญาณ การกำกับดูแลเป็นสิ่งสำคัญในการตรวจสอบคุณภาพของข้อเสนอและตรรกะการวางแผนของตัวแทน ผู้ปฏิบัติงาน UX ควรออกแบบการแสดงแผนที่นำเสนออย่างชัดเจน และผู้จัดการผลิตภัณฑ์จะต้องสร้างขั้นตอนการตรวจสอบและอนุมัติที่ชัดเจน ดำเนินการพร้อมยืนยัน ตัวแทนทำงานการเตรียมการทั้งหมดให้เสร็จสิ้น และวางการดำเนินการสุดท้ายไว้ในสถานะเป็นฉาก มันเปิดประตูค้างไว้อย่างมีประสิทธิภาพเพื่อรอการพยักหน้า การสร้างความแตกต่างสิ่งนี้แตกต่างจาก "การวางแผนและนำเสนอ" เนื่องจากงานได้เสร็จสิ้นและจัดฉากแล้ว มันช่วยลดแรงเสียดทาน ผู้ใช้ยืนยันผลลัพธ์ ไม่ใช่กลยุทธ์ ตัวอย่างตัวแทนจัดหางานร่างคำเชิญสัมภาษณ์ห้ารายการ ค้นหาเวลาเปิดทำการในปฏิทิน และสร้างกิจกรรมในปฏิทิน จะแสดงปุ่ม "ส่งทั้งหมด" ผู้ใช้ให้การอนุญาตขั้นสุดท้ายเพื่อทริกเกอร์การดำเนินการภายนอก ผลกระทบสำหรับการออกแบบและการกำกับดูแล เมื่อตัวแทนดำเนินการโดยมีการยืนยัน การออกแบบควรให้ข้อมูลสรุปที่โปร่งใสและรัดกุมของการดำเนินการที่ตั้งใจไว้ โดยสรุปผลลัพธ์ที่อาจเกิดขึ้นได้อย่างชัดเจน การควบคุมดูแลจำเป็นต้องตรวจสอบว่ากระบวนการยืนยันมีประสิทธิภาพ และผู้ใช้ไม่ได้ถูกขอให้อนุมัติการกระทำแบบสุ่มสี่สุ่มห้า ผู้ปฏิบัติงาน UX ควรออกแบบพร้อมท์การยืนยันที่ชัดเจนและให้ข้อมูลที่จำเป็นทั้งหมด และผู้จัดการผลิตภัณฑ์ควรจัดลำดับความสำคัญของแนวทางการตรวจสอบที่มีประสิทธิภาพสำหรับการดำเนินการที่ได้รับการยืนยันทั้งหมด ทำหน้าที่โดยอัตโนมัติ ตัวแทนดำเนินงานอย่างเป็นอิสระภายในขอบเขตที่กำหนด การสร้างความแตกต่างผู้ใช้จะตรวจสอบประวัติของการกระทำ ไม่ใช่การกระทำด้วยตนเอง ตัวอย่างตัวแทนจัดหางานมองเห็นข้อขัดแย้ง ย้ายการสัมภาษณ์ไปยังช่องสำรอง อัปเดตผู้สมัคร และแจ้งผู้จัดการการจ้างงาน มนุษย์เห็นเพียงการแจ้งเตือน: กำหนดการสัมภาษณ์ใหม่เป็นวันอังคาร ผลกระทบสำหรับการออกแบบและการกำกับดูแล สำหรับตัวแทนอัตโนมัติ การออกแบบจำเป็นต้องสร้างขอบเขตที่ได้รับการอนุมัติล่วงหน้าอย่างชัดเจน และจัดเตรียมเครื่องมือตรวจสอบที่มีประสิทธิภาพ การควบคุมดูแลจำเป็นต้องมีการประเมินประสิทธิภาพของเอเจนต์อย่างต่อเนื่องภายในขอบเขตเหล่านี้ ความต้องการที่สำคัญสำหรับการบันทึกที่มีประสิทธิภาพ กลไกการแทนที่ที่ชัดเจน และคิลสวิตช์ที่ผู้ใช้กำหนดเพื่อรักษาการควบคุมและความไว้วางใจของผู้ใช้ ผู้ปฏิบัติงาน UX ควรมุ่งเน้นไปที่การออกแบบแดชบอร์ดที่มีประสิทธิภาพสำหรับการตรวจสอบพฤติกรรมของตัวแทนอัตโนมัติ และผู้จัดการผลิตภัณฑ์จะต้องตรวจสอบให้แน่ใจว่ามีการกำกับดูแลที่ชัดเจนและแนวปฏิบัติด้านจริยธรรม
มาดูการใช้งานจริงในเทคโนโลยี HR เพื่อดูการทำงานของโหมดเหล่านี้ พิจารณา "ตัวแทนประสานงานการสัมภาษณ์" ที่ออกแบบมาเพื่อจัดการเรื่องลอจิสติกส์ในการจ้างงาน
ในโหมดแนะนำ เจ้าหน้าที่จะสังเกตเห็นว่าผู้สัมภาษณ์ถูกจองซ้ำซ้อน โดยเน้นย้ำข้อขัดแย้งบนแดชบอร์ดของผู้สรรหา: “คำเตือน: ซาราห์ถูกจองซ้ำซ้อนสำหรับการสัมภาษณ์เวลา 14.00 น.” ในโหมดแผน เจ้าหน้าที่จะวิเคราะห์ปฏิทินของ Sarah และความพร้อมของผู้สมัคร โดยนำเสนอวิธีแก้ปัญหา: “ฉันแนะนำให้ย้ายการสัมภาษณ์เป็นวันพฤหัสบดี เวลา 10.00 น. ซึ่งจำเป็นต้องย้ายผู้จัดการของ Sarah แบบ 1:1 กับผู้จัดการของเธอ” เจ้าหน้าที่สรรหาจะทบทวนตรรกะนี้ ในโหมดการยืนยันตัวแทนจะร่างอีเมลถึงผู้สมัครและผู้จัดการ มันเติมคำเชิญในปฏิทิน นายหน้าเห็นสรุป “พร้อมเลื่อนเป็นวันพฤหัส ส่งอัพเดทไหม?” เจ้าหน้าที่สรรหาคลิก "ยืนยัน" ในโหมดอัตโนมัติเจ้าหน้าที่จะจัดการข้อขัดแย้งทันที โดยเคารพกฎที่กำหนดไว้ล่วงหน้า: “จัดลำดับความสำคัญของการสัมภาษณ์ผู้สมัครมากกว่า 1:1 ภายในเสมอ” มันจะย้ายการประชุมและส่งการแจ้งเตือน ผู้สรรหาเห็นรายการบันทึก: "แก้ไขแล้วกำหนดการขัดแย้งกันสำหรับผู้สมัคร B”
Research Primer: ต้องวิจัยอะไรและอย่างไร การพัฒนาเอเจนต์ AI ที่มีประสิทธิภาพต้องใช้แนวทางการวิจัยที่แตกต่างเมื่อเปรียบเทียบกับซอฟต์แวร์แบบดั้งเดิมหรือแม้แต่ AI เชิงสร้างสรรค์ ลักษณะที่เป็นอิสระของเจ้าหน้าที่ AI ความสามารถในการตัดสินใจ และศักยภาพในการดำเนินการเชิงรุก จำเป็นต้องมีวิธีการเฉพาะในการทำความเข้าใจความคาดหวังของผู้ใช้ จัดทำแผนที่พฤติกรรมที่ซับซ้อนของเจ้าหน้าที่ และคาดการณ์ความล้มเหลวที่อาจเกิดขึ้น ข้อมูลเบื้องต้นสำหรับการวิจัยต่อไปนี้สรุปวิธีการสำคัญในการวัดและประเมินแง่มุมที่เป็นเอกลักษณ์ของ AI แบบตัวแทน การสัมภาษณ์แบบจำลองทางจิต บทสัมภาษณ์เหล่านี้จะเปิดเผยความคิดอุปาทานของผู้ใช้เกี่ยวกับวิธีที่ตัวแทน AI ควรประพฤติตน แทนที่จะเพียงแค่ถามว่าผู้ใช้ต้องการอะไร จุดเน้นอยู่ที่การทำความเข้าใจโมเดลภายในเกี่ยวกับความสามารถและข้อจำกัดของตัวแทน เราควรหลีกเลี่ยงการใช้คำว่า “ตัวแทน” กับผู้เข้าร่วม บรรทุกสัมภาระแนวไซไฟหรือเป็นคำที่สับสนง่ายเกินไปกับตัวแทนที่เป็นมนุษย์ที่ให้การสนับสนุนหรือบริการ ให้วางกรอบการอภิปรายเกี่ยวกับ “ผู้ช่วย” หรือ “ระบบ” แทน เราจำเป็นต้องค้นหาว่าผู้ใช้ขีดเส้นแบ่งระหว่างระบบอัตโนมัติที่เป็นประโยชน์และการควบคุมที่ล่วงล้ำตรงจุดใด
วิธีการ: ขอให้ผู้ใช้อธิบาย วาด หรือบรรยายถึงปฏิสัมพันธ์ที่คาดหวังกับตัวแทนในสถานการณ์สมมติต่างๆ Key Probes (สะท้อนถึงอุตสาหกรรมที่หลากหลาย): เพื่อทำความเข้าใจขอบเขตของระบบอัตโนมัติที่ต้องการและความวิตกกังวลที่อาจเกิดขึ้นเกี่ยวกับระบบอัตโนมัติมากเกินไป ให้ถาม: หากเที่ยวบินของคุณถูกยกเลิก คุณต้องการให้ระบบดำเนินการอะไรโดยอัตโนมัติ คุณจะกังวลอะไรหากทำเช่นนั้นโดยไม่ได้รับคำแนะนำที่ชัดเจน?
หากต้องการสำรวจความเข้าใจของผู้ใช้เกี่ยวกับกระบวนการภายในของตัวแทนและการสื่อสารที่จำเป็น ให้ถาม: ลองนึกภาพผู้ช่วยดิจิทัลกำลังจัดการบ้านอัจฉริยะของคุณ หากมีการจัดส่งพัสดุ คุณคิดว่าต้องใช้ขั้นตอนใดบ้าง และข้อมูลใดบ้างที่คุณคาดหวังว่าจะได้รับ
หากต้องการเปิดเผยความคาดหวังเกี่ยวกับการควบคุมและความยินยอมภายในกระบวนการหลายขั้นตอน ให้ถาม: หากคุณขอให้ผู้ช่วยดิจิทัลกำหนดเวลาการประชุม คุณคิดว่าจะต้องดำเนินการตามขั้นตอนใดบ้าง คุณต้องการรับคำปรึกษาหรือให้ทางเลือกในจุดใด?
ประโยชน์ของวิธีการ: เปิดเผยสมมติฐานโดยนัย เน้นส่วนที่พฤติกรรมที่วางแผนไว้ของตัวแทนอาจแตกต่างจากความคาดหวังของผู้ใช้ และแจ้งการออกแบบการควบคุมและกลไกผลตอบรับที่เหมาะสม
การทำแผนที่การเดินทางของตัวแทน: เช่นเดียวกับการทำแผนที่การเดินทางของผู้ใช้แบบดั้งเดิม การทำแผนที่การเดินทางของตัวแทนมุ่งเน้นไปที่การดำเนินการที่คาดหวังและจุดการตัดสินใจของเจ้าหน้าที่ AI โดยเฉพาะ ควบคู่ไปกับการโต้ตอบของผู้ใช้ ซึ่งช่วยในการระบุข้อผิดพลาดที่อาจเกิดขึ้นในเชิงรุก
วิธีการ: สร้างแผนที่ภาพซึ่งสรุปขั้นตอนต่างๆ ของการดำเนินงานของตัวแทน ตั้งแต่เริ่มต้นจนถึงเสร็จสิ้น รวมถึงการดำเนินการ การตัดสินใจ และการโต้ตอบที่เป็นไปได้ทั้งหมดกับระบบหรือผู้ใช้ภายนอก องค์ประกอบสำคัญในการทำแผนที่: การดำเนินการของตัวแทน: ตัวแทนดำเนินการงานหรือการตัดสินใจเฉพาะด้านใดบ้าง ข้อมูลอินพุต/เอาท์พุต: เอเจนต์ต้องการข้อมูลอะไรบ้าง และข้อมูลใดบ้างที่สร้างหรือสื่อสาร จุดตัดสินใจ: ตัวแทนตัดสินใจเลือกที่ไหน และเกณฑ์สำหรับตัวเลือกเหล่านั้นมีอะไรบ้าง? จุดโต้ตอบของผู้ใช้: ผู้ใช้ป้อนข้อมูล ทบทวน หรืออนุมัติการดำเนินการที่ไหน? จุดที่ล้มเหลว: สิ่งสำคัญที่สุดคือ ระบุเฉพาะกรณีที่ตัวแทนอาจตีความคำสั่งผิด ตัดสินใจไม่ถูกต้อง หรือมีปฏิสัมพันธ์กับบุคคลที่ไม่ถูกต้อง ตัวอย่าง: ผู้รับไม่ถูกต้อง (เช่น การส่งข้อมูลละเอียดอ่อนไปยังผิดคน) เงินเบิกเกินบัญชี (เช่น การชำระเงินอัตโนมัติเกินจำนวนเงินที่มีอยู่) การตีความเจตนาที่ไม่ถูกต้อง (เช่น การจองเที่ยวบินในวันที่ไม่ถูกต้องเนื่องจากภาษาที่ไม่ชัดเจน)
เส้นทางการกู้คืน: เจ้าหน้าที่หรือผู้ใช้สามารถกู้คืนจากความล้มเหลวเหล่านี้ได้อย่างไร มีกลไกอะไรบ้างในการแก้ไขหรือการแทรกแซง?
ประโยชน์ของวิธีการ: ให้มุมมองแบบองค์รวมของขั้นตอนการปฏิบัติงานของตัวแทน เผยการพึ่งพาที่ซ่อนอยู่ และช่วยให้สามารถออกแบบการป้องกันเชิงรุก การจัดการข้อผิดพลาด และจุดการแทรกแซงของผู้ใช้ เพื่อป้องกันหรือบรรเทาผลลัพธ์เชิงลบ
การทดสอบพฤติกรรมที่ไม่เหมาะสมจำลอง: แนวทางนี้ออกแบบมาเพื่อทดสอบความเครียดของระบบและสังเกตปฏิกิริยาของผู้ใช้เมื่อตัวแทน AI ล้มเหลวหรือเบี่ยงเบนไปจากความคาดหวัง เป็นเรื่องเกี่ยวกับความเข้าใจการซ่อมแซมความไว้วางใจและการตอบสนองทางอารมณ์ในสถานการณ์ที่เลวร้าย
วิธีการ: ในการศึกษาในห้องปฏิบัติการที่มีการควบคุม จงใจแนะนำสถานการณ์ที่เจ้าหน้าที่ทำผิดพลาด ตีความคำสั่งผิด หรือทำงานโดยไม่คาดคิด ประเภทของ “พฤติกรรมที่ไม่เหมาะสม” ที่จะจำลอง: คำสั่งการตีความที่ไม่ถูกต้อง: ตัวแทนดำเนินการแตกต่างจากที่ผู้ใช้ตั้งใจไว้เล็กน้อย (เช่น สั่งซื้อสินค้าสองรายการแทนที่จะเป็นรายการเดียว) ข้อมูลล้น/น้อยเกินไป: เจ้าหน้าที่ให้ข้อมูลที่ไม่เกี่ยวข้องมากเกินไปหรือมีรายละเอียดที่สำคัญไม่เพียงพอ การกระทำที่ไม่พึงประสงค์: ตัวแทนดำเนินการที่ผู้ใช้ไม่ต้องการหรือคาดหวังอย่างชัดเจน (เช่น การซื้อหุ้นโดยไม่ได้รับการอนุมัติ) ระบบล้มเหลว: เอเจนต์ขัดข้อง ไม่ตอบสนอง หรือแสดงข้อความแสดงข้อผิดพลาด ประเด็นขัดแย้งทางจริยธรรม: ตัวแทนทำการตัดสินใจโดยมีนัยยะทางจริยธรรม (เช่น การจัดลำดับความสำคัญของงานหนึ่งมากกว่างานอื่นโดยยึดตามตัวชี้วัดที่ไม่คาดคิด)
โฟกัสการสังเกต: ปฏิกิริยาของผู้ใช้: ผู้ใช้มีปฏิกิริยาทางอารมณ์อย่างไร (ความหงุดหงิด ความโกรธ ความสับสน การสูญเสียความไว้วางใจ) ความพยายามในการกู้คืน: ผู้ใช้ทำตามขั้นตอนใดบ้างเพื่อแก้ไขพฤติกรรมของตัวแทนหรือยกเลิกการกระทำ กลไกการซ่อมแซมความน่าเชื่อถือ: กลไกการกู้คืนหรือการตอบสนองในตัวระบบช่วยฟื้นฟูความไว้วางใจหรือไม่ ผู้ใช้ต้องการทราบข้อผิดพลาดอย่างไร การเปลี่ยนแปลงแบบจำลองทางจิต: พฤติกรรมที่ไม่เหมาะสมเปลี่ยนแปลงความเข้าใจของผู้ใช้เกี่ยวกับความสามารถหรือข้อจำกัดของตัวแทนหรือไม่
ประโยชน์ของวิธีการ: สิ่งสำคัญสำหรับการระบุช่องว่างการออกแบบที่เกี่ยวข้องกับการกู้คืนข้อผิดพลาด ข้อเสนอแนะ และการควบคุมผู้ใช้ โดยให้ข้อมูลเชิงลึกว่าผู้ใช้มีความยืดหยุ่นต่อความล้มเหลวของตัวแทนได้อย่างไร และสิ่งที่จำเป็นในการรักษาหรือสร้างความไว้วางใจใหม่ ซึ่งนำไปสู่ระบบตัวแทนที่แข็งแกร่งและให้อภัยมากขึ้น
ด้วยการบูรณาการวิธีการวิจัยเหล่านี้ ผู้ปฏิบัติงาน UX สามารถก้าวไปไกลกว่าแค่การทำให้ระบบตัวแทนใช้งานได้เพื่อทำให้ระบบเชื่อถือได้ ควบคุมได้ และมีความรับผิดชอบ โดยส่งเสริมความสัมพันธ์เชิงบวกและมีประสิทธิผลระหว่างผู้ใช้และตัวแทน AI ของพวกเขา โปรดทราบว่านี่ไม่ใช่วิธีเดียวที่เกี่ยวข้องกับการสำรวจ AI แบบเอเจนต์อย่างมีประสิทธิภาพ มีวิธีการอื่นอีกหลายวิธี แต่ผู้ปฏิบัติงานสามารถเข้าถึงได้มากที่สุดในระยะเวลาอันใกล้นี้ ก่อนหน้านี้ฉันได้พูดถึงวิธี Wizard of Oz ซึ่งเป็นวิธีการทดสอบแนวคิดขั้นสูงกว่าเล็กน้อย ซึ่งเป็นเครื่องมือที่มีค่าสำหรับการสำรวจแนวคิด AI แบบเอเจนต์ด้วย ข้อพิจารณาทางจริยธรรมในระเบียบวิธีวิจัย เมื่อค้นคว้าเอเจนต์ AI โดยเฉพาะอย่างยิ่งเมื่อจำลองพฤติกรรมที่ไม่เหมาะสมหรือข้อผิดพลาด ข้อพิจารณาด้านจริยธรรมถือเป็นกุญแจสำคัญที่ต้องนำมาพิจารณา มีสิ่งพิมพ์จำนวนมากที่มุ่งเน้นไปที่การวิจัย UX อย่างมีจริยธรรม รวมถึงบทความที่ฉันเขียนให้กับนิตยสาร Smashing, แนวทางปฏิบัติเหล่านี้จาก UX Design Institute และหน้านี้จาก Inclusive Design Toolkit ตัวชี้วัดที่สำคัญสำหรับ Agentic AI คุณจะต้องมีชุดตัววัดหลักที่ครอบคลุมเพื่อประเมินประสิทธิภาพและความน่าเชื่อถือของระบบ AI แบบตัวแทนได้อย่างมีประสิทธิภาพ ตัวชี้วัดเหล่านี้ให้ข้อมูลเชิงลึกเกี่ยวกับความไว้วางใจของผู้ใช้ ความแม่นยำของระบบ และประสบการณ์ผู้ใช้โดยรวม ด้วยการติดตามตัวชี้วัดเหล่านี้ นักพัฒนาและนักออกแบบสามารถระบุจุดที่ต้องปรับปรุง และมั่นใจได้ว่าตัวแทน AI ทำงานอย่างปลอดภัยและมีประสิทธิภาพ 1. อัตราการแทรกแซงสำหรับตัวแทนอัตโนมัติ เราวัดความสำเร็จจากความเงียบ หากตัวแทนดำเนินการงานและผู้ใช้ไม่แทรกแซงหรือย้อนกลับการดำเนินการภายในกรอบเวลาที่กำหนด (เช่น 24 ชั่วโมง) เราจะนับว่าเป็นการยอมรับ เราติดตามอัตราการแทรกแซง: มนุษย์กระโดดเข้ามาเพื่อหยุดหรือแก้ไขตัวแทนบ่อยแค่ไหน? อัตราการแทรกแซงที่สูงจะส่งสัญญาณถึงความไม่สอดคล้องกันในความไว้วางใจหรือตรรกะ 2. ความถี่ของการกระทำที่ไม่ได้ตั้งใจต่อ 1,000 งาน ตัวชี้วัดที่สำคัญนี้จะวัดจำนวนการกระทำที่ดำเนินการโดยเอเจนต์ AI ที่ผู้ใช้ไม่ต้องการหรือคาดหวัง โดยปรับให้เป็นมาตรฐานต่อ 1,000 งานที่เสร็จสมบูรณ์ ความถี่ต่ำของการกระทำที่ไม่ได้ตั้งใจบ่งบอกถึง AI ที่ได้รับการจัดตำแหน่งอย่างดี ซึ่งตีความความตั้งใจของผู้ใช้ได้อย่างแม่นยำและดำเนินการภายในขอบเขตที่กำหนด ตัวชี้วัดนี้เชื่อมโยงอย่างใกล้ชิดกับความเข้าใจในบริบทของ AI ความสามารถในการแยกแยะคำสั่งที่กำกวม และความคงทนของโปรโตคอลด้านความปลอดภัย 3. ย้อนกลับหรือเลิกทำอัตรา หน่วยวัดนี้จะติดตามความถี่ที่ผู้ใช้จำเป็นต้องย้อนกลับหรือเลิกทำการกระทำที่ทำโดย AI อัตราการย้อนกลับที่สูงบ่งชี้ว่า AI กำลังทำข้อผิดพลาดบ่อยครั้ง ตีความคำสั่งผิด หรือดำเนินการในลักษณะที่ไม่สอดคล้องกับความคาดหวังของผู้ใช้ การวิเคราะห์สาเหตุที่อยู่เบื้องหลังการย้อนกลับเหล่านี้สามารถให้ข้อเสนอแนะที่มีคุณค่าสำหรับการปรับปรุงอัลกอริทึมของ AI ความเข้าใจในการตั้งค่าของผู้ใช้ และความสามารถในการคาดการณ์ผลลัพธ์ที่ต้องการ เพื่อทำความเข้าใจว่าทำไม คุณต้องใช้การสำรวจขนาดเล็กในการเลิกทำ ตัวอย่างเช่น เมื่อผู้ใช้ย้อนกลับการเปลี่ยนแปลงกำหนดการ ข้อความง่ายๆ อาจถามว่า: “ผิดเวลา ผิดคน หรือคุณแค่อยากทำเอง” อนุญาตให้ผู้ใช้คลิกตัวเลือกที่ตรงกับเหตุผลของตนมากที่สุด 4. เวลาในการแก้ไขหลังจากเกิดข้อผิดพลาดตัวชี้วัดนี้วัดระยะเวลาที่ผู้ใช้ใช้เพื่อแก้ไขข้อผิดพลาดที่ทำโดย AI หรือสำหรับระบบ AI เองในการกู้คืนจากสถานะที่ผิดพลาด ระยะเวลาในการแก้ไขที่สั้นบ่งชี้ถึงกระบวนการกู้คืนข้อผิดพลาดที่มีประสิทธิภาพและเป็นมิตรกับผู้ใช้ ซึ่งสามารถบรรเทาความยุ่งยากของผู้ใช้และรักษาประสิทธิภาพการทำงานได้ ซึ่งรวมถึงความง่ายในการระบุข้อผิดพลาด การเข้าถึงกลไกการเลิกทำหรือการแก้ไข และความชัดเจนของข้อความแสดงข้อผิดพลาดที่ AI มอบให้
การรวบรวมตัววัดเหล่านี้จำเป็นต้องมีเครื่องมือระบบของคุณเพื่อติดตาม Agent Action ID การดำเนินการที่แตกต่างกันทุกอย่างที่ตัวแทนทำ เช่น การเสนอกำหนดการหรือการจองเที่ยวบิน จะต้องสร้างรหัสเฉพาะที่ยังคงอยู่ในบันทึก ในการวัดอัตราการแทรกแซง เราไม่ได้มองหาปฏิกิริยาของผู้ใช้ในทันที เรามองหาการขาดการโต้ตอบภายในหน้าต่างที่กำหนด หากรหัสการดำเนินการถูกสร้างขึ้นในเวลา 9.00 น. และไม่มีผู้ใช้คนใดแก้ไขหรือเปลี่ยนรหัสเฉพาะนั้นภายในเวลา 9.00 น. ของวันถัดไป ระบบจะแท็กตามตรรกะว่ายอมรับแล้ว สิ่งนี้ช่วยให้เราสามารถวัดปริมาณความสำเร็จโดยอิงตามการเงียบของผู้ใช้ แทนที่จะใช้การยืนยันที่ดำเนินการอยู่ สำหรับอัตราการย้อนกลับ การนับดิบจะไม่เพียงพอเนื่องจากไม่มีบริบท ในการรวบรวมเหตุผลที่ซ่อนอยู่ คุณต้องใช้ตรรกะการสกัดกั้นในฟังก์ชัน Undo หรือ Revert ของแอปพลิเคชันของคุณ เมื่อผู้ใช้ย้อนกลับการดำเนินการที่เริ่มต้นโดยตัวแทน ให้ทริกเกอร์การสำรวจขนาดเล็กแบบน้ำหนักเบา นี่อาจเป็นโมดอลสามตัวเลือกง่ายๆ ที่ขอให้ผู้ใช้จัดหมวดหมู่ข้อผิดพลาดว่าไม่ถูกต้องตามความเป็นจริง ขาดบริบท หรือกำหนดลักษณะง่ายๆ เพื่อจัดการงานด้วยตนเอง ซึ่งเป็นการผสมผสานการวัดและส่งข้อมูลทางไกลเชิงปริมาณเข้ากับข้อมูลเชิงลึกเชิงคุณภาพ ช่วยให้ทีมวิศวกรสามารถแยกแยะระหว่างอัลกอริธึมที่เสียหายและการตั้งค่าของผู้ใช้ที่ไม่ตรงกัน เกณฑ์ชี้วัดเหล่านี้เมื่อติดตามอย่างสม่ำเสมอและวิเคราะห์แบบองค์รวม จะให้กรอบการทำงานที่แข็งแกร่งสำหรับการประเมินประสิทธิภาพของระบบ AI แบบตัวแทน ซึ่งช่วยให้สามารถปรับปรุงการควบคุม ความยินยอม และความรับผิดชอบได้อย่างต่อเนื่อง การออกแบบต่อต้านการหลอกลวง เมื่อตัวแทนมีความสามารถมากขึ้น เราก็เผชิญกับความเสี่ยงใหม่: Agentic Sludge กากตะกอนแบบเดิมสร้างแรงเสียดทานซึ่งทำให้การยกเลิกการสมัครสมาชิกหรือลบบัญชีทำได้ยาก ตะกอนตัวแทนทำหน้าที่ย้อนกลับ ขจัดความขัดแย้งต่อข้อผิดพลาด ทำให้ง่ายเกินไปสำหรับผู้ใช้ที่จะเห็นด้วยกับการกระทำที่เป็นประโยชน์ต่อธุรกิจมากกว่าผลประโยชน์ของตนเอง พิจารณาตัวแทนที่ให้ความช่วยเหลือในการจองการเดินทาง หากไม่มีราวกั้นที่ชัดเจน ระบบอาจจัดลำดับความสำคัญของสายการบินพันธมิตรหรือโรงแรมที่มีอัตรากำไรสูงกว่า นำเสนอตัวเลือกนี้เป็นเส้นทางที่เหมาะสมที่สุด ผู้ใช้ที่ไว้วางใจในอำนาจของระบบ ยอมรับคำแนะนำโดยไม่ต้องพิจารณาอย่างละเอียด สิ่งนี้สร้างรูปแบบที่หลอกลวงซึ่งระบบจะปรับรายได้ให้เหมาะสมภายใต้หน้ากากของความสะดวกสบาย ความเสี่ยงจากความสามารถที่จินตนาการผิดๆ การหลอกลวงอาจไม่ได้เกิดจากเจตนาร้าย มันมักจะแสดงออกมาใน AI ว่าเป็น Imagined Competence โมเดลภาษาขนาดใหญ่มักฟังดูน่าเชื่อถือแม้ว่าจะไม่ถูกต้องก็ตาม พวกเขานำเสนอการยืนยันการจองที่เป็นเท็จหรือสรุปที่ไม่ถูกต้องด้วยความมั่นใจเช่นเดียวกับข้อเท็จจริงที่ตรวจสอบแล้ว ผู้ใช้อาจเชื่อถือน้ำเสียงที่มั่นใจนี้โดยธรรมชาติ ความไม่ตรงกันนี้ทำให้เกิดช่องว่างที่เป็นอันตรายระหว่างความสามารถของระบบและความคาดหวังของผู้ใช้ เราต้องออกแบบเพื่อลดช่องว่างนี้โดยเฉพาะ หากตัวแทนล้มเหลวในการทำงานให้เสร็จสิ้น อินเทอร์เฟซจะต้องส่งสัญญาณความล้มเหลวนั้นอย่างชัดเจน หากระบบไม่แน่ใจ มันจะต้องแสดงความไม่แน่นอนแทนที่จะปกปิดมันด้วยร้อยแก้วที่ขัดเกลา ความโปร่งใสผ่าน Primitives ยาแก้พิษทั้งตะกอนและภาพหลอนเป็นที่มา การดำเนินการอัตโนมัติทุกครั้งต้องมีแท็กข้อมูลเมตาเฉพาะที่อธิบายที่มาของการตัดสินใจ ผู้ใช้จำเป็นต้องมีความสามารถในการตรวจสอบลอจิกเชนเบื้องหลังผลลัพธ์ เพื่อให้บรรลุเป้าหมายนี้ เราต้องแปลคำตอบดั้งเดิมเป็นคำตอบเชิงปฏิบัติ ในวิศวกรรมซอฟต์แวร์ พื้นฐานหมายถึงหน่วยหลักของข้อมูลหรือการดำเนินการที่ตัวแทนดำเนินการ สำหรับวิศวกร สิ่งนี้ดูเหมือนเป็นการเรียก API หรือลอจิกเกต สำหรับผู้ใช้จะต้องปรากฏเป็นคำอธิบายที่ชัดเจน ความท้าทายในการออกแบบอยู่ที่การเชื่อมโยงขั้นตอนทางเทคนิคเหล่านี้กับเหตุผลที่มนุษย์สามารถอ่านได้ หากตัวแทนแนะนำเที่ยวบินใดเที่ยวบินหนึ่ง ผู้ใช้จำเป็นต้องทราบสาเหตุ อินเทอร์เฟซไม่สามารถซ่อนอยู่หลังคำแนะนำทั่วไปได้ จะต้องเปิดเผยข้อมูลพื้นฐานพื้นฐาน: Logic: Cheapest_Direct_Flight หรือ Logic: Partner_Airline_Priority รูปที่ 4 แสดงให้เห็นถึงขั้นตอนการแปลนี้ เราใช้ระบบดิบแบบดั้งเดิม — ตรรกะของโค้ดจริง — และแมปมันกับสตริงที่ผู้ใช้เผชิญหน้ากัน ตัวอย่างเช่น การตรวจสอบตารางปฏิทินแบบดั้งเดิมเพื่อกำหนดการประชุมจะกลายเป็นข้อความที่ชัดเจน: ฉันเสนอให้เป็น 16.00 นการประชุม. ความโปร่งใสระดับนี้ทำให้มั่นใจได้ว่าการกระทำของตัวแทนจะดูสมเหตุสมผลและเป็นประโยชน์ ช่วยให้ผู้ใช้สามารถตรวจสอบได้ว่าตัวแทนดำเนินการเพื่อประโยชน์สูงสุดของตนหรือไม่ ด้วยการเปิดเผยสิ่งดั้งเดิม เราได้เปลี่ยนกล่องดำให้เป็นกล่องกระจก เพื่อให้มั่นใจว่าผู้ใช้ยังคงมีอำนาจขั้นสุดท้ายในชีวิตดิจิทัลของตนเอง
การตั้งค่าเวทีสำหรับการออกแบบ การสร้างระบบตัวแทนจำเป็นต้องมีความเข้าใจทางจิตวิทยาและพฤติกรรมในระดับใหม่ มันบังคับให้เราก้าวไปไกลกว่าการทดสอบการใช้งานแบบเดิมๆ และเข้าสู่ขอบเขตของความไว้วางใจ ความยินยอม และความรับผิดชอบ วิธีการวิจัยที่เราได้พูดคุยกัน ตั้งแต่การพิสูจน์แบบจำลองทางจิตไปจนถึงการจำลองพฤติกรรมที่ไม่เหมาะสมและการสร้างตัวชี้วัดใหม่ ถือเป็นรากฐานที่จำเป็น แนวทางปฏิบัติเหล่านี้เป็นเครื่องมือสำคัญในการระบุเชิงรุกว่าระบบอัตโนมัติอาจล้มเหลวที่จุดใด และที่สำคัญกว่านั้นคือจะซ่อมแซมความสัมพันธ์ระหว่างผู้ใช้กับตัวแทนเมื่อเกิดข้อผิดพลาดได้อย่างไร การเปลี่ยนไปใช้ AI แบบเอเจนต์เป็นการกำหนดนิยามใหม่ของความสัมพันธ์ระหว่างผู้ใช้และระบบ เราไม่ได้ออกแบบเครื่องมือที่ตอบสนองต่อคำสั่งอีกต่อไป เรากำลังออกแบบสำหรับพันธมิตรที่ดำเนินการในนามของเรา สิ่งนี้จะเปลี่ยนความจำเป็นในการออกแบบจากประสิทธิภาพและความง่ายในการใช้งานไปสู่ความโปร่งใส การคาดการณ์ได้ และการควบคุม เมื่อ AI สามารถจองเที่ยวบินหรือซื้อขายหุ้นโดยไม่ต้องคลิกครั้งสุดท้าย การออกแบบ "ทางลาด" และ "ทางลาด" จะกลายเป็นสิ่งสำคัญยิ่ง เป็นความรับผิดชอบของเราที่จะต้องแน่ใจว่าผู้ใช้รู้สึกว่าตนเองอยู่ในที่นั่งคนขับ แม้ว่าจะมอบพวงมาลัยแล้วก็ตาม ความเป็นจริงใหม่นี้ยังยกระดับบทบาทของนักวิจัย UX อีกด้วย เรากลายเป็นผู้ดูแลความไว้วางใจของผู้ใช้ โดยทำงานร่วมกับวิศวกรและผู้จัดการผลิตภัณฑ์เพื่อกำหนดและทดสอบขอบเขตความเป็นอิสระของตัวแทน นอกเหนือจากการเป็นนักวิจัยแล้ว เรายังสนับสนุนการควบคุมผู้ใช้ ความโปร่งใส และการคุ้มครองทางจริยธรรมภายในกระบวนการพัฒนา ด้วยการแปลคำถามพื้นฐานเป็นคำถามเชิงปฏิบัติและจำลองสถานการณ์ที่เลวร้ายที่สุด เราสามารถสร้างระบบที่แข็งแกร่งซึ่งมีทั้งประสิทธิภาพและปลอดภัย บทความนี้ได้สรุป "อะไร" และ "ทำไม" ของการค้นคว้าเกี่ยวกับ AI แบบเอเจนต์ แสดงให้เห็นว่าชุดเครื่องมือแบบเดิมๆ ของเรายังไม่เพียงพอ และเราต้องนำวิธีการใหม่ที่มองไปข้างหน้ามาใช้ บทความถัดไปจะสร้างบนรากฐานนี้ โดยนำเสนอรูปแบบการออกแบบเฉพาะและแนวปฏิบัติขององค์กรที่ทำให้ยูทิลิตี้ของตัวแทนมีความโปร่งใสต่อผู้ใช้ เพื่อให้แน่ใจว่าพวกเขาจะสามารถควบคุมพลังของ AI ตัวแทนด้วยความมั่นใจและการควบคุม อนาคตของ UX คือการสร้างระบบที่น่าเชื่อถือ เพื่อความเข้าใจเพิ่มเติมเกี่ยวกับ Agent AI คุณสามารถสำรวจแหล่งข้อมูลต่อไปนี้:
บล็อก Google AI เกี่ยวกับ Agentic AI การวิจัยของ Microsoft เกี่ยวกับ AI Agent