خود مختار ایجنٹوں کے لیے ڈیزائننگ ایک انوکھی مایوسی پیش کرتی ہے۔ ہم ایک پیچیدہ کام کو AI کے حوالے کرتے ہیں، یہ 30 سیکنڈ (یا 30 منٹ) کے لیے غائب ہو جاتا ہے اور پھر نتیجہ کے ساتھ واپس آجاتا ہے۔ ہم اسکرین کو گھورتے ہیں۔ کیا یہ کام ہوا؟ کیا یہ hallucinate تھا؟ کیا اس نے تعمیل ڈیٹا بیس کو چیک کیا یا اس قدم کو چھوڑ دیا؟ ہم عام طور پر اس پریشانی کا جواب دو انتہاؤں میں سے ایک کے ساتھ دیتے ہیں۔ ہم یا تو سسٹم کو بلیک باکس رکھتے ہیں، سادگی کو برقرار رکھنے کے لیے ہر چیز کو چھپاتے ہیں، یا ہم گھبرا کر ڈیٹا ڈمپ فراہم کرتے ہیں، ہر لاگ لائن اور API کال کو صارف کو سٹریم کرتے ہیں۔ کوئی بھی نقطہ نظر صارفین کو شفافیت کی مثالی سطح فراہم کرنے کے لیے درکار اہمیت کو براہ راست نہیں دیتا۔ بلیک باکس صارفین کو بے اختیار محسوس کرتا ہے۔ ڈیٹا ڈمپ نوٹیفکیشن کا اندھا پن پیدا کرتا ہے، جس سے ایجنٹ کی جانب سے فراہم کرنے کا وعدہ کیا گیا کارکردگی کو ختم کر دیتا ہے۔ صارفین معلومات کے مسلسل سلسلے کو اس وقت تک نظر انداز کرتے ہیں جب تک کہ کوئی چیز ٹوٹ نہ جائے، اس وقت ان کے پاس اسے ٹھیک کرنے کے لیے سیاق و سباق کی کمی ہوتی ہے۔ ہمیں توازن تلاش کرنے کے لیے ایک منظم طریقے کی ضرورت ہے۔ میرے پچھلے مضمون، "Designing For Agentic AI" میں، ہم نے ایسے انٹرفیس عناصر کو دیکھا جو اعتماد پیدا کرتے ہیں، جیسے AI کی مطلوبہ کارروائی کو پہلے سے دکھانا (Intent Previews) اور صارفین کو یہ کنٹرول دینا کہ AI خود کتنا کام کرتا ہے (خودمختاری ڈائلز)۔ لیکن یہ جاننا کہ کون سے عناصر کو استعمال کرنا ہے چیلنج کا صرف ایک حصہ ہے۔ ڈیزائنرز کے لیے مشکل سوال یہ جاننا ہے کہ انہیں کب استعمال کرنا ہے۔ آپ کو کیسے پتہ چلے گا کہ 30 سیکنڈ کے ورک فلو میں کس مخصوص لمحے کے لیے ایک Intent Preview کی ضرورت ہے اور جسے ایک سادہ لاگ انٹری کے ساتھ ہینڈل کیا جا سکتا ہے؟ یہ مضمون اس سوال کا جواب دینے کا طریقہ فراہم کرتا ہے۔ ہم فیصلہ نوڈ آڈٹ کے ذریعے چلیں گے۔ اس عمل سے ڈیزائنرز اور انجینئرز کو ایک ہی کمرے میں یوزر انٹرفیس پر بیک اینڈ لاجک کا نقشہ ملتا ہے۔ آپ سیکھیں گے کہ کس طرح عین لمحات کی نشاندہی کرنا ہے کہ صارف کو AI کیا کر رہا ہے اس پر اپ ڈیٹ کی ضرورت ہے۔ ہم ایک امپیکٹ/رسک میٹرکس کا بھی احاطہ کریں گے جو اس بات کو ترجیح دینے میں مدد کرے گا کہ کون سے فیصلہ نوڈس کو ظاہر کرنا ہے اور اس فیصلے کے ساتھ جوڑا بنانے کے لیے کسی بھی متعلقہ ڈیزائن پیٹرن کو۔ شفافیت کے لمحات: ایک کیس اسٹڈی کی مثال میریڈیئن (اصل نام نہیں) پر غور کریں، ایک انشورنس کمپنی جو ابتدائی حادثاتی دعووں پر کارروائی کرنے کے لیے ایجنٹ AI کا استعمال کرتی ہے۔ صارف گاڑی کے نقصان کی تصاویر اور پولیس رپورٹ اپ لوڈ کرتا ہے۔ پھر ایجنٹ خطرے کی تشخیص اور مجوزہ ادائیگی کی حد کے ساتھ واپس آنے سے پہلے ایک منٹ کے لیے غائب ہو جاتا ہے۔ ابتدائی طور پر، میریڈیئن کے انٹرفیس نے صرف دعویٰ کی حیثیت کا حساب لگانا دکھایا۔ صارفین مایوس ہو گئے۔ انہوں نے کئی تفصیلی دستاویزات جمع کرائے تھے اور اس بارے میں غیر یقینی محسوس کیا کہ آیا AI نے پولیس رپورٹ کا بھی جائزہ لیا ہے، جس میں حالات کو کم کرنے والے حالات شامل تھے۔ بلیک باکس نے عدم اعتماد پیدا کیا۔ اسے ٹھیک کرنے کے لیے، ڈیزائن ٹیم نے فیصلہ نوڈ آڈٹ کیا۔ انہوں نے پایا کہ AI نے تین الگ الگ، امکانات پر مبنی اقدامات کیے، جن میں بہت سے چھوٹے قدم شامل ہیں:
تصویری تجزیہ ایجنٹ نے مرمت کی لاگت کا تخمینہ لگانے کے لیے عام کار حادثے کے منظرناموں کے ڈیٹا بیس سے نقصان کی تصاویر کا موازنہ کیا۔ اس میں اعتماد کا سکور شامل تھا۔ متنی جائزہ اس نے پولیس رپورٹ کو مطلوبہ الفاظ کے لیے اسکین کیا جو ذمہ داری کو متاثر کرتے ہیں (مثلاً، غلطی، موسمی حالات، سنجیدگی)۔ اس میں قانونی حیثیت کا امکانی جائزہ شامل تھا۔ پالیسی کراس حوالہ یہ صارف کی مخصوص پالیسی کی شرائط کے خلاف دعوے کی تفصیلات سے مماثل ہے، استثناء یا کوریج کی حدود کی تلاش میں۔ اس میں امکانی ملاپ بھی شامل تھی۔
ٹیم نے ان اقدامات کو شفافیت کے لمحات میں بدل دیا۔ انٹرفیس کی ترتیب کو اپ ڈیٹ کیا گیا تھا:
نقصان کی تصاویر کا اندازہ لگانا: 500 گاڑیوں کے اثرات والے پروفائلز سے موازنہ کرنا۔ پولیس رپورٹ کا جائزہ لینا: ذمہ داری کے مطلوبہ الفاظ اور قانونی نظیر کا تجزیہ کرنا۔ پالیسی کوریج کی تصدیق کرنا: اپنے پلان میں مخصوص اخراج کی جانچ کرنا۔
سسٹم نے ابھی بھی اتنا ہی وقت لیا، لیکن ایجنٹ کے اندرونی کام کے بارے میں واضح مواصلت نے صارف کا اعتماد بحال کیا۔ صارفین سمجھ گئے کہ AI اس پیچیدہ کام کو انجام دے رہا ہے جس کے لیے اسے ڈیزائن کیا گیا تھا، اور وہ بالکل جانتے تھے کہ اگر حتمی تشخیص غلط معلوم ہوتا ہے تو اپنی توجہ کہاں مرکوز کرنی ہے۔ اس ڈیزائن کے انتخاب نے پریشانی کے لمحے کو صارف کے ساتھ رابطے کے لمحے میں بدل دیا۔ امپیکٹ/رسک میٹرکس کا اطلاق: ہم نے کیا چھپانے کا انتخاب کیا۔ زیادہ تر AI تجربات میں واقعات اور فیصلہ نوڈس کی کوئی کمی نہیں ہے جو پروسیسنگ کے دوران ممکنہ طور پر ظاہر کیے جا سکتے ہیں۔ آڈٹ کے سب سے اہم نتائج میں سے ایک یہ فیصلہ کرنا تھا کہ کس چیز کو پوشیدہ رکھنا ہے۔ میریڈیئن مثال میں، بیک اینڈ لاگز نے فی دعویٰ 50+ ایونٹس بنائے۔ ہم ہر ایونٹ کو ظاہر کرنے کے لیے ڈیفالٹ کر سکتے تھے کیونکہ ان پر UI کے حصے کے طور پر کارروائی کی گئی تھی۔ اس کے بجائے، ہم نے ان کی کٹائی کے لیے رسک میٹرکس کا اطلاق کیا:
لاگ ایونٹ: پنگنگ سرورفالتو پن کی جانچ کے لیے West-2۔ فلٹر کا فیصلہ: چھپائیں۔ (کم داؤ، اعلی تکنیکی)
لاگ ایونٹ: مرمت کے تخمینے کا بلیو بک ویلیو سے موازنہ کرنا۔ فلٹر کا فیصلہ: دکھائیں۔ (ہائی سٹیکس، صارف کی ادائیگی کو متاثر کرتا ہے)۔
غیر ضروری تفصیلات کو کاٹ کر، اہم معلومات — جیسے کوریج کی تصدیق — زیادہ اثر انگیز تھی۔ ہم نے ایک کھلا انٹرفیس بنایا اور ایک کھلا تجربہ ڈیزائن کیا۔ یہ نقطہ نظر اس خیال کو استعمال کرتا ہے کہ لوگ کسی خدمت کے بارے میں بہتر محسوس کرتے ہیں جب وہ کام ہوتے دیکھ سکتے ہیں۔ مخصوص مراحل (تشخیص کرنا، جائزہ لینا، تصدیق کرنا)، ہم نے 30 سیکنڈ کے انتظار کو پریشانی کے وقت ("کیا یہ ٹوٹ گیا ہے؟") سے ایسے وقت میں تبدیل کر دیا ہے جیسے کوئی قیمتی چیز تخلیق ہو رہی ہے ("یہ سوچ رہی ہے")۔ آئیے اب اس پر گہری نظر ڈالتے ہیں کہ ہم کس طرح اپنی مصنوعات میں فیصلہ سازی کے عمل کا جائزہ لے سکتے ہیں تاکہ ان اہم لمحات کی نشاندہی کی جا سکے جن کے لیے واضح معلومات کی ضرورت ہوتی ہے۔ فیصلہ نوڈ آڈٹ شفافیت اس وقت ناکام ہو جاتی ہے جب ہم اسے ایک فنکشنل ضرورت کے بجائے طرز انتخاب کے طور پر دیکھتے ہیں۔ ہمارے پاس یہ پوچھنے کا رجحان ہے، "UI کو کیسا نظر آنا چاہیے؟" اس سے پہلے کہ ہم پوچھیں، "ایجنٹ اصل میں کیا فیصلہ کر رہا ہے؟" فیصلہ نوڈ آڈٹ AI سسٹم کو سمجھنے میں آسان بنانے کا ایک سیدھا سا طریقہ ہے۔ یہ سسٹم کے اندرونی عمل کو احتیاط سے نقشہ بنا کر کام کرتا ہے۔ اصل مقصد یہ ہے کہ صحیح لمحات کو تلاش کریں اور واضح طور پر اس کی وضاحت کریں جہاں سسٹم اپنے مقررہ اصولوں پر عمل کرنا چھوڑ دیتا ہے اور اس کے بجائے موقع یا تخمینہ کی بنیاد پر انتخاب کرتا ہے۔ اس ڈھانچے کو نقشہ بنا کر، تخلیق کار غیر یقینی صورتحال کے ان نکات کو براہ راست نظام استعمال کرنے والے لوگوں کو دکھا سکتے ہیں۔ یہ سسٹم اپ ڈیٹس کو مبہم بیانات سے مخصوص، قابل اعتماد رپورٹس میں تبدیل کرتا ہے کہ AI اپنے نتیجے پر کیسے پہنچا۔ اوپر انشورنس کیس اسٹڈی کے علاوہ، میں نے حال ہی میں پروکیورمنٹ ایجنٹ بنانے والی ٹیم کے ساتھ کام کیا۔ سسٹم نے وینڈر کے معاہدوں اور جھنڈے والے خطرات کا جائزہ لیا۔ اصل میں، اسکرین نے ایک سادہ پروگریس بار دکھایا: "معاہدوں کا جائزہ لینا۔" صارفین نے اس سے نفرت کی۔ ہماری تحقیق نے اشارہ کیا کہ وہ گمشدہ شق کے قانونی مضمرات کے بارے میں فکر مند ہیں۔ ہم نے فیصلہ نوڈ آڈٹ کر کے اسے ٹھیک کیا۔ میں نے اس مضمون کے اختتام پر یہ آڈٹ کرنے کے لیے مرحلہ وار چیک لسٹ شامل کی ہے۔ ہم نے انجینئرز کے ساتھ ایک سیشن چلایا اور بتایا کہ سسٹم کیسے کام کرتا ہے۔ ہم نے "فیصلے کے نکات" کی نشاندہی کی — وہ لمحات جہاں AI کو دو اچھے اختیارات میں سے انتخاب کرنا تھا۔ معیاری کمپیوٹر پروگراموں میں، عمل واضح ہے: اگر A ہوتا ہے، تو B ہمیشہ ہوتا ہے۔ AI نظاموں میں، عمل اکثر موقع پر مبنی ہوتا ہے۔ AI کا خیال ہے کہ A شاید بہترین انتخاب ہے، لیکن یہ صرف 65 فیصد یقینی ہو سکتا ہے۔ کنٹریکٹ سسٹم میں، ہمیں ایک لمحہ ملا جب AI نے ہماری کمپنی کے قوانین کے خلاف ذمہ داری کی شرائط کی جانچ کی۔ یہ شاذ و نادر ہی ایک بہترین میچ تھا۔ AI کو فیصلہ کرنا تھا کہ آیا 90% میچ کافی اچھا تھا۔ یہ فیصلہ کن نکتہ تھا۔
ایک بار جب ہم نے اس نوڈ کی نشاندہی کی، ہم نے اسے صارف کے سامنے ظاہر کیا۔ "معاہدوں کا جائزہ لینے" کے بجائے، انٹرفیس کو یہ کہتے ہوئے اپ ڈیٹ کیا گیا: "ذمہ داری کی شق معیاری ٹیمپلیٹ سے مختلف ہوتی ہے۔ خطرے کی سطح کا تجزیہ کرنا۔" اس مخصوص اپ ڈیٹ نے صارفین کو اعتماد دیا۔ وہ جانتے تھے کہ ایجنٹ نے ذمہ داری کی شق کی جانچ کی ہے۔ انہوں نے تاخیر کی وجہ سمجھ لی اور اعتماد حاصل کیا کہ مطلوبہ کارروائی پچھلے سرے پر ہو رہی ہے۔ وہ یہ بھی جانتے تھے کہ ایک بار جب ایجنٹ معاہدہ کر لے تو کہاں گہرائی میں کھودنا ہے۔ یہ چیک کرنے کے لیے کہ AI کس طرح فیصلے کرتا ہے، آپ کو اپنے انجینئرز، پروڈکٹ مینیجرز، کاروباری تجزیہ کاروں، اور اہم لوگوں کے ساتھ مل کر کام کرنے کی ضرورت ہے جو انتخاب کر رہے ہیں (اکثر چھپے ہوئے) جو AI ٹول کے کام کرنے کے طریقے کو متاثر کرتے ہیں۔ ٹول کی طرف سے کیے جانے والے اقدامات کی وضاحت کریں۔ ہر اس جگہ کو نشان زد کریں جہاں عمل کی سمت بدل جاتی ہے کیونکہ ایک امکان پورا ہوتا ہے۔ یہ وہ جگہیں ہیں جہاں آپ کو زیادہ شفاف ہونے پر توجہ دینی چاہیے۔ جیسا کہ ذیل میں تصویر 2 میں دکھایا گیا ہے، فیصلہ نوڈ آڈٹ میں یہ اقدامات شامل ہیں:
ٹیم کو اکٹھا کریں: پروڈکٹ کے مالکان، کاروباری تجزیہ کاروں، ڈیزائنرز، اہم فیصلہ سازوں، اور AI بنانے والے انجینئرز کو شامل کریں۔ مثال کے طور پر، گندے قانونی معاہدوں کا جائزہ لینے کے لیے ڈیزائن کردہ ایک AI ٹول بنانے والی پروڈکٹ ٹیم کے بارے میں سوچیں۔ ٹیم میں UX ڈیزائنر، پروڈکٹ مینیجر، UX محقق، ایک پریکٹس کرنے والا وکیل جو موضوع کے ماہر کے طور پر کام کرتا ہے، اور بیک اینڈ انجینئر جس نے متن کے تجزیہ کوڈ لکھا ہے۔
پورا عمل تیار کریں: صارف کی پہلی کارروائی سے لے کر حتمی نتیجہ تک AI کے ہر قدم کی دستاویز کریں۔ ٹیم ایک وائٹ بورڈ پر کھڑی ہے اور کلیدی ورک فلو کے لیے پوری ترتیب کا خاکہ بناتی ہے جس میں AI ایک پیچیدہ معاہدے میں ذمہ داری کی شق کی تلاش میں شامل ہوتا ہے۔ وکیل اپ لوڈ کرتا ہے۔پچاس صفحات پر مشتمل پی ڈی ایف → سسٹم دستاویز کو پڑھنے کے قابل متن میں تبدیل کرتا ہے۔ → AI ذمہ داری کی شقوں کے لیے صفحات کو اسکین کرتا ہے۔ → صارف انتظار کر رہا ہے۔ → لمحات یا منٹ بعد، ٹول یوزر انٹرفیس پر پیلے رنگ میں پائے گئے پیراگراف کو نمایاں کرتا ہے۔ وہ یہ کام بہت سے دوسرے ورک فلو کے لیے کرتے ہیں جن کو ٹول بھی ایڈجسٹ کرتا ہے۔
تلاش کریں جہاں چیزیں غیر واضح ہیں: کسی بھی جگہ کے لیے پراسیس میپ کو دیکھیں جہاں AI آپشنز یا ان پٹس کا موازنہ کرتا ہے جن میں ایک بھی مکمل مماثلت نہیں ہے۔ ٹیم مبہم اقدامات کو دیکھنے کے لیے وائٹ بورڈ کو دیکھتی ہے۔ تصویر کو متن میں تبدیل کرنا سخت اصولوں کی پیروی کرتا ہے۔ ایک مخصوص ذمہ داری کی شق کو تلاش کرنے میں اندازہ لگانا شامل ہے۔ ہر فرم ان شقوں کو مختلف طریقے سے لکھتی ہے، اس لیے AI کو ایک سے زیادہ آپشنز کا وزن کرنا پڑتا ہے اور درست الفاظ کی مماثلت تلاش کرنے کے بجائے پیشین گوئی کرنا ہوتی ہے۔
'بہترین اندازہ' کے مراحل کی شناخت کریں: ہر غیر واضح جگہ کے لیے، چیک کریں کہ آیا سسٹم اعتماد کا سکور استعمال کرتا ہے (مثال کے طور پر، کیا یہ 85% یقینی ہے؟) یہ وہ نکات ہیں جہاں AI حتمی انتخاب کرتا ہے۔ سسٹم کو اندازہ لگانا ہوگا (امکان دینا) کون سا پیراگراف معیاری ذمہ داری کی شق سے ملتے جلتے ہیں۔ یہ اپنے بہترین اندازے پر اعتماد کا سکور تفویض کرتا ہے۔ یہ اندازہ فیصلہ نوڈ ہے۔ انٹرفیس کو وکیل کو یہ بتانے کی ضرورت ہے کہ وہ ایک ممکنہ میچ کو نمایاں کر رہا ہے، بجائے اس کے کہ یہ بتانے کے کہ اسے حتمی شق ملی ہے۔
انتخاب کا جائزہ لیں: ہر انتخابی نقطہ کے لیے، مخصوص داخلی ریاضی یا موازنہ کا پتہ لگائیں (جیسے، کسی معاہدے کے کسی حصے کو پالیسی سے ملانا یا ٹوٹی ہوئی کار کی تصویر کا موازنہ خراب کار کی تصاویر کی لائبریری سے کرنا)۔ انجینئر وضاحت کرتا ہے کہ سسٹم ماضی کے فرم کیسز سے معیاری ذمہ داری کی شقوں کے ڈیٹا بیس سے مختلف پیراگراف کا موازنہ کرتا ہے۔ یہ امکانات کی بنیاد پر میچ کا فیصلہ کرنے کے لیے متن کی مماثلت کے اسکور کا حساب لگاتا ہے۔
واضح وضاحتیں لکھیں: صارف کے لیے ایسے پیغامات بنائیں جو AI کے انتخاب کے وقت ہونے والی مخصوص داخلی کارروائی کو واضح طور پر بیان کریں۔ مواد ڈیزائنر اس عین لمحے کے لیے ایک مخصوص پیغام لکھتا ہے۔ متن پڑھتا ہے: ممکنہ ذمہ داری کے خطرات کی نشاندہی کرنے کے لیے دستاویز کے متن کا معیاری فرم شقوں سے موازنہ کرنا۔
اسکرین کو اپ ڈیٹ کریں: "معاہدوں کا جائزہ لینا" جیسے مبہم پیغامات کو تبدیل کرتے ہوئے ان نئی، واضح وضاحتوں کو صارف کے انٹرفیس میں ڈالیں۔ ڈیزائن ٹیم عام پروسیسنگ پی ڈی ایف لوڈنگ اسپنر کو ہٹاتی ہے۔ وہ نئی وضاحت کو دستاویز دیکھنے والے کے بالکل اوپر واقع اسٹیٹس بار میں داخل کرتے ہیں جب کہ AI سوچتا ہے۔
اعتماد کے لیے چیک کریں: اس بات کو یقینی بنائیں کہ اسکرین کے نئے پیغامات صارفین کو کسی بھی انتظار کے وقت یا نتیجے کی ایک سادہ وجہ فراہم کرتے ہیں، جس سے انہیں زیادہ اعتماد اور بھروسہ محسوس کرنا چاہیے۔
اثر/ رسک میٹرکس ایک بار جب آپ AI کے عمل کو قریب سے دیکھیں گے، تو آپ کو ممکنہ طور پر بہت سے ایسے نکات مل جائیں گے جہاں یہ انتخاب کرتا ہے۔ ایک AI ایک پیچیدہ کام کے لیے درجنوں چھوٹے انتخاب کر سکتا ہے۔ ان سب کو دکھانے سے بہت زیادہ غیر ضروری معلومات پیدا ہوتی ہیں۔ آپ کو ان انتخابات کو گروپ کرنے کی ضرورت ہے۔ آپ ان انتخابوں کو ترتیب دینے کے لیے ایک امپیکٹ/رسک میٹرکس کا استعمال کر سکتے ہیں جس کی بنیاد پر AI کر رہا ہے۔ یہاں اثرات/خطرے کی پیمائش کی مثالیں ہیں: سب سے پہلے، کم داؤ اور کم اثر والے فیصلوں کی تلاش کریں۔ کم داؤ / کم اثر
مثال: فائل کے ڈھانچے کو منظم کرنا یا کسی دستاویز کا نام تبدیل کرنا۔ شفافیت کی ضرورت: کم سے کم۔ ایک ٹھیک ٹھیک ٹوسٹ نوٹیفکیشن یا لاگ انٹری کافی ہے۔ صارفین آسانی سے ان اعمال کو کالعدم کر سکتے ہیں۔
پھر اعلی داؤ اور اعلی اثر والے فیصلوں کی نشاندہی کریں۔ ہائی اسٹیکس / ہائی اثر
مثال: قرض کی درخواست کو مسترد کرنا یا اسٹاک ٹریڈ کو انجام دینا۔ شفافیت کی ضرورت: ہائی۔ ان اعمال کے لیے کام کے ثبوت کی ضرورت ہوتی ہے۔ نظام کو اس سے پہلے یا فوری طور پر اس کے کام کرتے ہوئے عقلیت کا مظاہرہ کرنا چاہیے۔
ایک مالیاتی تجارتی بوٹ پر غور کریں جو خرید و فروخت کے تمام آرڈرز کے ساتھ ایک جیسا سلوک کرتا ہے۔ یہ $5 کی تجارت کو اسی دھندلاپن کے ساتھ انجام دیتا ہے جیسا کہ $50,000 تجارت۔ صارفین سوال کر سکتے ہیں کہ آیا یہ ٹول بڑی ڈالر کی رقم پر ٹریڈنگ پر شفافیت کے ممکنہ اثرات کو تسلیم کرتا ہے۔ انہیں نظام کی ضرورت ہے کہ وہ ہائی اسٹیک ٹریڈز کے لیے اپنا کام روکے اور دکھائے۔ اس کا حل یہ ہے کہ کسی بھی لین دین کے لیے ایک ریویونگ لاجک سٹیٹ متعارف کرایا جائے جو ایک مخصوص ڈالر کی رقم سے زیادہ ہو، جس سے صارف فیصلہ کرنے سے پہلے فیصلہ کرنے والے عوامل کو دیکھ سکے۔ نمونوں پر نوڈس کی نقشہ سازی: ایک ڈیزائن پیٹرن سلیکشن روبرک ایک بار جب آپ اپنے تجربے کے کلیدی فیصلہ نوڈس کی شناخت کر لیتے ہیں، تو آپ کو یہ فیصلہ کرنا چاہیے کہ کون سا UI پیٹرن ہر ایک پر لاگو ہوتا ہے جسے آپ ڈسپلے کریں گے۔ Agentic AI کے لیے ڈیزائننگ میں، ہم نے پیٹرن متعارف کروائے جیسے انٹنٹ پیش نظارہ (ہائی اسٹیک کنٹرول کے لیے) اور ایکشن آڈٹ (سابقہ حفاظت کے لیے)۔ ان کے درمیان انتخاب کرنے کا فیصلہ کن عنصر الٹ پن ہے۔ ہم ہر ایک کو فلٹر کرتے ہیں۔درست پیٹرن تفویض کرنے کے لیے اثر میٹرکس کے ذریعے فیصلہ نوڈ: اعلی اسٹیک اور ناقابل واپسی: ان نوڈس کو ایک ارادے کے پیش نظارہ کی ضرورت ہوتی ہے۔ چونکہ صارف آسانی سے کارروائی کو کالعدم نہیں کر سکتا (جیسے ڈیٹا بیس کو مستقل طور پر حذف کرنا)، عمل درآمد سے پہلے شفافیت کا لمحہ ہونا چاہیے۔ سسٹم کو روکنا چاہیے، اپنے ارادے کی وضاحت کرنی چاہیے، اور تصدیق کی ضرورت ہے۔ ہائی سٹیکس اور ریورس ایبل: یہ نوڈس ایکشن آڈٹ اور انڈو پیٹرن پر بھروسہ کر سکتے ہیں۔ اگر AI سے چلنے والا سیلز ایجنٹ ایک مختلف پائپ لائن کی طرف لے جاتا ہے، تو یہ خود مختاری سے ایسا کر سکتا ہے جب تک کہ یہ صارف کو مطلع کرے اور فوری طور پر Undo بٹن پیش کرے۔ اس طرح نوڈس کی سختی سے درجہ بندی کرکے، ہم "انتباہ تھکاوٹ" سے بچتے ہیں۔ ہم اعلی رگڑ کے ارادے کا پیش نظارہ صرف حقیقی طور پر ناقابل واپسی لمحات کے لیے محفوظ رکھتے ہیں، جبکہ ہر چیز کے لیے رفتار برقرار رکھنے کے لیے ایکشن آڈٹ پر انحصار کرتے ہیں۔
الٹنے والا ناقابل واپسی کم اثر قسم: Auto-ExecuteUI: Passive Toast / LogEx: فائل کا نام تبدیل کرنا قسم: ConfirmUI: سادہ Undo optionEx: ای میل کو محفوظ کرنا اعلی اثر قسم: ReviewUI: Notification + Review TrailEx: ایک کلائنٹ کو ڈرافٹ بھیجنا قسم: ارادے کا پیش نظارہ UI: موڈل / واضح اجازتEx: سرور کو حذف کرنا
جدول 1: اس کے بعد اثرات اور ریورسبلٹی میٹرکس کا استعمال آپ کے شفافیت کے لمحات کو نمونوں کے ساتھ نقشہ بنانے کے لیے کیا جا سکتا ہے۔ معیار کی توثیق: "انتظار، کیوں؟" ٹیسٹ آپ وائٹ بورڈ پر ممکنہ نوڈس کی شناخت کر سکتے ہیں، لیکن آپ کو انسانی رویے کے ساتھ ان کی توثیق کرنی چاہیے۔ آپ کو اس بات کی تصدیق کرنے کی ضرورت ہے کہ آیا آپ کا نقشہ صارف کے ذہنی ماڈل سے میل کھاتا ہے۔ میں ایک پروٹوکول استعمال کرتا ہوں جسے "انتظار کرو، کیوں؟" ٹیسٹ کسی صارف سے ایجنٹ کو کام مکمل کرتے ہوئے دیکھنے کو کہیں۔ انہیں اونچی آواز میں بولنے کی ہدایت کریں۔ جب بھی وہ کوئی سوال پوچھتے ہیں، "رکو، اس نے ایسا کیوں کیا؟" یا "کیا یہ پھنس گیا ہے؟" یا "کیا اس نے مجھے سنا؟" - آپ ٹائم اسٹیمپ کو نشان زد کرتے ہیں۔ یہ سوالات صارف کی الجھن کا اشارہ دیتے ہیں۔ صارف محسوس کرتا ہے کہ ان کا کنٹرول ختم ہو رہا ہے۔ مثال کے طور پر، ہیلتھ کیئر شیڈولنگ اسسٹنٹ کے لیے ایک مطالعہ میں، صارفین نے ایجنٹ کو ملاقات کا وقت بکتے دیکھا۔ سکرین چار سیکنڈ تک ساکت بیٹھی رہی۔ شرکاء نے مسلسل پوچھا، "کیا یہ میرا کیلنڈر چیک کر رہا ہے یا ڈاکٹر کا؟"
اس سوال نے شفافیت کے گمشدہ لمحے کا انکشاف کیا۔ سسٹم کو اس چار سیکنڈ کے انتظار کو دو الگ الگ مراحل میں تقسیم کرنے کی ضرورت تھی: "اپنی دستیابی کی جانچ کرنا" کے بعد "فراہم کنندہ کے شیڈول کے ساتھ مطابقت پذیری"۔ اس چھوٹی سی تبدیلی نے صارفین کی بے چینی کی سطح کو کم کر دیا۔ شفافیت اس وقت ناکام ہوجاتی ہے جب یہ صرف سسٹم کی کارروائی کو بیان کرتی ہے۔ انٹرفیس کو تکنیکی عمل کو صارف کے مخصوص مقصد سے جوڑنا چاہیے۔ "اپنی دستیابی کی جانچ پڑتال" کو ظاہر کرنے والی اسکرین فلیٹ پڑ جاتی ہے کیونکہ اس میں سیاق و سباق کی کمی ہے۔ صارف سمجھتا ہے کہ AI ایک کیلنڈر کو دیکھ رہا ہے، لیکن وہ نہیں جانتے کہ ایسا کیوں ہے۔ ہمیں عمل کو نتیجہ کے ساتھ جوڑنا چاہیے۔ سسٹم کو اس چار سیکنڈ کے انتظار کو دو الگ الگ مراحل میں تقسیم کرنے کی ضرورت ہے۔ سب سے پہلے، انٹرفیس دکھاتا ہے "کھلے اوقات تلاش کرنے کے لیے اپنے کیلنڈر کو چیک کرنا۔" پھر یہ "آپ کی ملاقات کو محفوظ بنانے کے لیے فراہم کنندہ کے شیڈول کے ساتھ مطابقت پذیری" پر اپ ڈیٹ ہو جاتا ہے۔ یہ صارف کی حقیقی زندگی میں تکنیکی عمل کو بنیاد بناتا ہے۔ مقامی کیفے کے لیے AI کا انتظام کرنے والی انوینٹری پر غور کریں۔ سسٹم کو سپلائی کی کمی کا سامنا ہے۔ ایک انٹرفیس پڑھنا "وینڈر سے رابطہ کرنا" یا "آپشنز کا جائزہ لینا" پریشانی پیدا کرتا ہے۔ مینیجر حیران ہوتا ہے کہ آیا سسٹم آرڈر منسوخ کر رہا ہے یا کوئی مہنگا متبادل خرید رہا ہے۔ مطلوبہ نتیجہ کی وضاحت کرنا ایک بہتر طریقہ ہے: "آپ کے جمعہ کی ترسیل کے شیڈول کو برقرار رکھنے کے لیے متبادل سپلائرز کا جائزہ لینا۔" یہ صارف کو بالکل بتاتا ہے کہ AI کیا حاصل کرنے کی کوشش کر رہا ہے۔ آڈٹ کو فعال کرنا آپ نے فیصلہ نوڈ آڈٹ مکمل کر لیا ہے اور امپیکٹ اور رسک میٹرکس کے ذریعے اپنی فہرست کو فلٹر کر لیا ہے۔ اب آپ کے پاس شفاف ہونے کے لیے ضروری لمحات کی فہرست ہے۔ اگلا، آپ کو انہیں UI میں بنانے کی ضرورت ہے۔ اس قدم کے لیے مختلف محکموں میں ٹیم ورک کی ضرورت ہے۔ آپ ڈیزائن ٹول کا استعمال کرکے خود شفافیت کو ڈیزائن نہیں کرسکتے ہیں۔ آپ کو یہ سمجھنے کی ضرورت ہے کہ پردے کے پیچھے نظام کیسے کام کرتا ہے۔ ایک منطقی جائزہ کے ساتھ شروع کریں۔ اپنے لیڈ سسٹم ڈیزائنر سے ملیں۔ فیصلہ نوڈس کا اپنا نقشہ لائیں۔ آپ کو اس بات کی تصدیق کرنے کی ضرورت ہے کہ نظام دراصل ان ریاستوں کا اشتراک کر سکتا ہے۔ مجھے اکثر معلوم ہوتا ہے کہ تکنیکی نظام بالکل وہی حالت ظاہر نہیں کرتا جو میں دکھانا چاہتا ہوں۔ انجینئر کہہ سکتا ہے کہ سسٹم صرف ایک عام "کام کرنے والی" حیثیت واپس کرتا ہے۔ آپ کو ایک تفصیلی اپ ڈیٹ کے لیے دباؤ ڈالنا چاہیے۔ آپ کو ایک مخصوص نوٹس بھیجنے کے لیے سسٹم کی ضرورت ہے۔جب یہ متن پڑھنے سے قواعد کی جانچ پڑتال میں تبدیل ہوتا ہے۔ اس تکنیکی کنکشن کے بغیر، آپ کا ڈیزائن بنانا ناممکن ہے۔ اگلا، مواد ڈیزائن ٹیم کو شامل کریں۔ آپ کے پاس AI کی کارروائی کی تکنیکی وجہ ہے، لیکن آپ کو ایک واضح، انسان دوست وضاحت درکار ہے۔ انجینئرز بنیادی عمل فراہم کرتے ہیں، لیکن مواد کے ڈیزائنرز اس کے ابلاغ کا طریقہ فراہم کرتے ہیں۔ یہ پیغامات اکیلے نہ لکھیں۔ ایک ڈویلپر "Executing function 402" لکھ سکتا ہے جو کہ تکنیکی طور پر درست ہے لیکن صارف کے لیے بے معنی ہے۔ ایک ڈیزائنر "سوچ" لکھ سکتا ہے جو دوستانہ ہے لیکن بہت مبہم ہے۔ مواد کی حکمت عملی ساز صحیح درمیانی زمین تلاش کرتا ہے۔ وہ مخصوص جملے بناتے ہیں، جیسے "ذمہ داری کے خطرات کے لیے اسکیننگ"، جو یہ ظاہر کرتے ہیں کہ AI صارف کو الجھائے بغیر کام کر رہا ہے۔ آخر میں، اپنے پیغامات کی شفافیت کی جانچ کریں۔ یہ دیکھنے کے لیے کہ آیا ٹیکسٹ کام کرتا ہے حتمی پروڈکٹ تیار ہونے تک انتظار نہ کریں۔ میں سادہ پروٹو ٹائپس پر موازنہ ٹیسٹ کرتا ہوں جہاں صرف ایک چیز جو تبدیل ہوتی ہے وہ اسٹیٹس میسج ہے۔ مثال کے طور پر، میں ایک گروپ (گروپ اے) کو ایک پیغام دکھاتا ہوں جس میں کہا جاتا ہے کہ "شناخت کی تصدیق کرنا" اور دوسرے گروپ (گروپ بی) کو ایک پیغام دکھاتا ہوں جس میں کہا گیا ہے کہ "سرکاری ڈیٹا بیس کی جانچ پڑتال" (یہ بنائی گئی مثالیں ہیں، لیکن آپ بات کو سمجھتے ہیں)۔ پھر میں ان سے پوچھتا ہوں کہ کون سا AI زیادہ محفوظ محسوس کرتا ہے۔ آپ کو اکثر پتہ چلے گا کہ کچھ الفاظ پریشانی کا باعث بنتے ہیں، جبکہ دوسرے اعتماد پیدا کرتے ہیں۔ آپ کو الفاظ کو ایسی چیز سمجھنا چاہیے جس کی آپ کو جانچ کرنے اور مؤثر ثابت کرنے کی ضرورت ہے۔ یہ کس طرح ڈیزائن کے عمل کو تبدیل کرتا ہے۔ ان آڈٹس کا انعقاد ایک ٹیم کے ساتھ کام کرنے کے طریقے کو مضبوط کرنے کی صلاحیت رکھتا ہے۔ ہم پالش ڈیزائن فائلوں کو حوالے کرنا بند کر دیتے ہیں۔ ہم گندے پروٹو ٹائپس اور مشترکہ اسپریڈ شیٹس کا استعمال شروع کرتے ہیں۔ بنیادی ٹول شفافیت کا میٹرکس بن جاتا ہے۔ انجینئرز اور مواد ڈیزائنرز مل کر اس اسپریڈشیٹ میں ترمیم کرتے ہیں۔ وہ درست تکنیکی کوڈز کو ان الفاظ کے ساتھ نقشہ بناتے ہیں جنہیں صارف پڑھے گا۔ ٹیمیں منطقی جائزہ کے دوران رگڑ کا تجربہ کریں گی۔ تصور کریں کہ ایک ڈیزائنر انجینئر سے پوچھ رہا ہے کہ AI اخراجات کی رپورٹ پر جمع کرائے گئے لین دین کو مسترد کرنے کا فیصلہ کیسے کرتا ہے۔ انجینئر یہ کہہ سکتا ہے کہ بیک اینڈ صرف ایک عام اسٹیٹس کوڈ کو آؤٹ پٹ کرتا ہے جیسے "خرابی: ڈیٹا غائب"۔ ڈیزائنر کا کہنا ہے کہ یہ اسکرین پر قابل عمل معلومات نہیں ہے۔ ڈیزائنر ایک مخصوص تکنیکی ہک بنانے کے لیے انجینئر کے ساتھ بات چیت کرتا ہے۔ انجینئر ایک نیا قاعدہ لکھتا ہے لہذا سسٹم بالکل وہی رپورٹ کرتا ہے جو غائب ہے، جیسے کہ رسید کی گمشدہ تصویر۔ مواد ڈیزائنرز اس مرحلے کے دوران مترجم کے طور پر کام کرتے ہیں۔ ایک ڈویلپر تکنیکی طور پر درست سٹرنگ لکھ سکتا ہے جیسے "وینڈر کے مماثلت کے لیے اعتماد کی حد کا حساب لگانا"۔ ایک مواد ڈیزائنر اس سٹرنگ کا ایک ایسے فقرے میں ترجمہ کرتا ہے جو کسی خاص نتیجہ کے لیے اعتماد پیدا کرتا ہے۔ حکمت عملی اسے "آپ کی جمعہ کی ترسیل کو محفوظ بنانے کے لیے مقامی وینڈر کی قیمتوں کا موازنہ" کے طور پر دوبارہ لکھتا ہے۔ صارف عمل اور نتیجہ کو سمجھتا ہے۔ پوری کراس فنکشنل ٹیم صارف کے ٹیسٹنگ سیشن میں بیٹھتی ہے۔ وہ ایک حقیقی شخص کو مختلف اسٹیٹس میسجز پر ردعمل ظاہر کرتے ہوئے دیکھتے ہیں۔ صارف کی گھبراہٹ کو دیکھ کر کیونکہ اسکرین کہتی ہے "تجارت کو انجام دینا" ٹیم کو اپنے نقطہ نظر پر نظر ثانی کرنے پر مجبور کرتا ہے۔ انجینئرز اور ڈیزائنرز بہتر الفاظ پر سیدھ میں آتے ہیں۔ وہ اسٹاک خریدنے سے پہلے متن کو "کافی فنڈز کی تصدیق" میں تبدیل کرتے ہیں۔ ایک ساتھ جانچنا اس بات کی ضمانت دیتا ہے کہ حتمی انٹرفیس سسٹم کی منطق اور صارف کے ذہنی سکون دونوں کو پورا کرتا ہے۔ ٹیم کے کیلنڈر میں ان اضافی سرگرمیوں کو شامل کرنے کے لیے وقت درکار ہوتا ہے۔ تاہم، حتمی نتیجہ ایک ایسی ٹیم ہونا چاہئے جو زیادہ کھل کر بات چیت کرے، اور ایسے صارفین جو بہتر سمجھتے ہیں کہ ان کے AI سے چلنے والے ٹولز ان کی طرف سے کیا کر رہے ہیں (اور کیوں)۔ یہ مربوط نقطہ نظر واقعی قابل اعتماد AI تجربات کو ڈیزائن کرنے کا سنگ بنیاد ہے۔ ٹرسٹ ایک ڈیزائن چوائس ہے۔ ہم اکثر اعتماد کو صارف کے اچھے تجربے کے جذباتی ضمنی پروڈکٹ کے طور پر دیکھتے ہیں۔ قابل اعتبار مواصلات کے میکانکی نتیجہ کے طور پر اعتماد کو دیکھنا آسان ہے۔ ہم صحیح وقت پر صحیح معلومات دکھا کر اعتماد پیدا کرتے ہیں۔ ہم اسے صارف کو مغلوب کر کے یا مشینری کو مکمل طور پر چھپا کر تباہ کر دیتے ہیں۔ فیصلہ نوڈ آڈٹ کے ساتھ شروع کریں، خاص طور پر ایجنٹ AI ٹولز اور مصنوعات کے لیے۔ ان لمحات کو تلاش کریں جہاں نظام فیصلہ کال کرتا ہے۔ ان لمحات کو رسک میٹرکس پر نقشہ بنائیں۔ اگر داؤ زیادہ ہے تو، باکس کھولیں. کام دکھائیں۔ اگلے مضمون میں، ہم دیکھیں گے کہ ان لمحات کو کیسے ڈیزائن کیا جائے: کاپی کیسے لکھیں، UI کی ساخت کیسے بنائیں، اور ایجنٹ کے غلط ہونے پر ناگزیر غلطیوں کو ہینڈل کریں۔ ضمیمہ: فیصلہ نوڈ آڈٹ چیک لسٹ مرحلہ 1: سیٹ اپ اور میپنگ ✅ ٹیم کو اکٹھا کریں: پروڈکٹ کے مالکان، کاروباری تجزیہ کاروں، ڈیزائنرز کو شامل کریں،کلیدی فیصلہ ساز، اور انجینئرز جنہوں نے AI بنایا۔ اشارہ: آپ کو اصل پسدید منطق کی وضاحت کے لیے انجینئرز کی ضرورت ہے۔ اکیلے اس قدم کی کوشش نہ کریں۔ ✅ پورے عمل کو ڈرا کریں: صارف کی پہلی کارروائی سے لے کر حتمی نتیجہ تک AI کے ہر قدم کی دستاویز کریں۔ اشارہ: ایک فزیکل وائٹ بورڈ سیشن اکثر ان ابتدائی مراحل کو نکالنے کے لیے بہترین کام کرتا ہے۔ مرحلہ 2: پوشیدہ منطق کا پتہ لگانا ✅ تلاش کریں جہاں چیزیں غیر واضح ہیں: کسی بھی جگہ کے لیے عمل کے نقشے کو دیکھیں جہاں AI آپشنز یا ان پٹس کا موازنہ کرتا ہے جن میں ایک بھی مکمل مماثلت نہیں ہے۔ ✅ اندازہ لگانے کے بہترین مراحل کی شناخت کریں: ہر غیر واضح جگہ کے لیے، چیک کریں کہ آیا سسٹم اعتماد کا سکور استعمال کرتا ہے۔ مثال کے طور پر، پوچھیں کہ کیا سسٹم 85 فیصد یقینی ہے۔ یہ وہ نکات ہیں جہاں AI حتمی انتخاب کرتا ہے۔ ✅ انتخاب کی جانچ کریں: ہر انتخابی نقطہ کے لیے، مخصوص داخلی ریاضی یا موازنہ کا پتہ لگائیں۔ ایک مثال کسی معاہدے کے کسی حصے کو پالیسی سے ملانا ہے۔ ایک اور مثال میں ٹوٹی ہوئی کار کی تصویر کا نقصان کار کی تصاویر کی لائبریری سے موازنہ کرنا شامل ہے۔ مرحلہ 3: صارف کا تجربہ بنانا ✅ واضح وضاحتیں لکھیں: صارف کے لیے ایسے پیغامات بنائیں جو AI کے انتخاب کے وقت ہونے والی مخصوص داخلی کارروائی کو واضح طور پر بیان کریں۔ اشارہ: اپنے پیغامات کو ٹھوس حقیقت میں ڈھالیں۔ اگر کوئی AI مقامی کیفے میں کسی کلائنٹ کے ساتھ میٹنگ بک کرتا ہے، تو صارف کو بتائیں کہ سسٹم کیفے کے ریزرویشن سسٹم کو چیک کر رہا ہے۔ ✅ اسکرین کو اپ ڈیٹ کریں: ان نئی، واضح وضاحتوں کو یوزر انٹرفیس میں ڈالیں۔ اپنی مخصوص وضاحتوں کے ساتھ معاہدوں کا جائزہ لینے جیسے مبہم پیغامات کو تبدیل کریں۔ ✅ اعتماد کے لیے چیک کریں: اس بات کو یقینی بنائیں کہ اسکرین کے نئے پیغامات صارفین کو کسی بھی انتظار کے وقت یا نتیجے کی ایک سادہ وجہ فراہم کرتے ہیں۔ اس سے انہیں اعتماد اور بھروسہ محسوس کرنا چاہیے۔ اشارہ: ان پیغامات کو حقیقی صارفین کے ساتھ جانچیں تاکہ یہ تصدیق ہو سکے کہ وہ حاصل کیے جانے والے مخصوص نتائج کو سمجھتے ہیں۔