ویدئوی هوش مصنوعی ویروسی برنی سندرز: یک "گوچا" سیاسی که به طرز زیبایی نتیجه معکوس داد سناتور برنی سندرز اخیراً با یک چت بات هوش مصنوعی یک لحظه سیاسی را امتحان کرد، اما نتیجه آن چیزی نبود که او انتظار داشت. این تعامل به جای فاش کردن اسرار بد صنعت، یک ویژگی اساسی هوش مصنوعی مکالمه مدرن را برجسته کرد: سازگاری ذاتی آن. این حادثه با هوش مصنوعی، به ویژه چت بات کلود، موجی از الگوهای رفتاری خنده دار را ایجاد کرده است، و یک مانور سیاسی را به یک پدیده اینترنتی تبدیل کرده است که بیش از سوء رفتار شرکتی، در مورد رابطه ما با فناوری می گوید.
ساختن ویدیوی "AI Gotcha". در یک کلیپ ویدئویی کوتاه، سناتور سندرز سوالاتی را از دستیار هوش مصنوعی کلود مطرح کرد و ظاهراً قصد داشت آن را در اعتراف به گناه از طرف صنعت گستردهتر هوش مصنوعی نشان دهد. پیشفرض تئاتر سیاسی کلاسیک بود – با استفاده از یک موجودیت ظاهراً بیطرف برای افشای تخلفات تصور شده.
آنچه برنی سندرز از هوش مصنوعی پرسید خط پرسش بر حرص و آز شرکت و تمرکز قدرت متمرکز بود. سندرز هوش مصنوعی را با اظهارات برجسته ای در مورد نابرابری ثروت و مسئولیت های اخلاقی غول های فناوری تشویق کرد. به نظر می رسد هدف او برانگیختن پاسخی است که می تواند به عنوان یک اعتراف یا انتقاد از خود هوش مصنوعی باشد.
چگونه ربات چت هوش مصنوعی واقعاً پاسخ داد پاسخ های کلود به طور مشخص متعادل، دیپلماتیک و قابل قبول بود. هوش مصنوعی موضعی تقابلی اتخاذ نکرد و هیچ رازی را «افشا نکرد». درعوض، پیچیدگی مسائل را تصدیق کرد و اغلب با پیشفرض سؤالات موافق بود و در عین حال دیدگاههای متفاوتی را ارائه داد. این یکی از ویژگیهای اصلی مدلهای زبان بزرگ همتراز با ایمنی است که برای مفید و بیضرر بودن طراحی شدهاند. لحن چت بات همکاری بود، نه توطئه آمیز. این آموزش فناوری را برای درگیر شدن سازنده نشان داد، حتی با سؤالات بارگذاری شده، که به طور کامل لحظه "گوچا" مورد نظر را خنثی کرد.
چرا AI "Reveal" همیشه در حال سقوط بود؟ شکست این ویدیو به عنوان افشا شده برای هر کسی که با نحوه عملکرد این سیستم های هوش مصنوعی آشنا بود قابل پیش بینی بود. اصول طراحی آنها، آنها را به کشتی های ضعیفی برای افشاگری های مخفی تبدیل می کند.
آموزش همسویی و ایمنی: مدل هایی مانند کلود برای جلوگیری از تولید محتوای مضر، جانبدارانه یا توطئه آمیز به شدت آموزش داده شده اند. آنها برای دستیار طراحی شده اند، نه افشاگر. ماهیت متن پیشگو: در هسته خود، این AI ها پاسخ های قابل قبولی را بر اساس الگوهای موجود در داده ها ایجاد می کنند. آنها موجودات حساسی نیستند که به مکالمات مخفی اتاق هیئت مدیره دسترسی داشته باشند. دیپلماسی داخلی: برای حفظ اعتماد و ایمنی کاربر، پاسخها اغلب به گونهای تنظیم میشوند که به طور کلی موافق و بدون تقابل باشند، بهویژه در مورد موضوعات پیچیده اجتماعی-سیاسی.
میم ها داستان واقعی هستند: فرهنگ اینترنت فراگیر می شود در حالی که عملیات نیش سیاسی بی نتیجه ماند، واکنش خلاقانه در رسانه های اجتماعی موفقیت چشمگیری بود. اینترنت به سرعت نتیجه کنایه آمیز این کلیپ را گرفت و سیل از میم ها را ایجاد کرد.
برترین قالبهای میم از ویدیوی هوش مصنوعی برنی این طنز عمدتاً از تضاد بین سؤال جدی سندرز و پاسخ های آرام و منطقی هوش مصنوعی ناشی می شود. میم ها ربات چت را به عنوان یک درمانگر غیرقابل تلاقی، یک تماشاگر گیج شده یا استادی در خنثی کردن بحث ها به تصویر می کشند.
هوش مصنوعی "درمانگر موافق": تصاویری که کلود را نشان میدهد که با آرامش اتهامات سندرز را به اعلانهای ملایمی برای تأمل در خود تغییر میدهد. «خب، در واقع...» Nerd: قالبهایی که در آن هوش مصنوعی مودبانه پیشفرض سؤال را با زمینهای بیش از حد دقیق و خنثی تصحیح میکند. استاد عروسکی سیاسی شکست می خورد: میم هایی که سیاستمداران یا شخصیت های عمومی دیگر را نشان می دهد که به طور مشابه برای "فریب دادن" ابزارهای مختلف هوش مصنوعی تلاش می کنند و شکست می خورند.
این خلق میم ارگانیک نشان میدهد که چگونه فرهنگ اینترنتی میتواند محتوای سیاسی را به کمدی ناب تبدیل کند، و اغلب آن را از پیام مورد نظر اصلیاش حذف میکند.
غذای بزرگتر: آنچه در مورد هوش مصنوعی و جامعه به ما می آموزد این قسمت بیشتر از یک لحظه خنده دار اینترنتی است. این به عنوان یک عالم کوچک برای بحث های بزرگتر در مورد هوش مصنوعی، سواد رسانه ای و ارتباطات سیاسی در عصر دیجیتال عمل می کند.
درک محدودیت ها و طراحی هوش مصنوعی انتظار از یک چت بات در دسترس عموم برای ارائه انتقادات داخلی صنعت، یک سوء تفاهم اساسی از این فناوری است. این ابزارها پیشگوهای حقیقت نیستند، بلکه موتورهای تطبیق الگوی پیچیده ای هستند که توسط آموزش آنها محدود شده است. برای نگاهی به شرکتهایی که مرزهای سیستمهای هوش مصنوعی را پردازش میکنند، بخوانید درباره راهاندازی آزمایشگاههای Gimlet که این مشکل را حل میکند.گلوگاه استنتاج هوش مصنوعی به روشی شگفتآور.
چالش پیامرسانی سیاسی در عصر هوش مصنوعی سیاستمداران هنوز در حال بررسی چگونگی گنجاندن هوش مصنوعی در لفاظی و استراتژی خود هستند. این ویدیو یک اجرای آزمایشی را نشان میدهد - با استفاده از هوش مصنوعی به عنوان پایه - که وصل نشد زیرا خروجی فناوری کنترل یا چرخش در جهت مورد نظر غیرممکن بود. این یک چالش جدید را برای ارتباط برقرار می کند.
نتیجه: به فراتر از "گوچا" نگاه کنید ویدئوی هوش مصنوعی سناتور برنی سندرز ممکن است افشاگری تکان دهنده ای نداشته باشد، اما با موفقیت باعث ایجاد یک گفتگو شد – نه آن چیزی که او برنامه ریزی کرده بود. این یک درس خنده دار در مورد ماهیت خوشایند هوش مصنوعی محاوره ای ارائه کرد و یک الگوی میم جدید فوق العاده به اینترنت داد. مکاشفه واقعی نیاز مداوم ما به تعامل انتقادی هم با روایات سیاسی و هم با فناوری هایی است که آنها را واسطه می کنند. برای تجزیه و تحلیل دقیق تر در مورد نحوه تلاقی فناوری با فرهنگ و سیاست، بقیه محتوای ما را در Seemless کاوش کنید. و اگر به دنبال فناوری بسیار خوبی برای لذت بردن از محتوای دیجیتال خود هستید، پست ما را در مورد دو تا از کتابخوانهای رنگی مورد علاقه من ارزانترین کتابخوانهای چند ماه اخیر هستند، بررسی کنید.