امروز در Decoder، من با رونان فارو، یکی از بزرگترین ستاره های گزارش تحقیقی که امروز کار می کند، صحبت می کنم. او داستان هاروی واینستین را در میان بسیاری از افراد دیگر شکست. و همین هفته گذشته، او و اندرو مارانتز، یکی از نویسندگانش، یک ویژگی عمیق باورنکردنی در نیویورکر درباره سام آلتمن، مدیر عامل OpenAI، قابل اعتماد بودن او و ظهور خود OpenAI منتشر کردند.
یک یادداشت قبل از اینکه به اینجا ادامه دهیم - نیویورکر آن داستان را منتشر کرد و من و رونان این گفتگو را قبل از اینکه از گستردگی کامل حملات به خانه آلتمن مطلع باشیم، انجام دادیم، بنابراین شما نمیشنوید که مستقیماً در مورد آن صحبت کنیم. اما فقط برای گفتن آن، فکر میکنم خشونت از هر نوعی غیرقابل قبول است، این حملات به سام غیرقابل قبول بود، و آن نوع درماندگی که مردم احساس میکنند، که منجر به این نوع خشونت میشود، خود غیرقابل قبول است، و ارزش بررسی دقیقتر از سوی صنعت و رهبران سیاسی ما را دارد. امیدوارم واضح باشه
مشترکین همگام، فراموش نکنید که از هر کجا که پادکستهای خود را دریافت میکنید، به رمزگشای بدون آگهی دسترسی انحصاری دارید. به اینجا سر بزن مشترک نیستید؟ شما می توانید در اینجا ثبت نام کنید.
همه آنچه گفته شد، حول و حوش آلتمن می چرخد که یک بازی منصفانه برای گزارش گیری دقیق است – نوع گزارشی که رونان و اندرو قصد انجام آن را داشتند. به لطف محبوبیت ChatGPT، آلتمن به عنوان برجستهترین چهره صنعت هوش مصنوعی ظاهر شده است و تنها در چند سال یک آزمایشگاه تحقیقاتی غیرانتفاعی را به یک شرکت خصوصی تقریباً تریلیون دلاری تبدیل کرده است. اما اسطوره آلتمن عمیقاً در تضاد است، به همان اندازه با توانایی آشکار او در معامله و تمایل گزارش شده او به… خوب، دروغ گفتن به همه اطرافیانش تعریف می شود.
داستان بیش از 17000 کلمه است و احتمالاً حاوی گزارش قطعی از اتفاقی است که در سال 2023 رخ داد، زمانی که هیئت مدیره OpenAI به طور ناگهانی آلتمن را به دلیل دروغگویی ادعایی اش اخراج کرد، فقط برای اینکه او تقریباً بلافاصله دوباره استخدام شود. این همچنین یک فرو رفتن عمیق در زندگی شخصی آلتمن، سرمایهگذاریهای او، علاقهمندیاش به پول خاورمیانه، و بازتابهای خودش در مورد رفتار و ویژگیهای شخصیتی گذشتهاش است که باعث شد یک منبع بگوید او «حقیقت را محدود نمیکند». من واقعاً پیشنهاد می کنم کل داستان را بخوانید. من گمان می کنم که برای سال های آینده به آن ارجاع داده شود.
رونان در طول 18 ماهی که برای گزارش این قطعه صرف کرد، بارها با آلتمن صحبت کرد، و بنابراین یکی از چیزهای اصلی که من در مورد آن کنجکاو بودم این بود که آیا او تغییری در آلتمن در آن زمان احساس کرد یا خیر. از این گذشته، در یک سال و نیم گذشته اتفاقات زیادی در هوش مصنوعی، فناوری و در جهان افتاده است.
شما می شنوید که رونان به طور مستقیم در مورد آن صحبت می کند، و همچنین احساس او را مبنی بر اینکه مردم تمایل بیشتری به صحبت در مورد توانایی آلتمن در بیان حقیقت پیدا کرده اند. مردم با صدای بلند و با صدای بلند شروع به تعجب کرده اند که آیا رفتار افرادی مانند آلتمن نه تنها برای هوش مصنوعی یا فناوری بلکه برای آینده جمعی جامعه نیز نگران کننده است.
خوب: رونان فارو در مورد سم آلتمن، هوش مصنوعی و حقیقت. در اینجا ما می رویم.
این مصاحبه برای طولانی بودن و وضوح کمی ویرایش شده است.
رونان فارو، شما یک گزارشگر تحقیقی و مشارکت کننده در نیویورکر هستید. به Decoder خوش آمدید.
خوشحالم که اینجا هستم. از اینکه من را دارید متشکرم
من بسیار هیجان زده هستم که با شما صحبت می کنم. شما فقط یک قطعه بزرگ برای نیویورکر نوشتید. این نمایه سام آلتمن و به نوعی OpenAI است. مطالعه من از آن این است که، همانطور که همه ویژگی های عالی انجام می دهند، با گزارش های دقیق، احساسات بسیاری را که مردم برای مدت بسیار طولانی نسبت به سام آلتمن داشته اند، تأیید می کند. شما آشکارا آن را منتشر کرده اید، نسبت به آن واکنش هایی داشته اید. در حال حاضر چه احساسی نسبت به آن دارید؟
خوب، در واقع از میزان شکست آن در زمانی که اقتصاد توجه بسیار اسکیزوفرنی و سطحی است، دلگرم شده ام. این داستانی است که به نظر من همه ما را تحت تاثیر قرار می دهد. و زمانی که من یک سال و نیم از عمرم را گذراندم و نویسنده همکارم، اندرو مارانتز، نیز آن زمان را صرف کرد، و واقعاً تلاش کرد تا کاری قانونی و دقیق انجام دهد، همیشه به این دلیل است که احساس میکنم مسائل ساختاری بزرگتری وجود دارد که افراد فراتر از فرد و شرکت را در قلب داستان تحت تأثیر قرار میدهد.
سام آلتمن، در پسزمینه فرهنگ تبلیغاتی سیلیکون ولی و استارتآپهایی که بر اساس وعدههایی که ممکن است در آینده محقق شوند یا نشوند، به سمت ارزشگذاریهای عظیم حرکت میکنند، و استقبال روزافزون از فرهنگ بنیانگذار که فکر میکند گفتن چیزهای متضاد به گروههای مختلف یک ویژگی است، نه یک ویژگی.اشکال… حتی در آن پسزمینه، سم آلتمن یک مورد خارقالعاده است که در آن هرکسی در سیلیکون ولی که انتظار چنین چیزهایی را دارد، نمیتواند درباره این سوال در مورد اعتماد و صداقت او صحبت نکند.
ما قبلاً می دانستیم که او به دلیل برخی از اتهامات نادرستی یا دروغگویی سریالی اخراج شده است. اما بهطور خارقالعادهای، علیرغم این واقعیت که گزارشهای فوقالعادهای وجود داشته است، کیچ هیگی در این زمینه کار بزرگی انجام داده است. کارن هائو کار بزرگی در این زمینه انجام داده است. واقعاً درک قطعی از نکات اثبات ادعایی واقعی و دلایل دور ماندن آنها از چشم عموم وجود نداشت.
بنابراین نکته شماره یک این است که من از این واقعیت که برخی از این شکاف ها در دانش عمومی ما و حتی در دانش خودی های سیلیکون ولی اکنون کمی بیشتر پر شده است، احساس دلگرمی می کنم. برخی از دلایلی که خلأ وجود داشت کمی بیشتر پر شده است.
ما مواردی را گزارش میکنیم که در آن افراد در داخل این شرکت واقعاً احساس میکردند که چیزها پنهان شده یا عمداً مستند نشده است. یکی از چیزهای جدید در این داستان، تحقیقات شرکت حقوقی محوری توسط WilmerHale است، که بدیهی است یک شرکت حقوقی فانتزی، معتبر و بزرگ است که تحقیقاتی را در مورد Enron و WorldCom انجام داده است، که اتفاقاً، همه حجیم بودند، مانند صدها صفحه منتشر شده. ویلمرهیل این تحقیق را انجام داد که توسط اعضای هیئت مدیره که آلتمن را به عنوان شرط خروج از دستشان اخراج کرده بودند، درخواست کردند و او برگشت. و به طرز فوقالعادهای - از نظر بسیاری از کارشناسان حقوقی که با آنها صحبت کردم، و به طرز شگفتانگیزی از نظر بسیاری از افراد در این شرکت - آنها آن را از نوشتن دور نگه داشتند. تنها چیزی که از آن بیرون آمد، یک بیانیه مطبوعاتی 800 کلمه ای از OpenAI بود که آنچه را که اتفاق افتاد به عنوان شکست اعتماد توصیف می کرد. و ما تأیید کردیم که این موضوع در جلسات توجیهی شفاهی حفظ شده است.
مواردی وجود دارد که، برای مثال، یکی از اعضای هیئت مدیره ظاهراً میخواهد به تبدیل فرم غیرانتفاعی اولیه OpenAI به یک نهاد انتفاعی مخالفت کند و به عنوان ممتنع ثبت میشود. مانند یک وکیل در جلسه است که می گوید: "خب، این می تواند باعث بررسی بیش از حد شود." و فردی که می خواهد رای مخالف بدهد به عنوان ممتنع از همه ظواهر ثبت می شود. اختلاف واقعی وجود دارد همانطور که تصور می کنید OpenAI خلاف این را ادعا می کند. اینها همه مواردی است که شما شرکتی دارید که به حساب خود آینده ما را در دستان خود نگه می دارد.
خطرات ایمنی آنقدر حاد هستند که از بین نرفته اند. به همین دلیل است که این شرکت بهعنوان یک سازمان غیرانتفاعی با تمرکز بر ایمنی تأسیس شد، و همه چیز به گونهای پنهان میشد که افراد معتبر اطراف آن را کمتر حرفهای میدانستند. و شما آن را با پس زمینه ای که در آن اشتهای سیاسی بسیار کمی برای مقررات معنادار وجود دارد، جفت می کنید. من فکر می کنم این یک وضعیت بسیار قابل احتراق است.
نکته برای من فقط این نیست که سام آلتمن سزاوار این سوالات شدید است. همچنین این است که هر یک از این افراد در این زمینه، و بسیاری از چهرههای کلیدی، اگر نگوییم این خصیصه خاص دروغگویی را نشان میدهند، قطعاً تا حدودی ذهنیت رقابتی را نشان میدهند، جایی که افرادی که محافظان ایمنی بودند این تعهدات و وضعیت همه در مسابقه را پایین آوردهاند.
من فکر میکنم، همانطور که به درزهای اخیر از Anthropic نگاه میکنیم، شخصی وجود دارد که این سوال را مطرح میکند که چه کسی باید انگشت خود را روی دکمه در این قطعه بگذارد. پاسخ این است که اگر نظارت معنیداری نداشته باشیم، فکر میکنم باید سؤالات جدی بپرسیم و سعی کنیم تا آنجا که میتوانیم اطلاعاتی را درباره همه این افراد ارائه کنیم. بنابراین من از آنچه که به نظر می رسد یک گفتگوی معنادار در مورد آن، یا آغاز یک گفتگو است، دلگرم شده ام.
دلیل اینکه اینطور پرسیدم این بود که یک سال و نیم روی این موضوع کار کردید. به اعتقاد من، شما با 100 نفر با نویسنده همکارتان، اندرو، صحبت کردید. این مدت زمان زیادی برای پختن یک داستان است. به طور خاص به یک سال و نیم گذشته در هوش مصنوعی فکر می کنم، و پسر، نگرش ها و ارزش های همه این شخصیت ها خیلی سریع تغییر کرده است.
شاید چیزی بیشتر از سام آلتمن نباشد، که به عنوان برنده پیش فرض شروع به کار کرد زیرا ChatGPT را منتشر کرده بود و همه فکر می کردند که این فقط گوگل را در اختیار خواهد گرفت. و سپس گوگل پاسخ داد، که به نظر آنها را متعجب کرد که گوگل سعی خواهد کرد از تجارت خود محافظت کند، شاید یکی از بهترین مشاغل در تاریخ فناوری، اگر تاریخچه کسب و کار نباشد. Anthropic تصمیم گرفت که بر روی این شرکت تمرکز کند. به نظر می رسد که در حال پیشروی فرماندهی استوجود دارد زیرا استفاده سازمانی از هوش مصنوعی بسیار بالا است.
اکنون، OpenAI محصول خود را به دور از «ما قصد داریم در مقابل Google بگیریم» به Codex متمرکز میکند و آنها قرار است شرکت را به عهده بگیرند. من فقط نمی توانم کاملاً بگویم که آیا در طول گزارش شما در طول یک سال و نیم گذشته، آیا احساس می کنید شخصیت هایی که با آنها صحبت می کردید تغییر کرده اند؟ مانند نگرش ها و ارزش های آنها، آیا آنها تغییر کردند؟
بله. من فکر میکنم اول از همه، نقدی که در این مقاله بررسی میشود، از سوی بسیاری از افراد در این شرکتها در این مرحله - که این صنعتی است که، علیرغم مخاطرات موجود، در حال نزول به چیزی شبیه به یک مسابقه در زمینه ایمنی و جایی که سرعت بر همه چیز غلبه کرده است - این نگرانی شدیدتر شده است. و من فکر می کنم که این نگرانی ها با گذشت یک سال و نیم گذشته بیشتر مورد تایید قرار گرفته اند. به طور همزمان، نگرش در مورد سام آلتمن به طور خاص تغییر کرده است. زمانی که ما شروع به صحبت با منابع برای این موضوع کردیم، مردم واقعاً از نقل قول در مورد این موضوع و ثبت نام در این مورد بدبین بودند.
در پایان گزارش ما، شما مجموعهای از گزارشها دارید که در آن مردم به صراحت و آشکار در مورد این موضوع صحبت میکنند، و اعضای هیئتمدیره جملاتی مانند "او یک دروغگوی بیمارگونه است. او یک جامعهشناس است." طیف وسیعی از دیدگاهها وجود دارد: «با توجه به ریسکهای ایمنی، این خطرناک است، و ما به رهبران این فناوری نیاز داریم که یکپارچگی بالایی داشته باشند»، تا حدی که میپسندیم، «مشکلهای ایمنی را فراموش کنید، این رفتاری است که برای هر مدیری از هر شرکت بزرگی قابل دفاع نیست، زیرا باعث ایجاد اختلال بیش از حد میشود».
بنابراین گفتگو بسیار صریح تر شده است، به گونه ای که شاید دیر به نظر می رسد، اما از یک نظر دلچسب است. و سم آلتمن، به اعتبار او... این قطعه برای سام بسیار منصفانه و حتی سخاوتمندانه است. این از آن نوع قطعهای نیست که در آن چیزهای زیادی وجود داشته باشد. من ساعت های زیادی را با او تلفنی گذراندم که در حال تکمیل این موضوع بودیم و واقعاً صدای او را شنیدم.
همانطور که می توانید تصور کنید، در قطعه ای مانند این، همه چیز به آن وارد نمی شود. برخی از این موارد در این یکی به این دلیل بود که من صادقانه گوش می کردم. و اگر سام واقعاً استدلالی میکرد که من احساس میکردم که چیزی، حتی اگر درست باشد، میتواند هیجانانگیز باشد، من واقعاً در مورد حفظ این پزشکی قانونی و اندازهگیری اشتباه کردم. بنابراین من فکر میکنم که به درستی دریافت شده است، و فقط امیدوارم این سابقه واقعی که در این مدت زمان انباشته شده است بتواند گفتوگوی قویتری درباره نیاز به نظارت ایجاد کند.
این در واقع سوال بعدی من است. فکر می کنم در طول گزارش این داستان ده ها بار با سام صحبت کردید. باز هم، این گفتگوهای زیادی در یک دوره زمانی طولانی است. آیا فکر می کردید سام در طول گزارش در طول یک سال و نیم گذشته تغییر کرده است؟
آره فکر میکنم یکی از جالبترین داستانهای فرعی این است که سم آلتمن نیز صریحتر از گذشته درباره این ویژگی صحبت میکند. ژست سام در این قطعه اینگونه نیست که «هیچ چیزی وجود ندارد، این درست نیست؛ من نمی دانم در مورد چه چیزی صحبت می کنید». حالتی که او دارد این است که میگوید این به یک گرایش مردم پسند و نوعی تنفر از تعارض نسبت داده میشود. او اذعان می کند که مشکلاتی برای او ایجاد کرده است، به ویژه در اوایل دوران حرفه ای اش.
او میگوید: «خب، من از آن گذشتهام، یا تا حدودی از آن گذشتهام.» فکر میکنم آنچه واقعاً برای من جالب است، تعداد افرادی است که با آنها صحبت میکنیم و نه فقط مدافعان ایمنی بودند، نه فقط محققین فنی اساسی که اغلب تمایل به داشتن این نگرانیهای ایمنی حاد دارند، بلکه سرمایهگذاران عملگرا و بزرگ نیز هستند. آنها حامیان سام هستند، که در برخی موارد به این سوال نگاه می کنند و حتی در مورد اینکه او نقشی کلیدی در بازگشت او پس از اخراج داشته است صحبت می کنند. حالا در این سؤال که آیا اصلاح شده است و این تغییر تا چه اندازه معنادار است، میگویند: «خب، ما در آن زمان به او منفعت دادیم».
من به طور خاص به یک سرمایه گذار برجسته فکر می کنم که گفت: «اما از آن زمان به بعد، به نظر می رسد که او را از پشت محوطه بیرون نبرده اند»، این عبارتی بود که این سرمایه گذار در حدی که لازم بود استفاده کرد. در نتیجه، به نظر می رسد که این اکنون یک ویژگی پایدار است. ما این را به صورت مداوم می بینیم. می توانید به برخی از بزرگترین تجارت OpenAI نگاه کنیدروابط و روشی که آنها به نوعی وزن این بی اعتمادی را به طور مداوم تحمل می کنند.
مانند مایکروسافت، شما با مدیران در آنجا صحبت می کنید و آنها واقعاً نگرانی های حاد و اخیراً تسریع کرده اند. این مورد وجود دارد که در همان روزی که OpenAI انحصار خود را با مایکروسافت در رابطه با مدلهای هوش مصنوعی بدون دولت تأیید میکند، همچنین قرارداد جدیدی را با آمازون اعلام میکند که مربوط به فروش راهحلهای سازمانی برای ساخت عوامل هوش مصنوعی است که دارای حافظه هستند، به این معنی که آنها حافظه دارند.
شما با افراد مایکروسافت صحبت میکنید، و آنها میگویند: «این کار بدون تعامل با موارد زیربنایی که ما یک قرارداد انحصاری داریم، امکانپذیر نیست.» بنابراین این تنها یکی از نمونههای کوچک بسیاری است که در آن این ویژگی همواره در فعالیتهای تجاری مداوم است و موضوع نگرانی فعال در هیئت مدیره OpenAI، مجموعه اجرایی آن و در جامعه فناوری گستردهتر است.
شما مدام این "خصلت" را می گویید. خطی در داستان وجود دارد که به نظر من شبیه پایان نامه است، و این توصیفی از خصیصه ای است که شما توصیف می کنید. این این است که «سام آلتمن در حقیقت محدودیتی ندارد» و «دو ویژگی دارد که تقریباً هرگز در یک فرد دیده نمیشود: اولی میل شدید به راضی کردن مردم، دوست داشتنی شدن در هر تعامل معینی، و دومی عدم نگرانی تقریباً اجتماعیگرایانه نسبت به عواقبی است که ممکن است از فریب دادن کسی به وجود آید».
باید به شما بگویم، من آن جمله را 500 بار خواندم و سعی کردم تصور کنم همیشه میگویم مردم چه چیزی را میخواهند دوست داشته باشند و بعد از اینکه احساس میکنند به آنها دروغ میگویند ناراحت نمیشوم. و من نتوانستم حالت عاطفی خود را بفهمم که چگونه آن چیزها می توانند در یک شخص وجود داشته باشند. شما با سام زیاد صحبت کرده اید و با افرادی که این ویژگی ها را تجربه کرده اند صحبت کرده اید. او چگونه این کار را انجام می دهد؟
آره این در سطح انسانی جالب است، زیرا من با تمرکز واقعی بر انسانی کردن هر کسی که در قلب آن قرار دارد و به دنبال درک عمیق و همدلی، به گزارشهایی مانند این رویکرد میکنم. وقتی سعی کردم از دیدگاه انسانیتر به این موضوع نزدیک شوم و بگویم: "هی، اگر بسیاری از افرادی که با آنها کار کردهام بگویند که من یک دروغگوی بیمارگونه هستم، این برای من ویرانگر خواهد بود. چگونه این وزن را تحمل میکنی؟ چگونه در مورد آن در درمان صحبت میکنی؟ داستانی که در مورد آن به خودت میگویی چیست؟"
به نظر من، ممکن است در مورد این موضوع به نوعی ابهامات ساحل غربی مانند "آره، من کار نفس را دوست دارم." اما نه چندان آن نوع احساس تقویتکنندهای از رویارویی عمیق با خود که فکر میکنم بسیاری از ما احتمالاً اگر این نوع بازخورد را در مورد رفتار و رفتارمان با مردم میدیدیم، داشتیم.
من فکر می کنم که در واقع به پاسخ گسترده تری به این سوال نیز می رسد. سام ادعا میکند که این ویژگی باعث ایجاد مشکلاتی شده است، اما همچنین بخشی از آن چیزی است که به او قدرت میدهد تا رشد OpenAI را آنقدر تسریع کند که بتواند گروههای مختلف مردم را متحد کند و خوشحال کند. او دائماً تمام این حوزههای متضاد را متقاعد میکند که آنچه آنها به آن اهمیت میدهند همان چیزی است که او به آن اهمیت میدهد. و این می تواند یک مهارت واقعا مفید برای یک بنیانگذار باشد. من با سرمایه گذارانی صحبت کرده ام که می گویند، "خب، شاید این مهارت کمتر مفیدی برای اداره یک شرکت باشد، زیرا باعث ایجاد اختلاف می شود."
اما از جنبه شخصی سام، من فکر میکنم چیزی که وقتی سعی میکنم در سطح انسانی با هم ارتباط برقرار کنم، فقدان آشکار رویارویی عمیقتر، تأمل، و مسئولیتپذیری شخصی است، که همچنین این ابرقدرت یا مسئولیت را برای شرکتی که برای IPO آماده میشود، نشان میدهد.
او کسی است که به قول یکی از اعضای سابق هیئت مدیره به نام سو یون، که در قطعه ضبط شده است و می گوید که عبارتی که او به کار می برد تا حد "بی عاطفه" است، واقعاً می تواند واقعیت در حال تغییر فروش هایش را باور کند یا می تواند خود را در مورد آنها متقاعد کند. یا حداقل اگر آنها را باور نمی کند، می تواند بدون شک و تردید به خود، آنها را از بین ببرد.
من فکر میکنم چیزی که شما در مورد آن صحبت میکنید، جایی که من یا شما ممکن است، در حالی که آن چیزی را میگوییم و متوجه میشویم که با اطمینان دیگری که دادهایم در تضاد است، به نوعی لحظهای یخ بزنیم یا خودمان را بررسی کنیم. من فکر می کنم که این اتفاق برای او نمی افتد. و فرهنگ تبلیغاتی گسترده تری در دره سیلیکون و فرهنگ بنیانگذار وجود دارد که به نوعی آن را می پذیرد.
خنده دار است The Verge بر اساس آنچه به بررسی یک محصول می رسد ساخته شده استبرنامه این قلب کاری است که ما اینجا انجام می دهیم. من سالی یک تریلیون دلار تحقیق و توسعه اپل نگه می دارم و می گویم: "این گوشی هفت است." و به نوعی به همه گزارشهای ما و نظرات ما در جاهای دیگر مشروعیت میبخشد. ما یک عملکرد ارزیابی داریم و زمان زیادی را صرف نگاه کردن به محصولات هوش مصنوعی می کنیم و می گوییم: "آیا آنها کار می کنند؟"
به نظر می رسد که در بسیاری از گفتگوها درباره هوش مصنوعی مانند امروز گم شده است. گفتگوهای بی پایانی در مورد آنچه که ممکن است انجام دهد، چقدر خطرناک است وجود دارد. و پس از آن، تمرین را انجام می دهید، و می گویید: "آیا واقعاً کاری را که امروز باید انجام دهد انجام می دهد؟" در برخی موارد، پاسخ مثبت است. اما در بسیاری از موارد، پاسخ منفی است.
این احساس میکند که به فرهنگ تبلیغاتی که توصیف میکنید مرتبط است و همچنین به این حس که، خوب، اگر بگویید قرار است کاری انجام دهد و این کار را نمیکند، و کسی احساس بدی داشته باشد، خوب است، زیرا ما به کار بعدی میرویم. این در گذشته است. و به ویژه در هوش مصنوعی، سم در دادن وعده های بزرگ بسیار خوب است.
همین هفته، فکر میکنم همان روزی که داستان شما منتشر شد، OpenAI یک سند سیاستی منتشر کرد که میگفت ما باید در قرارداد اجتماعی تجدید نظر کنیم و از دولت کمک هزینههای بهرهوری هوش مصنوعی بگیریم. این یک وعده بزرگ در مورد این است که چگونه برخی از فناوریها میتوانند آینده جهان و نحوه زندگی ما را شکل دهند، و همه اینها متکی است که فناوری دقیقاً به روشی عمل میکند که شاید قول داده شده یا باید کار کند.
آیا تا به حال متوجه شده اید که سام در تبدیل شدن هوش مصنوعی به AGI یا ابر هوش یا رسیدن به خط پایان شک دارد؟ زیرا این چیزی است که بیشتر از همه در مورد آن تعجب می کنم. آیا بازتابی در مورد اینکه آیا این فناوری اصلی می تواند همه کارهایی را که آنها می گویند می تواند انجام دهد، وجود دارد؟
این دقیقا مجموعه درستی از سوالات است. فنآوران معتبری وجود دارند که ما در این مجموعه از گزارشها با آنها صحبت کردیم - و بدیهی است که سم آلتمن یکی از آنها نیست. او یک فرد تجاری است - که می گویند روشی که سام در مورد جدول زمانی این فناوری صحبت می کند بسیار دور از ذهن است. پستهایی در وبلاگ وجود دارد که به چند سال قبل بازمیگردد و سام میگوید: "ما قبلاً به افق رویداد رسیدهایم. AGI اساساً اینجاست. ابر هوش در گوشه و کنار است. ما در سیارات دیگر خواهیم بود. ما همه انواع سرطان را درمان خواهیم کرد." راستش من آراسته نیستم
سرطان در واقع جالب است، اینکه سام در حال هیاهو کردن فردی است که از نظر تئوری سرطان سگش را با ChatGPT درمان کرده است، و این به سادگی اتفاق نیفتاد. آنها با ChatGPT صحبت کردند و این به آنها کمک کرد تا برخی از محققانی را که واقعاً کار را انجام داده اند راهنمایی کنند، اما این ابزار یک به یک این سگ را درمان می کند در واقع داستان نیست.
خوشحالم که این نکته را مطرح کردید، زیرا میخواهم به این نکته بزرگتر بروم درباره زمانی که هم پتانسیل و هم خطر فناوری واقعاً در معرض خطر قرار میگیرد. اما شایان ذکر است که این نکات کوچک که دائماً از سم آلتمن اتفاق می افتد، جایی که به نظر می رسد او این ویژگی را دوباره تجسم می بخشد.
منظورم این است که از مثال گزارش WilmerHale استفاده کنم، جایی که ما این اطلاعات را داشتیم که نوشته نشده بود، و میخواستیم بدانیم آیا خلاصه شفاهی در طول مسیر به کسی غیر از دو عضو هیئت مدیره که سام برای نظارت بر آن کمک کرده بود داده شده است یا خیر. و او گفت: "آره، بله، نه، من معتقدم که به هر کسی که بعد از آن به هیئت مدیره ملحق شد داده شد." و ما فردی را داریم که مستقیماً از وضعیت آگاه است که می گوید این فقط یک دروغ است. و به نظر می رسد که واقعاً چنین است، که نادرست است. اگر بخواهیم سخاوتمند باشیم، شاید به او اطلاعات غلط داده شده است.
بسیاری از این تضمین های اتفاقی وجود دارد. و من از آن مثال تا حدی استفاده میکنم، زیرا این نمونهای عالی از بیتفاوتی است، که میتواند از نظر قانونی عواقب واقعی داشته باشد. نیازی نیست به شما بگویم، طبق قانون شرکت دلاور، اگر این شرکت سهامداران خود را IPO میکنند، سهامداران میتوانند، طبق بخش 220، در این مورد شکایت کنند و مستندات اساسی را مطالبه کنند. قبلاً اعضای هیئت مدیره جملاتی مانند "خب، یک لحظه صبر کنید، آن جلسه توجیهی باید انجام می شد."
بنابراین این چیزهایی که به نظر میرسد همیشه از دهان او بیرون میپرند، میتوانند تأثیرات واقعی بازار و تأثیرات واقعی برای OpenAI داشته باشند. با بازگرداندن آن به نوعی زبان تبلیغاتی آرمانشهری که دوباره ظاهر شد، فکر میکنم تصادفی نیست در روزی که این قطعه منتشر شد، همه ما را نیز تحت تأثیر قرار میدهد، زیرا خطرات با توجه به نحوه آن بسیار حاد هستند.استقرار در تسلیحات، روش استفاده از آن برای شناسایی عوامل جنگ شیمیایی، پتانسیل اطلاعات نادرست، و به دلیل روشی که به نظر می رسد تبلیغات اتوپیایی باعث شده است که بسیاری از اقتصاددانان معتبر بگویند: "این همه نشانه های حباب را دارد."
حتی سم آلتمن نیز گفته است: "یکی در اینجا پول زیادی از دست خواهد داد." این واقعاً می تواند باعث رشد اقتصادی زیادی در آمریکا و جهان شود، اگر مانند یک سوراخ واقعی حباب باشد که شامل همه این شرکت ها می شود که با یکدیگر معامله می کنند و در عین حال به هوش مصنوعی وارد می شوند در حالی که وام های سنگین می گیرند. بنابراین آنچه سام آلتمن میگوید مهم است، و من فکر میکنم که غالب افراد اطراف او، که شما اشاره کردید با بیش از صد نفر صحبت کردیم، در واقع بیش از صد نفر بود. ما در خط پایان مکالمهای داشتیم که به این صورت بود: "آیا این خیلی کوچک است که بگوییم این رقم بسیار بالاتر است؟" و ما میگفتیم: "آره، بیایید کم اهمیت جلوه دهیم. ما آن را باحال بازی خواهیم کرد." اما افراد زیادی بودند و اکثریت قابل توجهی از آنها گفتند: "این یک نگرانی است." و من فکر می کنم همه به همین دلیل است.
بگذارید در مورد آن شماره از شما بپرسم. همانطور که اشاره کردید، مردم با گذشت زمان بیشتر و بیشتر با نگرانی ها باز شدند. به نظر می رسد فشار حول حباب - مسابقه برای برنده شدن، پرداخت تمام این سرمایه گذاری ها، ظهور به عنوان برنده، به عرضه اولیه عمومی - نگرش های زیادی را تغییر داده است. مطمئناً فشار بیشتری بر سم و OpenAI ایجاد کرد.
ما این هفته داستانی را فقط در مورد حالات OpenAI منتشر کردیم. داستان شما بخشی از آن است، اما تغییرات گسترده کارکنان در ردههای اجرایی OpenAI - مردم میآیند و میروند. محققین همه به سمت آنتروپیک رفته اند، که به نظر من واقعا جالب است. شما فقط می توانید ببینید که این شرکت فشار را احساس می کند و به نوعی به این فشار پاسخ می دهد.
اما بعد به اخراج شدن سام فکر می کنم. این فقط برای من خاطره انگیز است. این برای هیچ کس به یاد ماندنی نیست، اما من یک روز جمعه در ساعت 7 عصر با باغ وحش برانکس تماس گرفتم و کسی بود که می گفت سعی می کنند سم را پس بگیرند. و سپس آخر هفته را صرف تعقیب آن داستان کردیم. و من فقط مثل "من در باغ وحش هستم. شما می خواهید من اینجا چه کار کنم؟" و پاسخ این بود: "تلفن بمان." خب، دخترم مثل این بود که "گوشی را ول کن." و این کاری است که من انجام دادم.
برای برگرداندن سام سوار یا مردن بود. آن شرکت چنین بود: «نه، ما به هیئت مدیره اجازه نمیدهیم سم آلتمن را اخراج کند.» سرمایه گذاران، آنها در مقاله شما نقل شده اند، "ما به جنگ رفتیم"، من فکر می کنم، موقعیت Thrive Capital است، "برای بازگرداندن سم." مایکروسافت برای بازگرداندن سم وارد جنگ شد. دیرتر است، و حالا همه میگویند، "ما به عرضه اولیه سهام میرویم. به خط پایان رسیدیم. پسرمان را پس گرفتیم، و او ما را به خط پایان خواهد رساند. ما نگران هستیم که او دروغگو باشد."
چرا در آن زمان بازگرداندن او جنگ بود؟ زیرا به نظر نمی رسد که واقعاً چیزی تغییر کرده باشد. شما در مورد یادداشت هایی صحبت می کنید که ایلیا سوتسکور و [مدیر عامل آنتروپیک] داریو آمودی زمانی که معاصر سام آلتمن بودند، نگه داشته اند. نگرانی شماره یک ایلیا این بود که سام دروغگو است.
هیچ کدام از اینها تغییر نکرده است. پس چرا برای بازگرداندن او جنگ بود؟ و اکنون که در خط پایان هستیم، به نظر می رسد که همه نگرانی ها آشکار است.
خب، اول از همه از دختر شما و شریک زندگی من و همه اطرافیان روزنامه نگار متاسفم.
[می خندد] برای همه تعطیلات آخر هفته بود.
آره، این داستان زندگی آدم را می گیرد، و این داستان قطعاً مال من است، در آخرین دوره زمانی. فکر می کنم در واقع به این موضوع روزنامه نگاری و دسترسی به اطلاعات مربوط می شود. سرمایهگذارانی که برای سام وارد جنگ شدند و همگی در اطمینان از بازگشت او نقش داشتند، و هیئت مدیرهای که به طور خاص برای محافظت از مأموریت یک غیرانتفاعی طراحی شده بود تا امنیت را بر رشد بگذارد و اگر نمیتوان به آنها اعتماد کرد، یک مدیر اجرایی را اخراج کرد، کنار رفتند. این همه به این دلیل بود که، بله، مشوقهای بازار وجود داشت، درست است؟
سم توانست مردم را متقاعد کند، "خب، شرکت به تازگی از هم خواهد پاشید." اما دلیل حمایت او کمبود اطلاعات بود. آن سرمایهگذاران، در بسیاری از موارد، اکنون میگویند: «من به گذشته نگاه میکنم، و فکر میکنم اگر به طور کامل میدانستم این ادعاها چیست و نگرانیها چیست، باید نگرانیهای بیشتری داشتم.»
نه همه آنها؛نظرات متفاوت است، و ما طیف وسیعی از نظرات را نقل می کنیم، اما نظرات مهمی وجود دارند که بر اساس اطلاعات بسیار جزئی عمل می کنند. تخته ای که سم را اخراج کرد، به قول یکی از افرادی که قبلاً در هیئت مدیره بود، «بسیار JV» بود و آنها به سختی توپ را زیر و رو کردند. و ما شکایات اساسی را مستند می کنیم، و مردم می توانند خودشان تصمیم بگیرند که آیا این شکایات به نوعی نگرانی فوری که احساس می کردند انباشته می شود یا خیر، اما آن استدلال و آن اطلاعات ارائه نشده است.
آنها چیزی را دریافت کردند که برخی از آنها اکنون به عنوان مشاوره حقوقی بد اذعان می کنند. برای توصیف آن، نقل قول را به خاطر خواهید آورد، و احتمالاً بسیاری از شنوندگان و بینندگان شما این نقل قول را به عنوان عدم صراحت به خاطر خواهند آورد. این همان چیزی بود که به آن کاهش یافت، و سپس آنها اساساً تماس نمی گرفتند.
آنها تماس نمی گیرند. مطمئنم تلاش کردی همه کسانی که من میشناسم تلاش کردند، و کار به جایی رسید که به عنوان یک روزنامهنگار، قرار نیست منابع خود را راهنمایی کنید، اما من میگفتم: «اگر شروع به توضیح ندهید، این موضوع برطرف میشود».
و این چیزی است که اتفاق افتاد. خبرنگاران را فراموش کنید شما ساتیا نادلا را داشتید که می گفت: "لعنتی چه اتفاقی افتاده؟ من نمی توانم کسی را وادار کنم که به من توضیح دهد." و این حامی مالی اصلی شرکت است. و سپس ساتیا دارید که با رید هافمن [از بنیانگذار لینکدین] تماس میگیرد و رید به اطراف زنگ میزند و میگوید: «نمیدانم چه اتفاقی افتاده است.»
آنها به طور قابل درک در آن خلاء اطلاعات هستند و به دنبال شاخص های سنتی غیر هوش مصنوعی هستند که چنین شلیک فوری و ناگهانی را توجیه می کند. خوب، آیا این جنایات جنسی بود؟ اختلاس بود؟ و کل استدلال ظریف، اما من فکر میکنم معنیدار، مبنی بر اینکه این فناوری متفاوت است و این نوع انباشت مداوم خیانتهای کوچکتر میتواند خطرات معناداری هم برای این تجارت و هم شاید برای جهان داشته باشد، تا حد زیادی از بین رفت. بنابراین انگیزه های سرمایه داری برنده شد، اما همچنین افرادی که آن را ساخته بودند بیرون رفتند و همیشه با اطلاعات کامل کار نمی کردند.
میخواهم فقط یک لحظه در مورد جنبه «آنچه همه فکر میکردند» بپرسم، زیرا مطمئناً خبر را دیدم و گفتم: «اوه، حتماً اتفاق بدی افتاده است.» شما گزارش های #MeToo زیادی انجام داده اید، معروف است. شما داستان هاروی واینستین را شکستید.
شما زمان زیادی را صرف گزارش در مورد این ادعاها کردید که من فکر میکنم تصمیم گرفتید در نهایت بیاساس بودند: اینکه آلتمن به خردسالان تجاوز جنسی کرد یا کارگران جنسی را استخدام کرد، یا حتی یک افشاگر OpenAI را به قتل رساند. منظورم این است که شما فردی هستید که می توانید این موارد را با جدیت ترین گزارش دهید. آیا تصمیم گرفتید که هیچ نتیجه ای حاصل نشود؟
خوب، ببینید، من در این کار نیستم که بگویم چیزی به نتیجه نرسیده است. چیزی که می توانم بگویم این است که ماه ها به بررسی این ادعاها پرداختم و تأییدی برای آنها پیدا نکردم. و برای من شگفتانگیز بود که این افراد، این شرکتها که قدرت زیادی بر آینده ما دارند، واقعاً مقدار نامتناسبی از زمان و منابع خود را در یک دعوای گلی کودکانه صرف میکنند.
یکی از مدیران آن را "شکسپیر" توصیف می کند. مقدار پول بازپرس خصوصی و پرونده های مخالف در حال تنظیم بی امان است. و نکته تاسف بار این است که این نوع چیزهای مزخرف که توسط رقبای سام طوطی وار مورد استفاده قرار می گیرد، فقط یک واقعیت فرضی است، درست است؟ این ادعا وجود دارد که او پسران زیر سن قانونی را تعقیب می کند، و در بسیاری از مهمانی های کوکتل در سیلیکون ولی، این را می شنوید. در مدار کنفرانس، شنیده ام که توسط مدیران معتبر و برجسته تکرار شده است: "همه می دانند که این یک واقعیت است."
نکته غم انگیز این است که من در مورد این صحبت می کنم که این از کجا می آید، بردارهای مختلفی که توسط آنها منتقل می شود. ایلان ماسک و همکارانش ظاهراً در حال پیشبرد پروندههای واقعاً سختگیرانه هستند که به هیچ وجه به پایان میرسند. هنگامی که شما واقعاً شروع به بررسی ادعاهای اساسی می کنید، آنها بخار می شوند. نکته غم انگیز این است که واقعاً نقدهای مبتنی بر شواهد بیشتری را که من فکر می کنم واقعاً مستحق نظارت و بررسی فوری هستند پنهان می کند.
موضوع دیگری که واقعاً در داستان مطرح میشود، تقریباً احساس ترس از اینکه سام دوستان زیادی دارد - او از نقش قبلی خود به عنوان مدیر عامل Y Combinator در شرکتهای زیادی سرمایهگذاری کرده است، فقط سرمایهگذاری شخصیاش، که برخی از آنها در تضاد مستقیم با نقش او به عنوان مدیر عامل OpenAI هستند - و سکوتی در اطراف او وجود دارد.
وقتی به طور خاص یک خط را می خواندم، مرا شگفت زده کرد. شما یادداشت های Ilya Sutskever را توصیف می کنید، و آنها به تازگی در Silicon Valley منتشر شده اند. همهآنها را یادداشت های ایلیا می نامد. اما حتی در اطراف آن سکوت وجود دارد. آنها به اطراف منتقل شده اند، اما مورد بحث قرار نمی گیرند. فکر می کنید از کجا می آید؟ آیا ترس است؟ آیا این تمایل به سرمایه گذاری فرشته است؟ از کجا می آید؟
من فکر می کنم بزدلی زیادی است، صادقانه می گویم. با گزارشهایی از داستانهای امنیت ملی که در آن منابع افشاگرانی هستند که همه چیز را از دست میدهند و تحت پیگرد قانونی قرار میگیرند، آنها هنوز هم کار درست را انجام میدهند و درباره مسائلی برای ایجاد پاسخگویی صحبت میکنند. من روی داستانهای مربوط به جنایات جنسی که شما اشاره کردید کار کردهام، جایی که منابع به شدت آسیب دیدهاند و از یک نوع بسیار شخصی از مجازات میترسند.
در بسیاری از موارد پیرامون این ضرب، شما با افرادی با مشخصات و قدرت خود سروکار دارید. آنها یا خود افراد مشهور هستند یا توسط افراد مشهور احاطه شده اند. آنها زندگی تجاری قوی دارند. به نظر من، صحبت کردن در مورد این چیزها در واقع برای آنها بسیار کم است. و خوشبختانه همانطور که قبلاً در مورد آن صحبت کردیم سوزن در حال حرکت است و مردم اکنون بیشتر صحبت می کنند.
اما برای مدت طولانی، مردم واقعاً در مورد آن سکوت میکنند، زیرا من فکر میکنم فرهنگ سیلیکون ولی بسیار بیرحمانه منافع شخصی و بیرحمانه تجارت و رشد محور است. بنابراین فکر میکنم این حتی برخی از افرادی را که در اخراج سم دخیل بودند، رنج میدهد، جایی که در روزهای بعد دیدید، بله، یکی از عواملی که منجر به بازگشت او و اخراج اعضای قدیمی هیئتمدیره شد این بود که او سرمایهگذارانی را جمع کرد که در مورد هدفش گیج شده بودند.
اما مورد دیگر این است که بسیاری از افراد دیگر در اطراف آن که نگرانیهایشان را داشتند و فوراً آنها را ابراز میکردند، لحظهای که دیدند باد از طرف دیگر میوزد، مثل دستمال سفره تا میکردند و لحن خود را تغییر میدادند و میخواستند وارد قطار سود شوند.
از دیدگاه من به عنوان یک خبرنگار، صادقانه بگویم، بسیار تاریک است.
برخی از این افراد میرا موراتی هستند که به اعتقاد من به مدت 20 دقیقه مدیر عامل جدید OpenAI بود. سپس او جایگزین شد. این یک پویایی بسیار پیچیده بود، و بدیهی است که سم برگشت. نفر دیگر ایلیا سوتسکور است که یکی از رای هایی بود که سام را حذف کرد و بعد نظرش را عوض کرد یا حداقل گفت نظرش تغییر کرد و بعد رفت تا شرکت خودش را راه اندازی کند. میدونی چی باعث شد نظرش عوض بشه؟ فقط پول بود؟
خوب، و برای روشن بودن، من آن دو را از هم جدا نمی کنم. اعضای هیئت مدیره دیگری نیز در تیراندازی نقش داشتند که پس از آن نیز بسیار ساکت شدند. من فکر می کنم این یک مشکل جمعی گسترده تر است. اینها، در برخی موارد، افرادی هستند که تارهای اخلاقی برای به صدا درآوردن آژیر خطر و اقدامات رادیکال را داشتند، و این جای تقدیر دارد. و اینگونه است که شما مسئولیت پذیری را تضمین می کنید. این می توانست به بسیاری از افرادی که تحت تأثیر این فناوری هستند کمک کند. این می توانست به صنعت کمک کند تا به طور معناداری بر ایمنی متمرکز بماند.
اما در برخورد با افشاگران و افرادی که سعی میکنند این مسئولیتپذیری را زیاد برانگیزانند، همچنین میبینید که نشان دادن آن و ایستادن بر اعتقادات شما نیاز دارد. و این صنعت واقعاً پر از افرادی است که بر اعتقادات خود نمی ایستند.
حتی اگر فکر می کنند که دارند یک خدای دیجیتالی می سازند که به نوعی یا تمام نیروی کار را حذف می کند یا نیروی کار بیشتری ایجاد می کند، یا اتفاقی رخ می دهد.
خب موضوع همینه بنابراین، فرهنگ عدم پایبندی به اعتقادات و نگرانیهای اخلاقی در لحظهای که گرما یا هر چیزی میتواند جایگاه شما را در کسبوکار تهدید کند، کنار گذاشته میشود، شاید برای شرکتهای معمولی که در حال ساخت هر نوع ویجتی هستند، خوب و خوب باشد.
اما اینها همان افرادی هستند که می گویند: "این به معنای واقعی کلمه می تواند همه ما را بکشد." و دوباره، شما مجبور نیستید به مرحله افراطی Terminator Skynet بروید. مجموعه ای از خطرات وجود دارد که در حال حاضر تحقق یافته است. این واقعی است، و آنها حق دارند در مورد آن هشدار دهند، اما شما باید یک نفر دیگر را به صندلی راحتی روانشناسی کنید که چگونه این دو چیز می توانند در همان مردمی زندگی کنند که هشدارهای فوری می دهند، ممکن است انگشت پا را به داخل بگذارند و سعی کنند کاری انجام دهند، و سپس فقط تا می کنند و ساکت می شوند.
دقیقاً به همین دلیل است که میتوانید چنین مواردی را داشته باشید که از نوشتن دور نگه داشته میشوند و چیزها زیر فرش جارو میشوند، و هیچکس سالها پس از این واقعیت آشکارا در مورد آن صحبت نمیکند.
طرف طبیعی و مسئول در اینجا مدیران عامل این شرکت ها نیستند. دولت ها خواهند بود. در ایالات متحده، شایداین دولت های ایالتی است، شاید دولت فدرال باشد.
مطمئناً این شرکت ها همه می خواهند جهانی باشند. در اینجا پیامدهای جهانی زیادی وجود دارد. من OpenAI، Google و Anthropic را تماشا کردم که همگی دولت بایدن را به انتشار یک فرمان اجرایی هوش مصنوعی تشویق کردند. در نهایت خیلی بی دندان بود. فقط گفت که آنها باید در مورد توانایی های مدل هایشان صحبت کنند و آزمایش های ایمنی را منتشر کنند. و سپس همه آنها از ترامپ حمایت کردند و ترامپ وارد شد و همه اینها را پاک کرد و گفت: "ما باید رقابتی باشیم. این برای همه رایگان است. آن را انجام دهید."
در عین حال، همه آنها تلاش می کنند از کشورهای خاورمیانه که دارای پول نفت زیادی هستند و می خواهند اقتصاد خود را تغییر دهند، کمک مالی جمع آوری کنند. اینها سیاستمداران هستند. من احساس میکنم که سیاستمداران قطعاً باید بفهمند که یک نفر از هر دو طرف صحبت میکند، و اگر کسی در نهایت ناامید شود، خیلی ناراحت نخواهند شد، اما سیاستمداران نیز به یک سواری کشیده میشوند. به نظر شما چرا اینطور است؟
فکر میکنم واقعاً به همین دلیل است که این قطعه از نظر من اهمیت دارد و چرا ارزش صرف این همه زمان و جزئیات را دارد. ما در محیطی هستیم که سیستمهایی که، همانطور که شما میگویید، باید نظارت را انجام دهند، بهتدریج توخالی شدهاند. این یک آمریکای متحد پس از شهروندان است، جایی که جریان پول بسیار نامحدود است، و تمرکز خاصی از این مشکل حول هوش مصنوعی است، جایی که این PAC ها وجود دارند که در حال تکثیر هستند و پول را برای لغو مقررات معنادار هم در سطح ایالتی و هم در سطح فدرال سرازیر می کنند.
شما [از بنیانگذاران OpenAI] گرگ براکمن، دومین فرمانده سام را دارید که مستقیماً به طور عمده به چند مورد از آنها کمک می کند. این منجر به وضعیتی میشود که در آن واقعاً قانونگذاران و تنظیمکنندههای بالقوه دستگیر شدهاند، و خروج از آن مارپیچ سختی است. نکته غم انگیز این است که من فکر می کنم که اقدامات سیاستی ساده ای وجود دارد که برخی از آنها در جای دیگری در جهان آزمایش می شوند که به برخی از این مشکلات پاسخگویی کمک می کند.
میتوانید آزمایشهای ایمنی اجباری قبل از استقرار داشته باشید، چیزی که در حال حاضر در اروپا برای مدلهای مرزی اتفاق میافتد. شما میتوانید برای انواع تحقیقات داخلی که در این پرونده مواردی را از نوشته باقی میماند، شرایط ثبت عمومی کتبی سختگیرانهتری داشته باشید. شما میتوانید مجموعهای قویتر از مکانیسمهای بررسی امنیت ملی برای انواع جاهطلبیهای زیرساختی خاورمیانهای که سام آلتمن به دنبال آن بود، داشته باشید.
همانطور که شما می گویید، او این طعمه و تغییر را با دولت بایدن انجام می داد و می گفت: «ما را تنظیم کنید، ما را تنظیم کنید» و به آنها کمک کرد تا یک فرمان اجرایی بسازند، و سپس لحظه ای که ترامپ وارد می شود، واقعاً در همان روزهای اول، «بیایید تسریع کنیم و بیایید یک پردیس مرکز داده عظیم در ابوظبی بسازیم». شما می توانید داشته باشید، این بسیار ساده است، مانند حفاظت از افشاگر. هیچ قانون فدرالی برای محافظت از کارمندان شرکت هوش مصنوعی وجود ندارد که این نوع نگرانیهای ایمنی را که در این قطعه پخش میشود، افشا کنند.
ما مواردی داریم که یان لیکه، که یک مرد ارشد ایمنی در OpenAI بود، رهبری فوقالعاده در شرکت را بر عهده داشت. او به هیئت مدیره نامه می نویسد که اساساً اطلاعات افشاگر است و می گوید که این شرکت در راستای ماموریت ایمنی خود از ریل خارج می شود. اینها افرادی هستند که در واقع باید یک نهاد نظارتی داشته باشند که می توانند به آنها مراجعه کنند، و باید از حمایت های قانونی صریح مانند آنچه در سایر بخش ها می بینیم برخوردار باشند. این ساده است برای تکرار یک رژیم به سبک Sarbanes-Oxley.
من فکر میکنم که علیرغم اینکه دره سیلیکون کنترل همه اهرمهای قدرت را در اختیار گرفته است، و علیرغم اینکه برخی از این نهادها که ممکن است نظارت و حفاظ را فراهم کنند چقدر توخالی هستند، من هنوز به ریاضیات اساسی دموکراسی و سیاستمداران علاقهمند اعتقاد دارم. و دادههای نظرسنجیهای بیشتری به دست میآید که اکثر آمریکاییها فکر میکنند نگرانیها، سؤالات یا خطرات هوش مصنوعی در حال حاضر بیشتر از مزایای آن است.
بنابراین من فکر میکنم سیل پولی که از هوش مصنوعی به سیاست وارد میشود، در تمام توان ماست که آن را به یک علامت سوال برای سیاستمداران تبدیل کنیم. وقتی آمریکاییها برای رای دادن میروند، باید بررسی کنند که آیا افرادی که به آنها رای میدهند، به خصوص اگر غیرانتقادی و ضد مقررات باشند، با توجه به همه این نگرانیها، توسط منافع بزرگ فناوری حمایت میشوند یا خیر. بنابراین فکر میکنم اگر مردم میتوانند قطعاتی از این دست را بخوانند، به پادکستهایی مانند این گوش دهند و به اندازه کافی به فکر انتقادی درباره آن اهمیت دهندتصمیمات آنها به عنوان رای دهندگان، فرصت واقعی برای ایجاد یک حوزه انتخابیه در واشنگتن از نمایندگانی وجود دارد که مراقب و نظارت بر آنها هستند.
این ممکن است یکی از خوش بینانه ترین چیزهایی باشد که تا به حال شنیده ام که کسی در مورد صنعت فعلی هوش مصنوعی بگوید. من از آن قدردانی می کنم. من در مورد نظرسنجی که شما در مورد آن صحبت می کنید وسواس دارم. در حال حاضر مقدار زیادی از آن وجود دارد. همه اینها کاملاً ثابت است، و به نظر می رسد که هر چه به ویژه جوانان بیشتر در معرض هوش مصنوعی باشند، نسبت به آن بی اعتمادتر و عصبانی تر می شوند. این ظرفیت همه نظرسنجی ها است. و من به آن نگاه میکنم، و فکر میکنم، خوب، آره، سیاستمداران باهوش فقط با آن مخالفت میکنند. آنها فقط میگفتند، "ما فناوریهای بزرگ را پاسخگو خواهیم داشت."
سپس به 20 سال گذشته فکر میکنم، سیاستمداری که میگوید آنها فناوریهای بزرگ را پاسخگو میدانند، و من در تلاش هستم که حتی یک لحظه فناوری بزرگ پاسخگو باشد. تنها چیزی که باعث میشود فکر کنم این ممکن است متفاوت باشد این است، خوب، شما در واقع باید مراکز داده را بسازید، و میتوانید علیه آن رای دهید، و میتوانید علیه آن دادخواست بدهید، و میتوانید به آن اعتراض کنید.
من فکر میکنم سیاستمداری وجود دارد که به خانهاش شلیک شده است، زیرا به یک مرکز داده رأی داده است. تنش در حال رسیدن است، من آن را به شدت تب میگویم. شما جزیره ای بودن سیلیکون ولی را توصیف کرده اید. این یک اکوسیستم بسته است. انگار فکر می کنند می توانند دنیا را اداره کنند. آنها پول زیادی برای سیاست می گذارند، و با این واقعیت که مردم محصولات را دوست ندارند، مقابله می کنند، که پوشش زیادی به آنها نمی دهد. هرچه بیشتر از محصولات استفاده کنند، ناراحت تر می شوند و سیاستمداران شروع به مشاهده عواقب واقعی حمایت از صنعت فناوری بر افرادی می کنند که آنها نمایندگی می کنند.
شما با افراد زیادی صحبت کرده اید. آیا فکر می کنید این امکان برای صنعت فناوری وجود دارد که درسی را که درست در مقابل آنها است بیاموزد؟
شما می گویید احساس می شود که آنها فکر می کنند می توانند جهان را بدون مسئولیت اداره کنند. من حتی فکر نمیکنم که این نیاز به واجد شرایط بودن "احساس" داشته باشد. منظورم این است که شما به زبانی که پیتر تیل استفاده می کند نگاه کنید، این صریح است. البته این یک مثال افراطی است. و سام آلتمن، اگرچه با ایدئولوژی تیل نزدیک است و تا حدی از آن مطلع است، اما نوع بسیار متفاوتی از افراد است که ممکن است تا حدی متفاوت و سنجیده تر به نظر برسد.
اما فکر میکنم ایدئولوژی گستردهتری که از تیل دریافت میکنید، اساساً این است: ما با دموکراسی تمام شدهایم، دیگر به آن نیاز نداریم. ما آنقدر زیاد داریم که فقط می خواهیم سنگرهای کوچک خود را بسازیم. ما دیگر با کارنگیها یا راکفلرها سر و کار نداریم، جایی که آنها آدمهای بدی هستند، اما آنها احساس میکنند باید در یک قرارداد اجتماعی شرکت کنند و چیزهایی برای مردم بسازند. یک نیهیلیسم واقعی وجود دارد که به وجود آمده است.
و من فکر میکنم که این فقط یک مارپیچ تقویتکننده متقابل در تاریخ اخیر آمریکا بوده است که مغولها و شرکتهای خصوصی قدرت فوقالعاده دولتی را به دست میآورند در حالی که نهادهای دموکراتیک که ممکن است آنها را مسئول نگه دارند، توخالی شدهاند. من نسبت به این ایده که آن افراد ممکن است یک روز از خواب بیدار شوند و فکر کنند، "اوه، شاید ما نیاز به مشارکت در جامعه و کمک به ساختن چیزهایی برای مردم" داشته باشیم، خوشبین نیستم.
منظورم این است که شما به نمونه کوچک کیهانی The Giving Pledge نگاه می کنید، جایی که لحظه ای به نظر می رسید که خیریه باشد، و آن لحظه اکنون گذشته و حتی مورد تمسخر قرار گرفته است. این یک مشکل است، مشکل گسترده تر عدم پاسخگویی که به نظر من فقط می تواند به صورت بیرونی حل شود. این باید رای دهندگانی باشد که قدرت نظارت دولت را بسیج و احیا کنند. و شما دقیقاً درست می گویید که بردار اصلی که از طریق آن افراد می توانند به آن دست یابند محلی است. این مربوط به جایی است که زیرساخت ها ساخته می شوند.
شما به برخی از تنش های داغ پیرامون این موضوع اشاره کردید که منجر به خشونت و تهدید می شود، و بدیهی است که هیچ کس نباید خشن یا تهدید کننده باشد. و همچنین من اینجا نیستم تا توصیههای خطمشی خاصی را ارائه دهم، به جز ارائه برخی از مراحل سیاستی که به نظر اساسی میرسند و در سایر نقاط جهان کار میکنند، درست است؟ یا کسانی که در بخش های دیگر کار کرده اند. من اینجا نیستم که بگویم کدام یک و چگونه باید اجرا شود.
من فکر می کنم باید اتفاقی بیفتد، و باید خارجی باشد، نه اینکه فقط به این شرکت ها اعتماد کرد. چون درستهاکنون شرایطی داریم که در آن شرکتهایی که در حال توسعه فناوری هستند و به بهترین وجه برای درک خطرات مجهز هستند و در واقع همانهایی هستند که به ما در مورد خطرات هشدار میدهند، آنهایی هستند که چیزی جز انگیزه برای سریع پیش رفتن و نادیده گرفتن این خطرات ندارند. و شما فقط چیزی برای متعادل کردن آن ندارید. بنابراین هر اصلاحاتی که ممکن است از نظر جزئیات انجام شود، چیزی باید در مقابل آن قرار گیرد. و من همچنان به این خوش بینی باز می گردم که مردم هنوز اهمیت دارند.
من به طور کلی استدلال شما را می خرم. اجازه دهید فقط یک ضد استدلال کوچکی را بیان کنم که فکر می کنم بتوانم آن را بیان کنم. اتفاق دیگری که می تواند خارج از صندوق رای بیفتد این است که حباب بپرد، درست است؟ اینکه همه این شرکتها به خط پایان نرسند و بازار محصول مناسبی برای برنامههای هوش مصنوعی مصرفکننده وجود ندارد. و باز هم، من هنوز کاملاً آن را نمی بینم، اما من یک بازبین فناوری مصرف کننده هستم، و شاید فقط استانداردهای بالاتری نسبت به بقیه داشته باشم.
در دنیای تجارت مناسب بازار محصول وجود دارد، درست است؟ به نظر می رسد داشتن یک دسته از عوامل هوش مصنوعی که مجموعه ای از نرم افزارها را می نویسند، بازاری واقعی برای این ابزارها باشد. و میتوانید استدلالهای این شرکتها را بخوانید که میگویند: "ما کدنویسی را حل کردهایم، و این بدان معناست که ما میتوانیم هر چیزی را حل کنیم. اگر بتوانیم نرمافزار بسازیم، میتوانیم هر مشکلی را حل کنیم."
من فکر می کنم محدودیت های واقعی برای کارهایی که نرم افزار می تواند انجام دهد وجود دارد. این در دنیای تجارت عالی است. نرم افزارها نمی توانند هر مشکلی را در واقعیت حل کنند، اما باید به آنجا برسند. آنها باید کار را تمام کنند و شاید همه به خط پایان نرسند. و یک سقوط رخ می دهد، و این حباب می زند، و شاید OpenAI یا Anthropic یا xAI، یکی از این شرکت ها شکست بخورد، و این همه سرمایه گذاری از بین می رود.
آیا فکر می کنید این روی این موضوع تأثیر می گذارد؟ در واقع اجازه بدهید اول سوال اول را بپرسم. OpenAI درست در آستانه IPO است. در مورد سام به عنوان یک رهبر تردیدهای زیادی وجود دارد. آیا فکر می کنید آنها به خط پایان خواهند رسید؟
من نمیخواهم پیشبینی کنم، اما فکر میکنم شما یک نکته مهم را مطرح میکنید، و آن این است که انگیزههای بازار در داخل برای سیلیکون ولی اهمیت دارند، و بیثباتی پویایی حبابهای کنونی باعث میشود که دوباره، به گفته منتقدان، بهطور بالقوه رقابت تا انتهای ایمنی را مختل کند.
من همچنین به آن اضافه میکنم، اگر به تقدم تاریخی نگاه کنید که در آن مجموعهای مشابه و به ظاهر غیرقابل نفوذ از مشوقهای بازار و اثرات بالقوه مضر برای عموم وجود دارد، دعوای قضایی تأثیری دارد. و شما آن را اخیراً به عنوان یک منطقه نگران کننده می بینید. به عنوان مثال، سام آلتمن این هفته در آنجا حضور دارد و قوانینی را تأیید می کند که شرکت های هوش مصنوعی را در برابر برخی از انواع مسئولیت هایی که OpenAI در مورد اعدام های غیرقانونی در معرض آنها قرار گرفته است، محافظت می کند. البته، تمایل به داشتن این سپر در برابر مسئولیت وجود دارد.
من فکر میکنم که دادگاهها هنوز هم میتوانند مکانیزم معناداری باشند، و دیدن این که چگونه این کت و شلوارها چگونه شکل میگیرند، واقعاً جالب خواهد بود. به عنوان مثال، شما قبلاً شکایت کلاسی را دیدید که من و بسیاری از نویسندگان دیگر که می شناسم عضو آن هستیم، علیه Anthropic به دلیل استفاده از کتاب هایی که تحت حق چاپ بودند. اگر ذهنهای حقوقی و شاکیانی وجود دارند که اهمیت میدهند، همانطور که در طول تاریخ در پروندههایی از تنباکوی بزرگ تا انرژی بزرگ دیدهایم، میتوانید برخی از نردههای محافظ و برخی انگیزهها را برای کاهش سرعت، مراقب بودن یا محافظت از مردم به این طریق دریافت کنید.
به نظر می رسد کل ساختار هزینه صنعت هوش مصنوعی به تفسیر بسیار بسیار خیرخواهانه استفاده منصفانه وابسته است. به اندازه کافی مطرح نمی شود ساختار هزینه این شرکتها میتواند از کنترل خارج شود، اگر مجبور شوند به شما و هر کس دیگری که کارشان را انجام دادهاند، پول بدهند، اما فکر کردن به آن ناخوشایند است، بنابراین ما به آن فکر نمیکنیم. درست در کنار آن، همه این محصولات اکنون با ضرر کار می کنند. مثل امروز، همه آنها با ضرر در حال دویدن هستند. آنها بیشتر از آنچه می توانند پول می سوزانند. در یک نقطه، آنها باید سوئیچ را بچرخانند.
سام یک تاجر است. همانطور که چندین بار اشاره کردید، او یک تکنولوژیست نیست. او یک فرد تجاری است. آیا فکر میکنید او آماده است سوئیچ را بچرخاند و بگوید: «میخواهیم یک دلار در بیاوریم؟» زیرا وقتی میپرسم، "آیا فکر میکنید OpenAI میتواند موفق شود؟" این زمانی است که آنها باید یک دلار به دست آورند. و تا کنون، سام تمام دلارهای خود را با درخواست از افراد دیگر به جای اینکه شرکتهایش پول در بیاورند، به دست آورده است.
خوب، این یک سوال طولانی مدت برای سیلیکون ولی، برای سرمایه گذاران و برای عموم مردم است.برخی از بیانیه ها و حرکت های خارج از OpenAI را مشاهده می کنید که به نظر می رسد نوعی وحشت را در مورد آن نشان می دهد. خاموش کردن Sora، تعطیل کردن برخی از پروژه های جانبی، تلاش برای به صفر رساندن محصول اصلی. اما از سوی دیگر، شما هنوز هم در همان زمان، هزاران ماموریت خزش را می بینید، درست است؟ حتی یک مثال کوچک - بدیهی است که هسته اصلی تجارت آنها نیست - اکتساب TBPN است.
به هر حال، درست زمانی که به خط پایان میرسیدیم و واقعیتها را بررسی میکردیم، شرکتی که با این نوع بررسیهای روزنامهنگاری روبهرو میشود، بستری را به دست میآورد که میتواند کنترل مستقیم بیشتری بر گفتگو داشته باشد. من فکر میکنم سرمایهگذاران زیادی هستند که بر اساس صحبتهایی که من داشتهام نگران هستند که این مشکل قول دادن به همه چیز به همه مردم به این عدم تمرکز در مدل اصلی کسبوکار نیز گسترش مییابد. و منظورم این است که شما بیشتر از من به نوع پیش بینی و تماشای بازار نزدیک هستید. من شما و شنوندگان را به قضاوت در مورد اینکه آیا فکر میکنند OpenAI میتواند سوئیچ را تغییر دهد، میگذارم.
خب، من این سوال را پرسیدم زیرا شما در این مقاله نقل قولی از یکی از مدیران ارشد مایکروسافت دریافت کرده اید، و آن این است که "میراث سم ممکن است بیشتر شبیه به برنی مدوف یا سم بنکمن-فرید باشد" تا استیو جابز. که کاملا مقایسه است. از آن مقایسه چه برداشتی کردید؟
من فکر می کنم این یک نقل قول است. قسمت استیو جابز بخشی از نقل قول نبود. اما نوعی هوشیاری جالب در آن وجود دارد، زیرا چنین بیان میشود: «فکر میکنم احتمال کمی وجود دارد که او یک SBF یا یک کلاهبردار سطح مدوف باشد.» به نظر من، این بدان معنا نیست که سام به آن نوع خاص از کلاهبرداری یا جنایات متهم می شود، بلکه ممکن است درجه افشاگری و فریب سام در نهایت در آن مقیاس به خاطر سپرده شود.
بله، من فکر می کنم آنچه که در مورد آن نقل قول جالب است، صادقانه بگویم، این است که شما با مایکروسافت تماس می گیرید و لایک دریافت نمی کنید، "این دیوانه است. ما هرگز چنین چیزی را نشنیده ایم." شما مانند "بله، بسیاری از مردم اینجا فکر می کنند" زیادی دریافت می کنید که قابل توجه است. و من فکر می کنم که به این سوالات تجاری مربوط می شود.
برای مثال، یکی از سرمایهگذاران به من گفت که این ویژگی در سالهای پس از شلیک ادامه پیدا کرده است» - و این نیز فکر میکرد که این یک فکر هوشیارانه جالب بود - که لزوماً این نیست که سم باید در انتهای فهرست باشد، مانند افرادی که مطلقاً نباید این فناوری را بسازند، اما افراد زیادی هستند که این فناوری را میگویند. او را شاید در انتهای لیست افرادی که باید AGI بسازند، قرار می دهد، و زیر چندین چهره برجسته دیگر در این زمینه.
بنابراین من فکر کردم که ارزیابی جالبی بود، و این نوع تفکری است که من فکر میکنم شما از عملگرایان واقعی دریافت میکنید که شاید به نگرانیهای ایمنی چندان توجهی نداشته باشند. آنها فقط رشد گرا هستند و فکر می کنند که OpenAI اکنون با سم آلتمن مشکل دارد.
قطعه مایکروسافت واقعا جالب است. آن شرکت فکر می کرد آنها در صدر جهان هستند. اینکه آنها این سرمایهگذاری را انجام دادهاند و میخواهند از همه، بهویژه و مهمتر از همه، گوگل جهش کنند و به لطف مصرفکنندگان برگردند. سطحی که آنها احساس می کنند در اثر این ماجراجویی سوخته اند - این یک شرکت بسیار هوشیارانه است - به نظر من نمی توان اغراق کرد.
شما به شخصیت ها و ویژگی های شخصیتی اشاره کردید. من می خواهم در اینجا با یک سوال از شنوندگان خود پایان دهم. من در برنامه دیگرمان، The Vergecast، گفتم که قرار است با شما صحبت کنم، و گفتم: "اگر در مورد این داستان از رونان سوالی دارید، به من بگویید." بنابراین ما در اینجا یکی داریم که فکر می کنم به خوبی با آنچه شما توصیف می کنید مرتبط است. من فقط می خواهم آن را برای شما بخوانم:
«توجیههای رفتار بد، اقدامات تهاجمی آلتمن و دیگر رهبران هوش مصنوعی، با توجیهاتی که رونان از دیگر رهبران برجسته در سیاست و رسانه شنیده است، چه تفاوتی دارد؟ آیا همه آنها با گفتن این که دنیا اینگونه تغییر می کند، اعمال خود را توجیه نمی کنند؟ اگر من این کار را نکنم، شخص دیگری انجام می دهد؟»
بله، چیزهای زیادی در اطراف وجود دارد. من میتوانم بگویم وجه تمایز هوش مصنوعی این است که ریسکهای وجودی بهطور منحصربهفرد بالا بودن به این معنی است که هر دو اظهارات خطر افراطی هستند، درست است؟ شما سم آلتمن را داریدگفت: "این می تواند برای همه ما چراغ خاموش باشد." و همچنین، منتقدان ممکن است بگویند، شیدایی که سوال کننده به آن اشاره می کند افراطی است، درست است؟
چیزی که سم در پرونده، ایلان را به آن متهم کرد، این بود که شاید او می خواهد بشریت را نجات دهد، اما به شرطی که او باشد. نوعی جزء نفسانی که میخواهد برنده شود، قاببندی است که سام همیشه از آن استفاده میکند، و این یکی برای کتابهای تاریخ است، این میتواند همه چیز را تغییر دهد. بنابراین، حتی فراتر از طرز فکر «شما باید چند تخم مرغ بشکنید» اکثر شرکتهای سیلیکون ولی، در ذهن برخی از چهرههای پیشرو هوش مصنوعی، فکر میکنم، منطقیسازی کاملی برای هر گونه پیامد وجود دارد.
و شکستن تخم مرغ را فراموش کنید. من فکر می کنم بسیاری از محققان ایمنی زیربنایی می گویند به طور بالقوه خطر شکستن کشور، شکستن جهان، و شکستن میلیون ها نفری که شغل و ایمنی آنها در تعادل است - این چیزی است که در مورد آن منحصر به فرد است. اینجاست که من با تأمل در این مجموعه از گزارشها، به این نتیجه میرسم که واقعاً بیشتر از سم آلتمن است. این در مورد صنعتی است که محدودیتی ندارد و مشکل مارپیچی آمریکا است که نمی تواند آن را محدود کند.
آره خوب، ما در آنجا کمی خوشبینی داشتیم، اما فکر میکنم این مکان خوبی برای ترک آن است.
[می خندد] با یک ضرب و شتم تمام شود.
البته. این هر داستان عالی است، واقعا. محاکمه ماسک-آلتمن در راه است. من فکر می کنم ما در اینجا چیزهای بیشتری یاد خواهیم گرفت. فکر می کنم بخواهم دوباره با شما صحبت کنم. رونان فارو، از حضور شما در Decoder بسیار متشکرم.
متشکرم.
سوال یا نظری در مورد این قسمت دارید؟ ما را در [email protected] سر بزنید. ما واقعاً هر ایمیلی را می خوانیم!