امروز در Decoder، من با رونان فارو، یکی از بزرگترین ستاره های گزارش تحقیقی که امروز کار می کند، صحبت می کنم. او داستان هاروی واینستین را در میان بسیاری از افراد دیگر شکست. و همین هفته گذشته، او و اندرو مارانتز، یکی از نویسندگانش، یک ویژگی عمیق باورنکردنی در نیویورکر درباره سام آلتمن، مدیر عامل OpenAI، قابل اعتماد بودن او و ظهور خود OpenAI منتشر کردند. 

یک یادداشت قبل از اینکه به اینجا ادامه دهیم - نیویورکر آن داستان را منتشر کرد و من و رونان این گفتگو را قبل از اینکه از گستردگی کامل حملات به خانه آلتمن مطلع باشیم، انجام دادیم، بنابراین شما نمی‌شنوید که مستقیماً در مورد آن صحبت کنیم. اما فقط برای گفتن آن، فکر می‌کنم خشونت از هر نوعی غیرقابل قبول است، این حملات به سام غیرقابل قبول بود، و آن نوع درماندگی که مردم احساس می‌کنند، که منجر به این نوع خشونت می‌شود، خود غیرقابل قبول است، و ارزش بررسی دقیق‌تر از سوی صنعت و رهبران سیاسی ما را دارد. امیدوارم واضح باشه

مشترکین همگام، فراموش نکنید که از هر کجا که پادکست‌های خود را دریافت می‌کنید، به رمزگشای بدون آگهی دسترسی انحصاری دارید. به اینجا سر بزن مشترک نیستید؟ شما می توانید در اینجا ثبت نام کنید.

همه آنچه گفته شد، حول و حوش آلتمن می چرخد ​​که یک بازی منصفانه برای گزارش گیری دقیق است – نوع گزارشی که رونان و اندرو قصد انجام آن را داشتند. به لطف محبوبیت ChatGPT، آلتمن به عنوان برجسته‌ترین چهره صنعت هوش مصنوعی ظاهر شده است و تنها در چند سال یک آزمایشگاه تحقیقاتی غیرانتفاعی را به یک شرکت خصوصی تقریباً تریلیون دلاری تبدیل کرده است. اما اسطوره آلتمن عمیقاً در تضاد است، به همان اندازه با توانایی آشکار او در معامله و تمایل گزارش شده او به… خوب، دروغ گفتن به همه اطرافیانش تعریف می شود.

داستان بیش از 17000 کلمه است و احتمالاً حاوی گزارش قطعی از اتفاقی است که در سال 2023 رخ داد، زمانی که هیئت مدیره OpenAI به طور ناگهانی آلتمن را به دلیل دروغگویی ادعایی اش اخراج کرد، فقط برای اینکه او تقریباً بلافاصله دوباره استخدام شود. این همچنین یک فرو رفتن عمیق در زندگی شخصی آلتمن، سرمایه‌گذاری‌های او، علاقه‌مندی‌اش به پول خاورمیانه، و بازتاب‌های خودش در مورد رفتار و ویژگی‌های شخصیتی گذشته‌اش است که باعث شد یک منبع بگوید او «حقیقت را محدود نمی‌کند». من واقعاً پیشنهاد می کنم کل داستان را بخوانید. من گمان می کنم که برای سال های آینده به آن ارجاع داده شود. 

رونان در طول 18 ماهی که برای گزارش این قطعه صرف کرد، بارها با آلتمن صحبت کرد، و بنابراین یکی از چیزهای اصلی که من در مورد آن کنجکاو بودم این بود که آیا او تغییری در آلتمن در آن زمان احساس کرد یا خیر. از این گذشته، در یک سال و نیم گذشته اتفاقات زیادی در هوش مصنوعی، فناوری و در جهان افتاده است.

شما می شنوید که رونان به طور مستقیم در مورد آن صحبت می کند، و همچنین احساس او را مبنی بر اینکه مردم تمایل بیشتری به صحبت در مورد توانایی آلتمن در بیان حقیقت پیدا کرده اند. مردم با صدای بلند و با صدای بلند شروع به تعجب کرده اند که آیا رفتار افرادی مانند آلتمن نه تنها برای هوش مصنوعی یا فناوری بلکه برای آینده جمعی جامعه نیز نگران کننده است.

خوب: رونان فارو در مورد سم آلتمن، هوش مصنوعی و حقیقت. در اینجا ما می رویم. 

این مصاحبه برای طولانی بودن و وضوح کمی ویرایش شده است. 

رونان فارو، شما یک گزارشگر تحقیقی و مشارکت کننده در نیویورکر هستید. به Decoder خوش آمدید.

خوشحالم که اینجا هستم. از اینکه من را دارید متشکرم

من بسیار هیجان زده هستم که با شما صحبت می کنم. شما فقط یک قطعه بزرگ برای نیویورکر نوشتید. این نمایه سام آلتمن و به نوعی OpenAI است. مطالعه من از آن این است که، همانطور که همه ویژگی های عالی انجام می دهند، با گزارش های دقیق، احساسات بسیاری را که مردم برای مدت بسیار طولانی نسبت به سام آلتمن داشته اند، تأیید می کند. شما آشکارا آن را منتشر کرده اید، نسبت به آن واکنش هایی داشته اید. در حال حاضر چه احساسی نسبت به آن دارید؟

خوب، در واقع از میزان شکست آن در زمانی که اقتصاد توجه بسیار اسکیزوفرنی و سطحی است، دلگرم شده ام. این داستانی است که به نظر من همه ما را تحت تاثیر قرار می دهد. و زمانی که من یک سال و نیم از عمرم را گذراندم و نویسنده همکارم، اندرو مارانتز، نیز آن زمان را صرف کرد، و واقعاً تلاش کرد تا کاری قانونی و دقیق انجام دهد، همیشه به این دلیل است که احساس می‌کنم مسائل ساختاری بزرگ‌تری وجود دارد که افراد فراتر از فرد و شرکت را در قلب داستان تحت تأثیر قرار می‌دهد. 

سام آلتمن، در پس‌زمینه فرهنگ تبلیغاتی سیلیکون ولی و استارت‌آپ‌هایی که بر اساس وعده‌هایی که ممکن است در آینده محقق شوند یا نشوند، به سمت ارزش‌گذاری‌های عظیم حرکت می‌کنند، و استقبال روزافزون از فرهنگ بنیان‌گذار که فکر می‌کند گفتن چیزهای متضاد به گروه‌های مختلف یک ویژگی است، نه یک ویژگی.اشکال… حتی در آن پس‌زمینه، سم آلتمن یک مورد خارق‌العاده است که در آن هرکسی در سیلیکون ولی که انتظار چنین چیزهایی را دارد، نمی‌تواند درباره این سوال در مورد اعتماد و صداقت او صحبت نکند. 

ما قبلاً می دانستیم که او به دلیل برخی از اتهامات نادرستی یا دروغگویی سریالی اخراج شده است. اما به‌طور خارق‌العاده‌ای، علی‌رغم این واقعیت که گزارش‌های فوق‌العاده‌ای وجود داشته است، کیچ هیگی در این زمینه کار بزرگی انجام داده است. کارن هائو کار بزرگی در این زمینه انجام داده است. واقعاً درک قطعی از نکات اثبات ادعایی واقعی و دلایل دور ماندن آنها از چشم عموم وجود نداشت. 

بنابراین نکته شماره یک این است که من از این واقعیت که برخی از این شکاف ها در دانش عمومی ما و حتی در دانش خودی های سیلیکون ولی اکنون کمی بیشتر پر شده است، احساس دلگرمی می کنم. برخی از دلایلی که خلأ وجود داشت کمی بیشتر پر شده است.

ما مواردی را گزارش می‌کنیم که در آن افراد در داخل این شرکت واقعاً احساس می‌کردند که چیزها پنهان شده یا عمداً مستند نشده است. یکی از چیزهای جدید در این داستان، تحقیقات شرکت حقوقی محوری توسط WilmerHale است، که بدیهی است یک شرکت حقوقی فانتزی، معتبر و بزرگ است که تحقیقاتی را در مورد Enron و WorldCom انجام داده است، که اتفاقاً، همه حجیم بودند، مانند صدها صفحه منتشر شده. ویلمرهیل این تحقیق را انجام داد که توسط اعضای هیئت مدیره که آلتمن را به عنوان شرط خروج از دستشان اخراج کرده بودند، درخواست کردند و او برگشت. و به طرز فوق‌العاده‌ای - از نظر بسیاری از کارشناسان حقوقی که با آنها صحبت کردم، و به طرز شگفت‌انگیزی از نظر بسیاری از افراد در این شرکت - آنها آن را از نوشتن دور نگه داشتند. تنها چیزی که از آن بیرون آمد، یک بیانیه مطبوعاتی 800 کلمه ای از OpenAI بود که آنچه را که اتفاق افتاد به عنوان شکست اعتماد توصیف می کرد. و ما تأیید کردیم که این موضوع در جلسات توجیهی شفاهی حفظ شده است.

مواردی وجود دارد که، برای مثال، یکی از اعضای هیئت مدیره ظاهراً می‌خواهد به تبدیل فرم غیرانتفاعی اولیه OpenAI به یک نهاد انتفاعی مخالفت کند و به عنوان ممتنع ثبت می‌شود. مانند یک وکیل در جلسه است که می گوید: "خب، این می تواند باعث بررسی بیش از حد شود." و فردی که می خواهد رای مخالف بدهد به عنوان ممتنع از همه ظواهر ثبت می شود. اختلاف واقعی وجود دارد همانطور که تصور می کنید OpenAI خلاف این را ادعا می کند. اینها همه مواردی است که شما شرکتی دارید که به حساب خود آینده ما را در دستان خود نگه می دارد. 

خطرات ایمنی آنقدر حاد هستند که از بین نرفته اند. به همین دلیل است که این شرکت به‌عنوان یک سازمان غیرانتفاعی با تمرکز بر ایمنی تأسیس شد، و همه چیز به گونه‌ای پنهان می‌شد که افراد معتبر اطراف آن را کمتر حرفه‌ای می‌دانستند. و شما آن را با پس زمینه ای که در آن اشتهای سیاسی بسیار کمی برای مقررات معنادار وجود دارد، جفت می کنید. من فکر می کنم این یک وضعیت بسیار قابل احتراق است. 

نکته برای من فقط این نیست که سام آلتمن سزاوار این سوالات شدید است. همچنین این است که هر یک از این افراد در این زمینه، و بسیاری از چهره‌های کلیدی، اگر نگوییم این خصیصه خاص دروغگویی را نشان می‌دهند، قطعاً تا حدودی ذهنیت رقابتی را نشان می‌دهند، جایی که افرادی که محافظان ایمنی بودند این تعهدات و وضعیت همه در مسابقه را پایین آورده‌اند.

من فکر می‌کنم، همانطور که به درزهای اخیر از Anthropic نگاه می‌کنیم، شخصی وجود دارد که این سوال را مطرح می‌کند که چه کسی باید انگشت خود را روی دکمه در این قطعه بگذارد. پاسخ این است که اگر نظارت معنی‌داری نداشته باشیم، فکر می‌کنم باید سؤالات جدی بپرسیم و سعی کنیم تا آنجا که می‌توانیم اطلاعاتی را درباره همه این افراد ارائه کنیم. بنابراین من از آنچه که به نظر می رسد یک گفتگوی معنادار در مورد آن، یا آغاز یک گفتگو است، دلگرم شده ام.

دلیل اینکه اینطور پرسیدم این بود که یک سال و نیم روی این موضوع کار کردید. به اعتقاد من، شما با 100 نفر با نویسنده همکارتان، اندرو، صحبت کردید. این مدت زمان زیادی برای پختن یک داستان است. به طور خاص به یک سال و نیم گذشته در هوش مصنوعی فکر می کنم، و پسر، نگرش ها و ارزش های همه این شخصیت ها خیلی سریع تغییر کرده است. 

شاید چیزی بیشتر از سام آلتمن نباشد، که به عنوان برنده پیش فرض شروع به کار کرد زیرا ChatGPT را منتشر کرده بود و همه فکر می کردند که این فقط گوگل را در اختیار خواهد گرفت. و سپس گوگل پاسخ داد، که به نظر آنها را متعجب کرد که گوگل سعی خواهد کرد از تجارت خود محافظت کند، شاید یکی از بهترین مشاغل در تاریخ فناوری، اگر تاریخچه کسب و کار نباشد. Anthropic تصمیم گرفت که بر روی این شرکت تمرکز کند. به نظر می رسد که در حال پیشروی فرماندهی استوجود دارد زیرا استفاده سازمانی از هوش مصنوعی بسیار بالا است.

اکنون، OpenAI محصول خود را به دور از «ما قصد داریم در مقابل Google بگیریم» به Codex متمرکز می‌کند و آن‌ها قرار است شرکت را به عهده بگیرند. من فقط نمی توانم کاملاً بگویم که آیا در طول گزارش شما در طول یک سال و نیم گذشته، آیا احساس می کنید شخصیت هایی که با آنها صحبت می کردید تغییر کرده اند؟ مانند نگرش ها و ارزش های آنها، آیا آنها تغییر کردند؟

بله. من فکر می‌کنم اول از همه، نقدی که در این مقاله بررسی می‌شود، از سوی بسیاری از افراد در این شرکت‌ها در این مرحله - که این صنعتی است که، علی‌رغم مخاطرات موجود، در حال نزول به چیزی شبیه به یک مسابقه در زمینه ایمنی و جایی که سرعت بر همه چیز غلبه کرده است - این نگرانی شدیدتر شده است. و من فکر می کنم که این نگرانی ها با گذشت یک سال و نیم گذشته بیشتر مورد تایید قرار گرفته اند. به طور همزمان، نگرش در مورد سام آلتمن به طور خاص تغییر کرده است. زمانی که ما شروع به صحبت با منابع برای این موضوع کردیم، مردم واقعاً از نقل قول در مورد این موضوع و ثبت نام در این مورد بدبین بودند.

در پایان گزارش ما، شما مجموعه‌ای از گزارش‌ها دارید که در آن مردم به صراحت و آشکار در مورد این موضوع صحبت می‌کنند، و اعضای هیئت‌مدیره جملاتی مانند "او یک دروغگوی بیمارگونه است. او یک جامعه‌شناس است." طیف وسیعی از دیدگاه‌ها وجود دارد: «با توجه به ریسک‌های ایمنی، این خطرناک است، و ما به رهبران این فناوری نیاز داریم که یکپارچگی بالایی داشته باشند»، تا حدی که می‌پسندیم، «مشکل‌های ایمنی را فراموش کنید، این رفتاری است که برای هر مدیری از هر شرکت بزرگی قابل دفاع نیست، زیرا باعث ایجاد اختلال بیش از حد می‌شود».

بنابراین گفتگو بسیار صریح تر شده است، به گونه ای که شاید دیر به نظر می رسد، اما از یک نظر دلچسب است. و سم آلتمن، به اعتبار او... این قطعه برای سام بسیار منصفانه و حتی سخاوتمندانه است. این از آن نوع قطعه‌ای نیست که در آن چیزهای زیادی وجود داشته باشد. من ساعت های زیادی را با او تلفنی گذراندم که در حال تکمیل این موضوع بودیم و واقعاً صدای او را شنیدم. 

همانطور که می توانید تصور کنید، در قطعه ای مانند این، همه چیز به آن وارد نمی شود. برخی از این موارد در این یکی به این دلیل بود که من صادقانه گوش می کردم. و اگر سام واقعاً استدلالی می‌کرد که من احساس می‌کردم که چیزی، حتی اگر درست باشد، می‌تواند هیجان‌انگیز باشد، من واقعاً در مورد حفظ این پزشکی قانونی و اندازه‌گیری اشتباه کردم. بنابراین من فکر می‌کنم که به درستی دریافت شده است، و فقط امیدوارم این سابقه واقعی که در این مدت زمان انباشته شده است بتواند گفت‌وگوی قوی‌تری درباره نیاز به نظارت ایجاد کند.

این در واقع سوال بعدی من است. فکر می کنم در طول گزارش این داستان ده ها بار با سام صحبت کردید. باز هم، این گفتگوهای زیادی در یک دوره زمانی طولانی است. آیا فکر می کردید سام در طول گزارش در طول یک سال و نیم گذشته تغییر کرده است؟

آره فکر می‌کنم یکی از جالب‌ترین داستان‌های فرعی این است که سم آلتمن نیز صریح‌تر از گذشته درباره این ویژگی صحبت می‌کند. ژست سام در این قطعه اینگونه نیست که «هیچ چیزی وجود ندارد، این درست نیست؛ من نمی دانم در مورد چه چیزی صحبت می کنید». حالتی که او دارد این است که می‌گوید این به یک گرایش مردم پسند و نوعی تنفر از تعارض نسبت داده می‌شود. او اذعان می کند که مشکلاتی برای او ایجاد کرده است، به ویژه در اوایل دوران حرفه ای اش.

او می‌گوید: «خب، من از آن گذشته‌ام، یا تا حدودی از آن گذشته‌ام.» فکر می‌کنم آنچه واقعاً برای من جالب است، تعداد افرادی است که با آنها صحبت می‌کنیم و نه فقط مدافعان ایمنی بودند، نه فقط محققین فنی اساسی که اغلب تمایل به داشتن این نگرانی‌های ایمنی حاد دارند، بلکه سرمایه‌گذاران عمل‌گرا و بزرگ نیز هستند. آنها حامیان سام هستند، که در برخی موارد به این سوال نگاه می کنند و حتی در مورد اینکه او نقشی کلیدی در بازگشت او پس از اخراج داشته است صحبت می کنند. حالا در این سؤال که آیا اصلاح شده است و این تغییر تا چه اندازه معنادار است، می‌گویند: «خب، ما در آن زمان به او منفعت دادیم».

من به طور خاص به یک سرمایه گذار برجسته فکر می کنم که گفت: «اما از آن زمان به بعد، به نظر می رسد که او را از پشت محوطه بیرون نبرده اند»، این عبارتی بود که این سرمایه گذار در حدی که لازم بود استفاده کرد. در نتیجه، به نظر می رسد که این اکنون یک ویژگی پایدار است. ما این را به صورت مداوم می بینیم. می توانید به برخی از بزرگترین تجارت OpenAI نگاه کنیدروابط و روشی که آنها به نوعی وزن این بی اعتمادی را به طور مداوم تحمل می کنند. 

مانند مایکروسافت، شما با مدیران در آنجا صحبت می کنید و آنها واقعاً نگرانی های حاد و اخیراً تسریع کرده اند. این مورد وجود دارد که در همان روزی که OpenAI انحصار خود را با مایکروسافت در رابطه با مدل‌های هوش مصنوعی بدون دولت تأیید می‌کند، همچنین قرارداد جدیدی را با آمازون اعلام می‌کند که مربوط به فروش راه‌حل‌های سازمانی برای ساخت عوامل هوش مصنوعی است که دارای حافظه هستند، به این معنی که آنها حافظه دارند.

شما با افراد مایکروسافت صحبت می‌کنید، و آنها می‌گویند: «این کار بدون تعامل با موارد زیربنایی که ما یک قرارداد انحصاری داریم، امکان‌پذیر نیست.» بنابراین این تنها یکی از نمونه‌های کوچک بسیاری است که در آن این ویژگی همواره در فعالیت‌های تجاری مداوم است و موضوع نگرانی فعال در هیئت مدیره OpenAI، مجموعه اجرایی آن و در جامعه فناوری گسترده‌تر است.

شما مدام این "خصلت" را می گویید. خطی در داستان وجود دارد که به نظر من شبیه پایان نامه است، و این توصیفی از خصیصه ای است که شما توصیف می کنید. این این است که «سام آلتمن در حقیقت محدودیتی ندارد» و «دو ویژگی دارد که تقریباً هرگز در یک فرد دیده نمی‌شود: اولی میل شدید به راضی کردن مردم، دوست داشتنی شدن در هر تعامل معینی، و دومی عدم نگرانی تقریباً اجتماعی‌گرایانه نسبت به عواقبی است که ممکن است از فریب دادن کسی به وجود آید».

باید به شما بگویم، من آن جمله را 500 بار خواندم و سعی کردم تصور کنم همیشه می‌گویم مردم چه چیزی را می‌خواهند دوست داشته باشند و بعد از اینکه احساس می‌کنند به آنها دروغ می‌گویند ناراحت نمی‌شوم. و من نتوانستم حالت عاطفی خود را بفهمم که چگونه آن چیزها می توانند در یک شخص وجود داشته باشند. شما با سام زیاد صحبت کرده اید و با افرادی که این ویژگی ها را تجربه کرده اند صحبت کرده اید. او چگونه این کار را انجام می دهد؟

آره این در سطح انسانی جالب است، زیرا من با تمرکز واقعی بر انسانی کردن هر کسی که در قلب آن قرار دارد و به دنبال درک عمیق و همدلی، به گزارش‌هایی مانند این رویکرد می‌کنم. وقتی سعی کردم از دیدگاه انسانی‌تر به این موضوع نزدیک شوم و بگویم: "هی، اگر بسیاری از افرادی که با آنها کار کرده‌ام بگویند که من یک دروغگوی بیمارگونه هستم، این برای من ویرانگر خواهد بود. چگونه این وزن را تحمل می‌کنی؟ چگونه در مورد آن در درمان صحبت می‌کنی؟ داستانی که در مورد آن به خودت می‌گویی چیست؟"

به نظر من، ممکن است در مورد این موضوع به نوعی ابهامات ساحل غربی مانند "آره، من کار نفس را دوست دارم." اما نه چندان آن نوع احساس تقویت‌کننده‌ای از رویارویی عمیق با خود که فکر می‌کنم بسیاری از ما احتمالاً اگر این نوع بازخورد را در مورد رفتار و رفتارمان با مردم می‌دیدیم، داشتیم.

من فکر می کنم که در واقع به پاسخ گسترده تری به این سوال نیز می رسد. سام ادعا می‌کند که این ویژگی باعث ایجاد مشکلاتی شده است، اما همچنین بخشی از آن چیزی است که به او قدرت می‌دهد تا رشد OpenAI را آنقدر تسریع کند که بتواند گروه‌های مختلف مردم را متحد کند و خوشحال کند. او دائماً تمام این حوزه‌های متضاد را متقاعد می‌کند که آنچه آنها به آن اهمیت می‌دهند همان چیزی است که او به آن اهمیت می‌دهد. و این می تواند یک مهارت واقعا مفید برای یک بنیانگذار باشد. من با سرمایه گذارانی صحبت کرده ام که می گویند، "خب، شاید این مهارت کمتر مفیدی برای اداره یک شرکت باشد، زیرا باعث ایجاد اختلاف می شود."

اما از جنبه شخصی سام، من فکر می‌کنم چیزی که وقتی سعی می‌کنم در سطح انسانی با هم ارتباط برقرار کنم، فقدان آشکار رویارویی عمیق‌تر، تأمل، و مسئولیت‌پذیری شخصی است، که همچنین این ابرقدرت یا مسئولیت را برای شرکتی که برای IPO آماده می‌شود، نشان می‌دهد.

او کسی است که به قول یکی از اعضای سابق هیئت مدیره به نام سو یون، که در قطعه ضبط شده است و می گوید که عبارتی که او به کار می برد تا حد "بی عاطفه" است، واقعاً می تواند واقعیت در حال تغییر فروش هایش را باور کند یا می تواند خود را در مورد آنها متقاعد کند. یا حداقل اگر آنها را باور نمی کند، می تواند بدون شک و تردید به خود، آنها را از بین ببرد.

من فکر می‌کنم چیزی که شما در مورد آن صحبت می‌کنید، جایی که من یا شما ممکن است، در حالی که آن چیزی را می‌گوییم و متوجه می‌شویم که با اطمینان دیگری که داده‌ایم در تضاد است، به نوعی لحظه‌ای یخ بزنیم یا خودمان را بررسی کنیم. من فکر می کنم که این اتفاق برای او نمی افتد. و فرهنگ تبلیغاتی گسترده تری در دره سیلیکون و فرهنگ بنیانگذار وجود دارد که به نوعی آن را می پذیرد.

خنده دار است The Verge بر اساس آنچه به بررسی یک محصول می رسد ساخته شده استبرنامه این قلب کاری است که ما اینجا انجام می دهیم. من سالی یک تریلیون دلار تحقیق و توسعه اپل نگه می دارم و می گویم: "این گوشی هفت است." و به نوعی به همه گزارش‌های ما و نظرات ما در جاهای دیگر مشروعیت می‌بخشد. ما یک عملکرد ارزیابی داریم و زمان زیادی را صرف نگاه کردن به محصولات هوش مصنوعی می کنیم و می گوییم: "آیا آنها کار می کنند؟"

به نظر می رسد که در بسیاری از گفتگوها درباره هوش مصنوعی مانند امروز گم شده است. گفتگوهای بی پایانی در مورد آنچه که ممکن است انجام دهد، چقدر خطرناک است وجود دارد. و پس از آن، تمرین را انجام می دهید، و می گویید: "آیا واقعاً کاری را که امروز باید انجام دهد انجام می دهد؟" در برخی موارد، پاسخ مثبت است. اما در بسیاری از موارد، پاسخ منفی است.

این احساس می‌کند که به فرهنگ تبلیغاتی که توصیف می‌کنید مرتبط است و همچنین به این حس که، خوب، اگر بگویید قرار است کاری انجام دهد و این کار را نمی‌کند، و کسی احساس بدی داشته باشد، خوب است، زیرا ما به کار بعدی می‌رویم. این در گذشته است. و به ویژه در هوش مصنوعی، سم در دادن وعده های بزرگ بسیار خوب است.

همین هفته، فکر می‌کنم همان روزی که داستان شما منتشر شد، OpenAI یک سند سیاستی منتشر کرد که می‌گفت ما باید در قرارداد اجتماعی تجدید نظر کنیم و از دولت کمک هزینه‌های بهره‌وری هوش مصنوعی بگیریم. این یک وعده بزرگ در مورد این است که چگونه برخی از فناوری‌ها می‌توانند آینده جهان و نحوه زندگی ما را شکل دهند، و همه اینها متکی است که فناوری دقیقاً به روشی عمل می‌کند که شاید قول داده شده یا باید کار کند. 

آیا تا به حال متوجه شده اید که سام در تبدیل شدن هوش مصنوعی به AGI یا ابر هوش یا رسیدن به خط پایان شک دارد؟ زیرا این چیزی است که بیشتر از همه در مورد آن تعجب می کنم. آیا بازتابی در مورد اینکه آیا این فناوری اصلی می تواند همه کارهایی را که آنها می گویند می تواند انجام دهد، وجود دارد؟

این دقیقا مجموعه درستی از سوالات است. فن‌آوران معتبری وجود دارند که ما در این مجموعه از گزارش‌ها با آنها صحبت کردیم - و بدیهی است که سم آلتمن یکی از آنها نیست. او یک فرد تجاری است - که می گویند روشی که سام در مورد جدول زمانی این فناوری صحبت می کند بسیار دور از ذهن است. پست‌هایی در وبلاگ وجود دارد که به چند سال قبل بازمی‌گردد و سام می‌گوید: "ما قبلاً به افق رویداد رسیده‌ایم. AGI اساساً اینجاست. ابر هوش در گوشه و کنار است. ما در سیارات دیگر خواهیم بود. ما همه انواع سرطان را درمان خواهیم کرد." راستش من آراسته نیستم 

سرطان در واقع جالب است، اینکه سام در حال هیاهو کردن فردی است که از نظر تئوری سرطان سگش را با ChatGPT درمان کرده است، و این به سادگی اتفاق نیفتاد. آنها با ChatGPT صحبت کردند و این به آنها کمک کرد تا برخی از محققانی را که واقعاً کار را انجام داده اند راهنمایی کنند، اما این ابزار یک به یک این سگ را درمان می کند در واقع داستان نیست.

خوشحالم که این نکته را مطرح کردید، زیرا می‌خواهم به این نکته بزرگ‌تر بروم درباره زمانی که هم پتانسیل و هم خطر فناوری واقعاً در معرض خطر قرار می‌گیرد. اما شایان ذکر است که این نکات کوچک که دائماً از سم آلتمن اتفاق می افتد، جایی که به نظر می رسد او این ویژگی را دوباره تجسم می بخشد. 

منظورم این است که از مثال گزارش WilmerHale استفاده کنم، جایی که ما این اطلاعات را داشتیم که نوشته نشده بود، و می‌خواستیم بدانیم آیا خلاصه شفاهی در طول مسیر به کسی غیر از دو عضو هیئت مدیره که سام برای نظارت بر آن کمک کرده بود داده شده است یا خیر. و او گفت: "آره، بله، نه، من معتقدم که به هر کسی که بعد از آن به هیئت مدیره ملحق شد داده شد." و ما فردی را داریم که مستقیماً از وضعیت آگاه است که می گوید این فقط یک دروغ است. و به نظر می رسد که واقعاً چنین است، که نادرست است. اگر بخواهیم سخاوتمند باشیم، شاید به او اطلاعات غلط داده شده است. 

بسیاری از این تضمین های اتفاقی وجود دارد. و من از آن مثال تا حدی استفاده می‌کنم، زیرا این نمونه‌ای عالی از بی‌تفاوتی است، که می‌تواند از نظر قانونی عواقب واقعی داشته باشد. نیازی نیست به شما بگویم، طبق قانون شرکت دلاور، اگر این شرکت سهامداران خود را IPO می‌کنند، سهامداران می‌توانند، طبق بخش 220، در این مورد شکایت کنند و مستندات اساسی را مطالبه کنند. قبلاً اعضای هیئت مدیره جملاتی مانند "خب، یک لحظه صبر کنید، آن جلسه توجیهی باید انجام می شد."

بنابراین این چیزهایی که به نظر می‌رسد همیشه از دهان او بیرون می‌پرند، می‌توانند تأثیرات واقعی بازار و تأثیرات واقعی برای OpenAI داشته باشند. با بازگرداندن آن به نوعی زبان تبلیغاتی آرمان‌شهری که دوباره ظاهر شد، فکر می‌کنم تصادفی نیست در روزی که این قطعه منتشر شد، همه ما را نیز تحت تأثیر قرار می‌دهد، زیرا خطرات با توجه به نحوه آن بسیار حاد هستند.استقرار در تسلیحات، روش استفاده از آن برای شناسایی عوامل جنگ شیمیایی، پتانسیل اطلاعات نادرست، و به دلیل روشی که به نظر می رسد تبلیغات اتوپیایی باعث شده است که بسیاری از اقتصاددانان معتبر بگویند: "این همه نشانه های حباب را دارد."

حتی سم آلتمن نیز گفته است: "یکی در اینجا پول زیادی از دست خواهد داد." این واقعاً می تواند باعث رشد اقتصادی زیادی در آمریکا و جهان شود، اگر مانند یک سوراخ واقعی حباب باشد که شامل همه این شرکت ها می شود که با یکدیگر معامله می کنند و در عین حال به هوش مصنوعی وارد می شوند در حالی که وام های سنگین می گیرند. بنابراین آنچه سام آلتمن می‌گوید مهم است، و من فکر می‌کنم که غالب افراد اطراف او، که شما اشاره کردید با بیش از صد نفر صحبت کردیم، در واقع بیش از صد نفر بود. ما در خط پایان مکالمه‌ای داشتیم که به این صورت بود: "آیا این خیلی کوچک است که بگوییم این رقم بسیار بالاتر است؟" و ما می‌گفتیم: "آره، بیایید کم اهمیت جلوه دهیم. ما آن را باحال بازی خواهیم کرد." اما افراد زیادی بودند و اکثریت قابل توجهی از آنها گفتند: "این یک نگرانی است." و من فکر می کنم همه به همین دلیل است.

بگذارید در مورد آن شماره از شما بپرسم. همانطور که اشاره کردید، مردم با گذشت زمان بیشتر و بیشتر با نگرانی ها باز شدند. به نظر می رسد فشار حول حباب - مسابقه برای برنده شدن، پرداخت تمام این سرمایه گذاری ها، ظهور به عنوان برنده، به عرضه اولیه عمومی - نگرش های زیادی را تغییر داده است. مطمئناً فشار بیشتری بر سم و OpenAI ایجاد کرد.

ما این هفته داستانی را فقط در مورد حالات OpenAI منتشر کردیم. داستان شما بخشی از آن است، اما تغییرات گسترده کارکنان در رده‌های اجرایی OpenAI - مردم می‌آیند و می‌روند. محققین همه به سمت آنتروپیک رفته اند، که به نظر من واقعا جالب است. شما فقط می توانید ببینید که این شرکت فشار را احساس می کند و به نوعی به این فشار پاسخ می دهد.

اما بعد به اخراج شدن سام فکر می کنم. این فقط برای من خاطره انگیز است. این برای هیچ کس به یاد ماندنی نیست، اما من یک روز جمعه در ساعت 7 عصر با باغ وحش برانکس تماس گرفتم و کسی بود که می گفت سعی می کنند سم را پس بگیرند. و سپس آخر هفته را صرف تعقیب آن داستان کردیم. و من فقط مثل "من در باغ وحش هستم. شما می خواهید من اینجا چه کار کنم؟" و پاسخ این بود: "تلفن بمان." خب، دخترم مثل این بود که "گوشی را ول کن." و این کاری است که من انجام دادم. 

برای برگرداندن سام سوار یا مردن بود. آن شرکت چنین بود: «نه، ما به هیئت مدیره اجازه نمی‌دهیم سم آلتمن را اخراج کند.» سرمایه گذاران، آنها در مقاله شما نقل شده اند، "ما به جنگ رفتیم"، من فکر می کنم، موقعیت Thrive Capital است، "برای بازگرداندن سم." مایکروسافت برای بازگرداندن سم وارد جنگ شد. دیرتر است، و حالا همه می‌گویند، "ما به عرضه اولیه سهام می‌رویم. به خط پایان رسیدیم. پسرمان را پس گرفتیم، و او ما را به خط پایان خواهد رساند. ما نگران هستیم که او دروغگو باشد." 

چرا در آن زمان بازگرداندن او جنگ بود؟ زیرا به نظر نمی رسد که واقعاً چیزی تغییر کرده باشد. شما در مورد یادداشت هایی صحبت می کنید که ایلیا سوتسکور و [مدیر عامل آنتروپیک] داریو آمودی زمانی که معاصر سام آلتمن بودند، نگه داشته اند. نگرانی شماره یک ایلیا این بود که سام دروغگو است.

هیچ کدام از اینها تغییر نکرده است. پس چرا برای بازگرداندن او جنگ بود؟ و اکنون که در خط پایان هستیم، به نظر می رسد که همه نگرانی ها آشکار است.

خب، اول از همه از دختر شما و شریک زندگی من و همه اطرافیان روزنامه نگار متاسفم. 

[می خندد] برای همه تعطیلات آخر هفته بود.

آره، این داستان زندگی آدم را می گیرد، و این داستان قطعاً مال من است، در آخرین دوره زمانی. فکر می کنم در واقع به این موضوع روزنامه نگاری و دسترسی به اطلاعات مربوط می شود. سرمایه‌گذارانی که برای سام وارد جنگ شدند و همگی در اطمینان از بازگشت او نقش داشتند، و هیئت مدیره‌ای که به طور خاص برای محافظت از مأموریت یک غیرانتفاعی طراحی شده بود تا امنیت را بر رشد بگذارد و اگر نمی‌توان به آن‌ها اعتماد کرد، یک مدیر اجرایی را اخراج کرد، کنار رفتند. این همه به این دلیل بود که، بله، مشوق‌های بازار وجود داشت، درست است؟

سم توانست مردم را متقاعد کند، "خب، شرکت به تازگی از هم خواهد پاشید." اما دلیل حمایت او کمبود اطلاعات بود. آن سرمایه‌گذاران، در بسیاری از موارد، اکنون می‌گویند: «من به گذشته نگاه می‌کنم، و فکر می‌کنم اگر به طور کامل می‌دانستم این ادعاها چیست و نگرانی‌ها چیست، باید نگرانی‌های بیشتری داشتم.»

نه همه آنها؛نظرات متفاوت است، و ما طیف وسیعی از نظرات را نقل می کنیم، اما نظرات مهمی وجود دارند که بر اساس اطلاعات بسیار جزئی عمل می کنند. تخته ای که سم را اخراج کرد، به قول یکی از افرادی که قبلاً در هیئت مدیره بود، «بسیار JV» بود و آنها به سختی توپ را زیر و رو کردند. و ما شکایات اساسی را مستند می کنیم، و مردم می توانند خودشان تصمیم بگیرند که آیا این شکایات به نوعی نگرانی فوری که احساس می کردند انباشته می شود یا خیر، اما آن استدلال و آن اطلاعات ارائه نشده است.

آنها چیزی را دریافت کردند که برخی از آنها اکنون به عنوان مشاوره حقوقی بد اذعان می کنند. برای توصیف آن، نقل قول را به خاطر خواهید آورد، و احتمالاً بسیاری از شنوندگان و بینندگان شما این نقل قول را به عنوان عدم صراحت به خاطر خواهند آورد. این همان چیزی بود که به آن کاهش یافت، و سپس آنها اساساً تماس نمی گرفتند.

آنها تماس نمی گیرند. مطمئنم تلاش کردی همه کسانی که من می‌شناسم تلاش کردند، و کار به جایی رسید که به عنوان یک روزنامه‌نگار، قرار نیست منابع خود را راهنمایی کنید، اما من می‌گفتم: «اگر شروع به توضیح ندهید، این موضوع برطرف می‌شود».

و این چیزی است که اتفاق افتاد. خبرنگاران را فراموش کنید شما ساتیا نادلا را داشتید که می گفت: "لعنتی چه اتفاقی افتاده؟ من نمی توانم کسی را وادار کنم که به من توضیح دهد." و این حامی مالی اصلی شرکت است. و سپس ساتیا دارید که با رید هافمن [از بنیانگذار لینکدین] تماس می‌گیرد و رید به اطراف زنگ می‌زند و می‌گوید: «نمی‌دانم چه اتفاقی افتاده است.» 

آنها به طور قابل درک در آن خلاء اطلاعات هستند و به دنبال شاخص های سنتی غیر هوش مصنوعی هستند که چنین شلیک فوری و ناگهانی را توجیه می کند. خوب، آیا این جنایات جنسی بود؟ اختلاس بود؟ و کل استدلال ظریف، اما من فکر می‌کنم معنی‌دار، مبنی بر اینکه این فناوری متفاوت است و این نوع انباشت مداوم خیانت‌های کوچک‌تر می‌تواند خطرات معناداری هم برای این تجارت و هم شاید برای جهان داشته باشد، تا حد زیادی از بین رفت. بنابراین انگیزه های سرمایه داری برنده شد، اما همچنین افرادی که آن را ساخته بودند بیرون رفتند و همیشه با اطلاعات کامل کار نمی کردند.

می‌خواهم فقط یک لحظه در مورد جنبه «آنچه همه فکر می‌کردند» بپرسم، زیرا مطمئناً خبر را دیدم و گفتم: «اوه، حتماً اتفاق بدی افتاده است.» شما گزارش های #MeToo زیادی انجام داده اید، معروف است. شما داستان هاروی واینستین را شکستید. 

شما زمان زیادی را صرف گزارش در مورد این ادعاها کردید که من فکر می‌کنم تصمیم گرفتید در نهایت بی‌اساس بودند: اینکه آلتمن به خردسالان تجاوز جنسی کرد یا کارگران جنسی را استخدام کرد، یا حتی یک افشاگر OpenAI را به قتل رساند. منظورم این است که شما فردی هستید که می توانید این موارد را با جدیت ترین گزارش دهید. آیا تصمیم گرفتید که هیچ نتیجه ای حاصل نشود؟

خوب، ببینید، من در این کار نیستم که بگویم چیزی به نتیجه نرسیده است. چیزی که می توانم بگویم این است که ماه ها به بررسی این ادعاها پرداختم و تأییدی برای آنها پیدا نکردم. و برای من شگفت‌انگیز بود که این افراد، این شرکت‌ها که قدرت زیادی بر آینده ما دارند، واقعاً مقدار نامتناسبی از زمان و منابع خود را در یک دعوای گلی کودکانه صرف می‌کنند.

یکی از مدیران آن را "شکسپیر" توصیف می کند. مقدار پول بازپرس خصوصی و پرونده های مخالف در حال تنظیم بی امان است. و نکته تاسف بار این است که این نوع چیزهای مزخرف که توسط رقبای سام طوطی وار مورد استفاده قرار می گیرد، فقط یک واقعیت فرضی است، درست است؟ این ادعا وجود دارد که او پسران زیر سن قانونی را تعقیب می کند، و در بسیاری از مهمانی های کوکتل در سیلیکون ولی، این را می شنوید. در مدار کنفرانس، شنیده ام که توسط مدیران معتبر و برجسته تکرار شده است: "همه می دانند که این یک واقعیت است."

نکته غم انگیز این است که من در مورد این صحبت می کنم که این از کجا می آید، بردارهای مختلفی که توسط آنها منتقل می شود. ایلان ماسک و همکارانش ظاهراً در حال پیشبرد پرونده‌های واقعاً سخت‌گیرانه هستند که به هیچ وجه به پایان می‌رسند. هنگامی که شما واقعاً شروع به بررسی ادعاهای اساسی می کنید، آنها بخار می شوند. نکته غم انگیز این است که واقعاً نقدهای مبتنی بر شواهد بیشتری را که من فکر می کنم واقعاً مستحق نظارت و بررسی فوری هستند پنهان می کند.

موضوع دیگری که واقعاً در داستان مطرح می‌شود، تقریباً احساس ترس از اینکه سام دوستان زیادی دارد - او از نقش قبلی خود به عنوان مدیر عامل Y Combinator در شرکت‌های زیادی سرمایه‌گذاری کرده است، فقط سرمایه‌گذاری شخصی‌اش، که برخی از آنها در تضاد مستقیم با نقش او به عنوان مدیر عامل OpenAI هستند - و سکوتی در اطراف او وجود دارد.

وقتی به طور خاص یک خط را می خواندم، مرا شگفت زده کرد. شما یادداشت های Ilya Sutskever را توصیف می کنید، و آنها به تازگی در Silicon Valley منتشر شده اند. همهآنها را یادداشت های ایلیا می نامد. اما حتی در اطراف آن سکوت وجود دارد. آنها به اطراف منتقل شده اند، اما مورد بحث قرار نمی گیرند. فکر می کنید از کجا می آید؟ آیا ترس است؟ آیا این تمایل به سرمایه گذاری فرشته است؟ از کجا می آید؟

من فکر می کنم بزدلی زیادی است، صادقانه می گویم. با گزارش‌هایی از داستان‌های امنیت ملی که در آن منابع افشاگرانی هستند که همه چیز را از دست می‌دهند و تحت پیگرد قانونی قرار می‌گیرند، آنها هنوز هم کار درست را انجام می‌دهند و درباره مسائلی برای ایجاد پاسخگویی صحبت می‌کنند. من روی داستان‌های مربوط به جنایات جنسی که شما اشاره کردید کار کرده‌ام، جایی که منابع به شدت آسیب دیده‌اند و از یک نوع بسیار شخصی از مجازات می‌ترسند. 

در بسیاری از موارد پیرامون این ضرب، شما با افرادی با مشخصات و قدرت خود سروکار دارید. آنها یا خود افراد مشهور هستند یا توسط افراد مشهور احاطه شده اند. آنها زندگی تجاری قوی دارند. به نظر من، صحبت کردن در مورد این چیزها در واقع برای آنها بسیار کم است. و خوشبختانه همانطور که قبلاً در مورد آن صحبت کردیم سوزن در حال حرکت است و مردم اکنون بیشتر صحبت می کنند.

اما برای مدت طولانی، مردم واقعاً در مورد آن سکوت می‌کنند، زیرا من فکر می‌کنم فرهنگ سیلیکون ولی بسیار بی‌رحمانه منافع شخصی و بی‌رحمانه تجارت و رشد محور است. بنابراین فکر می‌کنم این حتی برخی از افرادی را که در اخراج سم دخیل بودند، رنج می‌دهد، جایی که در روزهای بعد دیدید، بله، یکی از عواملی که منجر به بازگشت او و اخراج اعضای قدیمی هیئت‌مدیره شد این بود که او سرمایه‌گذارانی را جمع کرد که در مورد هدفش گیج شده بودند. 

اما مورد دیگر این است که بسیاری از افراد دیگر در اطراف آن که نگرانی‌هایشان را داشتند و فوراً آن‌ها را ابراز می‌کردند، لحظه‌ای که دیدند باد از طرف دیگر می‌وزد، مثل دستمال سفره تا می‌کردند و لحن خود را تغییر می‌دادند و می‌خواستند وارد قطار سود شوند. 

از دیدگاه من به عنوان یک خبرنگار، صادقانه بگویم، بسیار تاریک است.

برخی از این افراد میرا موراتی هستند که به اعتقاد من به مدت 20 دقیقه مدیر عامل جدید OpenAI بود. سپس او جایگزین شد. این یک پویایی بسیار پیچیده بود، و بدیهی است که سم برگشت. نفر دیگر ایلیا سوتسکور است که یکی از رای هایی بود که سام را حذف کرد و بعد نظرش را عوض کرد یا حداقل گفت نظرش تغییر کرد و بعد رفت تا شرکت خودش را راه اندازی کند. میدونی چی باعث شد نظرش عوض بشه؟ فقط پول بود؟

خوب، و برای روشن بودن، من آن دو را از هم جدا نمی کنم. اعضای هیئت مدیره دیگری نیز در تیراندازی نقش داشتند که پس از آن نیز بسیار ساکت شدند. من فکر می کنم این یک مشکل جمعی گسترده تر است. اینها، در برخی موارد، افرادی هستند که تارهای اخلاقی برای به صدا درآوردن آژیر خطر و اقدامات رادیکال را داشتند، و این جای تقدیر دارد. و اینگونه است که شما مسئولیت پذیری را تضمین می کنید. این می توانست به بسیاری از افرادی که تحت تأثیر این فناوری هستند کمک کند. این می توانست به صنعت کمک کند تا به طور معناداری بر ایمنی متمرکز بماند.

اما در برخورد با افشاگران و افرادی که سعی می‌کنند این مسئولیت‌پذیری را زیاد برانگیزانند، همچنین می‌بینید که نشان دادن آن و ایستادن بر اعتقادات شما نیاز دارد. و این صنعت واقعاً پر از افرادی است که بر اعتقادات خود نمی ایستند.

حتی اگر فکر می کنند که دارند یک خدای دیجیتالی می سازند که به نوعی یا تمام نیروی کار را حذف می کند یا نیروی کار بیشتری ایجاد می کند، یا اتفاقی رخ می دهد.

خب موضوع همینه بنابراین، فرهنگ عدم ​​پایبندی به اعتقادات و نگرانی‌های اخلاقی در لحظه‌ای که گرما یا هر چیزی می‌تواند جایگاه شما را در کسب‌وکار تهدید کند، کنار گذاشته می‌شود، شاید برای شرکت‌های معمولی که در حال ساخت هر نوع ویجتی هستند، خوب و خوب باشد.

اما اینها همان افرادی هستند که می گویند: "این به معنای واقعی کلمه می تواند همه ما را بکشد." و دوباره، شما مجبور نیستید به مرحله افراطی Terminator Skynet بروید. مجموعه ای از خطرات وجود دارد که در حال حاضر تحقق یافته است. این واقعی است، و آنها حق دارند در مورد آن هشدار دهند، اما شما باید یک نفر دیگر را به صندلی راحتی روانشناسی کنید که چگونه این دو چیز می توانند در همان مردمی زندگی کنند که هشدارهای فوری می دهند، ممکن است انگشت پا را به داخل بگذارند و سعی کنند کاری انجام دهند، و سپس فقط تا می کنند و ساکت می شوند. 

دقیقاً به همین دلیل است که می‌توانید چنین مواردی را داشته باشید که از نوشتن دور نگه داشته می‌شوند و چیزها زیر فرش جارو می‌شوند، و هیچ‌کس سال‌ها پس از این واقعیت آشکارا در مورد آن صحبت نمی‌کند.

طرف طبیعی و مسئول در اینجا مدیران عامل این شرکت ها نیستند. دولت ها خواهند بود. در ایالات متحده، شایداین دولت های ایالتی است، شاید دولت فدرال باشد. 

مطمئناً این شرکت ها همه می خواهند جهانی باشند. در اینجا پیامدهای جهانی زیادی وجود دارد. من OpenAI، Google و Anthropic را تماشا کردم که همگی دولت بایدن را به انتشار یک فرمان اجرایی هوش مصنوعی تشویق کردند. در نهایت خیلی بی دندان بود. فقط گفت که آنها باید در مورد توانایی های مدل هایشان صحبت کنند و آزمایش های ایمنی را منتشر کنند. و سپس همه آنها از ترامپ حمایت کردند و ترامپ وارد شد و همه اینها را پاک کرد و گفت: "ما باید رقابتی باشیم. این برای همه رایگان است. آن را انجام دهید."

در عین حال، همه آنها تلاش می کنند از کشورهای خاورمیانه که دارای پول نفت زیادی هستند و می خواهند اقتصاد خود را تغییر دهند، کمک مالی جمع آوری کنند. اینها سیاستمداران هستند. من احساس می‌کنم که سیاستمداران قطعاً باید بفهمند که یک نفر از هر دو طرف صحبت می‌کند، و اگر کسی در نهایت ناامید شود، خیلی ناراحت نخواهند شد، اما سیاستمداران نیز به یک سواری کشیده می‌شوند. به نظر شما چرا اینطور است؟

فکر می‌کنم واقعاً به همین دلیل است که این قطعه از نظر من اهمیت دارد و چرا ارزش صرف این همه زمان و جزئیات را دارد. ما در محیطی هستیم که سیستم‌هایی که، همانطور که شما می‌گویید، باید نظارت را انجام دهند، به‌تدریج توخالی شده‌اند. این یک آمریکای متحد پس از شهروندان است، جایی که جریان پول بسیار نامحدود است، و تمرکز خاصی از این مشکل حول هوش مصنوعی است، جایی که این PAC ها وجود دارند که در حال تکثیر هستند و پول را برای لغو مقررات معنادار هم در سطح ایالتی و هم در سطح فدرال سرازیر می کنند.

شما [از بنیانگذاران OpenAI] گرگ براکمن، دومین فرمانده سام را دارید که مستقیماً به طور عمده به چند مورد از آنها کمک می کند. این منجر به وضعیتی می‌شود که در آن واقعاً قانون‌گذاران و تنظیم‌کننده‌های بالقوه دستگیر شده‌اند، و خروج از آن مارپیچ سختی است. نکته غم انگیز این است که من فکر می کنم که اقدامات سیاستی ساده ای وجود دارد که برخی از آنها در جای دیگری در جهان آزمایش می شوند که به برخی از این مشکلات پاسخگویی کمک می کند.

می‌توانید آزمایش‌های ایمنی اجباری قبل از استقرار داشته باشید، چیزی که در حال حاضر در اروپا برای مدل‌های مرزی اتفاق می‌افتد. شما می‌توانید برای انواع تحقیقات داخلی که در این پرونده مواردی را از نوشته باقی می‌ماند، شرایط ثبت عمومی کتبی سخت‌گیرانه‌تری داشته باشید. شما می‌توانید مجموعه‌ای قوی‌تر از مکانیسم‌های بررسی امنیت ملی برای انواع جاه‌طلبی‌های زیرساختی خاورمیانه‌ای که سام آلتمن به دنبال آن بود، داشته باشید. 

همانطور که شما می گویید، او این طعمه و تغییر را با دولت بایدن انجام می داد و می گفت: «ما را تنظیم کنید، ما را تنظیم کنید» و به آنها کمک کرد تا یک فرمان اجرایی بسازند، و سپس لحظه ای که ترامپ وارد می شود، واقعاً در همان روزهای اول، «بیایید تسریع کنیم و بیایید یک پردیس مرکز داده عظیم در ابوظبی بسازیم». شما می توانید داشته باشید، این بسیار ساده است، مانند حفاظت از افشاگر. هیچ قانون فدرالی برای محافظت از کارمندان شرکت هوش مصنوعی وجود ندارد که این نوع نگرانی‌های ایمنی را که در این قطعه پخش می‌شود، افشا کنند.

ما مواردی داریم که یان لیکه، که یک مرد ارشد ایمنی در OpenAI بود، رهبری فوق‌العاده در شرکت را بر عهده داشت. او به هیئت مدیره نامه می نویسد که اساساً اطلاعات افشاگر است و می گوید که این شرکت در راستای ماموریت ایمنی خود از ریل خارج می شود. اینها افرادی هستند که در واقع باید یک نهاد نظارتی داشته باشند که می توانند به آنها مراجعه کنند، و باید از حمایت های قانونی صریح مانند آنچه در سایر بخش ها می بینیم برخوردار باشند. این ساده است برای تکرار یک رژیم به سبک Sarbanes-Oxley.

من فکر می‌کنم که علیرغم اینکه دره سیلیکون کنترل همه اهرم‌های قدرت را در اختیار گرفته است، و علی‌رغم اینکه برخی از این نهادها که ممکن است نظارت و حفاظ را فراهم کنند چقدر توخالی هستند، من هنوز به ریاضیات اساسی دموکراسی و سیاستمداران علاقه‌مند اعتقاد دارم. و داده‌های نظرسنجی‌های بیشتری به دست می‌آید که اکثر آمریکایی‌ها فکر می‌کنند نگرانی‌ها، سؤالات یا خطرات هوش مصنوعی در حال حاضر بیشتر از مزایای آن است.

بنابراین من فکر می‌کنم سیل پولی که از هوش مصنوعی به سیاست وارد می‌شود، در تمام توان ماست که آن را به یک علامت سوال برای سیاستمداران تبدیل کنیم. وقتی آمریکایی‌ها برای رای دادن می‌روند، باید بررسی کنند که آیا افرادی که به آنها رای می‌دهند، به خصوص اگر غیرانتقادی و ضد مقررات باشند، با توجه به همه این نگرانی‌ها، توسط منافع بزرگ فناوری حمایت می‌شوند یا خیر. بنابراین فکر می‌کنم اگر مردم می‌توانند قطعاتی از این دست را بخوانند، به پادکست‌هایی مانند این گوش دهند و به اندازه کافی به فکر انتقادی درباره آن اهمیت دهندتصمیمات آنها به عنوان رای دهندگان، فرصت واقعی برای ایجاد یک حوزه انتخابیه در واشنگتن از نمایندگانی وجود دارد که مراقب و نظارت بر آنها هستند.

این ممکن است یکی از خوش بینانه ترین چیزهایی باشد که تا به حال شنیده ام که کسی در مورد صنعت فعلی هوش مصنوعی بگوید. من از آن قدردانی می کنم. من در مورد نظرسنجی که شما در مورد آن صحبت می کنید وسواس دارم. در حال حاضر مقدار زیادی از آن وجود دارد. همه اینها کاملاً ثابت است، و به نظر می رسد که هر چه به ویژه جوانان بیشتر در معرض هوش مصنوعی باشند، نسبت به آن بی اعتمادتر و عصبانی تر می شوند. این ظرفیت همه نظرسنجی ها است. و من به آن نگاه می‌کنم، و فکر می‌کنم، خوب، آره، سیاستمداران باهوش فقط با آن مخالفت می‌کنند. آنها فقط می‌گفتند، "ما فناوری‌های بزرگ را پاسخگو خواهیم داشت." 

سپس به 20 سال گذشته فکر می‌کنم، سیاستمداری که می‌گوید آنها فناوری‌های بزرگ را پاسخگو می‌دانند، و من در تلاش هستم که حتی یک لحظه فناوری بزرگ پاسخگو باشد. تنها چیزی که باعث می‌شود فکر کنم این ممکن است متفاوت باشد این است، خوب، شما در واقع باید مراکز داده را بسازید، و می‌توانید علیه آن رای دهید، و می‌توانید علیه آن دادخواست بدهید، و می‌توانید به آن اعتراض کنید.

من فکر می‌کنم سیاستمداری وجود دارد که به خانه‌اش شلیک شده است، زیرا به یک مرکز داده رأی داده است. تنش در حال رسیدن است، من آن را به شدت تب می‌گویم. شما جزیره ای بودن سیلیکون ولی را توصیف کرده اید. این یک اکوسیستم بسته است. انگار فکر می کنند می توانند دنیا را اداره کنند. آنها پول زیادی برای سیاست می گذارند، و با این واقعیت که مردم محصولات را دوست ندارند، مقابله می کنند، که پوشش زیادی به آنها نمی دهد. هرچه بیشتر از محصولات استفاده کنند، ناراحت تر می شوند و سیاستمداران شروع به مشاهده عواقب واقعی حمایت از صنعت فناوری بر افرادی می کنند که آنها نمایندگی می کنند. 

شما با افراد زیادی صحبت کرده اید. آیا فکر می کنید این امکان برای صنعت فناوری وجود دارد که درسی را که درست در مقابل آنها است بیاموزد؟

شما می گویید احساس می شود که آنها فکر می کنند می توانند جهان را بدون مسئولیت اداره کنند. من حتی فکر نمی‌کنم که این نیاز به واجد شرایط بودن "احساس" داشته باشد. منظورم این است که شما به زبانی که پیتر تیل استفاده می کند نگاه کنید، این صریح است. البته این یک مثال افراطی است. و سام آلتمن، اگرچه با ایدئولوژی تیل نزدیک است و تا حدی از آن مطلع است، اما نوع بسیار متفاوتی از افراد است که ممکن است تا حدی متفاوت و سنجیده تر به نظر برسد. 

اما فکر می‌کنم ایدئولوژی گسترده‌تری که از تیل دریافت می‌کنید، اساساً این است: ما با دموکراسی تمام شده‌ایم، دیگر به آن نیاز نداریم. ما آنقدر زیاد داریم که فقط می خواهیم سنگرهای کوچک خود را بسازیم. ما دیگر با کارنگی‌ها یا راکفلرها سر و کار نداریم، جایی که آنها آدم‌های بدی هستند، اما آنها احساس می‌کنند باید در یک قرارداد اجتماعی شرکت کنند و چیزهایی برای مردم بسازند. یک نیهیلیسم واقعی وجود دارد که به وجود آمده است.

و من فکر می‌کنم که این فقط یک مارپیچ تقویت‌کننده متقابل در تاریخ اخیر آمریکا بوده است که مغول‌ها و شرکت‌های خصوصی قدرت فوق‌العاده دولتی را به دست می‌آورند در حالی که نهادهای دموکراتیک که ممکن است آنها را مسئول نگه دارند، توخالی شده‌اند. من نسبت به این ایده که آن افراد ممکن است یک روز از خواب بیدار شوند و فکر کنند، "اوه، شاید ما نیاز به مشارکت در جامعه و کمک به ساختن چیزهایی برای مردم" داشته باشیم، خوشبین نیستم.

منظورم این است که شما به نمونه کوچک کیهانی The Giving Pledge نگاه می کنید، جایی که لحظه ای به نظر می رسید که خیریه باشد، و آن لحظه اکنون گذشته و حتی مورد تمسخر قرار گرفته است. این یک مشکل است، مشکل گسترده تر عدم پاسخگویی که به نظر من فقط می تواند به صورت بیرونی حل شود. این باید رای دهندگانی باشد که قدرت نظارت دولت را بسیج و احیا کنند. و شما دقیقاً درست می گویید که بردار اصلی که از طریق آن افراد می توانند به آن دست یابند محلی است. این مربوط به جایی است که زیرساخت ها ساخته می شوند. 

شما به برخی از تنش های داغ پیرامون این موضوع اشاره کردید که منجر به خشونت و تهدید می شود، و بدیهی است که هیچ کس نباید خشن یا تهدید کننده باشد. و همچنین من اینجا نیستم تا توصیه‌های خط‌مشی خاصی را ارائه دهم، به جز ارائه برخی از مراحل سیاستی که به نظر اساسی می‌رسند و در سایر نقاط جهان کار می‌کنند، درست است؟ یا کسانی که در بخش های دیگر کار کرده اند. من اینجا نیستم که بگویم کدام یک و چگونه باید اجرا شود.

من فکر می کنم باید اتفاقی بیفتد، و باید خارجی باشد، نه اینکه فقط به این شرکت ها اعتماد کرد. چون درستهاکنون شرایطی داریم که در آن شرکت‌هایی که در حال توسعه فناوری هستند و به بهترین وجه برای درک خطرات مجهز هستند و در واقع همانهایی هستند که به ما در مورد خطرات هشدار می‌دهند، آنهایی هستند که چیزی جز انگیزه برای سریع پیش رفتن و نادیده گرفتن این خطرات ندارند. و شما فقط چیزی برای متعادل کردن آن ندارید. بنابراین هر اصلاحاتی که ممکن است از نظر جزئیات انجام شود، چیزی باید در مقابل آن قرار گیرد. و من همچنان به این خوش بینی باز می گردم که مردم هنوز اهمیت دارند.

من به طور کلی استدلال شما را می خرم. اجازه دهید فقط یک ضد استدلال کوچکی را بیان کنم که فکر می کنم بتوانم آن را بیان کنم. اتفاق دیگری که می تواند خارج از صندوق رای بیفتد این است که حباب بپرد، درست است؟ اینکه همه این شرکت‌ها به خط پایان نرسند و بازار محصول مناسبی برای برنامه‌های هوش مصنوعی مصرف‌کننده وجود ندارد. و باز هم، من هنوز کاملاً آن را نمی بینم، اما من یک بازبین فناوری مصرف کننده هستم، و شاید فقط استانداردهای بالاتری نسبت به بقیه داشته باشم.

در دنیای تجارت مناسب بازار محصول وجود دارد، درست است؟ به نظر می رسد داشتن یک دسته از عوامل هوش مصنوعی که مجموعه ای از نرم افزارها را می نویسند، بازاری واقعی برای این ابزارها باشد. و می‌توانید استدلال‌های این شرکت‌ها را بخوانید که می‌گویند: "ما کدنویسی را حل کرده‌ایم، و این بدان معناست که ما می‌توانیم هر چیزی را حل کنیم. اگر بتوانیم نرم‌افزار بسازیم، می‌توانیم هر مشکلی را حل کنیم."

من فکر می کنم محدودیت های واقعی برای کارهایی که نرم افزار می تواند انجام دهد وجود دارد. این در دنیای تجارت عالی است. نرم افزارها نمی توانند هر مشکلی را در واقعیت حل کنند، اما باید به آنجا برسند. آنها باید کار را تمام کنند و شاید همه به خط پایان نرسند. و یک سقوط رخ می دهد، و این حباب می زند، و شاید OpenAI یا Anthropic یا xAI، یکی از این شرکت ها شکست بخورد، و این همه سرمایه گذاری از بین می رود.

آیا فکر می کنید این روی این موضوع تأثیر می گذارد؟ در واقع اجازه بدهید اول سوال اول را بپرسم. OpenAI درست در آستانه IPO است. در مورد سام به عنوان یک رهبر تردیدهای زیادی وجود دارد. آیا فکر می کنید آنها به خط پایان خواهند رسید؟

من نمی‌خواهم پیش‌بینی کنم، اما فکر می‌کنم شما یک نکته مهم را مطرح می‌کنید، و آن این است که انگیزه‌های بازار در داخل برای سیلیکون ولی اهمیت دارند، و بی‌ثباتی پویایی حباب‌های کنونی باعث می‌شود که دوباره، به گفته منتقدان، به‌طور بالقوه رقابت تا انتهای ایمنی را مختل کند.

من همچنین به آن اضافه می‌کنم، اگر به تقدم تاریخی نگاه کنید که در آن مجموعه‌ای مشابه و به ظاهر غیرقابل نفوذ از مشوق‌های بازار و اثرات بالقوه مضر برای عموم وجود دارد، دعوای قضایی تأثیری دارد. و شما آن را اخیراً به عنوان یک منطقه نگران کننده می بینید. به عنوان مثال، سام آلتمن این هفته در آنجا حضور دارد و قوانینی را تأیید می کند که شرکت های هوش مصنوعی را در برابر برخی از انواع مسئولیت هایی که OpenAI در مورد اعدام های غیرقانونی در معرض آنها قرار گرفته است، محافظت می کند. البته، تمایل به داشتن این سپر در برابر مسئولیت وجود دارد.

من فکر می‌کنم که دادگاه‌ها هنوز هم می‌توانند مکانیزم معناداری باشند، و دیدن این که چگونه این کت و شلوارها چگونه شکل می‌گیرند، واقعاً جالب خواهد بود. به عنوان مثال، شما قبلاً شکایت کلاسی را دیدید که من و بسیاری از نویسندگان دیگر که می شناسم عضو آن هستیم، علیه Anthropic به دلیل استفاده از کتاب هایی که تحت حق چاپ بودند. اگر ذهن‌های حقوقی و شاکیانی وجود دارند که اهمیت می‌دهند، همانطور که در طول تاریخ در پرونده‌هایی از تنباکوی بزرگ تا انرژی بزرگ دیده‌ایم، می‌توانید برخی از نرده‌های محافظ و برخی انگیزه‌ها را برای کاهش سرعت، مراقب بودن یا محافظت از مردم به این طریق دریافت کنید.

به نظر می رسد کل ساختار هزینه صنعت هوش مصنوعی به تفسیر بسیار بسیار خیرخواهانه استفاده منصفانه وابسته است. به اندازه کافی مطرح نمی شود ساختار هزینه این شرکت‌ها می‌تواند از کنترل خارج شود، اگر مجبور شوند به شما و هر کس دیگری که کارشان را انجام داده‌اند، پول بدهند، اما فکر کردن به آن ناخوشایند است، بنابراین ما به آن فکر نمی‌کنیم. درست در کنار آن، همه این محصولات اکنون با ضرر کار می کنند. مثل امروز، همه آنها با ضرر در حال دویدن هستند. آنها بیشتر از آنچه می توانند پول می سوزانند. در یک نقطه، آنها باید سوئیچ را بچرخانند.

سام یک تاجر است. همانطور که چندین بار اشاره کردید، او یک تکنولوژیست نیست. او یک فرد تجاری است. آیا فکر می‌کنید او آماده است سوئیچ را بچرخاند و بگوید: «می‌خواهیم یک دلار در بیاوریم؟» زیرا وقتی می‌پرسم، "آیا فکر می‌کنید OpenAI می‌تواند موفق شود؟" این زمانی است که آنها باید یک دلار به دست آورند. و تا کنون، سام تمام دلارهای خود را با درخواست از افراد دیگر به جای اینکه شرکت‌هایش پول در بیاورند، به دست آورده است.

خوب، این یک سوال طولانی مدت برای سیلیکون ولی، برای سرمایه گذاران و برای عموم مردم است.برخی از بیانیه ها و حرکت های خارج از OpenAI را مشاهده می کنید که به نظر می رسد نوعی وحشت را در مورد آن نشان می دهد. خاموش کردن Sora، تعطیل کردن برخی از پروژه های جانبی، تلاش برای به صفر رساندن محصول اصلی. اما از سوی دیگر، شما هنوز هم در همان زمان، هزاران ماموریت خزش را می بینید، درست است؟ حتی یک مثال کوچک - بدیهی است که هسته اصلی تجارت آنها نیست - اکتساب TBPN است.

به هر حال، درست زمانی که به خط پایان می‌رسیدیم و واقعیت‌ها را بررسی می‌کردیم، شرکتی که با این نوع بررسی‌های روزنامه‌نگاری روبه‌رو می‌شود، بستری را به دست می‌آورد که می‌تواند کنترل مستقیم بیشتری بر گفتگو داشته باشد. من فکر می‌کنم سرمایه‌گذاران زیادی هستند که بر اساس صحبت‌هایی که من داشته‌ام نگران هستند که این مشکل قول دادن به همه چیز به همه مردم به این عدم تمرکز در مدل اصلی کسب‌وکار نیز گسترش می‌یابد. و منظورم این است که شما بیشتر از من به نوع پیش بینی و تماشای بازار نزدیک هستید. من شما و شنوندگان را به قضاوت در مورد اینکه آیا فکر می‌کنند OpenAI می‌تواند سوئیچ را تغییر دهد، می‌گذارم. 

خب، من این سوال را پرسیدم زیرا شما در این مقاله نقل قولی از یکی از مدیران ارشد مایکروسافت دریافت کرده اید، و آن این است که "میراث سم ممکن است بیشتر شبیه به برنی مدوف یا سم بنکمن-فرید باشد" تا استیو جابز. که کاملا مقایسه است. از آن مقایسه چه برداشتی کردید؟

من فکر می کنم این یک نقل قول است. قسمت استیو جابز بخشی از نقل قول نبود. اما نوعی هوشیاری جالب در آن وجود دارد، زیرا چنین بیان می‌شود: «فکر می‌کنم احتمال کمی وجود دارد که او یک SBF یا یک کلاهبردار سطح مدوف باشد.» به نظر من، این بدان معنا نیست که سام به آن نوع خاص از کلاهبرداری یا جنایات متهم می شود، بلکه ممکن است درجه افشاگری و فریب سام در نهایت در آن مقیاس به خاطر سپرده شود.

بله، من فکر می کنم آنچه که در مورد آن نقل قول جالب است، صادقانه بگویم، این است که شما با مایکروسافت تماس می گیرید و لایک دریافت نمی کنید، "این دیوانه است. ما هرگز چنین چیزی را نشنیده ایم." شما مانند "بله، بسیاری از مردم اینجا فکر می کنند" زیادی دریافت می کنید که قابل توجه است. و من فکر می کنم که به این سوالات تجاری مربوط می شود. 

برای مثال، یکی از سرمایه‌گذاران به من گفت که این ویژگی در سال‌های پس از شلیک ادامه پیدا کرده است» - و این نیز فکر می‌کرد که این یک فکر هوشیارانه جالب بود - که لزوماً این نیست که سم باید در انتهای فهرست باشد، مانند افرادی که مطلقاً نباید این فناوری را بسازند، اما افراد زیادی هستند که این فناوری را می‌گویند. او را شاید در انتهای لیست افرادی که باید AGI بسازند، قرار می دهد، و زیر چندین چهره برجسته دیگر در این زمینه.

بنابراین من فکر کردم که ارزیابی جالبی بود، و این نوع تفکری است که من فکر می‌کنم شما از عمل‌گرایان واقعی دریافت می‌کنید که شاید به نگرانی‌های ایمنی چندان توجهی نداشته باشند. آنها فقط رشد گرا هستند و فکر می کنند که OpenAI اکنون با سم آلتمن مشکل دارد.

قطعه مایکروسافت واقعا جالب است. آن شرکت فکر می کرد آنها در صدر جهان هستند. اینکه آن‌ها این سرمایه‌گذاری را انجام داده‌اند و می‌خواهند از همه، به‌ویژه و مهم‌تر از همه، گوگل جهش کنند و به لطف مصرف‌کنندگان برگردند. سطحی که آنها احساس می کنند در اثر این ماجراجویی سوخته اند - این یک شرکت بسیار هوشیارانه است - به نظر من نمی توان اغراق کرد.

شما به شخصیت ها و ویژگی های شخصیتی اشاره کردید. من می خواهم در اینجا با یک سوال از شنوندگان خود پایان دهم. من در برنامه دیگرمان، The Vergecast، گفتم که قرار است با شما صحبت کنم، و گفتم: "اگر در مورد این داستان از رونان سوالی دارید، به من بگویید." بنابراین ما در اینجا یکی داریم که فکر می کنم به خوبی با آنچه شما توصیف می کنید مرتبط است. من فقط می خواهم آن را برای شما بخوانم:

«توجیه‌های رفتار بد، اقدامات تهاجمی آلتمن و دیگر رهبران هوش مصنوعی، با توجیهاتی که رونان از دیگر رهبران برجسته در سیاست و رسانه شنیده است، چه تفاوتی دارد؟ آیا همه آنها با گفتن این که دنیا اینگونه تغییر می کند، اعمال خود را توجیه نمی کنند؟ اگر من این کار را نکنم، شخص دیگری انجام می دهد؟»

بله، چیزهای زیادی در اطراف وجود دارد. من می‌توانم بگویم وجه تمایز هوش مصنوعی این است که ریسک‌های وجودی به‌طور منحصربه‌فرد بالا بودن به این معنی است که هر دو اظهارات خطر افراطی هستند، درست است؟ شما سم آلتمن را داریدگفت: "این می تواند برای همه ما چراغ خاموش باشد." و همچنین، منتقدان ممکن است بگویند، شیدایی که سوال کننده به آن اشاره می کند افراطی است، درست است؟ 

چیزی که سم در پرونده، ایلان را به آن متهم کرد، این بود که شاید او می خواهد بشریت را نجات دهد، اما به شرطی که او باشد. نوعی جزء نفسانی که می‌خواهد برنده شود، قاب‌بندی است که سام همیشه از آن استفاده می‌کند، و این یکی برای کتاب‌های تاریخ است، این می‌تواند همه چیز را تغییر دهد. بنابراین، حتی فراتر از طرز فکر «شما باید چند تخم مرغ بشکنید» اکثر شرکت‌های سیلیکون ولی، در ذهن برخی از چهره‌های پیشرو هوش مصنوعی، فکر می‌کنم، منطقی‌سازی کاملی برای هر گونه پیامد وجود دارد.

و شکستن تخم مرغ را فراموش کنید. من فکر می کنم بسیاری از محققان ایمنی زیربنایی می گویند به طور بالقوه خطر شکستن کشور، شکستن جهان، و شکستن میلیون ها نفری که شغل و ایمنی آنها در تعادل است - این چیزی است که در مورد آن منحصر به فرد است. اینجاست که من با تأمل در این مجموعه از گزارش‌ها، به این نتیجه می‌رسم که واقعاً بیشتر از سم آلتمن است. این در مورد صنعتی است که محدودیتی ندارد و مشکل مارپیچی آمریکا است که نمی تواند آن را محدود کند.

آره خوب، ما در آنجا کمی خوش‌بینی داشتیم، اما فکر می‌کنم این مکان خوبی برای ترک آن است.

[می خندد] با یک ضرب و شتم تمام شود.

البته. این هر داستان عالی است، واقعا. محاکمه ماسک-آلتمن در راه است. من فکر می کنم ما در اینجا چیزهای بیشتری یاد خواهیم گرفت. فکر می کنم بخواهم دوباره با شما صحبت کنم. رونان فارو، از حضور شما در Decoder بسیار متشکرم.

متشکرم.

سوال یا نظری در مورد این قسمت دارید؟ ما را در [email protected] سر بزنید. ما واقعاً هر ایمیلی را می خوانیم!

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free