Dnes na Decoderu mluvím s Ronanem Farrowem, jednou z největších hvězd investigativního zpravodajství, která dnes pracuje. Rozbil příběh Harveyho Weinsteina, mezi mnoha a mnoha dalšími. A právě minulý týden on a spoluautor Andrew Marantz publikovali v The New Yorker neuvěřitelný hloubkový článek o generálním řediteli OpenAI Samu Altmanovi, jeho důvěryhodnosti a vzestupu OpenAI samotné.
Ještě jedna poznámka, než půjdeme dále – The New Yorker publikoval ten příběh a Ronan a já jsme tento rozhovor vedli předtím, než jsme poznali úplný rozsah útoků na Altmanův dům, takže nás o tom přímo neuslyšíte. Ale abych to řekl, myslím si, že násilí jakéhokoli druhu je nepřijatelné, tyto útoky na Sama byly nepřijatelné a ten druh bezmoci, který lidé pociťují a který vede k tomuto druhu násilí, je sám o sobě nepřijatelný a stojí za mnohem větší kontrolu ze strany průmyslu i našich politických vůdců. doufám, že je to jasné.
Omezte odběratele, nezapomeňte, že získáte exkluzivní přístup k dekodéru bez reklam, ať máte své podcasty kdekoli. Zamiřte sem. Nejste předplatitelem? Přihlásit se můžete zde.
Vše, co bylo řečeno, kolem Altmana se toho hodně víří, což je férová hra pro přísné zpravodajství – takové zpravodajství, které se Ronan a Andrew rozhodli dělat. Díky popularitě ChatGPT se Altman ukázal jako nejviditelnější loutka v odvětví AI, když během několika let proměnil kdysi neziskovou výzkumnou laboratoř na soukromou společnost s téměř biliony dolarů. Ale mýtus o Altmanovi je hluboce rozporuplný, stejně definovaný jak jeho zřejmou schopností vyjednávat, tak jeho sklonem k... no, lhát všem kolem sebe.
Příběh má více než 17 000 slov a obsahuje pravděpodobně definitivní popis toho, co se stalo v roce 2023, když správní rada OpenAI velmi náhle vyhodila Altmana kvůli jeho údajnému lhaní, jen aby byl téměř okamžitě znovu přijat. Je to také hluboký ponor do Altmanova osobního života, jeho investic, jeho dvoření se penězům ze Středního východu a jeho vlastních úvah o jeho minulém chování a povahových rysech, které vedly jeden zdroj k tvrzení, že „není omezován pravdou“. Opravdu doporučuji přečíst celý příběh; Mám podezření, že se na to bude odkazovat ještě mnoho let.
Ronan mluvil s Altmanem mnohokrát během 18 měsíců, které strávil reportováním tohoto dílu, a tak jedna z hlavních věcí, na kterou jsem byl zvědavý, bylo, zda za tu dobu cítil v Altmanovi nějakou změnu. Koneckonců, v AI, v technice a ve světě se toho za poslední rok a půl stalo hodně.
Uslyšíte Ronana mluvit o tom velmi přímo, stejně jako jeho pocit, že lidé jsou mnohem ochotnější mluvit o Altmanově schopnosti prosazovat pravdu. Lidé se začínají nahlas a ze záznamu ptát, zda chování lidí jako Altman znepokojuje nejen umělou inteligenci nebo techniku, ale také kolektivní budoucnost společnosti.
Dobře: Ronan Farrow o Samu Altmanovi, AI a pravdě. Tady to je.
Tento rozhovor byl kvůli délce a srozumitelnosti lehce upraven.
Ronane Farrowe, jste investigativní reportér a přispěvatel do The New Yorker. Vítejte v Decoderu.
Jsem rád, že jsem tady. Díky, že mě máš.
Jsem velmi nadšený, že s vámi mohu mluvit. Právě jsi napsal velký kus pro The New Yorker. Je to profil Sama Altmana a tak nějak s ním i OpenAI. Dočetl jsem se o tom, že stejně jako všechny skvělé funkce to, s přísným hlášením, potvrzuje mnoho pocitů, které lidé měli ohledně Sama Altmana po velmi dlouhou dobu. Evidentně jste to zveřejnili, máte na to reakce. Jak to teď vnímáš?
Vlastně mě povzbudilo, do jaké míry to prorazilo v době, kdy je pozornost ekonomiky tak trochu schizofrenní a mělká. Toto je příběh, který se podle mého názoru týká nás všech. A když jsem strávil rok a půl svého života a můj spoluautor, Andrew Marantz, také strávil ten svůj čas tím, že se opravdu snažil udělat něco forenzního a pečlivého, je to vždy proto, že mám pocit, že v jádru příběhu jsou větší strukturální problémy, které ovlivňují lidi mimo jednotlivce a společnost.
Sam Altman, na pozadí humbukářské kultury Silicon Valley a startupů, které balancují na masivních oceněních na základě slibů, které se v budoucnu mohou, ale nemusí splnit, a rostoucího přijetí kultury zakladatelů, která si myslí, že říkat různým skupinám různé protichůdné věci je vlastnost, nikolibug…I na tomto pozadí je Sam Altman mimořádným případem, kdy každý v Silicon Valley, kdo takové věci očekává, nemůže přestat mluvit o této otázce jeho důvěryhodnosti a jeho poctivosti.
Už jsme věděli, že byl vyhozen kvůli nějaké verzi obvinění z nečestnosti nebo údajného sériového lhaní. Ale mimořádně, navzdory skutečnosti, že došlo k úžasným zprávám, Keach Hagey na tom odvedl skvělou práci. Karen Hao na tom odvedla skvělou práci. Opravdu neexistovalo definitivní pochopení skutečných údajných důkazních bodů a důvodů, proč zůstaly mimo oči veřejnosti.
Takže bodem číslo jedna je, že mě potěšila skutečnost, že některé z těchto mezer v našich veřejných znalostech a dokonce i ve znalostech zasvěcenců ze Silicon Valley jsou nyní o něco více vyplněny. Některé z důvodů, proč byly mezery, byly vyplněny o něco více.
Informujeme o případech, kdy lidé uvnitř této společnosti skutečně měli pocit, že jsou věci zakryty nebo záměrně nezdokumentovány. Jednou z nových věcí v tomto příběhu je klíčové vyšetřování právnické firmy WilmerHale, což je zjevně luxusní, důvěryhodná, velká právnická firma, která prováděla vyšetřování Enronu a WorldComu, která byla mimochodem všechna obsáhlá, jako stovky publikovaných stránek. WilmerHale provedl toto vyšetřování, které požadovali členové představenstva, kteří Altmana vyhodili jako podmínku jejich odchodu, když se jich zbavil, a on se vrátil. A mimořádně – v očích mnoha právních expertů, se kterými jsem mluvil, a šokujícím způsobem v očích mnoha lidí v této společnosti – to nepsali. Vše, co z toho vzniklo, byla tisková zpráva OpenAI o 800 slovech, která popisovala to, co se stalo, jako zhroucení důvěry. A potvrdili jsme, že to zůstalo na ústní brífinky.
Existují případy, kdy například člen představenstva zdánlivě chce hlasovat proti převodu z původní neziskové formy OpenAI na ziskový subjekt, a je to zaznamenáno jako zdržení se hlasování. Na schůzce jako by právník řekl: "No, to by mohlo vyvolat přílišnou kontrolu." A osoba, která chce hlasovat proti, bude zaznamenána jako zdržení se všech vystoupení. There’s a factual dispute. OpenAI tvrdí opak, jak si dokážete představit. To všechno jsou případy, kdy máte společnost, která na vlastní účet drží naši budoucnost ve svých rukou.
Bezpečnostní sázky jsou tak naléhavé, že nezmizely. To je důvod, proč byla tato společnost založena jako nezisková organizace zaměřená na bezpečnost a kde se věci zakrývaly způsobem, že to důvěryhodným lidem v okolí připadalo méně než profesionální. A spojíte to s pozadím, kde je tak malá politická chuť na smysluplnou regulaci. Myslím, že je to velmi hořlavá situace.
Nejde mi jen o to, že Sam Altman si tyto otázky tak naléhavě zaslouží. Je to také tím, že kdokoli z těchto lidí v této oblasti a mnoho klíčových postav vykazuje, ne-li tento zvláštní výstřední rys, údajné lhaní po celou dobu, určitě určitý stupeň mentality závodů až ke dnu, kdy lidé, kteří byli ochranáři, tyto závazky rozmělnili a každý je v závodě.
Myslím, že když se podíváme na nedávné úniky z Anthropic, existuje osoba, která si klade otázku, kdo by měl mít prst na tlačítku v tomto díle. Odpověď je, že pokud nemáme smysluplný dohled, myslím, že musíme klást vážné otázky a snažit se o všech těch chlapech vyplavit na povrch co nejvíce informací. Takže mě povzbudilo to, co mi připadá jako smysluplný rozhovor o tom nebo o počátcích takového rozhovoru.
Důvod, proč jsem se na to takto zeptal, je ten, že jsi na tom pracoval rok a půl. Se svým spoluautorem Andrewem jste mluvil, myslím, se 100 lidmi. To je dlouhá doba na vaření příběhu. Myslím, že zejména poslední rok a půl v AI a chlapče, postoje a hodnoty všech těchto postav se velmi rychle posunuly.
Možná nikdo jiný než Sam Altman, který začal jako výchozí vítěz, protože vydali ChatGPT a všichni si mysleli, že to převezme Google. A pak Google zareagoval, což je zřejmě překvapilo, že se Google pokusí ochránit jeho podnikání, možná jeden z nejlepších podniků v technologické historii, ne-li obchodní historie. Společnost Antropic se rozhodla, že se zaměří na podnik. Zdá se, že přebírá velitelské vedeníprotože podnikové využití AI je tak vysoké.
Nyní OpenAI přeorientovává svůj produkt od „převezmeme Google“ na Codex a oni převezmou podnik. Nedokážu přesně říct, zda se během vašeho zpravodajství za poslední rok a půl zdálo, že se postavy, se kterými jste mluvil, změnily? Změnily se stejně jako jejich postoje a hodnoty?
Ano. Zaprvé si myslím, že kritika, která je v tomto článku prozkoumána a která v tuto chvíli přichází od mnoha lidí uvnitř těchto společností – že jde o průmysl, který navzdory existenčním sázkám sestupuje do něčeho jako závod na dno v bezpečnosti a kde rychlost převyšuje všechno ostatní – tato obava nabyla na aktuálnosti. A myslím, že tyto obavy se více potvrdily, když uplynul rok a půl. Současně se konkrétně změnil postoj k Samu Altmanovi. Když jsme o tom začali mluvit se zdroji, lidé byli opravdu, opravdu znepokojeni tím, že o tom budou citováni a že se o tom budou nahrávat.
Na konci našeho zpravodajství máte soubor zpráv, kde o tom lidé mluví velmi otevřeně a explicitně, a máte členy představenstva, kteří říkají věci jako: "Je to patologický lhář. Je to sociopat." Existuje celá řada úhlů pohledu od: „Toto je nebezpečné vzhledem k bezpečnostním sázkám a my potřebujeme lídry této technologie, kteří mají zvýšenou integritu“, až po „Zapomeňte na bezpečnostní sázky, toto je chování, které je neudržitelné pro žádného vedoucího pracovníka jakékoli velké společnosti, protože vytváří příliš mnoho dysfunkcí.“
Takže konverzace se stala mnohem explicitnější způsobem, který působí možná opožděně, ale v jednom smyslu je povzbudivý. A Sam Altman, k jeho cti... Ten kousek je velmi férový a dokonce bych řekl, že k Samovi velkorysý. Tohle není ten druh dílu, kde bylo hodně věcí „mám tě“. Strávil jsem s ním mnoho, mnoho hodin na telefonu, když jsme to dokončovali, a opravdu jsem ho slyšel.
Jak si dokážete představit, do takového kusu se ne všechno vejde. Některé z těchto případů v tomto byly proto, že jsem upřímně poslouchal. A pokud Sam ve skutečnosti argumentoval tím, že mám pocit, že jsem nesl vodu, že něco, i kdyby to byla pravda, mohlo být senzacechtivé, opravdu jsem se mýlil, pokud jde o zachování tohoto forenzního a odměřeného. Takže si myslím, že je to přijímáno správně, a já jen doufám, že tento faktický záznam, který se nashromáždil za tuto dobu, může vyvolat povzbudivější rozhovor o potřebě dohledu.
To je vlastně moje další otázka. Myslím, že jste se Samem mluvil tucetkrát během hlášení tohoto příběhu. Opět je to spousta rozhovorů za dlouhou dobu. Mysleli jste si, že se Sam v průběhu zpravodajství za poslední rok a půl změnil?
Jo. Myslím, že jednou z nejzajímavějších dílčích zápletek v tomto je to, že Sam Altman také mluví o této vlastnosti explicitněji než v minulosti. Samův postoj v tomto díle není jako: "Nic tam není, to není pravda; nevím, o čem mluvíš." Jeho postoj je takový, že říká, že je to způsobeno tendencí líbit se lidem a určité averzi ke konfliktům. Přiznává, že mu to způsobilo problémy, zejména na začátku jeho kariéry.
Říká: "No, přecházím přes to, nebo jsem do jisté míry přešel přes to." Myslím, že to, co je pro mě opravdu zajímavé, je skupina lidí, se kterými jsme mluvili a kteří nebyli jen zastánci bezpečnosti, nejen základní techničtí výzkumníci, kteří velmi často mívají tyto akutní obavy o bezpečnost, ale také pragmatičtí, velcí investoři. Jsou to Samovi podporovatelé, kteří se v některých případech na tuto otázku podívají a mluví o tom, že dokonce sehráli klíčovou roli v jeho návratu po výstřelu. Nyní na tuto otázku, zda se reformoval a do jaké míry je tato změna smysluplná, říkají: „V tu chvíli jsme mu dali výhodu pochybnosti.“
Mám na mysli zejména jednoho významného investora, který řekl: „Ale od té doby se zdá být jasné, že nebyl vyveden za dřevníkem,“ což byla fráze, kterou tento použil v nezbytné míře. V důsledku toho se zdá, že je to nyní stabilní vlastnost. Vidíme to průběžně. Můžete se podívat na některé z největších podniků OpenAIvztahy a způsob, jakým tak nějak neustále nesou tíhu té nedůvěry.
Stejně jako v případě Microsoftu tam mluvíte s vedoucími pracovníky a ti mají opravdu akutní a nedávno katalyzované obavy. Ve stejný den OpenAI znovu potvrzuje svou exkluzivitu u Microsoftu s ohledem na základní modely bezstavové umělé inteligence a zároveň oznamuje novou smlouvu s Amazonem, která se týká prodeje podnikových řešení pro vytváření agentů umělé inteligence, kteří jsou stavoví, což znamená, že mají paměť.
Mluvíte s lidmi z Microsoftu a ti říkají: „To není možné udělat bez interakce se základními věcmi, na které máme smlouvu o exkluzivitě.“ Takže to je jen jeden z mnoha malých příkladů, kdy se tato vlastnost neustále promítá do probíhajících obchodních aktivit a je předmětem aktivního zájmu v představenstvu OpenAI, v rámci jeho výkonného balíku a v širší technologické komunitě.
Pořád říkáš tu "vlastnost". V příběhu je linie, která mi připadá jako teze, a je to popis vlastnosti, kterou popisujete. Jde o to, že „Sam Altman není omezován pravdou“ a že má „dvě vlastnosti, které se u stejné osoby téměř nikdy nevyskytují: první je silná touha potěšit lidi, být oblíbený v jakékoli dané interakci a druhou je téměř sociopatický nedostatek zájmu o důsledky, které mohou vyplynout z toho, že někoho podvedeme“.
Musím vám říct, že jsem tu větu četl 500krát a snažil jsem se představit si, že vždycky říkám, co lidé chtějí mít rádi, a pak se nebudu rozčilovat, když se cítí lhaní. A nedokázal jsem přimět svůj emocionální stav, aby pochopil, jak tyto věci mohou existovat u stejné osoby. Hodně jste mluvili se Samem a mluvili jste s lidmi, kteří tyto rysy zažili. jak to dělá?
Jo. Je to zajímavé na lidské úrovni, protože přistupuji k takovýmto zpravodajským subjektům se skutečným zaměřením na polidštění toho, kdo je v jádru toho, a hledám hluboké porozumění a empatii. Když jsem se k tomu pokusil přistupovat z lidštějšího hlediska a řekl jsem: "Hej, to by pro mě bylo zničující, kdyby tolik lidí, se kterými jsem pracoval, řeklo, že jsem patologický lhář. Jak to neseš? Jak o tom mluvíš v terapii? Jaký je příběh, který si o tom vyprávíš?"
Z mého pohledu mám nějaké fráze, možná ze západního pobřeží, jako: "Jo, mám rád práci s dechem." Ale ne moc ten druh vzpružujícího pocitu hluboké sebekonfrontace, který by podle mě mnozí z nás pravděpodobně měli, kdybychom viděli tento druh zpětné vazby o našem chování a našem zacházení s lidmi.
Myslím, že to vlastně jde i k širší odpovědi na otázku. Sam tvrdí, že tato vlastnost způsobila problémy, ale také to, že je součástí toho, co mu umožnilo urychlit růst OpenAI natolik, že je schopen sjednotit a potěšit různé skupiny lidí. Neustále přesvědčuje všechny tyto konfliktní voliče, že to, na čem jim záleží, je to, na čem záleží jemu. A to může být pro zakladatele opravdu užitečná dovednost. Mluvil jsem s investory, kteří pak řekli: "No, možná je to méně užitečná dovednost pro skutečné řízení společnosti, protože zasévá tolik neshod."
Ale na osobní stránce Sama si myslím, že věc, kterou zjišťuji, když se snažím spojit na lidské úrovni, je zjevný nedostatek hlubší konfrontace, reflexe a sebezodpovědnosti, což také informuje o této superschopnosti nebo odpovědnosti pro společnost připravující se na IPO.
Je to někdo, kdo, slovy jedné bývalé členky představenstva jménem Sue Yoon, která je na nahrávce ve skladbě, která říká, že frázi, kterou používá, až do bodu „bezohlednost“, je schopen skutečně uvěřit měnící se realitě svých prodejních prezentací nebo je schopen se o nich přesvědčit. Or at least if he doesn’t believe them, he is able to bluster through them without meaningful self-doubt.
Myslím, že věc, o které mluvíte, kde vy nebo já můžeme, když tu věc říkáme a uvědomujeme si, že je v rozporu s dalším ujištěním, které jsme učinili, na chvíli zamrzneme nebo se zkontrolujeme. Myslím, že to se u něj neděje. A existuje širší humbuk v Silicon Valley a kultura zakladatelů, která to tak nějak zahrnuje.
je to legrační. The Verge je postaven na tom, co odpovídá recenzím produktůnaprogramovat. Je to srdce toho, co zde děláme. Jednou ročně držím bilion dolarů výzkumu a vývoje společnosti Apple a říkám: "Tento telefon je sedmička." A tak trochu legitimizuje veškeré naše zpravodajství a naše názory jinde. Máme hodnotící funkci a trávíme tolik času pouhým prohlížením produktů AI a říkáním: „Fungují?
Zdá se, že to chybí ve spoustě dnešních konverzací o umělé inteligenci. Vedou se nekonečné rozhovory o tom, co by to mohlo dělat, jak nebezpečné to může být. A pak se ponoříte a řeknete: "Dělá to vlastně to, co by dnes dělat mělo?" V některých případech je odpověď ano. Ale v mnoha a mnoha případech je odpověď ne.
Zdá se, že to souvisí s kulturou humbuku, kterou popisujete, a také s pocitem, že pokud řeknete, že to něco udělá a ne, a někdo se cítí špatně, je to v pořádku, protože jsme na další věci. To je minulost. A zvláště v AI je Sam tak dobrý v plnění velkých slibů.
Zrovna tento týden, myslím, ve stejný den, kdy byl váš příběh zveřejněn, OpenAI vydala politický dokument, který říká, že musíme přehodnotit společenskou smlouvu a mít od vlády stipendia na efektivitu AI. Toto je velký příslib o tom, jak by některé technologie mohly utvářet budoucnost světa a jak žijeme, a to vše závisí na tom, že technologie bude fungovat přesně tak, jak je slíbeno, že bude fungovat nebo by měla fungovat.
Setkali jste se někdy s tím, že Sam pochyboval o tom, že se AI proměňuje v AGI nebo superinteligenci nebo se dostává do cíle? Protože to je to, co mě zajímá nejvíc. Existuje nějaká úvaha o tom, zda tato základní technologie dokáže všechny věci, o kterých se říká, že umí?
To je přesně ta správná sada otázek. V tomto souboru zpráv jsou důvěryhodní technologové, se kterými jsme mluvili – a Sam Altman očividně není jedním z nich; je to obchodník – který tvrdí, že způsob, jakým Sam mluví o časové ose pro tuto technologii, je úplně mimo. Na blogu jsou příspěvky před několika lety, kde Sam říká: "Už jsme dosáhli horizontu událostí. AGI je v podstatě tady. Superinteligence je za rohem. Budeme na jiných planetách. Budeme léčit všechny formy rakoviny." Popravdě, nepřikrášluji.
Ta rakovina je ve skutečnosti zajímavá, že Sam propaguje osobu, která teoreticky vyléčila rakovinu jejich psa pomocí ChatGPT, a to se prostě nestalo. Mluvili s ChatGPT a to jim pomohlo vést některé výzkumníky, kteří skutečně dělali práci, ale individuální, tento nástroj vyléčil tohoto psa, není ve skutečnosti příběh.
Jsem rád, že jste na tento bod upozornil, protože chci přejít k tomuto většímu bodu o tom, kdy se potenciál i riziko technologie skutečně projeví. Ale stojí za zmínku tyto malé vedlejší, které se neustále dějí od Sama Altmana, kde se zdá, že tuto vlastnost znovu ztělesňuje.
I mean, to use the example of the WilmerHale report, where we had this information that had been kept out of writing, and wanted to know whether the oral brief along the way was given to anyone other than the two board members Sam helped install to oversee it. A on řekl: "Ano, ano, ne, věřím, že to bylo dáno každému, kdo vstoupil do představenstva poté." A máme tu osobu s přímou znalostí situace, která říká, že je to prostě lež. A zdá se, že tomu tak skutečně je, že to není pravda. Pokud chceme být velkorysí, možná byl špatně informován.
Těch náhodných ujištění je spousta. A tento příklad používám částečně, protože je to skvělý příklad přetvářky, říkejme tomu, která může mít skutečné právní důsledky. Nemusím vám říkat, podle zákona o obchodních společnostech Delaware, pokud by tato společnost IPO, akcionáři by si na to mohli podle paragrafu 220 stěžovat a požadovat podkladovou dokumentaci. Už tu jsou členové představenstva, kteří říkají věci jako: "No, počkejte chvíli, ten briefing měl proběhnout."
Takže tyto věci, které jako by mu neustále vyskakovaly z úst, mohou mít skutečné účinky na trh, skutečné účinky pro OpenAI. Když to vrátím zpět k druhu utopického humbuku, který se znovu objevil, myslím, že ne náhodou v den, kdy tento díl vyšel, také se to týká nás všech, protože nebezpečí jsou tak akutní, pokud jde o způsob, jakým jenasazení ve výzbroji, způsob, jakým se používá k identifikaci bojových chemických látek, dezinformační potenciál a kvůli způsobu, jakým se zdá, že utopický humbuk nutí mnoho důvěryhodných ekonomů k tomu, aby řekli: „To má všechny známky bubliny“.
Dokonce i Sam Altman řekl: "Někdo zde přijde o spoustu peněz." To by mohlo skutečně zkrátit spoustu amerického a globálního ekonomického růstu, pokud jde o skutečné propíchnutí bubliny zahrnující všechny tyto společnosti, které mezi sebou obchodují, jdou naplno do umělé inteligence a přitom si tak masivně půjčují. Takže záleží na tom, co říká Sam Altman, a myslím, že převaha lidí kolem něj, zmínil jste, že jsme mluvili s více než stovkou, ve skutečnosti to bylo hodně přes sto. Na cílové čáře jsme vedli rozhovor, kde to bylo jako: "Bylo by příliš malicherné říci, že je to mnohem vyšší číslo?" A řekli jsme si: "Jo, pojďme to zlehčit. Budeme to hrát v pohodě." Ale bylo tam tolik lidí a tak významná většina z nich řekla: "To je problém." A myslím, že právě proto.
Zeptám se tě na to číslo. Jak jste zmínil, s postupem času se lidé těmto obavám více a více otevírali. It feels like the pressure around the bubble — the race to win, to pay off all this investment, to emerge as the winner, to IPO — has changed a lot of attitudes. Určitě to vytvořilo větší tlak na Sama a OpenAI.
Tento týden jsme zveřejnili příběh o vibracích OpenAI. Váš příběh je toho součástí, ale masivní personální změny ve vedení OpenAI – lidé přicházejí a odcházejí. Všichni výzkumníci míří pryč, převážně do Anthropic, což je podle mě opravdu zajímavé. Můžete jen vidět, že tato společnost cítí tlak a nějakým způsobem na tento tlak reaguje.
Ale pak si vzpomenu na Sam, jak byl vyhozen. Tohle je pro mě prostě nezapomenutelné. Není to památné pro nikoho jiného, ale v pátek v 19 hodin jsem zavolal zdroj do Zoo v Bronxu a někdo řekl, že se pokusí dostat Sama zpět. A pak jsme strávili víkend hledáním toho příběhu. A já jen řekl: "Jsem v zoo. Co chceš, abych tady dělal?" A odpověď byla: "Zůstaňte na telefonu." No, moje dcera řekla: "Vypadni z telefonu." A to jsem udělal.
Bylo to jízda nebo zemři, aby se Sam vrátila. Ta společnost řekla: "Ne, nedovolíme, aby vedení vystřelilo Sama Altmana." Investoři, jak je citováno ve vašem článku, „Vstoupili jsme do války,“ myslím, je pozice Thrive Capital, „abychom dostali Sama zpět.“ Microsoft šel do války, aby získal Sama zpět. Je to později a teď si všichni říkají: "Jdeme na IPO. Dostali jsme se na cílovou čáru. Dostali jsme zpátky našeho chlapa a on nás dostane do cíle. Obáváme se, že je lhář."
Proč to byla válka, aby ho dostal zpátky? Protože se nezdá, že by se ve skutečnosti něco změnilo. Mluvíte o poznámkách, které si Ilya Sutskever a [výkonný ředitel Anthropic] Dario Amodei uchovávali, když byli současníky Sama Altmana. Ilyova starost číslo jedna byla, že Sam je lhář.
Nic z toho se nezměnilo. Tak proč to byla válka, abys ho přivedl zpátky? A teď, když jsme v cíli, zdá se, že všechny obavy jsou otevřené.
No, nejprve se omlouvám vaší dceři a mému partnerovi a všem ostatním lidem kolem novinářů.
[smích] Byl to docela víkend pro všechny.
Ano, přebírá to život člověka a tento příběh rozhodně má můj, za poslední období. Myslím, že to vlastně souvisí s tématem žurnalistiky a přístupu k informacím. Investoři, kteří šli do války za Sama, a všichni hráli roli v zajištění toho, aby se vrátil, a správní rada, která byla speciálně navržena tak, aby chránila poslání neziskové organizace upřednostňovat bezpečnost před růstem a propouštět vedoucí pracovníky, pokud jim to nelze věřit, odešli. To bylo vše, protože ano, tržní pobídky tam byly, že?
Sam dokázal přesvědčit lidi: "No, společnost se prostě rozpadne." Důvodem, proč měl podporu, byl nedostatek informací. Tito investoři v mnoha případech nyní říkají: „Dívám se zpět a myslím, že bych měl mít více obav, kdybych plně věděl, jaké jsou nároky a jaké jsou obavy.“
Ne všechny;názory se různí a my citujeme celou řadu názorů, ale jsou tu významní, kteří jednali na základě velmi dílčích informací. Board, který Sam vystřelil, byl slovy jednoho člověka, který býval na boardu, „velmi JV“ a tvrdě šmátrali po míči. A my zdokumentujeme základní stížnosti a lidé se mohou sami rozhodnout, zda se to nahromadí do druhu naléhavých obav, které cítili, ale tento argument a tyto informace nebyly předloženy.
Dostali to, co někteří z nich nyní považují za špatnou právní radu. Chcete-li to popsat, zapamatujete si citát a pravděpodobně mnoho vašich posluchačů a diváků si tento citát bude pamatovat jako nedostatek upřímnosti. Na to se to zredukovalo a pak v podstatě nebrali hovory.
Nepřijímali hovory. Jsem si jistý, že jste to zkusili. Všichni, které znám, to zkusili a dospělo to do bodu, kdy jako novinář nemáte radit svým zdrojům, ale já si říkal: "Tohle zmizí, pokud nezačneš vysvětlovat sám sebe."
A to se také stalo. Zapomeňte na novináře. Nechali jste Satyu Nadellu říkat: "Co se sakra stalo? Nemohu nikoho přimět, aby mi to vysvětlil." And that’s the company’s major financial backer. A pak máte Satyu, která volá [spoluzakladateli LinkedIn] Reidovi Hoffmanovi a Reid zavolá a říká: "Nevím, co se sakra stalo."
Jsou pochopitelně v té prázdnotě informací a hledají tradiční ukazatele mimo AI, které by ospravedlnily tak naléhavou a náhlou střelbu. Jako, dobře, byly to sexuální zločiny? Byla to zpronevěra? A celý ten jemný, ale myslím, že smysluplný, argument, že tato technologie je jiná a že tento druh stálého hromadění menších zrad by mohl mít smysluplné sázky jak pro tento byznys, tak možná i pro svět, byl z velké části ztracen. Takže zvítězily kapitalistické pobídky, ale také lidé, kteří to udělali, odešli a ne vždy operovali s úplnými informacemi.
Chci se jen na chvíli zeptat na aspekt „co si všichni mysleli“, protože jsem ty zprávy určitě viděl a řekl jsem: „Ach, muselo se stát něco špatného.“ Proslavili jste spoustu reportáží #MeToo. Rozbil jsi příběh Harveyho Weinsteina.
Strávil jste spoustu času podáváním zpráv o těchto tvrzeních, o kterých si myslím, že jste usoudil, že jsou nakonec nepodložená: že Altman sexuálně napadl nezletilé nebo najal sexuální pracovnice nebo dokonce zavraždil informátora OpenAI. Chci říct, že vy jste ten, kdo může tyhle věci nahlásit nejpřísněji. Rozhodli jste se, že z toho nic nebylo?
No, podívej, nemám v úmyslu říkat, že něco ztroskotalo. Mohu říci, že jsem strávil měsíce prohlížením těchto tvrzení a nenašel jsem pro ně potvrzení. A bylo pro mě zarážející, že tito chlápci, tyto společnosti, které mají tak velkou moc nad naší budoucností, skutečně utrácejí nepřiměřené množství svého času a zdrojů v dětském boji v bahně.
Jeden vedoucí pracovník to popisuje jako „shakespearovské“. Množství peněz soukromých detektivů a sestavování opozičních spisů je neúprosné. A nešťastné je, že takové chlípné věci, které Samovi konkurenti papouškují, jsou jen předpokládanou skutečností, že? Existuje toto obvinění, že pronásleduje nezletilé chlapce, a na mnoha koktejlových večírcích v Silicon Valley to slyšíte. Na konferenčním okruhu jsem slyšel, jak to právě opakovali důvěryhodní, prominentní vedoucí pracovníci: "Každý ví, že je to fakt."
Smutné je, že mluvím o tom, odkud to pochází, o různých vektorech, kterými se to přenáší. Zdá se, že Elon Musk a jeho spolupracovníci prosazují skutečně tvrdé spisy, které jsou k ničemu. Jsou vypařované, když se skutečně začnete dívat na podkladová tvrzení. Smutné na tom je, že to skutečně zakrývá kritiku více založenou na důkazech, o které si myslím, že si skutečně zaslouží naléhavý dohled a zvážení.
Dalším tématem, které se v příběhu skutečně objevuje, je téměř pocit strachu, že Sam má tolik přátel – investoval do tolika společností od své předchozí role generálního ředitele Y Combinator až po své osobní investice, z nichž některé jsou v přímém rozporu s jeho rolí generálního ředitele OpenAI – a kolem něj je ticho.
Zarazilo mě to, když jsem četl konkrétně jeden řádek. Popisujete poznámky Ilyi Sutskevera a jsou právě venku v Silicon Valley. Každýnazývá je Ilya memos. Ale kolem toho je dokonce ticho. Jsou předávány, ale nediskutuje se o nich. Odkud si myslíte, že to pochází? Je to strach? Je to touha získat andělskou investici? odkud to pochází?
Myslím, že je to velká zbabělost, budu upřímný. Poté, co informovali o příbězích o národní bezpečnosti, kde zdrojem jsou informátoři, kteří mohou přijít o všechno a čelit trestnímu stíhání, stále dělají správnou věc a mluví o věcech, aby vytvořili odpovědnost. Pracoval jsem na příbězích souvisejících se sexuálními zločiny, které jste zmínil, kde jsou zdroje hluboce traumatizované a obávají se velmi osobního druhu odplaty.
V mnoha případech kolem tohoto rytmu jednáte s lidmi s jejich vlastním profilem a silou. Buď jsou to sami slavní lidé, nebo jsou obklopeni slavnými lidmi. Mají robustní obchodní život. Podle mého názoru je pro ně ve skutečnosti velmi málo vystavené mluvit o těchto věcech. A naštěstí se jehla pohybuje, jak jsme o tom mluvili dříve, a lidé nyní mluví více.
Ale po tak dlouhou dobu o tom lidé opravdu mlčí, protože si myslím, že kultura Silicon Valley je tak nemilosrdně zaměřená na vlastní zájmy a nemilosrdně na obchod a růst. Takže si myslím, že to postihlo i některé lidi, kteří se podíleli na vyhození Sama, kde jste viděli v následujících dnech, ano, jeden z faktorů, který vedl k jeho návratu a vyhazovu starých členů představenstva, byl, že shromáždil investory, kteří byli zmateni jeho věcem.
Ale další je, že tolik dalších lidí kolem toho, kteří měli obavy a naléhavě je vyjadřovali, se prostě složili jako ubrousky a změnili melodii ve chvíli, kdy viděli, že vítr fouká opačným směrem, a chtěli nastoupit do vlaku zisku.
Je to docela temné, upřímně, z mého pohledu reportéra.
Někteří z těch lidí jsou Mira Murati, která, jak věřím, byla na 20 minut novou generální ředitelkou OpenAI. Poté byla vyměněna. Byla to velmi komplikovaná dynamika a Sam se zjevně vrátil. Další osobou je Ilya Sutskever, který byl jedním z hlasů pro odstranění Sama, a pak si to rozmyslel, nebo alespoň řekl, že si to rozmyslel, a pak odešel, aby založil vlastní společnost. Víte, co ho přimělo změnit názor? Byly to jen peníze?
No, a aby bylo jasno, nevybírám tyto dva. Do střelby byli zapojeni i další členové představenstva, kteří poté také velmi ztichli. Myslím, že je to jako širší kolektivní problém. To jsou v některých případech lidé, kteří měli morální vlákno na to, aby bili poplach a podnikli radikální kroky, a to je třeba pochválit. A tím zajišťujete odpovědnost. To mohlo pomoci mnoha lidem, kterých se tato technologie týká. Mohlo to pomoci odvětví zůstat smysluplněji zaměřené na bezpečnost.
Ale když jednáte s oznamovateli a lidmi, kteří se hodně snaží vyvolat tuto odpovědnost, vidíte také, že je potřeba to prosadit a stát si za svým přesvědčením. A toto odvětví je skutečně plné lidí, kteří si za svým přesvědčením nestojí.
I když si myslí, že budují digitálního Boha, který nějakým způsobem buď odstraní veškerou práci, nebo vytvoří více práce, nebo se něco stane.
No, to je věc. Takže kultura nestát za svým přesvědčením a všechny etické obavy upadnou stranou ve chvíli, kdy dojde k nějakému žáru nebo něčemu, co by mohlo ohrozit vaše vlastní postavení v podnikání, je možná do jisté míry dobré a dobré pro společnosti fungující jako obvykle, které vyrábějí jakýkoli druh widgetu.
Ale jsou to také stejní lidé, kteří říkají: "To by nás mohlo všechny doslova zabít." A znovu, nemusíte jít do extrému Terminator Skynet. Existuje soubor rizik, která se již naplňují. Je to skutečné a mají na to právo, ale museli byste mít někoho jiného v křesle psychologizovat, jak tyto dvě věci mohou žít ve stejných lidech, kde znějí naléhavá varování, možná se do toho pouštějí a snaží se něco udělat, a pak se jen složí a ztichnou.
To je přesně důvod, proč můžete mít takové případy, kdy se věci nepíší a věci se zametají pod koberec, a nikdo o tom otevřeně nemluví ještě roky poté.
Přirozenou a odpovědnou stranou by zde nebyli generální ředitelé těchto společností; byly by to vlády. Ve Spojených státech možnájsou to státní vlády, možná je to federální vláda.
Všechny tyto společnosti samozřejmě chtějí být globální. Je zde mnoho globálních důsledků. Sledoval jsem, jak OpenAI, Google a Anthropic přiměly Bidenovu administrativu k vydání výkonného příkazu AI. Bylo to nakonec dost bezzubé. Řeklo jen, že musí mluvit o tom, čeho jsou jejich modely schopny, a vydat nějaké bezpečnostní testy. A pak všichni podpořili Trumpa a Trump přišel, všechno to vymazal a řekl: "Musíme být konkurenceschopní. Je to zdarma pro všechny. Jděte do toho."
Zároveň se všichni snaží získat finanční prostředky ze zemí Blízkého východu, které mají spoustu peněz z ropy a chtějí změnit své ekonomiky. Those are politicians. Mám pocit, že politici by rozhodně měli chápat, že někdo mluví z obou stran, a nebudou příliš naštvaní, když je někdo nakonec zklamaný, ale i politici se nechají vyvést z míry. Proč myslíš, že je to tak?
To je opravdu, myslím, důvod, proč ten kousek z mého pohledu je důležitý a proč stálo za to strávit všechen ten čas a detaily. Nacházíme se v prostředí, kde jsou systémy, které, jak říkáte, zajišťovat dohled, jen vyprázdněné. To je post-Citizens United America, kde je tok peněz tak neomezený, a je to zvláštní koncentrace tohoto problému kolem AI, kde existují tyto PAC, které se množí a zaplavují peníze, aby zrušily smysluplnou regulaci na státní i federální úrovni.
Máte [spoluzakladatel OpenAI] Greg Brockman, Samův druhý velitel, který přímo přispívá významným způsobem k několika z nich. Vede to k situaci, kdy skutečně dochází k zachycení zákonodárců a potenciálních regulátorů, z čehož je těžké se dostat ven. Smutné na tom je, že si myslím, že existují jednoduché politické kroky, z nichž některé jsou zkoušeny jinde ve světě, které by pomohly s některými z těchto problémů s odpovědností.
Mohli byste mít více povinných bezpečnostních testů před nasazením, což je něco, co již v Evropě probíhá u hraničních modelů. Mohli byste mít přísnější požadavky na písemné veřejné záznamy pro druhy interních vyšetřování, kde jsme viděli, že se v tomto případě věci nepíší. Mohli byste mít robustnější sadu mechanismů kontroly národní bezpečnosti pro druhy ambicí blízkovýchodní infrastruktury, které prosazoval Sam Altman.
Jak říkáte, dělal tuto návnadu a střídal se s Bidenovou administrativou, říkal: „Regulujte nás, regulujte nás“ a pomáhal jim vypracovat exekutivní příkaz, a poté, co Trump vstoupí, opravdu v prvních dnech, jen tak bez překážek, „zrychlíme a postavme masivní kampus datového centra v Abu Dhabi.“ Můžete mít, tohle je opravdu jednoduché, jako ochrana oznamovatelů. Neexistuje žádný federální zákon, který by chránil zaměstnance společnosti AI, kteří odhalují tyto druhy bezpečnostních obav, které jsou vysílány v tomto díle.
Máme případy, kdy Jan Leike, který byl vedoucím bezpečnostním pracovníkem ve společnosti OpenAI, vedl super alignment ve společnosti. Píše představenstvu, v podstatě materiál pro informování, a říká, že společnost odchází z kolejí na své bezpečnostní misi. To jsou lidé, kteří by ve skutečnosti měli mít dozorčí orgán, ke kterému by se mohli obrátit, a měli by mít výslovnou zákonnou ochranu, jakou vidíme v jiných sektorech. Toto je jednoduché napodobit režim ve stylu Sarbanes-Oxley.
Myslím si, že navzdory tomu, jak akutní je problém převzetí kontroly nad všemi mocenskými pákami ze Silicon Valley, a navzdory tomu, jak vyprázdněné jsou některé z těchto institucí, které by mohly zajišťovat dohled a mantinely, stále věřím v základní matematiku demokracie a sobeckých politiků. A objevuje se stále více údajů z průzkumů, že většina Američanů si myslí, že obavy, otázky nebo rizika AI v současnosti převažují nad přínosy.
Takže si myslím, že záplava peněz do politiky od AI, je v našich silách, abychom z toho udělali zdroj otazníku s ohledem na politiky. Když Američané půjdou volit, měli by zkoumat, zda lidé, které volí, zvláště pokud jsou nekritickí a proti regulaci, vzhledem ke všem těmto obavám, nejsou financováni velkými technologickými zájmy. Takže si myslím, že pokud lidé dokážou číst kousky jako je tento, poslouchat podcasty jako je tento a dbát na to, aby o nich kriticky přemýšlelitheir decisions as voters, there is a real opportunity to generate a constituency in Washington of representatives who keep an eye on and force oversight.
To může být jedna z nejoptimističtějších věcí, které jsem kdy slyšel říkat o současném průmyslu AI. Vážím si toho. Jsem posedlý průzkumem, o kterém mluvíte. Je toho teď hodně. Všechno je to docela konzistentní a vypadá to, že čím více jsou zejména mladí lidé vystaveni umělé inteligenci, tím jsou kvůli ní nedůvěřivější a naštvanější. To je platnost všech průzkumů. A já se na to dívám a říkám si, no, jo, chytří politici by tomu prostě odporovali. Řekli by jen: "Budeme volat velké technologie k odpovědnosti."
Pak si vzpomenu na posledních 20 let, na politika, který řekl, že ponesou odpovědnost velké technologie, a já se snažím najít byť jen jeden okamžik, kdy by velká technologie byla pohnána k odpovědnosti. Jediná věc, která mě nutí si myslet, že by to mohlo být jinak, je, že ve skutečnosti musíte postavit datová centra a můžete proti tomu hlasovat, můžete proti tomu podat petici a můžete proti tomu protestovat.
Myslím, že existuje politik, kterému právě postřelili dům, protože hlasoval pro datové centrum. Napětí dosahuje, řekl bych, až horečky. Popsal jste ostrovní charakter Silicon Valley. Toto je uzavřený ekosystém. Zdá se, že si myslí, že mohou řídit svět. Dávají tuny peněz do politiky a narážejí na realitu, že lidé nemilují produkty, což jim moc nekryje. Čím více produkty používají, tím více jsou naštvaní a politici začínají chápat, že podpora technologického průmyslu má skutečné důsledky nad lidmi, které zastupují.
Mluvil jsi s tolika lidmi. Myslíte si, že je možné, aby se technický průmysl naučil lekci, která je přímo před nimi?
Říkáte, že to vypadá, jako by si mysleli, že mohou řídit svět bez odpovědnosti. Dokonce si nemyslím, že to potřebuje kvalifikaci „pocit jako“. Chci říct, když se podíváte na jazyk, který Peter Thiel používá, je to explicitní. Samozřejmě, to je extrémní příklad. A Sam Altman, ačkoli je s Thielovou ideologií do určité míry blízký a je o ní informován, je velmi odlišným typem člověka, který může znít jinak a odměřeněji.
Ale myslím si, že širší ideologie, kterou máte od Thiela, která je v podstatě: S demokracií jsme skončili, už ji nepotřebujeme. Máme toho tolik, že si prostě chceme postavit vlastní malé bunkry. Už se nezabýváme Carnegies nebo Rockefellery, kde jsou padouši, ale cítí, že se potřebují podílet na společenské smlouvě a budovat věci pro lidi. Je tam skutečný nihilismus.
A já si myslím, že to byla jen vzájemně se posilující spirála v nedávné americké historii magnátů a soukromých společností získávajících supervládní moc, zatímco demokratické instituce, které by je mohly držet k odpovědnosti, jsou vyprázdněny. Necítím se optimisticky, pokud jde o představu, že by se tito chlapi mohli jednoho dne probudit a pomyslet si: „Huh, vlastně možná potřebujeme participovat ve společnosti a pomáhat budovat věci pro lidi.“
Myslím, že se na to díváte jako na mikrokosmický příklad The Giving Pledge, kde byl okamžik, kdy se zdálo, že je to charitativní, a ten okamžik je nyní minulostí a dokonce zesměšňován. To je problém, širší problém nedostatku odpovědnosti, který, jak si myslím, lze vyřešit pouze externě. To musí být voliči mobilizující a vzkřísící moc vládního dohledu. A máte naprostou pravdu, když říkáte, že hlavní vektor, jehož prostřednictvím by toho lidé mohli dosáhnout, je místní. Souvisí to s tím, kde se buduje infrastruktura.
Zmínil jste některé z rozpáleného napětí kolem toho, které vede k násilí a hrozbám, a nikdo by samozřejmě neměl být násilný nebo vyhrožovat. A také tu nejsem proto, abych předkládal konkrétní politická doporučení, kromě toho, abych jen představil některé politické kroky, které se zdají být základní a fungují jinde ve světě, že? Nebo ti, kteří pracovali v jiných odvětvích. Nejsem tady, abych říkal, které z nich by měly být provedeny a jak.
Myslím si, že se něco musí stát a musí to být externí, ne jen důvěřovat těmto společnostem. Protože správněnyní jsme v situaci, kdy společnosti, které vyvíjejí technologii a jsou nejlépe vybaveny k tomu, aby porozuměly rizikům, a ve skutečnosti nás před riziky varují, jsou také těmi, které nemají nic jiného než motivaci postupovat rychle a tato rizika ignorovat. A vy to prostě nemáte čím vyvážit. Takže ať už reformy mohou mít co do specifik, něco proti tomu musí narazit. A stále se vracím k optimismu, že na lidech stále záleží.
Obecně beru váš argument. Dovolte mi uvést jeden malý protiargument, o kterém si myslím, že mohu formulovat. Další věc, která by se mohla stát mimo volební urnu, je, že bublina praskne, že? Že ne všechny tyto společnosti se dostanou do cíle a že neexistuje produktový trh vhodný pro spotřebitelské aplikace umělé inteligence. A znovu, ještě to úplně nevidím, ale jsem recenzent spotřebitelských technologií a možná mám jen vyšší standardy než všichni ostatní.
V obchodním světě se produktový trh hodí, že? Zdá se, že to, že spousta agentů AI napíše spoustu softwaru, je skutečným trhem pro tyto nástroje. A můžete si přečíst argumenty těchto společností, které říkají: "Vyřešili jsme kódování, a to znamená, že můžeme vyřešit cokoli. Pokud dokážeme vytvořit software, dokážeme vyřešit jakékoli problémy."
Myslím, že existují skutečné limity věcí, které software dokáže. To je skvělé ve světě podnikání. Software nemůže vyřešit každý problém ve skutečnosti, ale musí se tam dostat. Museli dokončit práci a možná ne všichni dojdou do cíle. A dojde ke krachu a tato bublina praskne a možná OpenAI nebo Anthropic nebo xAI, jedna z těchto společností selže a všechny tyto investice zmizí.
Myslíte, že by to mělo vliv? Vlastně mi dovolte nejprve položit první otázku. OpenAI je přímo na prahu IPO. O Samovi jako vůdci existuje mnoho pochybností. Myslíte, že se dostanou do cíle?
Nebudu předpovídat, ale domnívám se, že nastolíte důležitou věc, a to, že tržní pobídky mají pro Silicon Valley vnitřně velký význam a prekérnost současné dynamiky bublin skutečně přeruší, podle kritiků, potenciálně závody na dno v bezpečnosti.
K tomu bych také dodal, že pokud se podíváte na historickou prioritu, kde existuje podobný a zdánlivě neproniknutelný soubor tržních pobídek a potenciálně škodlivých účinků na veřejnost, dochází k soudním sporům. A vy to v poslední době vidíte jako oblast zájmu. Sam Altman je tam tento týden a schvaluje legislativu, která by chránila společnosti s umělou inteligencí před některými typy odpovědnosti, kterým byla OpenAI vystavena například v žalobách za neoprávněnou smrt. Samozřejmě existuje touha mít tento štít před odpovědností.
Myslím si, že soudy mohou být stále smysluplným mechanismem a bude opravdu zajímavé sledovat, jak se tyto obleky vyvinou. Už jste viděli například hromadnou žalobu, jejímž členem jsem já a mnoho dalších autorů, které znám, proti Anthropic za použití knih, které byly chráněny autorským právem. Pokud existují chytří právníci a žalobci, kteří se starají, jak jsme historicky viděli v případech od velkého tabáku po velkou energii, můžete také získat nějaké mantinely a nějaké pobídky, abyste zpomalili, byli opatrní nebo tímto způsobem chránili lidi.
Zdá se, že celá struktura nákladů v odvětví umělé inteligence visí na velmi, velmi charitativním výkladu principu fair use. Nepřichází dostatečně. Struktura nákladů těchto společností by se mohla vymknout kontrole, pokud budou muset platit vám a všem ostatním, jejichž práci vzali, ale je nepohodlné o tom přemýšlet, takže o tom prostě nepřemýšlíme. Hned vedle toho jsou všechny tyto produkty nyní ztrátové. Stejně jako dnes jsou všichni ve ztrátě. Spalují více peněz, než mohou vydělat. V určitém okamžiku musí přepnout spínač.
Sam je obchodník. Jak jste již několikrát zmínil, není technolog. Je to podnikatel. Do you think he’s ready to flip the switch and say, “We’re going to make a dollar?” Protože když se zeptám: "Myslíš, že to OpenAI zvládne?" To je, když musí vydělat dolar. A zatím Sam vydělával všechny své dolary tím, že žádal ostatní o jejich peníze, místo aby peníze vydělávaly jeho společnosti.
No, to je velká přetrvávající otázka pro Silicon Valley, pro investory, pro veřejnost.Vidíte některá prohlášení a přesuny z OpenAI, které z toho zřejmě vyjadřují určitou paniku. Vypínání Sory, zavírání některých vedlejších projektů, pokus o vynulování základního produktu. Ale na druhou stranu stále vidíte, jak se tuny mise plíží, že? I malým příkladem – to samozřejmě není jádro jejich podnikání – je akvizice TBPN.
Mimochodem, právě když jsme se blížili k cílové čáře a ověřovali fakta, společnost, která čelí tomuto druhu novinářské kontroly, získává platformu, kde může mít přímou kontrolu nad konverzací. Myslím, že existuje mnoho investorů, kteří se na základě rozhovorů, které jsem vedl, obávají, že tento problém slibování všech věcí všem lidem se také rozšiřuje na nedostatek zaměření na hlavní obchodní model. A myslím, že jste blíž k prognostikám a sledování trhu než já pravděpodobně. Nechám vás a posluchače, abyste posoudili, zda si myslí, že OpenAI může přepnout přepínač.
No, položil jsem otázku, protože máte v článku citát od vysokého manažera Microsoftu, a je to, že „Samovo dědictví by mohlo skončit více podobně jako Bernie Madoff nebo Sam Bankman-Fried“, spíše než Steve Jobs. To je docela přirovnání. Co jste o tom srovnání řekl?
Myslím, že je to parafráze. Část Steva Jobse nebyla součástí citátu. Ale je v tom zajímavý druh střízlivosti, protože je to formulováno jako: „Myslím, že existuje malá, ale reálná šance, že se z něj stane SBF nebo podvodník na úrovni Madoff.“ Nemyslím tím, že by Sam byl obviňován z těchto konkrétních typů podvodů nebo zločinů, ale že míra přetvářky a podvodu od Sama může mít šanci, že si ho nakonec v takovém měřítku zapamatují.
Jo, upřímně si myslím, že na tom citátu je nejpozoruhodnější, že zavoláte do Microsoftu a nedostanete lajk: "To je šílené. To jsme nikdy neslyšeli." Hodně se vám říká: „Jo, spousta lidí si to tady myslí“, což je pozoruhodné. A myslím si, že se to týká těchto maturitních a šroubových obchodních otázek.
Jeden investor mi například řekl, ve světle způsobu, jakým tato vlastnost přetrvává v letech po vypálení“ – a také to považovalo za zajímavou střízlivou myšlenku – že to nemusí být nutně, že Sam by měl být na úplném dně seznamu, jako by měl být nejnižší z nejnižších, pokud jde o lidi, kteří tuto technologii absolutně nesmějí budovat, protože to má cenu. ze seznamu lidí, kteří by měli vybudovat AGI, a pod několik dalších předních osobností v této oblasti.
Takže jsem si myslel, že je to zajímavé hodnocení, a myslím si, že to je ten druh myšlení, který získáte od skutečných pragmatiků, kteří možná tolik neberou ohledy na bezpečnost. Jsou pouze orientovaní na růst a myslí si, že OpenAI má nyní problém se Samem Altmanem.
Microsoft kousek je opravdu zajímavý. Ta společnost si myslela, že jsou na vrcholu světa. Že tuto investici provedli a hodlali předskočit všechny, zejména a to nejdůležitější, Google, a vrátit se zpět k přízni spotřebitelů. The level to which they feel burned by this adventure — this is a very soberly run company — I don’t think can be overstated.
Zmínil jste postavy a osobnostní rysy. Zde bych chtěl skončit otázkou našich posluchačů. Řekl jsem v našem jiném pořadu The Vergecast, že s vámi budu mluvit, a řekl jsem: "Pokud máte na Ronana otázky ohledně tohoto příběhu, dejte mi vědět." Takže tu máme jeden, který podle mě přesně souvisí s tím, co popisujete. Jen vám to přečtu:
„Jak se liší ospravedlnění pro špatné chování, bezohledné činy Altmana a dalších vůdců AI od zdůvodnění, které Ronan slyšel od jiných vysoce postavených vůdců v politice a médiích? Neospravedlňují všichni své činy tím, že takto se mění svět? Když to neudělám já, udělá to někdo jiný?"
Ano, je toho hodně. Řekl bych, že pro AI je charakteristické to, že existenční sázky jsou tak jedinečně vysoké, což znamená, že obě prohlášení o riziku jsou extrémní, že? Máte Sama Altmanařekl: "To by mohlo být zhasnuté pro nás všechny." A také by mohli kritici říci, že mánie, o které tazatel mluví, je extrémní, že?
Sam na záznamu obvinila Elona, že možná chce zachránit lidstvo, ale pouze pokud je to on. Složka ega s touhou vyhrát, což je rámování, které Sam neustále používá, a že tohle je pro historické knihy, to by mohlo všechno změnit. Takže i nad rámec myšlení většiny podniků v Silicon Valley „musíš rozbít pár vajíček“ existuje, myslím, v myslích některých osobností, které AI vedou, kompletní racionalizace veškerých nedostatků.
A zapomeňte na rozbíjení vajec. Myslím, že mnoho výzkumných pracovníků v oblasti bezpečnosti by řeklo, že potenciálně riskovat rozbití země, rozbití světa a rozbití milionů lidí, jejichž práce a bezpečnost visí na vlásku – to je na tom jedinečné. To je místo, kde končím, přemýšlím o tomto souboru zpráv a opravdu věřím, že jde o víc než o Sam Altman. Jde o průmysl, který je neomezený, a spirálovitý problém Ameriky, která ho není schopna omezit.
Jo. No, měli jsme tam trochu optimismu, ale myslím, že je dobré to nechat.
[smích] Konec potichu.
Samozřejmě. To je opravdu každý skvělý příběh. Proces Musk-Altman se blíží. Myslím, že se zde naučíme mnohem více. Mám podezření, že s tebou budu chtít znovu mluvit. Ronane Farrowe, moc vám děkuji, že jste na Decoderu.
Děkuju.
Máte otázky nebo komentáře k této epizodě? Kontaktujte nás na [email protected]. Opravdu čteme každý e-mail!