Vandaag spreek ik op Decoder met Ronan Farrow, een van de grootste sterren van de onderzoeksjournalistiek die vandaag de dag actief is. Hij vertelde onder meer het Harvey Weinstein-verhaal. En vorige week publiceerden hij en co-auteur Andrew Marantz een ongelooflijke diepgaande rubriek in The New Yorker over Sam Altman, CEO van OpenAI, zijn betrouwbaarheid en de opkomst van OpenAI zelf. 

Nog één opmerking voordat we hier verder gaan: The New Yorker publiceerde dat verhaal en Ronan en ik hadden dit gesprek voordat we de volledige omvang van de aanvallen op Altmans huis kenden, dus je zult ons daar niet rechtstreeks over horen praten. Maar om het maar te zeggen: ik denk dat geweld van welke aard dan ook onaanvaardbaar is, deze aanvallen op Sam waren onaanvaardbaar, en dat het soort hulpeloosheid dat mensen voelen, dat tot dit soort geweld leidt, op zichzelf onaanvaardbaar is, en het is veel meer onderzoek waard van zowel de industrie als onze politieke leiders. Ik hoop dat dat duidelijk is.

Verge-abonnees, vergeet niet dat u exclusieve toegang krijgt tot de advertentievrije decoder, waar u uw podcasts ook ontvangt. Ga hierheen. Geen abonnee? U kunt zich hier aanmelden.

Dat gezegd hebbende, er beweegt veel rond Altman dat een goed spel is voor rigoureuze rapportage – het soort rapportage dat Ronan en Andrew wilden doen. Dankzij de populariteit van ChatGPT is Altman uitgegroeid tot het meest zichtbare boegbeeld van de AI-industrie, nadat hij een onderzoekslaboratorium zonder winstoogmerk in slechts een paar jaar tijd had omgebouwd tot een particulier bedrijf met een waarde van bijna een biljoen dollar. Maar de mythe van Altman is diep in conflict, zowel gedefinieerd door zijn overduidelijke vermogen om deals te sluiten als door zijn gerapporteerde neiging om... nou ja, tegen iedereen om hem heen te liegen.

Het verhaal is ruim 17.000 woorden lang en bevat misschien wel het definitieve verslag van wat er in 2023 gebeurde toen de raad van bestuur van OpenAI Altman plotseling ontsloeg vanwege zijn vermeende leugens, waarna hij vrijwel onmiddellijk opnieuw werd aangenomen. Het is ook een diepe duik in het persoonlijke leven van Altman, zijn investeringen, zijn hofmakerij met geld uit het Midden-Oosten, en zijn eigen reflecties op zijn gedrag en karaktereigenschappen uit het verleden die ertoe leidden dat een bron zei dat hij ‘niet werd beperkt door de waarheid’. Ik raad je echt aan het hele verhaal te lezen; Ik vermoed dat er nog vele jaren naar zal worden verwezen. 

Ronan sprak vele malen met Altman in de achttien maanden dat hij dit stuk rapporteerde, en een van de belangrijkste dingen waar ik dus nieuwsgierig naar was, was of hij in die tijd enige verandering in Altman voelde. Er is de afgelopen anderhalf jaar immers veel gebeurd op het gebied van AI, technologie en in de wereld.

Je zult Ronan daar heel direct over horen praten, evenals zijn gevoel dat mensen veel meer bereid zijn te praten over Altmans vermogen om de waarheid op te rekken. Mensen beginnen zich hardop en on the record af te vragen of het gedrag van mensen als Altman zorgwekkend is, niet alleen voor AI of technologie, maar ook voor de collectieve toekomst van de samenleving.

Oké: Ronan Farrow over Sam Altman, AI en de waarheid. Daar gaan we. 

Dit interview is licht bewerkt voor lengte en duidelijkheid. 

Ronan Farrow, je bent onderzoeksjournalist en medewerker aan The New Yorker. Welkom bij Decoder.

Ik ben blij om hier te zijn. Bedankt dat je mij hebt.

Ik ben erg opgewonden om met je te praten. Je hebt zojuist een groot stuk geschreven voor The New Yorker. Het is een profiel van Sam Altman en, min of meer, OpenAI. Wat ik ervan lees, is dat het, zoals alle geweldige functies doen, met rigoureuze berichtgeving veel gevoelens bevestigt die mensen al heel lang over Sam Altman hebben. Je hebt het duidelijk gepubliceerd, je hebt er reacties op gekregen. Hoe voel je je er nu over?

Nou, ik ben eigenlijk bemoedigd door de mate waarin dit is doorbroken in een tijd waarin de aandachtseconomie zo schizofreen en oppervlakkig is. Dit is een verhaal dat, naar mijn mening, ons allemaal raakt. En als ik anderhalf jaar van mijn leven, en mijn co-auteur, Andrew Marantz, die tijd ook van hem doorbracht, echt probeerde iets forensisch en nauwgezets te doen, komt dat altijd omdat ik het gevoel heb dat er grotere structurele problemen zijn die mensen buiten het individu en het bedrijf in de kern van het verhaal beïnvloeden. 

Sam Altman, tegen de achtergrond van de hypecultuur in Silicon Valley en startups die enorme waarderingen opdrijven op basis van beloften die in de toekomst wel of niet zullen uitkomen, en een toenemende omarming van een oprichterscultuur die denkt dat het vertellen van verschillende groepen verschillende tegenstrijdige dingen een kenmerk is, niet eenbug... Zelfs tegen die achtergrond is Sam Altman een buitengewoon geval waarin iedereen in Silicon Valley die deze dingen verwacht, niet kan stoppen met praten over de kwestie van zijn betrouwbaarheid en eerlijkheid. 

We wisten al dat hij was ontslagen vanwege een of andere versie van beschuldigingen van oneerlijkheid of seriematige vermeende leugens. Maar buitengewoon, ondanks het feit dat er prachtige berichtgeving is geweest, heeft Keach Hagey hier uitstekend werk aan geleverd. Karen Hao heeft hier geweldig werk aan geleverd. Er was echt geen definitief begrip van de feitelijke vermeende bewijspunten en de redenen waarom deze buiten de publieke belangstelling zijn gebleven. 

Punt nummer één is dus dat ik me bemoedigd voel door het feit dat sommige van die hiaten in onze publieke kennis, en zelfs in de kennis van insiders uit Silicon Valley, nu een beetje meer zijn opgevuld. Enkele van de redenen dat er hiaten waren, zijn iets verder ingevuld.

We rapporteren over gevallen waarin mensen binnen dit bedrijf echt het gevoel hadden dat dingen in de doofpot werden gestopt of opzettelijk niet werden gedocumenteerd. Een van de nieuwe dingen in dit verhaal is een cruciaal onderzoek naar een advocatenkantoor door WilmerHale, wat duidelijk een chique, geloofwaardig, groot advocatenkantoor is dat onderzoeken heeft gedaan naar Enron en WorldCom, die trouwens allemaal omvangrijk waren, zoals honderden gepubliceerde pagina's. WilmerHale deed dit onderzoek dat werd geëist door bestuursleden die Altman hadden ontslagen als voorwaarde voor hun vertrek toen hij van hen af ​​was, en hij kwam terug. En buitengewoon – in de ogen van veel juridische experts met wie ik sprak, en schokkend in de ogen van veel mensen in dit bedrijf – hielden ze het niet op schrift. Het enige dat daar ooit uit voortkwam, was een persbericht van 800 woorden van OpenAI waarin werd beschreven wat er gebeurde als een vertrouwensbreuk. En we bevestigden dat dit bij mondelinge briefings bleef.

Er zijn gevallen waarin een bestuurslid bijvoorbeeld schijnbaar tegen de conversie van de oorspronkelijke non-profitorganisatie van OpenAI naar een entiteit met winstoogmerk wil stemmen, en dit wordt geregistreerd als een onthouding. Er is zoiets als een advocaat in de vergadering die zegt: “Nou, dat zou tot te veel onderzoek kunnen leiden.” En degene die tegen wil stemmen, wordt bij alle optredens als onthouding geregistreerd. Er is sprake van een feitelijk geschil. OpenAI beweert anders, zoals je je misschien kunt voorstellen. Het zijn allemaal gevallen waarin je een bedrijf hebt dat, voor eigen rekening, onze toekomst in handen heeft. 

De veiligheidsrisico's zijn zo acuut dat ze niet zijn verdwenen. Dit is de reden dat dit bedrijf werd opgericht als een non-profitorganisatie die zich richt op veiligheid, en waar dingen op een manier verborgen werden gehouden zodat geloofwaardige mensen hieromheen het niet echt professioneel vonden. En je koppelt dat aan een achtergrond waarin er zo weinig politieke belangstelling bestaat voor zinvolle regulering. Ik denk dat het een zeer brandbare situatie is. 

Het punt voor mij is niet alleen dat Sam Altman deze vragen zo acuut verdient. Het is ook dat al deze jongens op dit gebied, en veel van de sleutelfiguren, zo niet deze specifieke idiosyncratische, zogenaamde ‘altijd liegen’-eigenschap vertonen, en in ieder geval een zekere mate van een race-to-the-bottom-mentaliteit, waarbij de mensen die safetyisten waren, deze verplichtingen hebben afgezwakt en iedereen-in-een-race houding heeft.

Ik denk dat, als we kijken naar de recente lekken uit Anthropic, er iemand is die de vraag stelt wie in dit stuk de vinger aan de knop moet houden. Het antwoord is: als we geen zinvol toezicht hebben, denk ik dat we serieuze vragen moeten stellen en moeten proberen zoveel mogelijk informatie over al deze jongens boven water te krijgen. Dus ik ben bemoedigd door wat voelt als een zinvol gesprek daarover, of het begin ervan.

De reden dat ik het zo vroeg is dat je hier anderhalf jaar aan hebt gewerkt. Je hebt met, geloof ik, 100 mensen gesproken met je co-auteur, Andrew. Dat duurt lang voordat een verhaal kookt. Ik denk vooral aan de afgelopen anderhalf jaar bij AI, en jongen, de houding en waarden van al deze karakters zijn heel snel veranderd. 

Misschien niet meer dan Sam Altman, die begon als de standaardwinnaar omdat ze ChatGPT hadden uitgebracht en iedereen dacht dat dit het stokje van Google zou overnemen. En toen reageerde Google, wat hen leek te verbazen dat Google zou proberen zijn bedrijf te beschermen, misschien wel een van de beste bedrijven in de technologiegeschiedenis, zo niet de bedrijfsgeschiedenis. Anthropic besloot dat het zich op de onderneming zou concentreren. Het lijkt een dominante voorsprong te nemendaar omdat het zakelijke gebruik van AI zo hoog is.

Nu heroriënteert OpenAI zijn product, weg van “we gaan het opnemen tegen Google” naar Codex, en zij gaan het opnemen tegen de onderneming. Ik kan gewoon niet helemaal zeggen of het in de loop van uw verslaggeving van de afgelopen anderhalf jaar het gevoel heeft dat de karakters met wie u sprak, zijn veranderd? Zijn die, net als hun houding en waarden, veranderd?

Ja. Ik denk in de eerste plaats dat de kritiek die in dit stuk wordt onderzocht en die op dit moment van veel mensen binnen deze bedrijven komt – dat dit een industrie is die, ondanks de existentiële belangen, afglijdt in een soort race naar de bodem op het gebied van veiligheid en waar snelheid boven al het andere gaat – dat de bezorgdheid acuter is geworden. En ik denk dat deze zorgen de afgelopen anderhalf jaar nog meer zijn bevestigd. Tegelijkertijd is de houding ten opzichte van Sam Altman specifiek veranderd. Toen we hiervoor met bronnen begonnen te praten, waren mensen echt huiverig om hierover geciteerd te worden en hierover openbaar te maken.

Tegen het einde van onze berichtgeving heb je een verslag waarin mensen hier heel open en expliciet over praten, en je hebt bestuursleden die dingen zeggen als: "Hij is een pathologische leugenaar. Hij is een sociopaat." Er is een scala aan perspectieven, van: “Dit is gevaarlijk gezien de veiligheidsbelangen, en we hebben leiders van deze technologie nodig die een verhoogde integriteit hebben”, tot en met: “Vergeet de veiligheidsbelangen, dit is gedrag dat onhoudbaar is voor elke leidinggevende van welk groot bedrijf dan ook, dat het gewoon te veel disfunctioneren veroorzaakt.”

Het gesprek is dus veel explicieter geworden op een manier die misschien laat aanvoelt, maar in zekere zin bemoedigend is. En Sam Altman, het strekt hem tot eer… Het stuk is heel eerlijk en zelfs genereus, zou ik zeggen, voor Sam. Dit is niet het soort stuk waarin veel 'ik heb je'-dingen voorkomen. Ik heb vele, vele uren met hem aan de telefoon doorgebracht terwijl we dit afrondden en heb hem echt gehoord. 

Zoals je je kunt voorstellen, komt in een stuk als dit niet alles terecht. Sommige van die gevallen in dit stuk kwamen doordat ik oprecht luisterde. En als Sam daadwerkelijk een argument aanvoerde dat ik het gevoel had dat er water in zat, dat iets, ook al was het waar, sensationeel zou kunnen zijn, dan heb ik echt de fout gemaakt om dit forensisch en afgemeten te houden. Dus ik denk dat dit terecht wordt ontvangen, en ik hoop alleen dat dit feitelijke record dat in deze periode is verzameld, kan leiden tot een verkwikkender gesprek over de noodzaak van toezicht.

Dat is eigenlijk mijn volgende vraag. Ik denk dat je in de loop van het verslag van dit verhaal wel tien keer met Sam hebt gesproken. Nogmaals, dat zijn veel gesprekken over een lange periode. Vond u dat Sam in de loop van de berichtgeving de afgelopen anderhalf jaar veranderd is?

Ja. Ik denk dat een van de meest interessante subplots hierin is dat Sam Altman ook explicieter over deze eigenschap praat dan in het verleden. De houding van Sam in dit stuk is niet zoiets als: "Er is niets, dit is niet waar; ik weet niet waar je het over hebt." De houding die hij aanneemt is dat hij zegt dat dit te wijten is aan een neiging tot het behagen van mensen en een soort conflictaversie. Hij erkent dat het voor hem problemen heeft veroorzaakt, vooral eerder in zijn carrière.

Hij zegt: “Wel, ik ga daar voorbij, of ben daar tot op zekere hoogte voorbij gegaan.” Ik denk dat wat voor mij echt interessant is, het contingent mensen is met wie we hebben gesproken, die niet alleen maar een soort voorstanders van veiligheid waren, niet alleen de onderliggende technische onderzoekers die heel vaak de neiging hebben deze acute veiligheidsproblemen te hebben, maar ook pragmatische, grote investeerders. Het zijn supporters van Sam, die in sommige gevallen naar deze vraag kijken en zeggen dat ze zelfs een sleutelrol hebben gespeeld bij zijn terugkeer na het ontslag. Nu, op de vraag of hij hervormd is, en in hoeverre die verandering zinvol is, zeggen ze: “Wel, we hebben hem destijds het voordeel van de twijfel gegeven.”

Ik denk in het bijzonder aan een prominente investeerder die zei: ‘Maar sindsdien lijkt het duidelijk dat hij niet achter de houtschuur is weggehaald’, wat de uitdrukking was die deze gebruikte, voor zover dat nodig was. Als gevolg hiervan lijkt het erop dat dit nu een stabiele eigenschap is. We zien dit voortdurend. Je kunt enkele van de grootste bedrijven van OpenAI bekijkenrelaties en de manier waarop ze het gewicht van dat wantrouwen op een voortdurende manier dragen. 

Net als bij Microsoft praat je daar met leidinggevenden en zij hebben hele acute en onlangs gekatalyseerde zorgen. Er is een voorbeeld waarin OpenAI op dezelfde dag zijn exclusiviteit met Microsoft herbevestigt met betrekking tot onderliggende staatloze AI-modellen en ook een nieuwe deal met Amazon aankondigt die te maken heeft met de verkoop van bedrijfsoplossingen voor het bouwen van AI-agents die stateful zijn, wat betekent dat ze geheugen hebben.

Je praat met Microsoft-mensen en zij zeggen: "Dat is niet mogelijk zonder interactie met de onderliggende zaken waarover we een exclusiviteitsovereenkomst hebben gesloten." Dat is dus slechts een van de vele kleine voorbeelden waarin deze eigenschap voortdurend invloed heeft op lopende bedrijfsactiviteiten en een onderwerp van actieve zorg is binnen het bestuur van OpenAI, binnen de executive suite en in de bredere technologiegemeenschap.

Je blijft die ‘eigenschap’ zeggen. Er zit een zin in het verhaal die voor mij aanvoelt als de stelling, en het is een beschrijving van de eigenschap die je beschrijft. Het is dat ‘Sam Altman zich niet laat beperken door de waarheid’ en dat hij ‘twee eigenschappen heeft die bijna nooit bij dezelfde persoon worden gezien: de eerste is een sterk verlangen om mensen te plezieren, om aardig gevonden te worden in een bepaalde interactie, en de tweede is een bijna sociopathisch gebrek aan bezorgdheid over de gevolgen die kunnen voortvloeien uit het misleiden van iemand.’

Ik moet je zeggen dat ik die zin 500 keer heb gelezen, en ik probeerde me voor te stellen dat ik altijd zou zeggen wat mensen leuk vonden, en dat ik dan niet van streek zou zijn als ze zich voorgelogen voelden. En ik kon mijn emotionele toestand niet laten begrijpen hoe die dingen in dezelfde persoon kunnen bestaan. Je hebt veel met Sam gesproken, en je hebt met mensen gesproken die deze eigenschappen hebben ervaren. Hoe doet hij het?

Ja. Het is interessant op menselijk vlak, omdat ik dit soort berichtgevingsinstanties benader met een echte focus op het humaniseren van degene die er centraal in staat en op zoek naar diep begrip en empathie. Toen ik dit vanuit een meer menselijk standpunt probeerde te benaderen en zei: "Hé, dit zou verwoestend voor mij zijn als zoveel mensen met wie ik heb gewerkt zouden zeggen dat ik een pathologische leugenaar ben. Hoe draag je dat gewicht? Hoe praat je daarover in therapie? Wat is het verhaal dat je jezelf daarover vertelt?"

Ik kreeg naar mijn mening een soort platitudes aan de Westkust, zoals: "Ja, ik hou van ademwerk." Maar niet het soort verkwikkende gevoel van diepe zelfconfrontatie dat volgens mij velen van ons waarschijnlijk zouden hebben als we dit soort feedback zouden zien over ons gedrag en onze behandeling van mensen.

Ik denk dat dit eigenlijk ook geldt voor het bredere antwoord op de vraag. Sam beweert dat deze eigenschap problemen heeft veroorzaakt, maar ook dat het deel uitmaakt van wat hem in staat heeft gesteld de groei van OpenAI zo sterk te versnellen dat hij in staat is verschillende groepen mensen te verenigen en tevreden te stellen. Hij overtuigt voortdurend al deze conflicterende kiesdistricten ervan dat waar zij om geven, datgene is waar hij om geeft. En dat kan een heel nuttige vaardigheid zijn voor een oprichter. Ik heb met investeerders gesproken die vervolgens zeiden: ‘Misschien is het een minder nuttige vaardigheid om daadwerkelijk een bedrijf te runnen, omdat het zoveel onenigheid zaait.’

Maar aan de persoonlijke kant van Sam denk ik dat wat ik opmerk als ik probeer verbinding te maken op menselijk niveau het schijnbare gebrek aan diepere confrontatie, reflectie en zelfverantwoordelijkheid is, wat ook die superkracht of aansprakelijkheid voor een bedrijf dat zich voorbereidt op een beursintroductie informeert.

Hij is iemand die, in de woorden van een voormalig bestuurslid genaamd Sue Yoon, die in het stuk staat en zegt dat ze tot op het punt van ‘slappeloosheid’ de term gebruikt, in staat is de veranderende realiteit van zijn verkooppraatjes echt te geloven of zichzelf ervan kan overtuigen. Of als hij ze niet gelooft, kan hij er tenminste doorheen stormen zonder enige twijfel aan zichzelf.

Ik denk dat waar jij het over hebt, waar jij of ik dat zouden kunnen doen, terwijl we het zeggen en beseffen dat het in strijd is met de andere verzekering die we hebben gedaan, een moment van bevriezen of onszelf controleren. Ik denk dat dat bij hem niet het geval is. En er is een bredere Silicon Valley-hypecultuur en oprichterscultuur die dat soort van omarmt.

Het is grappig. The Verge is gebouwd op wat neerkomt op productrecensiesprogramma. Het is de kern van wat we hier doen. Ik bezit een keer per jaar een biljoen dollar aan Apple R&D en zeg: "Deze telefoon is een zeven." En het legitimeert min of meer al onze berichtgeving en onze meningen elders. We hebben een evaluatieve functie en we besteden zoveel tijd aan het kijken naar de AI-producten en zeggen: “Werken ze?”

Dat voelt alsof het ontbreekt in een groot deel van het gesprek over AI zoals het nu is. Er wordt eindeloos gepraat over wat het zou kunnen doen, hoe gevaarlijk het zou kunnen zijn. En dan ga je verder en zeg je: "Doet het vandaag echt wat het zou moeten doen?" In sommige gevallen is het antwoord ja. Maar in heel veel gevallen is het antwoord nee.

Dat voelt alsof het aansluit bij de hypecultuur die je beschrijft en ook bij het gevoel dat, nou ja, als je zegt dat het iets gaat doen en dat gebeurt niet, en iemand zich slecht voelt, dat prima is, want we zijn op weg naar het volgende. Dat is verleden tijd. En vooral op het gebied van AI is Sam zo goed in het maken van grote beloften.

Deze week nog, ik denk dat op dezelfde dag dat jouw verhaal werd gepubliceerd, OpenAI een beleidsdocument heeft vrijgegeven waarin stond dat we het sociale contract moeten heroverwegen en AI-efficiëntiesubsidies van de overheid moeten krijgen. Dit is een grootse belofte over hoe bepaalde technologie de toekomst van de wereld en hoe we leven zou kunnen vormgeven, en dat alles is afhankelijk van de technologie die precies werkt op de manier waarop misschien wordt beloofd dat het werkt of zou moeten werken. 

Heb je Sam ooit zien twijfelen of AI in AGI of superintelligentie zou veranderen of de finish zou halen? Want dat is wat ik mij het meest afvraag. Bestaat er enige reflectie over de vraag of deze kerntechnologie alle dingen kan doen die zij zeggen te kunnen?

Het is precies de juiste reeks vragen. Er zijn geloofwaardige technologen met wie we in deze berichtgeving hebben gesproken – en uiteraard is Sam Altman daar niet één; hij is een zakenman - die zegt dat de manier waarop Sam over de tijdlijn voor deze technologie praat ver weg is. Er zijn blogposts van een paar jaar geleden waarin Sam zegt: "We hebben de gebeurtenishorizon al bereikt. AGI is feitelijk hier. Superintelligentie staat voor de deur. We zullen op andere planeten zijn. We gaan alle vormen van kanker genezen." Echt, ik ben niet aan het verfraaien. 

Die over kanker is eigenlijk interessant, dat Sam de persoon opzweept die in theorie de kanker van zijn hond heeft genezen met ChatGPT, en dat is simpelweg niet gebeurd. Ze spraken met ChatGPT, en dat hielp hen enkele onderzoekers te begeleiden die het werk daadwerkelijk deden, maar de één-op-één oplossing die deze hond genas, is eigenlijk niet het verhaal.

Ik ben blij dat je dat punt naar voren hebt gebracht, want ik wil doorgaan naar dit grotere punt over wanneer zowel het potentieel als de risico's van de technologie echt zullen toenemen. Maar het is de moeite waard om deze kleine kanttekeningen te vermelden die voortdurend voorkomen bij Sam Altman, waar hij deze eigenschap opnieuw lijkt te belichamen. 

Ik bedoel, om het voorbeeld van het WilmerHale-rapport te gebruiken, waar we deze informatie hadden die niet op schrift was gehouden, en we wilden weten of de mondelinge opdracht onderweg aan iemand anders was gegeven dan de twee bestuursleden die Sam hielp installeren om er toezicht op te houden. En hij zei: "Ja, ja, nee, ik geloof dat het werd gegeven aan iedereen die daarna tot het bestuur toetrad." En we hebben een persoon met directe kennis van de situatie die zegt dat het gewoon een leugen is. En dat blijkt inderdaad zo te zijn, dat het niet waar is. Als we genereus willen zijn, is hij misschien verkeerd geïnformeerd. 

Er zijn veel van deze informele garanties. En ik gebruik dat voorbeeld gedeeltelijk omdat het een geweldig voorbeeld is van huichelarij, laten we het zo noemen, dat juridisch reële gevolgen kan hebben. Ik hoef u volgens het ondernemingsrecht van Delaware niet te vertellen dat aandeelhouders, op grond van sectie 220, hierover zouden kunnen klagen en onderliggende documentatie zouden kunnen eisen als dit bedrijf een beursintroductie zou maken. Er zijn al bestuursleden die dingen zeggen als: “Wacht even, die briefing had moeten plaatsvinden.”

Dus deze dingen die de hele tijd uit zijn mond lijken te springen, kunnen echte marktveranderende effecten hebben, echte effecten voor OpenAI. Als we het terugbrengen naar het soort utopische hype-taal dat weer de kop opsteekt, denk ik, niet toevallig op de dag dat dit stuk uitkwam, dat het ook gevolgen heeft voor ons allemaal, omdat de gevaren zo acuut zijn als het gaat om de manier waarop het wordt gedaan.de inzet ervan in wapens, de manier waarop het wordt gebruikt om middelen voor chemische oorlogsvoering te identificeren, het desinformatiepotentieel, en vanwege de manier waarop de utopische hype veel geloofwaardige economen ertoe lijkt te brengen te zeggen: “Dit vertoont alle tekenen van een zeepbel.”

Zelfs Sam Altman heeft gezegd: “Iemand gaat hier veel geld verliezen.” Dat zou echt een hoop Amerikaanse en mondiale economische groei kunnen veroorzaken, als er sprake zou zijn van een echte doorbraak van een zeepbel waarbij al deze bedrijven deals met elkaar sluiten, all-in gaan voor AI terwijl ze zo zwaar lenen. Dus wat Sam Altman zegt doet er toe, en ik denk dat het overwicht van de mensen om hem heen, je zei dat we met meer dan honderd spraken, eigenlijk ruim honderd was. We hadden een gesprek bij de finish waarbij het ging om: "Zou het te onbeduidend zijn om te zeggen dat het om dit veel hogere aantal gaat?" En we hadden zoiets van: "Ja, laten we het bagatelliseren. We zullen het cool spelen." Maar er waren zoveel mensen, en een grote meerderheid van hen, die zei: “Dit is een punt van zorg.” En ik denk dat dat allemaal de reden is.

Laat me je iets vragen over dat nummer. Zoals u al zei, werden mensen naarmate de tijd verstreek steeds opener over hun zorgen. Het voelt alsof de druk rond de zeepbel – de race om te winnen, om al deze investeringen af ​​te betalen, om als winnaar uit de bus te komen, om naar de beurs te gaan – veel attitudes heeft veranderd. Het zorgde zeker voor meer druk op Sam en OpenAI.

We publiceerden deze week een verhaal over de sfeer van OpenAI. Jouw verhaal maakt er deel van uit, maar enorme personeelswisselingen in de leidinggevende rangen bij OpenAI – mensen komen en gaan. De onderzoekers gaan allemaal weg, grotendeels naar Anthropic, wat volgens mij heel interessant is. Je kunt gewoon zien dat dit bedrijf de druk voelt en op de een of andere manier op die druk reageert.

Maar dan denk ik terug aan Sam die werd ontslagen. Dit is voor mij gewoon onvergetelijk. Het is voor niemand anders gedenkwaardig, maar ik kreeg op vrijdag om 19.00 uur een telefoontje van een bron in de Bronx Zoo en het was iemand die zei dat ze zouden proberen Sam terug te krijgen. En daarna hebben we het hele weekend dat verhaal achterna gezeten. En ik had zoiets van: "Ik ben in de dierentuin. Wat wil je dat ik hier doe?" En het antwoord was: ‘Blijf aan de telefoon.’ Nou, mijn dochter zei: "Ga aan de telefoon." En dat is wat ik deed. 

Het was rijden of sterven om Sam terug te krijgen. Dat bedrijf zei: "Nee, we laten het bestuur Sam Altman niet ontslaan." De investeerders, die in uw stuk worden geciteerd: ‘We zijn ten oorlog gegaan’, denk ik, is de positie van Thrive Capital, ‘om Sam terug te krijgen.’ Microsoft trok ten strijde om Sam terug te krijgen. Het is later, en nu zegt iedereen: "We gaan naar de beurs. We hebben de finish bereikt. We hebben onze man terug, en hij gaat ons naar de finish brengen. We zijn bang dat hij een leugenaar is." 

Waarom was het toen een oorlog om hem terug te krijgen? Omdat het lijkt alsof er feitelijk niets is veranderd. Je hebt het over de memo's die Ilya Sutskever en [Anthropic CEO] Dario Amodei bijhielden toen ze tijdgenoten waren van Sam Altman. Ilya’s grootste zorg was dat Sam een ​​leugenaar is.

Niets daarvan is veranderd. Waarom was het dan oorlog om hem terug te brengen? En nu we bij de finish zijn, lijkt het erop dat alle zorgen openbaar zijn.

Allereerst sorry voor uw dochter en mijn partner en alle andere mensen rondom de journalisten. 

[Lacht] Het was voor iedereen een behoorlijk weekend.

Ja, het neemt iemands leven over, en dit verhaal heeft zeker het mijne de afgelopen tijd. Het heeft eigenlijk te maken met het thema journalistiek en toegang tot informatie, denk ik. De investeerders die voor Sam ten strijde trokken en allemaal een rol speelden om ervoor te zorgen dat hij terugkwam, en het bestuur dat specifiek was ontworpen om de missie van een non-profitorganisatie te beschermen om veiligheid boven groei te stellen en een leidinggevende te ontslaan als ze daarin niet vertrouwd konden worden, gingen weg. Dat kwam allemaal omdat, ja, de marktprikkels er waren, toch?

Sam kon mensen ervan overtuigen: ‘Nou, het bedrijf gaat gewoon uiteenvallen.’ Maar de reden dat hij steun kreeg, was een gebrek aan informatie. Die investeerders zeggen nu in veel gevallen: “Ik kijk terug en ik denk dat ik me meer zorgen had moeten maken als ik volledig had geweten wat de claims waren en wat de zorgen waren.”

Niet allemaal;De meningen lopen uiteen, en we citeren een reeks meningen, maar er zijn belangrijke meningen die op basis van zeer gedeeltelijke informatie handelden. Het bord dat Sam ontsloeg was, in de woorden van één persoon die vroeger op het bord zat, 'erg JV', en ze morrelden hard aan de bal. En we documenteren de onderliggende klachten, en mensen kunnen zelf beslissen of deze zich opstapelen tot het soort urgente zorg waarvan zij dachten dat het was, maar dat argument en die informatie werden niet gepresenteerd.

Ze kregen wat sommigen van hen nu erkennen als slecht juridisch advies. Om het te beschrijven: je zult het citaat onthouden, en waarschijnlijk zullen veel van je luisteraars en kijkers het citaat herinneren als een gebrek aan openhartigheid. Dat was waar het toe werd teruggebracht, en dan zouden ze in wezen geen oproepen aannemen.

Ze wilden niet bellen. Ik weet zeker dat je het geprobeerd hebt. Iedereen die ik ken probeerde het, en het kwam op het punt waarop je als journalist geen advies aan je bronnen mag geven, maar ik dacht: “Dit zal verdwijnen als je jezelf niet gaat uitleggen.”

En dat is wat er gebeurde. Vergeet journalisten. Je liet Satya Nadella zeggen: "Wat is er in godsnaam gebeurd? Ik kan niemand zover krijgen om het mij uit te leggen." En dat is de belangrijkste financier van het bedrijf. En dan heb je Satya die [mede-oprichter van LinkedIn] Reid Hoffman belt en Reid die rondbelt en zegt: "Ik weet verdomme niet wat er is gebeurd." 

Het is begrijpelijk dat ze zich in die leegte van informatie bevinden, op zoek naar de traditionele niet-AI-indicatoren die zo’n dringend, plotseling ontslag zouden rechtvaardigen. Oké, waren het seksuele misdaden? Was het verduistering? En het hele subtiele, maar volgens mij zinvolle argument dat deze technologie anders is en dat dit soort gestage opeenstapeling van kleiner verraad betekenisvolle belangen zou kunnen hebben, zowel voor dit bedrijf als misschien voor de wereld, ging grotendeels verloren. Dus de kapitalistische prikkels wonnen het, maar ook de mensen die het maakten gingen eropuit en werkten niet altijd met volledige informatie.

Ik wil even iets vragen over het aspect ‘wat iedereen dacht dat het was’, want ik heb het nieuws zeker gezien en ik zei: ‘O, er moet iets ergs zijn gebeurd.’ Je hebt veel #MeToo-rapportage gedaan, beroemd. Je hebt het Harvey Weinstein-verhaal verkondigd. 

Je hebt veel tijd besteed aan het rapporteren over deze beweringen waarvan je denk dat ze uiteindelijk ongegrond waren: dat Altman minderjarigen seksueel heeft misbruikt of sekswerkers heeft ingehuurd, of zelfs een OpenAI-klokkenluider heeft vermoord. Ik bedoel, jij bent de persoon die deze dingen het meest rigoureus kan rapporteren. Heb je besloten dat het op niets uitliep?

Nou, kijk, het is niet mijn taak om te zeggen dat iets op niets is uitgelopen. Wat ik kan zeggen is dat ik maandenlang naar deze beweringen heb gekeken, maar er geen bevestiging voor heb gevonden. En het viel mij op dat deze jongens, deze bedrijven die zoveel macht hebben over onze toekomst, werkelijk een onevenredig groot deel van hun tijd en middelen besteden aan een kinderachtig moddergevecht.

Eén directeur omschrijft het als ‘Shakespeareaans’. De hoeveelheid geld voor privédetectives en de oppositiedossiers die worden samengesteld, zijn meedogenloos. En het ongelukkige is dat dit soort wellustige dingen, die door de concurrenten van Sam worden nagepraat, slechts veronderstelde feiten zijn, toch? Er wordt beweerd dat hij minderjarige jongens achtervolgt, en op veel cocktailparty's in Silicon Valley hoor je dit. In het conferentiecircuit heb ik het zojuist horen herhalen door geloofwaardige, vooraanstaande leidinggevenden: “Iedereen weet dat dit een feit is.”

Het trieste is dat ik het heb over waar dit vandaan komt, de verschillende vectoren waarmee het wordt overgedragen. Elon Musk en zijn medewerkers proberen schijnbaar echt hardcore dossiers aan te pakken die op niets uitlopen. Ze zijn vaag als je daadwerkelijk naar de onderliggende claims gaat kijken. Het trieste is dat het de meer op feiten gebaseerde kritiek hier, die naar mijn mening dringend toezicht en aandacht verdient, werkelijk verdoezelt.

Het andere thema dat echt naar voren komt in het verhaal is bijna een gevoel van angst dat Sam zoveel vrienden heeft – hij heeft in zoveel bedrijven geïnvesteerd, van zijn vorige rol als CEO van Y Combinator tot zijn persoonlijke investeringen, waarvan sommige in direct conflict staan ​​met zijn rol als CEO van OpenAI – en er heerst stilte om hem heen.

Het viel me op toen ik één regel in het bijzonder las. Je beschrijft de memo's van Ilya Sutskever en ze zijn net in Silicon Valley verschenen. Iedereennoemt ze de Ilya-memo's. Maar daar is zelfs stilte omheen. Ze worden doorgegeven, maar er wordt niet over gesproken. Waar denk je dat dat vandaan komt? Is het angst? Is het een verlangen om engelinvesteringen te krijgen? Waar komt dat vandaan?

Ik vind het een hoop lafheid, ik zal eerlijk zijn. Nadat ze verslag hebben gedaan van verhalen over de nationale veiligheid waarbij de bronnen klokkenluiders zijn die alles dreigen te verliezen en vervolgd kunnen worden, doen ze nog steeds het juiste en praten ze over dingen om verantwoordelijkheid te creëren. Ik heb gewerkt aan de door u genoemde verhalen over seksuele misdaden, waarbij bronnen diep getraumatiseerd zijn en bang zijn voor een zeer persoonlijke vorm van vergelding. 

In veel gevallen heb je rond deze beat te maken met mensen met een eigen profiel en macht. Ze zijn zelf beroemde mensen of ze worden omringd door beroemde mensen. Ze hebben een robuust zakenleven. Naar mijn mening is het eigenlijk een zeer lage blootstelling voor hen om over dit soort dingen te praten. En gelukkig beweegt de naald, waar we het eerder over hadden, en praten mensen nu meer.

Maar zo lang hebben mensen er eigenlijk gewoon hun mond over gehouden, omdat ik denk dat de cultuur van Silicon Valley zo meedogenloos op eigenbelang en meedogenloos op zaken en groei gericht is. Dus ik denk dat dit zelfs sommige mensen treft die betrokken waren bij het ontslaan van Sam. Je zag in de dagen erna dat een factor die ertoe leidde dat hij terugkwam en oude bestuursleden ontsloeg, was dat hij investeerders bijeenbracht die verward waren over zijn zaak. 

Maar een ander probleem is dat zoveel andere mensen om ons heen die hun zorgen hadden en deze dringend uitten, zich gewoon als servetten opvouwden en hun toon veranderden op het moment dat ze zagen dat de wind de andere kant op waaide, en ze wilden mee op de winsttrein. 

Het is eerlijk gezegd behoorlijk donker, vanuit mijn standpunt als verslaggever.

Sommige van die mensen zijn Mira Murati, die, geloof ik, twintig minuten lang de nieuwe CEO van OpenAI was. Ze werd toen vervangen. Het was een heel ingewikkelde dynamiek, en het was duidelijk dat Sam terugkwam. De andere persoon is Ilya Sutskever, die een van de stemmen was om Sam te verwijderen, en toen veranderde hij van gedachten, of zei in ieder geval dat hij van gedachten veranderde, en vertrok toen om zijn eigen bedrijf te starten. Weet je waardoor hij van gedachten veranderde? Was het alleen maar geld?

Nou, en voor de duidelijkheid: ik noem die twee niet. Er zijn andere bestuursleden die bij het ontslag betrokken waren en die daarna ook erg stil werden. Ik denk dat het een breder collectief probleem is. In sommige gevallen zijn dit mensen die de morele moed hadden om alarm te slaan en radicale actie te ondernemen, en dat is te prijzen. En zo zorg je voor verantwoordelijkheid. Dat had veel mensen kunnen helpen die door deze technologie worden getroffen. Het had een sector kunnen helpen om betekenisvoller op veiligheid te blijven focussen.

Maar als je te maken hebt met klokkenluiders en mensen die vaak die aansprakelijkheid proberen te bewerkstelligen, zie je ook dat het de moed vergt om het vol te houden en vast te houden aan je overtuigingen. En deze industrie zit werkelijk vol met mensen die gewoon niet vasthouden aan hun overtuigingen.

Ook al denken ze dat ze een digitale God aan het bouwen zijn die op de een of andere manier alle arbeid zal elimineren of meer arbeid zal creëren, anders zal er iets gebeuren.

Nou, dat is het punt. Dus de cultuur van het niet vasthouden aan je overtuigingen en alle ethische zorgen die terzijde worden geschoven op het moment dat er enige hitte of iets dergelijks is dat je eigen positie in het bedrijf zou kunnen bedreigen, is tot op zekere hoogte misschien allemaal goed en wel voor business-as-usual-bedrijven die wat voor soort widget dan ook maken.

Maar dit zijn ook dezelfde mensen die zeggen: “Dit zou ons letterlijk allemaal kunnen doden.” En nogmaals, je hoeft niet naar het uiterste van Terminator Skynet te gaan. Er zijn een aantal risico's die zich al manifesteren. Het is echt, en ze hebben gelijk als ze daarvoor waarschuwen, maar je zou iemand anders in een leunstoel moeten laten psychologiseren hoe die twee dingen kunnen leven in dezelfde mensen waar ze de dringende waarschuwingen laten horen, ze misschien een teen erin steken en iets proberen te doen, en dan vouwen ze gewoon weg en vallen ze stil. 

Dat is precies de reden waarom je dit soort voorbeelden kunt hebben waarin dingen niet op schrift worden gesteld en dingen onder het tapijt worden geveegd, terwijl niemand er jaren later nog zo openlijk over praat.

De natuurlijke, verantwoordelijke partij hier zouden niet de CEO's van deze bedrijven zijn; het zouden regeringen zijn. In de Verenigde Staten misschienhet zijn deelstaatregeringen, misschien is het de federale overheid. 

Zeker, deze bedrijven willen allemaal mondiaal zijn. Er zijn hier veel mondiale implicaties. Ik zag hoe OpenAI, Google en Anthropic de regering-Biden er allemaal toe aanzetten een AI-uitvoerend bevel uit te vaardigen. Het was uiteindelijk behoorlijk tandeloos. Er stond alleen dat ze moesten praten over waartoe hun modellen in staat waren en een aantal veiligheidstests moesten vrijgeven. En toen steunden ze allemaal Trump, en Trump kwam binnen en veegde dat allemaal weg en zei: "We moeten concurrerend zijn. Het is een vrij spel. Ga ervoor."

Tegelijkertijd proberen ze allemaal fondsen te werven uit landen uit het Midden-Oosten die veel oliegeld hebben en hun economieën willen veranderen. Dat zijn politici. Ik heb het gevoel dat politici absoluut moeten begrijpen dat iemand uit beide kanten van hun mond praat, en dat ze niet al te boos zullen zijn als iemand uiteindelijk teleurgesteld wordt, maar de politici worden ook voor de gek gehouden. Waarom denk je dat dat zo is?

Dit is, denk ik, waarom dit stuk er naar mijn mening toe doet en waarom het de moeite waard was om al deze tijd en details aan te besteden. We bevinden ons in een omgeving waarin de systemen die, zoals u zegt, voor toezicht zouden moeten zorgen, slechts zijn uitgehold. Dat is een post-Citizens United America, waar de geldstroom zo onbelemmerd is, en het is een bijzondere concentratie van dat probleem rond AI, waar deze PAC’s zich verspreiden en geld overspoelen om zinvolle regelgeving op zowel staats- als federaal niveau te vernietigen.

Je hebt [mede-oprichter van OpenAI] Greg Brockman, Sam's tweede bevelhebber, die rechtstreeks op een belangrijke manier bijdraagt ​​aan een aantal daarvan. Het leidt tot een situatie waarin wetgevers en potentiële toezichthouders werkelijk in de greep zijn, en dat is een moeilijke spiraal om uit te komen. Het trieste is dat ik denk dat er eenvoudige beleidsstappen zijn, waarvan sommige elders in de wereld worden uitgeprobeerd, die zouden kunnen helpen bij sommige van deze verantwoordingsproblemen.

Er zouden meer verplichte veiligheidstests vóór de implementatie kunnen plaatsvinden, iets wat in Europa al gebeurt voor grensmodellen. U zou strengere eisen kunnen stellen aan schriftelijke openbare registers voor het soort interne onderzoeken waarbij we in dit geval zagen dat zaken niet op schrift werden gesteld. Je zou een robuuster stel nationale veiligheidsbeoordelingsmechanismen kunnen hebben voor het soort infrastructuurambities in het Midden-Oosten dat Sam Altman naar voren bracht. 

Zoals je zegt, hij deed dit aas en schakelde over met de regering-Biden, door te zeggen: ‘Reguleer ons, reguleer ons’, en hielp hen een uitvoerend bevel op te stellen, en op het moment dat Trump binnenkwam, echt in de allereerste dagen, zonder enige beperking: ‘Laten we versnellen en een enorme datacentercampus in Abu Dhabi bouwen.’ Dat zou kunnen, dit is heel eenvoudig, zoals klokkenluidersbescherming. Er is geen federaal statuut dat werknemers van AI-bedrijven beschermt die dit soort veiligheidsproblemen openbaar maken die in dit stuk worden uitgezonden.

We hebben gevallen waarin Jan Leike, een senior veiligheidsman bij OpenAI, leiding gaf aan de superuitlijning bij het bedrijf. Hij schrijft aan het bestuur, in essentie klokkenluidersmateriaal, waarin hij zegt dat het bedrijf ontspoort op zijn veiligheidsmissie. Dit soort mensen zou eigenlijk een toezichthoudend orgaan moeten hebben waar ze terecht kunnen, en ze zouden expliciete wettelijke bescherming moeten genieten, zoals we dat in andere sectoren zien. Dit is eenvoudig om een ​​regime in Sarbanes-Oxley-stijl te repliceren.

Ik denk dat ondanks hoe acuut het probleem is dat Silicon Valley de controle over alle machtsinstrumenten overneemt, en ondanks hoe uitgehold sommige van deze instellingen die voor toezicht en vangrails kunnen zorgen, zijn, ik nog steeds geloof in de basiswiskunde van de democratie en van eigenbelangrijke politici. En er komen steeds meer opiniepeilingen naar voren waaruit blijkt dat een meerderheid van de Amerikanen denkt dat de zorgen, vragen of risico’s van AI momenteel opwegen tegen de voordelen.

Dus ik denk dat het binnen al onze macht ligt om de geldstroom vanuit AI naar de politiek te maken om daar een bron van vraagtekens van te maken met betrekking tot politici. Wanneer Amerikanen gaan stemmen, moeten ze nauwkeurig onderzoeken of de mensen op wie ze stemmen, vooral als ze onkritisch zijn en anti-regulering zijn, gezien al deze zorgen, gefinancierd worden door speciale belangen van grote technologiebedrijven. Dus ik denk dat als mensen dit soort stukken kunnen lezen, naar dit soort podcasts kunnen luisteren en er genoeg om kunnen geven om er kritisch over na te denkenhun beslissingen als kiezers, is er een reële kans om in Washington een kiesdistrict te genereren van vertegenwoordigers die toezicht houden en afdwingen.

Dat is misschien wel een van de meest optimistische dingen die ik ooit iemand heb horen zeggen over de huidige AI-industrie. Ik waardeer het. Ik ben geobsedeerd door de peilingen waar je het over hebt. Er is nu veel van. Het is allemaal behoorlijk consistent, en het lijkt erop dat hoe meer vooral jonge mensen worden blootgesteld aan AI, hoe wantrouwiger en bozer ze erover zijn. Dat is de waarde van alle peilingen. En als ik daar naar kijk, denk ik: slimme politici zouden daar gewoon tegenin gaan. Ze zouden alleen maar zeggen: “We gaan de grote technologiebedrijven verantwoordelijk houden.” 

Dan denk ik aan de afgelopen twintig jaar, toen een politicus zei dat hij grote technologiebedrijven ter verantwoording zou roepen, en ik heb moeite om ook maar één moment te vinden waarop grote technologiebedrijven ter verantwoording werden geroepen. Het enige wat mij doet denken dat dit misschien anders is, is dat je eigenlijk de datacentra moet bouwen, en daar tegen kunt stemmen, en daartegen een petitie kunt indienen, en daartegen kunt protesteren.

Ik denk dat er een politicus is die zojuist zijn huis heeft laten beschieten omdat hij voor een datacenter heeft gestemd. De spanning bereikt, ik zou het een koortshoogte noemen. U hebt het insulaire karakter van Silicon Valley beschreven. Dit is een gesloten ecosysteem. Het voelt alsof ze denken dat ze de wereld kunnen regeren. Ze steken veel geld in de politiek en stuiten op de realiteit dat mensen niet van de producten houden, waardoor ze niet veel dekking krijgen. Hoe meer ze de producten gebruiken, hoe meer ze van streek zijn, en de politici beginnen in te zien dat er reële gevolgen zijn aan het steunen van de technologie-industrie ten opzichte van de mensen die ze vertegenwoordigen. 

Je hebt met zoveel mensen gesproken. Denkt u dat het voor de technologie-industrie mogelijk is om de les te leren die voor hen ligt?

Je zegt dat het voelt alsof ze denken dat ze de wereld kunnen besturen zonder verantwoording af te leggen. Ik denk niet eens dat daarvoor de kwalificatie 'voelt als' nodig is. Ik bedoel, als je kijkt naar de taal die Peter Thiel gebruikt, is die expliciet. Dat is natuurlijk een extreem voorbeeld. En Sam Altman is, hoewel hij tot op zekere hoogte nauw verbonden is met en geïnformeerd is door de ideologie van Thiel, een heel ander soort persoon, die tot op zekere hoogte misschien anders en meer afgemeten klinkt. 

Maar ik denk wel dat de bredere ideologie die je van Thiel krijgt, feitelijk is: we zijn klaar met de democratie, we hebben die niet meer nodig. We hebben zoveel dat we gewoon onze eigen kleine bunkers willen bouwen. We hebben niet meer te maken met de Carnegies of de Rockefellers, waar het slechteriken zijn, maar ze vinden dat ze moeten deelnemen aan een sociaal contract en dingen moeten bouwen voor mensen. Er is sprake van een echt nihilisme.

En ik denk dat het gewoon een wederzijds versterkende spiraal is geweest in de recente Amerikaanse geschiedenis waarin moguls en particuliere bedrijven superregeringsmacht hebben verworven, terwijl democratische instellingen die hen ter verantwoording zouden kunnen roepen, zijn uitgehold. Ik ben niet optimistisch over het idee dat die jongens op een dag misschien wakker worden en denken: "Huh, misschien moeten we misschien wel meedoen aan de samenleving en helpen dingen voor mensen op te bouwen."

Ik bedoel, je lijkt op het microkosmische voorbeeld van The Giving Pledge, waar er een moment was waarop het liefdadigheid leek te zijn, en dat moment is nu voorbij en zelfs belachelijk gemaakt. Dat is een probleem, het bredere probleem van het gebrek aan verantwoordelijkheid dat volgens mij alleen extrinsiek kan worden opgelost. Dat moeten kiezers zijn die de macht van het overheidstoezicht mobiliseren en nieuw leven inblazen. En je hebt helemaal gelijk als je zegt dat de belangrijkste vector waarmee mensen dat misschien kunnen bereiken lokaal is. Het heeft te maken met waar infrastructuur wordt gebouwd. 

U noemde een deel van de gloeiende spanning hieromheen die tot geweld en bedreigingen leidt, en het is duidelijk dat niemand gewelddadig of bedreigend mag zijn. En ik ben hier ook niet om specifieke beleidsaanbevelingen te doen, behalve om slechts enkele beleidsstappen te presenteren die fundamenteel lijken en elders in de wereld werken, toch? Of degenen die in andere sectoren hebben gewerkt. Ik ben hier niet om te zeggen welke daarvan moeten worden uitgevoerd en hoe.

Ik denk dat er iets moet gebeuren, en dat moet extern gebeuren, en niet alleen maar vertrouwen in deze bedrijven. Want juistnu hebben we een situatie waarin de bedrijven die de technologie ontwikkelen en het beste zijn toegerust om de risico's te begrijpen, en die ons in feite waarschuwen voor de risico's, ook degenen zijn met niets anders dan een stimulans om snel te werk te gaan en die risico's te negeren. En je hebt gewoon niets om dat tegen te gaan. Dus wat voor hervormingen er ook nodig zijn in termen van details, daar moet iets tegenaan lopen. En ik keer nog steeds terug naar dat optimisme dat de mensen er nog steeds toe doen.

Over het algemeen accepteer ik uw argument. Laat mij nog één klein tegenargument maken dat ik denk te kunnen verwoorden. Het andere dat buiten de stembus kan gebeuren, is dat de bel knapt, toch? Dat niet al deze bedrijven de eindstreep halen, en dat er geen productmarkt is die geschikt is voor AI-toepassingen voor consumenten. En nogmaals, ik zie het nog niet helemaal, maar ik ben een consumententechnologierecensent en misschien heb ik gewoon hogere normen dan alle anderen.

Er is een product-market fit in de zakenwereld, toch? Het lijkt een echte markt voor deze tools te zijn als een stel AI-agenten een heleboel software schrijven. En je kunt de argumenten van deze bedrijven lezen die zeggen: "We hebben codering opgelost, en dat betekent dat we alles kunnen oplossen. Als we software kunnen maken, kunnen we alle problemen oplossen."

Ik denk dat er echte grenzen zijn aan de dingen die software kan doen. Dat is geweldig in de zakenwereld. Software kan in werkelijkheid niet elk probleem oplossen, maar ze moeten er wel komen. Ze moeten de klus afmaken, en misschien haalt niet iedereen de finish. En er is een crash, en deze zeepbel knapt, en misschien gaat OpenAI of Anthropic of xAI, een van deze bedrijven failliet, en gaan al deze investeringen verloren.

Denkt u dat dit hier invloed op heeft? Laat ik eigenlijk eerst de eerste vraag stellen. OpenAI staat aan de vooravond van een beursintroductie. Er zijn veel twijfels over Sam als leider. Denk jij dat ze de finish gaan halen?

Ik ga geen voorspellingen doen, maar ik denk dat u een belangrijk punt naar voren brengt, namelijk dat marktprikkels intern van belang zijn voor Silicon Valley, en dat de onzekerheid van de huidige zeepbeldynamiek de, opnieuw, potentieel, volgens critici, potentieel kan onderbreken op het gebied van veiligheid.

Ik zou daar ook aan willen toevoegen: als je kijkt naar historische voorrang waar sprake is van een vergelijkbare en schijnbaar ondoordringbare reeks marktprikkels en potentieel schadelijke effecten voor het publiek, is er sprake van impactgeschillen. En dat zie je de laatste tijd als een punt van zorg. Sam Altman is deze week aanwezig om wetgeving goed te keuren die AI-bedrijven zou beschermen tegen enkele van de soorten aansprakelijkheid waaraan OpenAI bijvoorbeeld is blootgesteld in rechtszaken wegens onrechtmatige dood. Natuurlijk bestaat er een verlangen om dat schild tegen aansprakelijkheid te hebben.

Ik denk dat de rechtbanken nog steeds een betekenisvol mechanisme kunnen zijn, en het zal heel interessant zijn om te zien hoe deze rechtszaken vorm krijgen. Je zag bijvoorbeeld al de class action-rechtszaak, waarvan ik en vele, vele andere auteurs die ik ken lid zijn, tegen Anthropic vanwege hun gebruik van boeken waarop auteursrecht rustte. Als er slimme juridische geesten en eisers zijn die erom geven, zoals we historisch gezien hebben in zaken van grote tabak tot grote energie, kun je ook wat vangrails krijgen en wat prikkels om op die manier te vertragen, voorzichtig te zijn of mensen te beschermen.

Het voelt alsof de hele kostenstructuur van de AI-industrie afhankelijk is van een zeer liefdadige interpretatie van eerlijk gebruik. Komt niet genoeg naar voren. De kostenstructuur van deze bedrijven zou uit de hand kunnen lopen als ze jou en alle anderen van wie ze werk hebben afgenomen, moeten betalen, maar het is lastig om over na te denken, dus we denken er gewoon niet over na. Daarnaast draaien al deze producten nu met verlies. Net als vandaag draaien ze allemaal verlies. Ze verbranden meer geld dan ze kunnen verdienen. Op een gegeven moment moeten ze de knop omzetten.

Sam is een zakenman. Zoals je al meerdere keren hebt gezegd, is hij geen technoloog. Hij is een zakenman. Denk je dat hij klaar is om de schakelaar om te zetten en te zeggen: “We gaan een dollar verdienen?” Want als ik vraag: “Denk je dat OpenAI het gaat redden?” Het is wanneer ze een dollar moeten verdienen. En tot nu toe heeft Sam al zijn geld verdiend door andere mensen om hun geld te vragen in plaats van zijn bedrijven geld te laten verdienen.

Welnu, dat is een grote vraag voor Silicon Valley, voor investeerders, voor het publiek.Je ziet enkele uitspraken en bewegingen uit OpenAI die daarover een soort paniek lijken te uiten. Sora afsluiten, een aantal ondersteunende projecten afsluiten, proberen zich te concentreren op het kernproduct. Maar aan de andere kant zie je tegelijkertijd nog steeds heel veel missie-griep, toch? Zelfs een klein voorbeeld – het is duidelijk niet de kern van hun bedrijf – is de overname van TBPN.

Trouwens, net op het moment dat we de eindstreep bereikten en de feiten controleerden, verwerft het bedrijf dat met dit soort journalistieke controle wordt geconfronteerd een platform waar ze meer directe controle over het gesprek kunnen hebben. Ik denk dat er veel investeerders zijn die, op basis van de gesprekken die ik heb gevoerd, zich zorgen maken dat dit probleem van het beloven van alles aan alle mensen zich ook uitstrekt tot dit gebrek aan focus in het kernbedrijfsmodel. En ik bedoel, jij bent dichter bij het soort voorspellen en kijken naar de markt dan ik waarschijnlijk. Ik laat het aan jou en de luisteraars over om te beoordelen of zij denken dat OpenAI de schakelaar kan omdraaien. 

Nou, ik stelde de vraag omdat je een citaat in het stuk hebt van een senior Microsoft-manager, en die luidt: “Sams nalatenschap zou uiteindelijk meer op Bernie Madoff of Sam Bankman-Fried kunnen lijken”, in plaats van op Steve Jobs. Dat is nogal een vergelijking. Wat vond je van die vergelijking?

Ik denk dat dat een parafrase is. Het Steve Jobs-gedeelte maakte geen deel uit van het citaat. Maar er zit een interessant soort nuchterheid in, omdat het wordt geformuleerd als: “Ik denk dat er een kleine maar reële kans is dat hij uiteindelijk een SBF of een oplichter op Madoff-niveau wordt.” Dit betekent naar mijn mening niet dat Sam wordt beschuldigd van deze specifieke vormen van fraude of misdaden, maar dat de mate van huichelarij en bedrog van Sam een ​​kans kan hebben om uiteindelijk op die schaal herinnerd te worden.

Ja, ik denk dat het meest opvallende aan dat citaat, eerlijk gezegd, is dat je bij Microsoft belt en niet zoiets krijgt als: "Dat is gek. Dat hebben we nog nooit gehoord." Je krijgt veel van: "Ja, veel mensen hier denken dat", wat opmerkelijk is. En ik denk dat het wel degelijk gaat om deze zakelijke vragen. 

Eén investeerder vertelde me bijvoorbeeld, in het licht van de manier waarop deze eigenschap is blijven bestaan in de jaren na het ontslag” – en deze vond dit ook een interessante, nuchtere gedachte – dat het niet noodzakelijkerwijs is dat Sam helemaal onderaan de lijst zou moeten staan, en dat hij de laagste van de laagste zou moeten zijn in termen van de mensen die deze technologie absoluut niet mogen bouwen, voor wat het waard is. Er zijn verschillende mensen die zeiden dat Elon Musk die persoon is. Maar dat deze eigenschap hem misschien onderaan de lijst plaatst van mensen die deze technologie absoluut niet mogen bouwen. zou AGI moeten bouwen, en onder een aantal andere leidende figuren op dit gebied.

Dus ik vond dat een interessante beoordeling, en dat is het soort denken dat je denk ik krijgt van de echte pragmatici die zich misschien niet zo druk maken over de veiligheidsproblemen. Ze zijn gewoon op groei gericht en denken dat OpenAI nu een probleem heeft met Sam Altman.

Het Microsoft-stuk is echt interessant. Dat bedrijf dacht dat ze aan de top van de wereld stonden. Dat ze deze investering hadden gedaan en dat ze iedereen, vooral en vooral Google, zouden overslaan en weer in de goede gratie van de consument zouden komen. Het niveau waarop ze zich verbrand voelen door dit avontuur – dit is een heel sober geleid bedrijf – kan volgens mij niet genoeg worden benadrukt.

Je noemde de karakters en de persoonlijkheidskenmerken. Ik wil hier eindigen met een vraag van onze luisteraars. Ik zei in onze andere show, The Vergecast, dat ik met je ging praten, en ik zei: "Als je vragen hebt voor Ronan over dit verhaal, laat het me dan weten." Dus we hebben er hier een waarvan ik denk dat deze goed aansluit bij wat je beschrijft. Ik ga het je even voorlezen:

“Hoe verschillen de rechtvaardigingen voor slecht gedrag en moordende acties van Altman en andere AI-leiders van de rechtvaardigingen die Ronan heeft gehoord van andere spraakmakende leiders in de politiek en de media? Rechtvaardigen ze niet allemaal hun daden door te zeggen dat dit de manier is waarop de wereld verandert? Als ik dit niet doe, doet iemand anders het dan?”

Ja, daar gaan er veel van rond. Ik zou zeggen dat het onderscheidende kenmerk van AI is dat de existentiële inzet die zo uniek hoog is, betekent dat beide risicoverklaringen extreem zijn, toch? Je hebt Sam Altmanzeggende: "Dit zou voor ons allemaal het licht kunnen zijn." En critici zouden ook kunnen zeggen dat de manie waar de vraagsteller naar verwijst extreem is, toch? 

Waar Sam Elon officieel van beschuldigde, was dat hij misschien de mensheid wil redden, maar alleen als hij het is. Het soort egocomponent van willen winnen, een frame dat Sam voortdurend gebruikt, en dat dit er eentje is voor in de geschiedenisboeken, zou alles kunnen veranderen. Dus zelfs afgezien van de ‘je moet een paar eieren breken’-mentaliteit van de meeste ondernemingen in Silicon Valley, bestaat er, denk ik, in de hoofden van sommige leiders van AI een volledige rationalisatie voor alle gevolgen.

En vergeet het breken van eieren. Ik denk dat veel van de onderliggende veiligheidsonderzoekers zouden zeggen dat ze mogelijk het risico lopen het land te breken, de wereld te breken en miljoenen mensen te breken wier baan en veiligheid op het spel staan ​​– dat is wat er uniek aan is. Dat is waar ik afsluit, nadenkend over deze hoeveelheid berichtgeving, in de overtuiging dat dit over meer gaat dan alleen Sam Altman. Dit gaat over een industrie die geen beperkingen kent en het zich steeds verder uitbreidende probleem dat Amerika niet in staat is deze aan banden te leggen.

Ja. Nou, we hadden daar wat optimisme, maar ik denk dat dit een goede plek is om het te verlaten.

[Lacht] Eindig op een downbeat.

Natuurlijk. Dat is eigenlijk elk geweldig verhaal. Het Musk-Altman-proces komt eraan. Ik denk dat we hier nog veel meer gaan leren. Ik vermoed dat ik je nog een keer wil spreken. Ronan Farrow, heel erg bedankt dat je op Decoder zit.

Bedankt.

Vragen of opmerkingen over deze aflevering? Neem contact met ons op via [email protected]. Wij lezen echt elke e-mail!

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free