I dag på Decoder snakker jeg med Ronan Farrow, en av de største stjernene innen etterforskningsrapportering som jobber i dag. Han brøt historien om Harvey Weinstein, blant mange, mange andre. Og bare forrige uke publiserte han og medforfatter Andrew Marantz et utrolig dypdykk i The New Yorker om OpenAI-sjef Sam Altman, hans pålitelighet og fremveksten av OpenAI selv. 

En merknad før vi går videre her – The New Yorker publiserte den historien og Ronan og jeg hadde denne samtalen før vi visste det fulle omfanget av angrepene på Altmans hjem, så du vil ikke høre oss snakke om det direkte. Men bare for å si det, jeg tror vold av noe slag er uakseptabelt, disse angrepene på Sam var uakseptable, og at den typen hjelpeløshet som folk føler, som fører til denne typen vold, i seg selv er uakseptabel, og det er verdt mye mer gransking fra både industrien og våre politiske ledere. Jeg håper det er klart.

Verge-abonnenter, ikke glem at du får eksklusiv tilgang til annonsefri dekoder hvor enn du får podcastene dine. Gå hit. Ikke abonnent? Du kan registrere deg her.

Når det er sagt, er det mye som svirrer rundt Altman som er rettferdig spill for streng rapportering - den typen rapportering Ronan og Andrew satte seg fore å gjøre. Takket være populariteten til ChatGPT, har Altman dukket opp som den mest synlige galjonsfiguren i AI-industrien, etter å ha forvandlet et en gang nonprofit forskningslaboratorium til et privat selskap på nesten billioner dollar på bare noen få år. Men myten om Altman er dypt motstridende, like definert både av hans åpenbare dealmaking-evne og hans rapporterte tendens til å … vel, lyve for alle rundt ham.

Historien er over 17 000 ord lang, og den inneholder uten tvil den definitive beretningen om hva som skjedde i 2023 da OpenAI-styret veldig plutselig sparket Altman på grunn av hans påståtte løgn, bare for at han nesten umiddelbart skulle bli ansatt på nytt. Det er også et dypdykk i Altmans personlige liv, hans investeringer, hans frieri til penger fra Midtøsten og hans egne refleksjoner over hans tidligere oppførsel og karaktertrekk som førte til at en kilde sa at han var «uhindret av sannheten». Jeg foreslår virkelig at du leser hele historien; Jeg mistenker at det vil bli referert til i mange år fremover. 

Ronan snakket med Altman mange ganger i løpet av de 18 månedene han brukte på å rapportere dette stykket, og så en av de viktigste tingene jeg var nysgjerrig på var om han ante noen forandring i Altman i løpet av den tiden. Det har tross alt skjedd mye innen AI, innen teknologi og i verden det siste halvannet året.

Du vil høre Ronan snakke om det veldig direkte, så vel som hans følelse av at folk har blitt mye mer villige til å snakke om Altmans evne til å strekke sannheten. Folk begynner å lure på, høyt og på posten, om oppførselen til folk som Altman er bekymrende, ikke bare for AI eller teknologi, men også for samfunnets kollektive fremtid.

Ok: Ronan Farrow om Sam Altman, AI og sannheten. Her går vi. 

Dette intervjuet er lett redigert for lengde og klarhet. 

Ronan Farrow, du er en undersøkende reporter og bidragsyter til The New Yorker. Velkommen til Decoder.

Glad for å være her. Takk for at du har meg.

Jeg er veldig spent på å snakke med deg. Du har nettopp skrevet et stort stykke for The New Yorker. Det er en profil av Sam Altman og, på en måte, OpenAI. Min lesning av den er at, som alle flotte funksjoner gjør, den, med streng rapportering, bekrefter mange følelser folk har hatt om Sam Altman i veldig lang tid. Du har tydeligvis publisert det, du har fått reaksjoner på det. Hvordan har du det akkurat nå?

Vel, jeg har faktisk blitt oppmuntret av i hvilken grad det er brutt gjennom i en tid der oppmerksomhetsøkonomien er så slags schizofren og grunn. Dette er en historie som etter mitt syn påvirker oss alle. Og når jeg brukte et og et halvt år av livet mitt, og min medforfatter, Andrew Marantz, også brukte den tiden hans på å virkelig prøve å gjøre noe rettsmedisinsk og grundig, er det alltid fordi jeg føler at det er større strukturelle problemer som påvirker mennesker utenfor individet og selskapet i hjertet av historien. 

Sam Altman, på bakgrunn av Silicon Valley-hype-kulturen og startups som ballongerer til massive verdivurderinger basert på løfter som kanskje eller ikke kan skje i fremtiden, og en økende omfavnelse av en grunnleggerkultur som mener å fortelle forskjellige grupper forskjellige motstridende ting er en funksjon, ikke enfeil...Selv mot det bakteppet er Sam Altman en ekstraordinær sak der alle i Silicon Valley som forventer slike ting, ikke kan slutte å snakke om dette spørsmålet om hans pålitelighet og ærlighet. 

Vi visste allerede at han ble sparket på grunn av en eller annen versjon av påstander om uærlighet eller seriell påstått løgn. Men ekstraordinært, til tross for at det har vært fantastisk rapportering, har Keach Hagey gjort et godt arbeid med dette. Karen Hao har gjort et godt arbeid med dette. Det var virkelig ikke en definitiv forståelse av de faktiske påståtte bevispunktene og årsakene til at de har holdt seg utenfor offentligheten. 

Så punkt nummer én er at jeg føler meg oppmuntret av det faktum at noen av disse hullene i vår offentlige kunnskap, og til og med kunnskapen til Silicon Valley-innsidere, nå har blitt fylt litt mer. Noen av årsakene til at det var hull har blitt fylt ut litt mer.

Vi rapporterer om tilfeller der personer i dette selskapet virkelig følte at ting ble dekket til eller bevisst ikke dokumentert. En av de nye tingene i denne historien er en sentral advokatfirmaundersøkelse utført av WilmerHale, som åpenbart er et fancy, troverdig, stort advokatfirma som gjorde undersøkelser av Enron og WorldCom, som forresten alle var omfangsrike, som hundrevis av sider publisert. WilmerHale gjorde denne etterforskningen som ble krevd av styremedlemmer som hadde sparket Altman som betingelse for at de skulle gå av da han ble kvitt dem, og han kom tilbake. Og ekstraordinært – i øynene til mange juridiske eksperter jeg snakket med, og sjokkerende nok i øynene til mange mennesker i dette selskapet – holdt de det ute av skrift. Alt som kom ut av det var en pressemelding på 800 ord fra OpenAI som beskrev det som skjedde som et sammenbrudd i tilliten. Og vi bekreftet at dette ble holdt til muntlige orienteringer.

Det er tilfeller der for eksempel et styremedlem tilsynelatende ønsker å stemme mot konverteringen fra OpenAIs opprinnelige ideelle skjema til en for-profit enhet, og det er registrert som avholdenhet. Det er som en advokat i møtet som sier: "Vel, det kan utløse for mye gransking." Og den som ønsker å stemme mot blir registrert som avholdende ved alle opptredener. Det er en saklig tvist. OpenAI hevder noe annet, som du kanskje kan forestille deg. Dette er alle tilfeller der du har et selskap som etter egen regning holder fremtiden vår i sine hender. 

Sikkerhetsinnsatsene er så akutte at de ikke har gått bort. Dette er grunnen til at dette selskapet ble grunnlagt som en ideell organisasjon med fokus på sikkerhet, og hvor ting ble tilslørt på en måte at troverdige mennesker rundt dette fant det mindre enn profesjonelle. Og du kobler det sammen med et bakteppe der det er så liten politisk appetitt på meningsfull regulering. Jeg tror det er en veldig brennbar situasjon. 

Poenget for meg er ikke bare at Sam Altman fortjener disse spørsmålene så akutt. Det er også at noen av disse gutta i dette feltet, og mange av nøkkelfigurene, viser, om ikke denne spesielle idiosynkratiske, påståtte løgn-hele tiden-egenskapen, absolutt en viss grad av en race-to-the-bot-mentalitet, der menneskene som var sikkerhetsfolk har vannet ned disse forpliktelsene og alle-er-i-et-løp holdning.

Jeg tror, ​​når vi ser på nylige lekkasjer fra Anthropic, er det en person som stiller spørsmålet om hvem som skal ha fingeren på knappen i dette stykket. Svaret er, hvis vi ikke har meningsfull tilsyn, tror jeg vi må stille seriøse spørsmål og prøve å få frem så mye informasjon som mulig om alle disse gutta. Så jeg har blitt oppmuntret av det som føles som en meningsfull samtale om det, eller begynnelsen på en.

Grunnen til at jeg spurte det på den måten er at du jobbet med dette i halvannet år. Du snakket med, tror jeg, 100 mennesker med medforfatteren din, Andrew. Det er lang tid for en historie å lage mat. Jeg tenker spesielt på det siste og et halvt året i AI, og gutt, har holdningene og verdiene til alle disse karakterene endret seg veldig raskt. 

Kanskje ingen mer enn Sam Altman, som startet som standardvinneren fordi de hadde gitt ut ChatGPT og alle trodde det bare ville ta over for Google. Og så svarte Google, noe som så ut til å overraske dem at Google ville prøve å beskytte virksomheten sin, kanskje en av de beste virksomhetene i teknologihistorien, om ikke forretningshistorien. Anthropic bestemte seg for å fokusere på bedriften. Det ser ut til å ta en ledende ledelseder fordi bedriftens bruk av AI er så høy.

Nå omfokuserer OpenAI produktet sitt bort fra "vi skal ta på Google" til Codex, og de kommer til å ta på seg bedriften. Jeg kan bare ikke helt si om det i løpet av rapporteringen din det siste halvannet året føles som om karakterene du snakket med har endret seg? I likhet med deres holdninger og verdier, endret disse seg?

Ja. Jeg tror først og fremst at kritikken som utforskes i dette stykket, som kommer fra mange mennesker i disse selskapene på dette tidspunktet – at dette er en bransje som, til tross for de eksistensielle innsatsene, faller ned i noe av et kappløp mot bunnen når det gjelder sikkerhet og hvor hastigheten overtrumfer alt annet – den bekymringen har blitt mer akutt. Og jeg tror disse bekymringene har blitt mer bekreftet ettersom det siste og et halvt året har skjedd. Samtidig har holdningene til Sam Altman spesifikt endret seg. Da vi begynte å snakke med kilder for dette, var folk veldig, virkelig skeptiske til å bli sitert om dette og gå på posten om dette.

Ved slutten av rapporteringen vår har du en rapportsamling der folk snakker om dette veldig åpent og eksplisitt, og du har styremedlemmer som sier ting som: "Han er en patologisk løgner. Han er en sosiopat." Det er en rekke perspektiver fra, "Dette er farlig gitt sikkerhetsinnsatsene, og vi trenger ledere av denne teknologien som har økt integritet," hele veien opp for å like, "Glem sikkerhetsinnsatsene, dette er oppførsel som er uholdbar for enhver leder i et stort selskap, at det bare skaper for mye dysfunksjon."

Så samtalen har blitt mye mer eksplisitt på en måte som føles kanskje forsinket, men som er oppmuntrende på en måte. Og Sam Altman, til hans ære... Stykket er veldig rettferdig og til og med sjenerøst, vil jeg si, for Sam. Dette er ikke den typen stykke hvor det var mye "har du"-ting. Jeg brukte mange, mange timer på telefonen med ham mens vi avsluttet dette og hørte ham virkelig. 

Som du kan forestille deg, i et stykke som dette kommer ikke alt inn. Noen av tilfellene i denne var fordi jeg lyttet oppriktig. Og hvis Sam faktisk kom med et argument om at jeg følte at det ble båret vann, at noe, selv om det var sant, kunne være oppsiktsvekkende, tok jeg virkelig feil på siden av å holde dette rettsmedisinske og målt. Så jeg tror det blir mottatt på riktig måte, og jeg håper bare at denne faktaopplysningen som har akkumulert over denne tidsperioden kan utløse en mer oppmuntrende samtale om behovet for tilsyn.

Det er faktisk mitt neste spørsmål. Jeg tror du snakket med Sam et dusin ganger i løpet av rapporteringen av denne historien. Igjen, det er mange samtaler over lang tid. Trodde du Sam endret seg i løpet av rapporteringen det siste halvannet året?

Ja. Jeg tror en av de mest interessante subplottene i dette er at Sam Altman også snakker om denne egenskapen mer eksplisitt enn han har gjort tidligere. Holdningen til Sam i dette stykket er ikke som: "Det er ingenting der, dette er ikke sant; jeg vet ikke hva du snakker om." Holdningen han har er at han sier dette kan tilskrives en tendens til å glede seg over folk og en slags konfliktaversjon. Han erkjenner at det skapte problemer for ham, spesielt tidligere i karrieren.

Han sier: "Vel, jeg beveger meg forbi det, eller har til en viss grad gått forbi det." Jeg tror det som virkelig er interessant for meg er kontingenten av mennesker vi snakket med som ikke bare var slags sikkerhetsforkjempere, ikke bare de underliggende tekniske forskerne som veldig ofte har en tendens til å ha disse akutte sikkerhetsproblemene, men også pragmatiske, store investorer. De er støttespillere for Sam, som i noen tilfeller ser på dette spørsmålet og snakker om at han til og med har spilt en nøkkelrolle i at han kom tilbake etter skytingen. Nå, på dette spørsmålet om han er reformert, og i hvilken grad er denne endringen meningsfull, sier de: "Vel, vi ga ham fordelen av tvilen den gangen."

Jeg tenker spesielt på en fremtredende investor som sa: «Men siden da virker det klart at han ikke ble tatt ut bak vedskjulet», som var uttrykket denne brukte, i den grad det var nødvendig. Som et resultat ser det ut til at dette nå er en stabil egenskap. Vi ser dette på en kontinuerlig måte. Du kan se på noen av OpenAIs største virksomheterrelasjoner og måten de på en måte bærer vekten av den mistilliten på en kontinuerlig måte. 

Som med Microsoft, snakker du med ledere der borte, og de har virkelig akutte og nylig katalyserte bekymringer. Det er dette tilfellet der, samme dag som OpenAI bekrefter sin eksklusivitet med Microsoft med hensyn til underliggende statsløse AI-modeller, kunngjør det også en ny avtale med Amazon som har å gjøre med salg av bedriftsløsninger for å bygge AI-agenter som er stateful, noe som betyr at de har minne.

Du snakker med Microsoft-folk, og de sier: "Det er ikke mulig å gjøre uten å samhandle med de underliggende tingene som vi har en eksklusivitetsavtale om." Så det er bare ett av mange små eksempler hvor denne egenskapen har slynger i pågående forretningsaktivitet hele tiden og er et tema for aktiv bekymring i OpenAIs styre, i dens ledergruppe og i det bredere teknologimiljøet.

Du fortsetter å si den "egenskapen". Det er en linje i historien som for meg føles som oppgaven, og det er en beskrivelse av egenskapen du beskriver. Det er at "Sam Altman er ubegrenset av sannheten" og at han har "to trekk som nesten aldri sees hos samme person: den første er et sterkt ønske om å behage folk, å bli likt i en gitt interaksjon, og den andre er en nesten sosiopatisk mangel på bekymring for konsekvensene som kan komme av å lure noen."

Jeg må fortelle deg at jeg leste den setningen 500 ganger, og jeg prøvde å forestille meg å alltid si hva folk ville bli likt og så ikke bli opprørt når de følte seg løyet for. Og jeg kunne ikke få min følelsesmessige tilstand til å forstå hvordan disse tingene kan eksistere i samme person. Du har snakket mye med Sam, og du har snakket med folk som har opplevd disse egenskapene. Hvordan gjør han det?

Ja. Det er interessant på et menneskelig nivå fordi jeg nærmer meg rapporteringsorganer som dette med et reelt fokus på å menneskeliggjøre hvem som er i hjertet av det og søke dyp forståelse og empati. Da jeg på en måte prøvde å nærme meg dette fra et mer menneskelig ståsted og si: "Hei, dette ville vært ødeleggende for meg hvis så mange mennesker jeg har jobbet med sa at jeg er en patologisk løgner. Hvordan bærer du den vekten? Hvordan snakker du om det i terapi? Hva er historien du forteller deg selv om det?"

Jeg fikk en slags, etter mitt syn, kanskje vestkysten floskler om det som, "Ja, jeg liker pustearbeid." Men ikke mye av den slags oppmuntrende følelse av dyp selvkonfrontasjon som jeg tror mange av oss sannsynligvis ville hatt hvis vi så denne typen tilbakemeldinger om vår oppførsel og vår behandling av mennesker.

Jeg tror det faktisk gjelder det bredere svaret på spørsmålet også. Sam hevder at denne egenskapen har forårsaket problemer, men også at det er en del av det som har gitt ham kraft til å akselerere OpenAIs vekst så mye at han er i stand til å forene og glede forskjellige grupper av mennesker. Han overbeviser hele tiden alle disse motstridende valgkretsene om at det de bryr seg om er det han bryr seg om. Og det kan være en veldig nyttig ferdighet for en grunnlegger. Jeg har snakket med investorer som så sier: "Vel, kanskje det er en mindre nyttig ferdighet for å faktisk drive et selskap fordi det sår så mye splid."

Men på den personlige siden av Sam, tror jeg at det jeg oppfatter når jeg prøver å koble til på et menneskelig nivå, er den tilsynelatende mangelen på dypere konfrontasjon, refleksjon og selvansvar, som også informerer om den supermakten eller ansvaret for et selskap som forbereder seg på en børsnotering.

Han er en person som, med ordene til et tidligere styremedlem ved navn Sue Yoon, som er med i stykket og sier at til et punkt av "fecklessness" er uttrykket hun bruker, er i stand til å virkelig tro på den skiftende virkeligheten til salgsargumentene hans eller er i stand til å overbevise seg selv om dem. Eller i det minste hvis han ikke tror på dem, er han i stand til å blåse gjennom dem uten meningsfull tvil på seg selv.

Jeg tror at tingen du snakker om, der du eller jeg kan, mens vi sier tingen og innser at den er i konflikt med den andre forsikringen vi har gitt, på en måte har et øyeblikk til å fryse eller sjekke oss selv. Jeg tror det ikke skjer med ham. Og det er en bredere Silicon Valley-hypekultur og grunnleggerkultur som på en måte omfavner det.

Det er morsomt. The Verge er bygget på hva som utgjør en produktanmeldelserprogram. Det er hjertet av det vi gjør her. Jeg har en trillion dollar med Apple FoU en gang i året og sier: «Denne telefonen er en sjuer». Og det legitimerer liksom all vår rapportering og våre meninger andre steder. Vi har en evaluerende funksjon, og vi bruker så mye tid på å bare se på AI-produktene og si: «Fungerer de?»

Det føles som om det mangler i mye av samtalen om AI slik det er i dag. Det er uendelige samtaler om hva det kan være i stand til å gjøre, hvor farlig det kan være. Og så borer du ned, og du sier: "Gjør den faktisk det den skal gjøre i dag?" I noen tilfeller er svaret ja. Men i mange, mange tilfeller er svaret nei.

Det føles som om det henger sammen med hypekulturen du beskriver og også til følelsen av at, vel, hvis du sier at det kommer til å gjøre noe og det ikke gjør det, og noen føler seg dårlig, er det greit fordi vi er inne på neste ting. Det er i fortiden. Og spesielt innen AI er Sam så god til å gjøre de store løftene.

Akkurat denne uken, tror jeg, samme dag som historien din ble publisert, ga OpenAI ut et policydokument som sa at vi må revurdere den sosiale kontrakten og ha AI-effektivitetsstipend fra regjeringen. Dette er et stort løfte om hvordan noe teknologi kan forme fremtiden til verden og hvordan vi lever, og alt dette er avhengig av at teknologien fungerer akkurat slik som den kanskje er lovet å fungere eller den burde fungere. 

Fant du noen gang at Sam tviler på AI blir til AGI eller superintelligens eller kommer til målstreken? For det er det jeg lurer mest på. Er det noen refleksjon om hvorvidt denne kjerneteknologien kan gjøre alle tingene de sier den kan gjøre?

Det er akkurat det rette settet med spørsmål. Det er troverdige teknologer som vi snakket med i denne rapporten – og Sam Altman er åpenbart ikke en; han er en forretningsmann - som sier at måten Sam snakker om tidslinjen for denne teknologien på er rett og slett langt unna. Det er blogginnlegg som går noen år tilbake der Sam sier: "Vi har allerede nådd hendelseshorisonten. AGI er i utgangspunktet her. Superintelligens er rundt hjørnet. Vi kommer til å være på andre planeter. Vi skal kurere alle former for kreft." Sannelig, jeg pynter ikke. 

Kreften er faktisk interessant, at Sam hyper opp personen som teoretisk kurerte hundens kreft med ChatGPT, og det skjedde rett og slett ikke. De snakket med ChatGPT, og det hjalp dem med å veilede noen forskere som faktisk gjorde arbeidet, men det en-til-en, dette verktøyet som kurerte denne hunden er faktisk ikke historien.

Jeg er glad for at du tok opp det punktet, for jeg vil gå videre til dette større punktet om når både potensialet og risikoen ved teknologien virkelig kommer til å gi seg. Men det er verdt å nevne disse små sidene som stadig skjer fra Sam Altman, hvor han ser ut til å legemliggjøre denne egenskapen på nytt. 

Jeg mener, for å bruke eksempelet med WilmerHale-rapporten, hvor vi hadde denne informasjonen som var holdt utskrevet, og ønsket å vite om den muntlige briefen underveis ble gitt til andre enn de to styremedlemmene Sam var med å installere for å føre tilsyn med den. Og han sa: "Ja, ja, nei, jeg tror det ble gitt til alle som ble med i styret etterpå." Og vi har en person med direkte kjennskap til situasjonen som sier at det rett og slett er løgn. Og det ser virkelig ut til å være tilfelle, at det er usant. Hvis vi ønsker å være rause, ble han kanskje feilinformert. 

Det er mange av disse tilfeldige forsikringene. Og jeg bruker det eksemplet delvis fordi det er et godt eksempel på demontering, la oss kalle det, som kan få reelle konsekvenser juridisk. Jeg trenger ikke å fortelle deg, i henhold til Delaware-selskapslovgivningen, hvis dette selskapets børsnoteringer, kan aksjonærer, i henhold til paragraf 220, klage på dette og kreve underliggende dokumentasjon. Det er allerede styremedlemmer som sier ting som "Vel, vent litt, den orienteringen burde ha skjedd."

Så disse tingene som ser ut til å hoppe ut av munnen hans hele tiden, de kan ha virkelige markedseffekter, virkelige effekter for OpenAI. For å bringe det tilbake til den typen utopiske hypespråk som dukket opp igjen, tror jeg ikke tilfeldig den dagen dette stykket kom ut, at det også påvirker oss alle, fordi farene er så akutte med hensyn til måten det er på.blir utplassert i våpen, måten den brukes til å identifisere kjemiske krigføringsmidler, desinformasjonspotensialet, og på grunn av måten den utopiske hypen ser ut til å få mange troverdige økonomer til å si: "Dette har alle tegn til en boble."

Selv Sam Altman har sagt: "Noen kommer til å tape mye penger her." Det kan virkelig kratere mye amerikansk og global økonomisk vekst, hvis det er som en ekte punktering av en boble som involverer alle disse selskapene som gjør avtaler med hverandre, går all in på AI mens de låner så mye. Så hva Sam Altman sier betyr noe, og jeg tror overvekten av folk rundt ham, du nevnte at vi snakket med mer enn hundre, det var faktisk godt over hundre. Vi hadde en samtale på målstreken der det er som: "Ville det være for smålig å si at det er et så mye høyere tall?" Og vi sa: "Ja, la oss bagatellisere. Vi skal spille det kult." Men det var så mange mennesker og et så betydelig flertall av dem som sa: "Dette er en bekymring." Og jeg tror det er alt derfor.

La meg spørre deg om det nummeret. Som du nevnte, ble folk mer og mer åpne med bekymringene ettersom tiden gikk. Det føles som om presset rundt boblen – kappløpet om å vinne, å betale ned all denne investeringen, å stå frem som vinneren, til børsnotering – har endret mange holdninger. Det skapte absolutt mer press på Sam og OpenAI.

Vi publiserte en historie denne uken om vibbene til OpenAI. Historien din er en del av den, men massive bemanningsendringer i lederrekkene hos OpenAI – folk kommer og går. Forskerne er alle på vei, stort sett til Antropisk, som jeg synes er veldig interessant. Du kan bare se at dette selskapet føler presset, og det reagerer på det presset på en eller annen måte.

Men så tenker jeg tilbake på at Sam fikk sparken. Dette er bare minneverdig for meg. Det er minneverdig for ingen andre, men jeg tok et kildeanrop i Bronx Zoo klokken 19 på en fredag, og det var noen som sa at de skulle prøve å få Sam tilbake. Og så brukte vi helgen på å jage den historien ned. Og jeg var akkurat som: "Jeg er i dyrehagen. Hva vil du at jeg skal gjøre her?" Og svaret var: "Hold deg på telefonen." Vel, datteren min sa, "Slå av telefonen." Og det var det jeg gjorde. 

Det var ride or die å få Sam tilbake. Det selskapet var som: "Nei, vi lar ikke styret sparke Sam Altman." Investorene, de er sitert i innlegget ditt, "Vi gikk i krig," tror jeg, er Thrive Capital-posisjonen, "for å få Sam tilbake." Microsoft gikk til krig for å få Sam tilbake. Det er senere, og nå sier alle: "Vi skal til børsnotering. Vi kom til målstreken. Vi fikk tilbake fyren vår, og han kommer til å få oss til målstreken. Vi er bekymret for at han er en løgner." 

Hvorfor var det en krig å få ham tilbake da? For det virker ikke som om noe faktisk har endret seg. Du snakker om notatene som Ilya Sutskever og [Antropisk administrerende direktør] Dario Amodei holdt mens de var samtidige med Sam Altman. Ilyas største bekymring var at Sam er en løgner.

Ingenting av det har endret seg. Så hvorfor var det krig å bringe ham tilbake da? Og nå som vi er i mål, virker det som om alle bekymringene er ute i det åpne.

Vel, først av alt, beklager til datteren din og partneren min og alle de andre menneskene rundt journalistene. 

[ler] Det var litt av en helg for alle.

Ja, det tar over ens liv, og denne historien har definitivt mitt, i løpet av den siste tiden. Det relaterer seg faktisk til dette temaet journalistikk og tilgang til informasjon, tror jeg. Investorene som gikk til krig for Sam og alle spilte en rolle i å sørge for at han kom tilbake, og styret som var spesielt designet for å beskytte en ideell organisasjons oppdrag om å sette sikkerhet over vekst og sparke en leder hvis de ikke kunne stole på det, de gikk bort. Det var alt fordi, ja, markedsincentivene var der, ikke sant?

Sam var i stand til å overbevise folk: "Vel, selskapet kommer bare til å falle fra hverandre." Men grunnen til at han hadde støtte var mangel på informasjon. Disse investorene, i mange tilfeller, sier nå: "Jeg ser tilbake, og jeg tror jeg burde ha hatt flere bekymringer hvis jeg hadde visst fullt ut hva kravene var og hva bekymringene var."

Ikke alle av dem;meningene varierer, og vi siterer en rekke meninger, men det er betydelige meninger som handlet på svært delvis informasjon. Brettet som sparket Sam var, med ordene til en person som pleide å være på brettet, "veldig JV", og de fomlet ballen hardt. Og vi dokumenterer de underliggende klagene, og folk kan selv bestemme om det akkumuleres til den typen presserende bekymring de følte det var, men det argumentet og den informasjonen ble ikke presentert.

De mottok det noen av dem nå anerkjenner som dårlige juridiske råd. For å beskrive det, vil du huske sitatet, og sannsynligvis vil mange av dine lyttere og seere huske sitatet som en mangel på åpenhet. Det var det det ble redusert til, og da ville de egentlig ikke ta samtaler.

De ville ikke ta samtaler. Jeg er sikker på at du prøvde. Alle jeg kjenner prøvde, og det kom til et punkt hvor du som journalist ikke skal gi kildene dine råd, men jeg tenkte: "Dette vil forsvinne hvis du ikke begynner å forklare deg selv."

Og det var det som skjedde. Glem journalister. Du fikk Satya Nadella til å si: "Hva i helvete skjedde? Jeg kan ikke få noen til å forklare meg." Og det er selskapets viktigste økonomiske støttespiller. Og så har du Satya som ringer [LinkedIn-medgründer] Reid Hoffman og Reid ringer rundt og sier: "Jeg vet ikke hva faen som skjedde." 

De er forståelig nok i det tomrommet av informasjon, og leter etter de tradisjonelle ikke-AI-indikatorene som vil rettferdiggjøre en så akutt, plutselig avfyring. Som, ok, var det sexforbrytelser? Var det underslag? Og hele det subtile, men jeg synes meningsfylte argumentet om at denne teknologien er annerledes og at denne typen jevn opphopning av mindre svik kan ha meningsfulle innsatser både for denne virksomheten og kanskje for verden, gikk stort sett tapt. Så kapitalistiske insentiver vant frem, men også menneskene som gjorde det gikk ut og opererte ikke alltid med fullstendig informasjon.

Jeg vil bare spørre om «hva alle trodde det var»-aspektet et øyeblikk, fordi jeg så absolutt nyhetene, og jeg sa: «Å, noe ille må ha skjedd.» Du har gjort mye #MeToo-rapportering, kjent. Du brøt historien om Harvey Weinstein. 

Du brukte mye tid på å rapportere om disse påstandene som jeg tror du bestemte var til slutt grunnløse: at Altman overfalt mindreårige seksuelt eller leide sexarbeidere, eller til og med myrdet en OpenAI-varsler. Jeg mener, du er den personen som kan rapportere dette mest strengt. Bestemte du deg for at det ikke ble noe av?

Vel, se, jeg er ikke i bransjen med å si at noe har blitt til ingenting. Det jeg kan si er at jeg brukte måneder på å se på disse påstandene og fant ikke bekreftelse for dem. Og det var slående for meg at disse gutta, disse selskapene som har så mye makt over fremtiden vår, virkelig bruker uforholdsmessig mye tid og ressurser i en barnslig gjørmekamp.

En leder beskriver det som "Shakespeare". Mengden privatetterforskerpenger og opposisjonssakene som samles er nådeløs. Og det uheldige er at den typen slemme ting, som blir etterfulgt av Sams konkurrenter, bare antas som fakta, ikke sant? Det er denne påstanden om at han forfølger mindreårige gutter, og på mange cocktailfester i Silicon Valley hører du dette. På konferansekretsen har jeg bare hørt det gjentatt av troverdige, fremtredende ledere: "Alle vet at dette er et faktum."

Det triste er at jeg snakker om hvor dette kommer fra, de forskjellige vektorene som det overføres med. Elon Musk og hans medarbeidere driver tilsynelatende hardcore-saker som på en eller annen måte utgjør ingenting. De er dampende når du faktisk begynner å se på de underliggende påstandene. Det triste er at det virkelig tilslører den mer evidensbaserte kritikken her som jeg mener virkelig fortjener presserende tilsyn og vurdering.

Det andre temaet som virkelig kommer gjennom i historien er nesten en følelse av frykt for at Sam har så mange venner - han har investert i så mange selskaper fra sin forrige rolle som administrerende direktør i Y Combinator, bare til hans personlige investeringer, hvorav noen er i direkte konflikt med rollen hans som administrerende direktør i OpenAI - og det er stillhet rundt ham.

Det slo meg da jeg leste en linje spesielt. Du beskriver Ilya Sutskevers notater, og de er nettopp ute i Silicon Valley. Alle sammenkaller dem Ilya-memoene. Men det er til og med stillhet rundt det. De blir sendt rundt, men de blir ikke diskutert. Hvor tror du det kommer fra? Er det frykt? Er det et ønske om å få engelinvestering? Hvor kommer det fra?

Jeg synes det er mye feighet, skal jeg være ærlig. Etter å ha rapportert om nasjonale sikkerhetshistorier der kildene er varslere som står til å tape alt og står overfor straffeforfølgelse, gjør de fortsatt det rette og snakker om ting for å skape ansvarlighet. Jeg har jobbet med de sexkriminalitetsrelaterte historiene du nevnte, der kilder er dypt traumatiserte og frykter en veldig personlig form for gjengjeldelse. 

I mange tilfeller rundt denne beaten har du å gjøre med mennesker med sin egen profil og makt. De er enten kjente mennesker selv, eller de er omgitt av kjente mennesker. De har robuste forretningsliv. Etter mitt syn er det faktisk veldig lav eksponering for dem å snakke om dette. Og heldigvis beveger nålen seg som vi snakket om tidligere, og folk snakker nå mer.

Men i så lang tid har folk egentlig bare holdt kjeft om det fordi jeg tror Silicon Valley-kulturen bare er så hensynsløst egeninteressert og hensynsløst forretnings- og vekstorientert. Så jeg tror dette rammer til og med noen av menneskene som var involvert i å sparke Sam, der du så i dagene etter, ja, en faktor som førte til at han kom tilbake og sparkingen av gamle styremedlemmer var at han samlet investorer som var forvirret til hans sak. 

Men en annen er at så mange andre mennesker rundt det som hadde bekymringene og ytret dem raskt, bare brettet som servietter og endret melodi i det øyeblikket de så at vinden blåste den andre veien, og de ville inn i profitttoget. 

Det er ganske mørkt, ærlig talt, fra mitt ståsted som reporter.

Noen av disse menneskene er Mira Murati, som, tror jeg, i 20 minutter var den nye administrerende direktøren for OpenAI. Hun ble deretter erstattet. Det var en veldig komplisert dynamikk, og åpenbart kom Sam tilbake. Den andre personen er Ilya Sutskever, som var en av stemmene for å fjerne Sam, og så ombestemte han seg, eller sa i det minste at han ombestemte seg, og så dro han for å starte sitt eget selskap. Vet du hva som fikk ham til å ombestemme seg? Var det bare penger?

Vel, og for å være tydelig, jeg trekker ikke disse to ut. Det er andre styremedlemmer som var involvert i skytingen som også ble veldig stille etter. Jeg tror det er som et større kollektivt problem. Dette er, i noen tilfeller, mennesker som hadde moralsk fiber til å slå alarm og ta radikale grep, og det skal berømmes. Og det er slik du sikrer ansvarlighet. Det kunne ha hjulpet mange mennesker som er berørt av denne teknologien. Det kunne ha hjulpet en bransje til å forbli mer meningsfullt sikkerhetsfokusert.

Men når du arbeider med varslere og folk som prøver å påkalle den ansvarligheten mye, ser du også at det krever fiber å stikke det ut og stå ved din overbevisning. Og denne bransjen er virkelig full av mennesker som bare ikke står ved sin overbevisning.

Selv om de tror at de bygger en digital Gud som på en eller annen måte enten vil eliminere all arbeidskraft eller skape mer arbeidskraft, eller noe vil skje.

Vel, det er tingen. Så kulturen med å ikke stå ved din overbevisning og alle etiske bekymringer som faller i veien i det øyeblikket det er varme eller noe som kan true din egen stilling i bransjen, er kanskje vel og bra til en viss grad for business-as-usual-selskaper som lager hvilken som helst type widget.

Men dette er også de samme menneskene som sier: "Dette kan bokstavelig talt drepe oss alle." Og igjen, du trenger ikke å gå til Terminator Skynet-ekstremiteten. Det er et sett med risikoer som allerede materialiserer seg. Det er ekte, og de har rett i å advare om det, men du må få en annen lenestol til å psykologisere hvordan de to tingene kan leve i de samme menneskene der de varsler de påtrengende advarslene, de kanskje setter en tå inn og prøver å gjøre noe, og så bretter de seg og blir stille. 

Det er nettopp derfor du kan ha slike tilfeller av at ting holdes ute av skrift og at ting blir feid under teppet, og ingen snakker åpent om det i årevis etterpå.

Den naturlige, ansvarlige parten her ville ikke være administrerende direktører i disse selskapene; det ville være regjeringer. I USA, kanskjedet er statlige myndigheter, kanskje det er den føderale regjeringen. 

Disse selskapene ønsker absolutt å være globale. Det er mange globale implikasjoner her. Jeg så OpenAI, Google og Anthropic alle motiverte Biden-administrasjonen til å gi ut en AI-ordre. Det ble ganske tannløst til slutt. Den sa bare at de måtte snakke om hva modellene deres var i stand til og gi ut noen sikkerhetstesting. Og så støttet de alle Trump, og Trump kom inn og utslettet alt dette og sa: «Vi må være konkurransedyktige. Det er gratis for alle. Gå for det.»

Samtidig prøver de alle å skaffe midler fra land i Midtøsten som har massevis av oljepenger og ønsker å endre økonomiene sine. Det er politikere. Jeg føler at politikere definitivt burde forstå at noen snakker ut fra begge sider av munnen deres, og de kommer ikke til å bli for opprørt hvis noen blir skuffet til slutt, men politikerne blir også tatt på tur. Hvorfor tror du det er det?

Dette er virkelig, tror jeg, hvorfor stykket er viktig i mitt syn og hvorfor det var verdt å bruke all denne tiden og detaljene på. Vi er i et miljø der systemene som, som du sier, burde gi tilsyn, bare er uthulet. Det er et post-Citizens United America, hvor pengestrømmen er så uhemmet, og det er en spesiell konsentrasjon av det problemet rundt AI, der det er disse PAC-ene som sprer seg og oversvømmer penger til å avbryte meningsfull regulering på både statlig og føderalt nivå.

Du har [OpenAI-medgründer] Greg Brockman, Sams nestkommanderende, som direkte bidrar på en viktig måte til et par av disse. Det fører til en situasjon der det virkelig er fangst av lovgivere og potensielle regulatorer, og det er en vanskelig spiral å komme seg ut av. Det triste er at jeg tror at det er enkle politiske grep, hvorav noen blir prøvd andre steder i verden, som vil hjelpe med noen av disse ansvarlighetsproblemene.

Du kan ha mer obligatorisk sikkerhetstesting før utplassering, noe som allerede skjer i Europa for frontmodeller. Du kunne ha strengere krav til skriftlig offentlig journal for den typen interne undersøkelser der vi så at ting ble holdt utskrevet i denne saken. Du kunne ha et mer robust sett med nasjonale sikkerhetsrevisjonsmekanismer for den typen Midtøsten-infrastrukturambisjoner som Sam Altman presset på. 

Som du sier, han gjorde dette agnet og byttet med Biden-administrasjonen, og sa: "Reguler oss, reguler oss," og hjalp dem med å lage en eksekutiv ordre, og så i det øyeblikket Trump kommer inn, virkelig de første dagene, bare stoppet, "La oss akselerere og la oss bygge et massivt datasentercampus i Abu Dhabi." Du kunne ha, dette er veldig enkelt, som varslerbeskyttelse. Det er ingen føderal lov som beskytter ansatte i AI-selskaper som avslører slike sikkerhetsproblemer som blir luftet i dette stykket.

Vi har tilfeller der Jan Leike, som var senior sikkerhetsmann i OpenAI, ledet super alignment i selskapet. Han skriver til styret, i hovedsak varslere, og sier at selskapet går av sporet på sitt sikkerhetsoppdrag. Det er slike mennesker som faktisk burde ha et tilsynsorgan de kan gå til, og de bør ha eksplisitt lovfestet beskyttelse av den typen vi ser i andre sektorer. Dette er enkelt å gjenskape et regime i Sarbanes-Oxley-stil.

Jeg tror at til tross for hvor akutt problemet er med at Silicon Valley tar kontroll over alle maktspakene, og til tross for hvor uthulte noen av disse institusjonene som kan gi tilsyn og autovern er, tror jeg fortsatt på den grunnleggende matematikken om demokrati og selvinteresserte politikere. Og det dukker opp flere og flere meningsmålingsdata som et flertall av amerikanere tror at bekymringene, spørsmålene eller risikoene ved AI for tiden oppveier fordelene.

Så jeg tror flommen av penger til politikk fra AI, det er innenfor all vår makt å gjøre det til en kilde til et spørsmålstegn med hensyn til politikere. Når amerikanere går for å stemme, bør de undersøke om menneskene de stemmer på, spesielt hvis de er ukritiske og anti-regulering, gitt alle disse bekymringene, er bankrolled av store tekniske spesialinteresser. Så jeg tror at hvis folk kan lese stykker som dette, lytte til podcaster som dette og bry seg nok til å tenke kritisk omderes beslutninger som velgere, er det en reell mulighet til å generere en valgkrets i Washington av representanter som holder øye med og tvinger tilsyn.

Det kan være noe av det mest optimistiske jeg noen gang har hørt noen si om den nåværende AI-industrien. Jeg setter pris på det. Jeg er besatt av meningsmålingen du snakker om. Det er mye av det nå. Det hele er ganske konsekvent, og det ser ut som at jo flere unge, spesielt, blir utsatt for AI, jo mer mistillit og sint er de på grunn av det. Det er valensen til alle meningsmålingene. Og jeg ser på det, og jeg tror, ​​vel, ja, smarte politikere ville bare kjørt mot det. De ville bare si: "Vi kommer til å holde stor teknologi ansvarlig." 

Så tenker jeg på de siste 20 årene, en politiker som sa at de kommer til å holde store teknologier ansvarlige, og jeg sliter med å finne enda et øyeblikk med stor teknologi som blir holdt ansvarlig. Det eneste som får meg til å tro at dette kan være annerledes er, vel, du må faktisk bygge datasentrene, og du kan stemme mot det, og du kan begjære mot det, og du kan protestere mot det.

Jeg tror det er en politiker som nettopp ble skutt på huset sitt fordi de stemte på et datasenter. Spenningen er i ferd med å nå, vil jeg kalle det, et febernivå. Du har beskrevet øyområdet til Silicon Valley. Dette er et lukket økosystem. Det føles som om de tror de kan styre verden. De legger massevis av penger i politikken, og de møter realiteten at folk ikke elsker produktene, noe som ikke gir dem mye dekning. Jo mer de bruker produktene, desto mer opprørt er de, og politikerne begynner å se at det er reelle konsekvenser å støtte teknologiindustrien fremfor menneskene de representerer. 

Du har snakket med så mange mennesker. Tror du det er mulig for teknologiindustrien å lære leksjonen som ligger rett foran dem?

Du sier det føles som om de tror de kan styre verden uten ansvar. Jeg tror ikke engang det trenger "føles som"-kvalifiseringen. Jeg mener, du ser på språket Peter Thiel bruker, det er eksplisitt. Selvfølgelig er det et ekstremt eksempel. Og Sam Altman, selv om han er nær med og informert om Thiels ideologi til en viss grad, er en helt annen type person som kan høres annerledes ut og mer avmålt til et visst punkt. 

Men jeg tror den bredere ideologien du får fra Thiel, som i utgangspunktet er: Vi er ferdige med demokratiet, vi trenger det ikke lenger. Vi har så mye at vi bare vil bygge våre egne små bunkere. Vi har ikke å gjøre med Carnegies lenger eller Rockefellers lenger, der de er slemme gutter, men de føler at de trenger å delta i en sosial kontrakt og bygge ting for folk. Det er en ekte nihilisme som er satt inn.

Og jeg tror det bare har vært en gjensidig forsterkende spiral i nyere amerikansk historie med moguler og private selskaper som skaffet seg superstatlig makt mens demokratiske institusjoner som kan holde dem ansvarlige, er uthulet. Jeg føler meg ikke optimistisk med tanke på ideen om at de gutta bare kan våkne opp en dag og tenke: "Hæ, faktisk trenger vi kanskje å delta i samfunnet og bidra til å bygge ting for folk."

Jeg mener, du ser på som det mikrokosmiske eksemplet på The Giving Pledge, hvor det var et øyeblikk hvor det så ut til å være veldedig, og det øyeblikket er nå forbi og til og med latterliggjort. Det er et problem, det bredere problemet med mangel på ansvarlighet som jeg tror bare kan løses eksternt. Det må være velgere som mobiliserer og gjenoppliver makten til regjeringens tilsyn. Og du har helt rett i å si at hovedvektoren som folk kanskje kan oppnå det er lokal. Det har å gjøre med hvor infrastrukturen bygges. 

Du nevnte noe av den hvite spenningen rundt dette som fører til vold og trusler, og åpenbart bør ingen være voldelige eller truende. Og jeg er heller ikke her for å komme med spesifikke politiske anbefalinger annet enn å bare presentere noen av de politiske trinnene som virker grunnleggende og fungerer andre steder i verden, ikke sant? Eller de som har jobbet i andre sektorer. Jeg er ikke her for å si hvilke av disse som skal henrettes og hvordan.

Jeg tror noe må skje, og det må være eksternt, ikke bare stole på disse selskapene. Fordi rettnå har vi en situasjon der selskapene som utvikler teknologien og er best rustet til å forstå risikoene, og faktisk er de som advarer oss om risikoen, også er de som ikke har annet enn insentiv til å gå raskt og ignorere disse risikoene. Og du har bare ikke noe som motvirker det. Så uansett hva reformer måtte ta i form av spesifikke detaljer, må noe møte det. Og jeg vender fortsatt tilbake til den optimismen om at folk fortsatt betyr noe.

Jeg kjøper generelt argumentet ditt. La meg bare komme med det ene lille motargumentet som jeg tror jeg kan artikulere. Den andre tingen som kan skje utenfor valgurnen er at boblen spretter, ikke sant? At ikke alle disse selskapene kommer i mål, og at det ikke er et produktmarked som passer for forbruker-AI-applikasjoner. Og igjen, jeg ser det ikke helt ennå, men jeg er en teknisk anmelder, og kanskje har jeg bare høyere standarder enn alle andre.

Det er produktmarkedstilpasning i næringslivet, ikke sant? Å la en haug med AI-agenter skrive en haug med programvare ser ut til å være et reelt marked for disse verktøyene. Og du kan lese argumentene fra disse selskapene som sier: "Vi har løst koding, og det betyr at vi kan løse hva som helst. Hvis vi kan lage programvare, kan vi løse alle problemer."

Jeg tror det er reelle grenser for hva programvare kan gjøre. Det er flott i næringslivet. Programvare kan ikke løse alle problemer i virkeligheten, men de må komme dit. De måtte fullføre jobben, og kanskje ikke alle kommer i mål. Og det er et krasj, og denne boblen spretter, og kanskje OpenAI eller Anthropic eller xAI, et av disse selskapene mislykkes, og all denne investeringen forsvinner.

Tror du det vil påvirke dette? La meg faktisk stille det første spørsmålet først. OpenAI er rett på randen av en børsnotering. Det er mye tvil om Sam som leder. Tror du de kommer til å komme i mål?

Jeg skal ikke prognostisere, men jeg tror du tar opp et viktig poeng, som er at markedsinsentiver har en intern betydning for Silicon Valley, og usikkerheten til den nåværende bobledynamikken kan avbryte, igjen, potensielt, ifølge kritikere, kappløpet mot bunnen når det gjelder sikkerhet.

Jeg vil også legge til det, hvis du ser på historisk forrang der det er et lignende og tilsynelatende ugjennomtrengelig sett med markedsinsentiver og potensielt skadelige effekter for publikum, er det rettstvister for konsekvenser. Og du ser det som et bekymringsområde i det siste. Sam Altman er der ute denne uken og støtter lovgivning som vil beskytte AI-selskaper fra noen av de typer ansvar som OpenAI har blitt utsatt for i urettmessige dødssøksmål, for eksempel. Selvfølgelig er det et ønske om å ha det skjoldet fra ansvar.

Jeg tror at domstolene fortsatt kan være en meningsfull mekanisme, og det vil være veldig interessant å se hvordan disse draktene former seg. Du har allerede sett for eksempel gruppesøksmålet, som jeg og mange, mange andre forfattere jeg kjenner er medlemmer av, mot Anthropic for deres bruk av bøker som var under copyright. Hvis det er smarte juridiske hoder og saksøkere som bryr seg, som vi historisk sett har sett i saker fra stor tobakk til stor energi, kan du også få noen rekkverk og noen insentiver til å bremse ned, være forsiktig eller beskytte folk på den måten.

Det føles som om hele kostnadsstrukturen til AI-industrien henger på en veldig, veldig veldedig tolkning av rettferdig bruk. kommer ikke opp nok. Kostnadsstrukturen til disse selskapene kan komme ut av kontroll hvis de må betale deg og alle andre hvis arbeid de har tatt, men det er upraktisk å tenke på, så vi tenker bare ikke på det. Rett ved siden av går alle disse produktene nå med tap. Som i dag går de alle med tap. De brenner mer penger enn de kan tjene. På et tidspunkt må de snu bryteren.

Sam er en forretningsmann. Som du har nevnt flere ganger, er han ikke en teknolog. Han er en forretningsmann. Tror du han er klar til å snu bryteren og si: «Vi skal tjene en dollar?» For når jeg spør, "tror du OpenAI kommer til å klare det?" Det er når de må tjene en dollar. Og så langt har Sam tjent alle dollarene sine ved å be andre mennesker om pengene deres i stedet for at selskapene hans tjener penger.

Vel, det er et stort dvelende spørsmål for Silicon Valley, for investorer, for publikum.Du ser noen uttalelser og trekk ut av OpenAI som ser ut til å vise en slags panikk om det. Legger ned Sora, stenger ned noen hjelpeprosjekter, prøver å nullstille kjerneproduktet. Men på den annen side ser du fortsatt tonnevis av oppdragskrypning, ikke sant? Selv et lite eksempel - det er åpenbart ikke kjernen i virksomheten deres - er TBPN-oppkjøpet.

Forresten, akkurat da vi var i mål og faktasjekket, får selskapet som står overfor denne typen journalistisk gransking en plattform der de kan ha mer direkte kontroll over samtalen. Jeg tror at det er mange investorer som er bekymret, basert på samtalene jeg har hatt, at dette problemet med å love alle ting til alle mennesker også strekker seg til denne mangelen på fokus i kjerneforretningsmodellen. Og jeg mener, du er nærmere den typen prognostisering og se på markedet enn jeg sannsynligvis er. Jeg lar deg og lytterne bedømme om de tror OpenAI kan slå bryteren. 

Vel, jeg stilte spørsmålet fordi du har et sitat i stykket fra en senior Microsoft-leder, og det er at "Sams arv kan ende opp mer lik Bernie Madoff eller Sam Bankman-Fried," i stedet for Steve Jobs. Det er litt av en sammenligning. Hva syntes du om den sammenligningen?

Jeg tror det er en parafrase. Steve Jobs-delen var ikke en del av sitatet. Men det er en interessant form for nøkternhet ved det fordi det er formulert som "Jeg tror det er en liten, men reell sjanse for at han ender opp med å bli en SBF eller en svindler på Madoff-nivå." Det betyr, etter min mening, ikke at Sam blir anklaget for de spesifikke typene svindel eller forbrytelser, men at graden av demontering og bedrag fra Sam kan ha en sjanse for til slutt å bli husket i den skalaen.

Ja, jeg tror det som er mest slående med det sitatet, ærlig talt, er at du ringer rundt hos Microsoft og du ikke får et like, "Det er galskap. Vi har aldri hørt det." Du får mange sånne som: "Ja, mange mennesker her tror det", som er bemerkelsesverdig. Og jeg tror det går til disse forretningsspørsmålene. 

En investor fortalte meg, for eksempel, i lys av måten denne egenskapen har vedvart i årene etter avfyringen» – og dette syntes også dette var en interessant nøktern tanke – at det ikke nødvendigvis er at Sam skal være på den absolutte bunnen av listen, som burde være den laveste av de lave når det gjelder menneskene som absolutt ikke må bygge denne teknologien, for hva det er flere mennesker som er verdt som Elon. plasserer ham kanskje nederst på listen over personer som bør bygge AGI, og under flere andre ledende skikkelser på dette feltet.

Så jeg syntes det var en interessant vurdering, og det er den typen tenkning jeg tror du får fra de virkelige pragmatikere som kanskje ikke er like opptatt av sikkerhetsproblemene. De er bare vekstorienterte, og de tror at OpenAI nå har et problem med Sam Altman.

Microsoft-stykket er veldig interessant. Det selskapet trodde de var på toppen av verden. At de hadde gjort denne investeringen og at de skulle hoppe over alle, spesielt og viktigst av alt, Google, og komme tilbake til forbrukernes gode nåde. Nivået de føler seg brent til av dette eventyret – dette er et veldig nøkternt drevet selskap – tror jeg ikke kan overvurderes.

Du nevnte karakterene og personlighetstrekkene. Jeg vil avslutte her med et spørsmål fra lytterne våre. Jeg sa i vårt andre show, The Vergecast, at jeg skulle snakke med deg, og jeg sa: "Hvis du har spørsmål til Ronan om denne historien, gi meg beskjed." Så vi har en her som jeg synes stemmer godt overens med det du beskriver. Jeg skal bare lese den for deg:

«Hvordan skiller begrunnelsene for dårlig oppførsel, grusomme handlinger til Altman og andre AI-ledere seg fra begrunnelsene Ronan har hørt fra andre høyprofilerte ledere i politikk og media? Rettferdiggjør ikke de alle handlingene sine ved å si at det er slik verden endres? Hvis jeg ikke gjør dette, vil noen andre gjøre det?»

Ja, det er mye av det som går rundt. Jeg vil si at det som er karakteristisk for AI er at den eksistensielle innsatsen er så unikt høy betyr at begge risikoutsagnene er ekstreme, ikke sant? Du har Sam Altmanog sa: "Dette kan være lys ut for oss alle." Og også, kan kritikere si, manien som spørsmålsstilleren sikter til er ekstrem, ikke sant? 

Det som Sam anklaget Elon for, var at han kanskje ønsker å redde menneskeheten, men bare hvis det er ham. Den typen ego-komponent av å ville vinne, som er en innramming Sam bruker hele tiden, og at dette er en for historiebøkene, dette kan endre alt. Så derfor, selv utover "du må knekke noen egg"-tankegangen til de fleste Silicon Valley-bedrifter, er det, i hodet til noen skikkelser som leder AI, tror jeg, en fullstendig rasjonalisering for ethvert nedfall.

Og glem å knuse egg. Jeg/tror mange av de underliggende sikkerhetsforskerne vil si at de potensielt risikerer å knuse landet, knuse verden og knuse millioner av mennesker hvis jobb og sikkerhet henger på vei – det er det som er unikt med det. Det er der jeg avslutter, reflekterer over denne rapporten, og tror virkelig at dette handler om mer enn Sam Altman. Dette handler om en industri som er ubegrenset og et spiralproblem med at Amerika ikke er i stand til å begrense den.

Ja. Vel, vi hadde litt optimisme der, men jeg tror det er et bra sted å forlate det.

[Ler] Avslutt på en downbeat.

Selvfølgelig. Det er hver stor historie, egentlig. Musk-Altman-rettssaken er forestående. Jeg tror vi kommer til å lære mye mer her. Jeg mistenker at jeg vil snakke med deg igjen. Ronan Farrow, tusen takk for at du er på Decoder.

Takk.

Spørsmål eller kommentarer om denne episoden? Ta kontakt med oss ​​på [email protected]. Vi leser virkelig hver e-post!

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free