I dag på Decoder taler jeg med Ronan Farrow, en af ​​de største stjerner inden for efterforskningsrapportering, der arbejder i dag. Han brød historien om Harvey Weinstein, blandt mange, mange andre. Og netop i sidste uge offentliggjorde han og medforfatter Andrew Marantz et utroligt dybt dyk i The New Yorker om OpenAI CEO Sam Altman, hans troværdighed og fremkomsten af ​​OpenAI selv. 

En bemærkning, før vi går videre her - The New Yorker offentliggjorde den historie, og Ronan og jeg havde denne samtale, før vi vidste det fulde omfang af angrebene på Altmans hjem, så du vil ikke høre os tale direkte om det. Men bare for at sige det, så tror jeg, at vold af enhver art er uacceptabel, disse angreb på Sam var uacceptable, og at den form for hjælpeløshed, som folk føler, som fører til denne form for vold, i sig selv er uacceptabel, og det er værd at undersøge meget mere fra både industrien og vores politiske ledere. Jeg håber det er klart.

Verge-abonnenter, glem ikke, at du får eksklusiv adgang til annoncefri dekoder, uanset hvor du får dine podcasts. Gå hertil. Ikke abonnent? Du kan tilmelde dig her.

Når det er sagt, er der meget, der svirrer omkring Altman, som er fair game for streng rapportering - den slags rapportering Ronan og Andrew satte sig for at lave. Takket være populariteten af ​​ChatGPT er Altman dukket op som den mest synlige galionsfigur i AI-industrien, efter at have forvandlet et tidligere nonprofit forskningslaboratorium til en næsten trillion-dollar privat virksomhed på få år. Men myten om Altman er dybt modstridende, ligeligt defineret både af hans åbenlyse evne til at indgå aftaler og hans rapporterede tendens til at … ja, lyve for alle omkring ham.

Historien er over 17.000 ord lang, og den indeholder uden tvivl den definitive beretning om, hvad der skete i 2023, da OpenAI-bestyrelsen meget pludselig fyrede Altman på grund af hans påståede løgn, kun for at han næsten øjeblikkeligt kunne blive genansat. Det er også et dybt dyk ned i Altmans personlige liv, hans investeringer, hans frieri til penge fra Mellemøsten og hans egne refleksioner over hans tidligere adfærd og karaktertræk, der fik en kilde til at sige, at han var "ubegrænset af sandheden." Jeg foreslår virkelig, at du læser hele historien; Jeg formoder, at det vil blive refereret i mange år fremover. 

Ronan talte med Altman mange gange i løbet af de 18 måneder, han brugte på at rapportere dette stykke, og så en af ​​de vigtigste ting, jeg var nysgerrig efter, var, om han fornemmede nogen forandring i Altman i løbet af den tid. Der er trods alt sket meget i AI, i tech og i verden i løbet af det seneste halvandet år.

Du vil høre Ronan tale meget direkte om det, såvel som hans fornemmelse af, at folk er blevet meget mere villige til at tale om Altmans evne til at strække sandheden. Folk er begyndt at spekulere på, højt og på journalen, om adfærden hos folk som Altman er bekymrende, ikke kun for AI eller teknologi, men også for samfundets kollektive fremtid.

Okay: Ronan Farrow om Sam Altman, AI og sandheden. Her går vi. 

Dette interview er blevet let redigeret for længde og klarhed. 

Ronan Farrow, du er en undersøgende reporter og bidragyder til The New Yorker. Velkommen til Decoder.

Glad for at være her. Tak for at have mig.

Jeg er meget spændt på at tale med dig. Du har lige skrevet et stort stykke til The New Yorker. Det er en profil af Sam Altman og sådan set også OpenAI. Min læsning af det er, at, som alle fantastiske funktioner gør, det, med streng rapportering, validerer en masse følelser, folk har haft om Sam Altman i meget lang tid. Du har åbenbart udgivet det, du har fået reaktioner på det. Hvordan har du det med det lige nu?

Nå, jeg er faktisk blevet opmuntret af, i hvor høj grad det er brudt igennem i en tid, hvor opmærksomhedsøkonomien er så skizofren og overfladisk. Dette er en historie, der efter min mening påvirker os alle. Og når jeg brugte halvandet år af mit liv, og min medforfatter, Andrew Marantz, også brugte sin tid på virkelig at prøve at gøre noget retsmedicinsk og omhyggeligt, er det altid, fordi jeg føler, at der er større strukturelle problemer, der påvirker mennesker ud over individet og virksomheden i hjertet af historien. 

Sam Altman, på baggrund af Silicon Valley-hypekultur og startups, der ballonerer til massive værdiansættelser baseret på løfter, der måske eller måske ikke vil blive indfriet i fremtiden, og en stigende omfavnelse af en grundlæggerkultur, der mener, at fortælle forskellige grupper forskellige modstridende ting er en funktion, ikke enfejl...Selv på den baggrund er Sam Altman en ekstraordinær sag, hvor alle i Silicon Valley, der forventer disse ting, ikke kan stoppe med at tale om dette spørgsmål om hans troværdighed og hans ærlighed. 

Vi vidste allerede, at han blev fyret på grund af en eller anden version af beskyldninger om uærlighed eller seriel påstået løgn. Men ekstraordinært, på trods af at der har været en vidunderlig rapportering, har Keach Hagey gjort et fantastisk arbejde med dette. Karen Hao har gjort et stort arbejde med dette. Der var virkelig ikke en endelig forståelse af de faktiske påståede bevispunkter og årsagerne til, at de har holdt sig ude af offentligheden. 

Så punkt nummer et er, at jeg føler mig opmuntret af det faktum, at nogle af disse huller i vores offentlige viden, og endda i viden hos Silicon Valley-insidere, nu er blevet udfyldt en lille smule mere. Nogle af årsagerne til, at der var huller, er blevet udfyldt lidt mere.

Vi rapporterer om tilfælde, hvor personer i denne virksomhed virkelig følte, at tingene var dækket over eller bevidst ikke dokumenteret. En af de nye ting i denne historie er en afgørende advokatfirmaundersøgelse foretaget af WilmerHale, som åbenbart er et fancy, troværdigt, stort advokatfirma, der foretog undersøgelser af Enron og WorldCom, som i øvrigt alle var omfangsrige, som hundredvis af offentliggjorte sider. WilmerHale foretog denne undersøgelse, som blev krævet af bestyrelsesmedlemmer, der havde fyret Altman som en betingelse for deres afgang, da han slap af med dem, og han kom tilbage. Og ekstraordinært - i øjnene af mange juridiske eksperter, jeg talte med, og chokerende i øjnene af mange mennesker i denne virksomhed - holdt de det ude af skrift. Det eneste, der nogensinde kom ud af det, var en pressemeddelelse på 800 ord fra OpenAI, der beskrev, hvad der skete, som et sammenbrud i tilliden. Og vi bekræftede, at dette blev holdt til mundtlige orienteringer.

Der er tilfælde, hvor for eksempel et bestyrelsesmedlem tilsyneladende ønsker at stemme imod konverteringen fra OpenAIs oprindelige nonprofit-formular til en for-profit-enhed, og det er registreret som en undladelse. Der er ligesom en advokat i mødet, der siger: "Nå, det kunne udløse for meget kontrol." Og den person, der vil stemme imod, bliver registreret som en afholdenhed ved alle optrædener. Der er en saglig uenighed. OpenAI påstår noget andet, som du måske forestiller dig. Det er alle sager, hvor du har en virksomhed, der for egen regning holder vores fremtid i sine hænder. 

Sikkerhedsindsatsen er så akut, at de ikke er forsvundet. Dette er grunden til, at denne virksomhed blev grundlagt som en nonprofit med fokus på sikkerhed, og hvor tingene blev sløret på en måde, så troværdige mennesker omkring dette fandt det mindre end professionelt. Og du kobler det sammen med en baggrund, hvor der er så lidt politisk appetit på meningsfuld regulering. Jeg synes, det er en meget brændbar situation. 

Pointen for mig er ikke kun, at Sam Altman fortjener disse spørgsmål så akut. Det er også, at enhver af disse fyre i dette felt, og mange af nøglefigurerne, udviser, hvis ikke dette særlige idiosynkratiske, påståede løgn-hele tiden-træk, bestemt en vis grad af en race-to-the-bot-mentalitet, hvor de mennesker, der var sikkerhedsfolk, har udvandet disse forpligtelser og alle-er-i-et-løb holdning.

Jeg tror, ​​at når vi ser på de seneste læk ud af Anthropic, er der en person, der stiller spørgsmålet om, hvem der skal have fingeren på knappen i dette stykke. Svaret er, at hvis vi ikke har meningsfuldt tilsyn, tror jeg, vi skal stille seriøse spørgsmål og forsøge at fremkomme med så meget information, som vi kan, om alle disse fyre. Så jeg er blevet opmuntret af, hvad der føles som en meningsfuld samtale om det, eller begyndelsen på en.

Grunden til, at jeg spurgte det på den måde, er, at du arbejdede på det her i halvandet år. Du talte med, tror jeg, 100 mennesker med din medforfatter, Andrew. Det er lang tid for en historie at lave mad. Jeg tænker især på det sidste halvandet år i AI, og dreng, har holdningerne og værdierne hos alle disse karakterer ændret sig meget hurtigt. 

Måske ingen mere end Sam Altman, der startede som standardvinderen, fordi de havde udgivet ChatGPT, og alle troede, at det bare ville tage over for Google. Og så svarede Google, hvilket så ud til at overraske dem, at Google ville forsøge at beskytte sin virksomhed, måske en af ​​de bedste virksomheder i teknologihistorien, hvis ikke forretningshistorien. Anthropic besluttede, at det ville fokusere på virksomheden. Det ser ud til at tage en ledende ledelseder, fordi virksomhedens brug af AI er så høj.

Nu fokuserer OpenAI sit produkt væk fra "vi skal tage på Google" til Codex, og de vil tage på virksomheden. Jeg kan bare ikke helt sige, om det i løbet af din rapportering i løbet af det sidste halvandet år føles som om de karakterer, du talte med, ændrede sig? Ændrede de sig ligesom deres holdninger og værdier?

Ja. Jeg tror først og fremmest, at den kritik, der udforskes i dette stykke, som kommer fra mange mennesker i disse virksomheder på dette tidspunkt - at dette er en industri, der på trods af de eksistentielle indsatser er ved at falde ned i noget af et kapløb mod bunden med hensyn til sikkerhed, og hvor hastigheden overtrumfer alt andet - den bekymring er blevet mere akut. Og jeg tror, ​​at disse bekymringer er blevet mere bekræftet, efterhånden som det sidste halvandet år er sket. Samtidig har holdningerne til Sam Altman specifikt ændret sig. Da vi begyndte at tale med kilder om dette, var folk virkelig, virkelig bange for at blive citeret om dette og gå på journal om dette.

Ved slutningen af ​​vores rapportering har du en rapportsamling, hvor folk taler om dette meget åbent og eksplicit, og du har bestyrelsesmedlemmer, der siger ting som: "Han er en patologisk løgner. Han er en sociopat." Der er en række perspektiver fra: "Dette er farligt i betragtning af sikkerhedsindsatsen, og vi har brug for ledere af denne teknologi, der har forhøjet integritet," hele vejen op for at kunne lide, "Glem sikkerhedsindsatsen, dette er adfærd, der er uholdbar for enhver leder af enhver større virksomhed, at det bare skaber for meget dysfunktion."

Så samtalen er blevet meget mere eksplicit på en måde, der måske føles forsinket, men som er opmuntrende på én måde. Og Sam Altman, til hans kredit... Stykket er meget retfærdigt og endda generøst, vil jeg sige, for Sam. Dette er ikke den slags stykke, hvor der var en masse "har du"-ting. Jeg tilbragte mange, mange timer i telefonen med ham, mens vi var ved at afslutte dette og virkelig hørte ham. 

Som du kan forestille dig, i et stykke som dette, er det ikke alt, der kommer med. Nogle af de tilfælde i denne var, fordi jeg lyttede oprigtigt. Og hvis Sam faktisk fremførte et argument, som jeg følte, at der blev båret vand, at noget, selvom det var sandt, kunne være sensationelt, tog jeg virkelig fejl ved at holde dette retsmedicinske og afmålt. Så jeg synes, det bliver modtaget rigtigt, og jeg håber bare, at denne faktuelle rekord, der er akkumuleret i løbet af denne periode, kan udløse en mere opmuntrende samtale om behovet for tilsyn.

Det er faktisk mit næste spørgsmål. Jeg tror, ​​du talte med Sam et dusin gange i løbet af rapporteringen af ​​denne historie. Igen, det er mange samtaler over en lang periode. Troede du, at Sam ændrede sig i løbet af rapporteringen i løbet af det sidste halvandet år?

Ja. Jeg tror, ​​at et af de mest interessante underplot i dette er, at Sam Altman også taler om denne egenskab mere eksplicit, end han har gjort tidligere. Sams holdning i dette stykke er ikke som: "Der er intet der, det er ikke sandt; jeg ved ikke, hvad du taler om." Den holdning, han har, er, at han siger, at dette kan tilskrives en tendens til at behage folk og en slags konfliktaversion. Han erkender, at det forårsagede problemer for ham, især tidligere i hans karriere.

Han siger, "Nå, jeg bevæger mig forbi det, eller har i nogen grad bevæget mig forbi det." Jeg tror, ​​at det, der virkelig er interessant for mig, er kontingentet af mennesker, vi talte med, som ikke bare var en slags sikkerhedsfortalere, ikke kun de underliggende tekniske forskere, som meget ofte har en tendens til at have disse akutte sikkerhedsproblemer, men også pragmatiske, store investorer. De er bagmænd for Sam, som i nogle tilfælde ser på dette spørgsmål og taler om selv at have spillet en nøglerolle i hans tilbagevenden efter fyringen. Nu, på spørgsmålet om, hvorvidt han er reformeret, og i hvilket omfang den ændring er meningsfuld, siger de: "Nå, vi gav ham tvivlen dengang."

Jeg tænker især på en fremtrædende investor, der sagde: "Men siden da er det tydeligt, at han ikke blev taget ud bag brændeskuret", hvilket var den sætning, som denne brugte, i det omfang, det var nødvendigt. Som et resultat ser det ud til, at dette nu er en stabil egenskab. Vi ser det løbende. Du kan se på nogle af OpenAIs største forretningerforhold og den måde, de på en måde bærer vægten af ​​den mistillid på på en vedvarende måde. 

Ligesom med Microsoft taler man med ledere derovre, og de har virkelig akutte og nyligt katalyserede bekymringer. Der er dette tilfælde, hvor OpenAI, samme dag som OpenAI bekræfter sin eksklusivitet med Microsoft med hensyn til underliggende statsløse AI-modeller, også annoncerer en ny aftale med Amazon, der har at gøre med salg af virksomhedsløsninger til at bygge AI-agenter, der er stateful, hvilket betyder, at de har hukommelse.

Du taler med Microsoft-folk, og de siger: "Det er ikke muligt uden at interagere med de underliggende ting, som vi har en eksklusivitetsaftale om." Så det er blot et af mange små eksempler, hvor denne egenskab har slyngtråde i løbende forretningsaktiviteter hele tiden og er et emne for aktiv bekymring i OpenAI's bestyrelse, inden for dens executive suite og i det bredere teknologisamfund.

Du bliver ved med at sige det "egenskab". Der er en linje i historien, der for mig føles som specialet, og det er en beskrivelse af det træk, du beskriver. Det er, at "Sam Altman er ubegrænset af sandheden", og at han har "to træk, der næsten aldrig ses hos den samme person: den første er et stærkt ønske om at behage folk, at blive holdt af i enhver given interaktion, og den anden er en næsten sociopatisk mangel på bekymring for de konsekvenser, der kan komme af at bedrage nogen."

Jeg er nødt til at fortælle dig, jeg læste den sætning 500 gange, og jeg prøvede at forestille mig, at jeg altid skulle sige, hvad folk ville kunne lide, og så ikke blive ked af det, når de følte sig løjet for. Og jeg kunne ikke få min følelsesmæssige tilstand til at forstå, hvordan de ting kan eksistere i den samme person. Du har talt meget med Sam, og du har talt med folk, der har oplevet disse træk. Hvordan gør han det?

Ja. Det er interessant på et menneskeligt plan, fordi jeg nærmer mig rapporteringsorganer som denne med et reelt fokus på at menneskeliggøre den, der er i hjertet af det, og søge dyb forståelse og empati. Da jeg på en måde forsøgte at nærme mig dette fra et mere menneskeligt synspunkt og sige: "Hey, det ville være ødelæggende for mig, hvis så mange mennesker, som jeg har arbejdet med, sagde, at jeg er en patologisk løgner. Hvordan bærer du den vægt? Hvordan taler du om det i terapi? Hvad er den historie, du fortæller dig selv om det?"

Jeg fik en slags, efter min mening, måske vestkystens floskler omkring det som, "Ja, jeg kan godt lide åndedrætsarbejde." Men ikke meget af den slags opmuntrende følelse af dyb selvkonfrontation, som jeg tror, ​​mange af os nok ville have, hvis vi så denne slags feedback om vores adfærd og vores behandling af mennesker.

Jeg tror faktisk også, at det går til det bredere svar på spørgsmålet. Sam hævder, at denne egenskab har forårsaget problemer, men også at det er en del af det, der har bemyndiget ham til at accelerere OpenAIs vækst så meget, at han er i stand til at forene og behage forskellige grupper af mennesker. Han overbeviser konstant alle disse modstridende valgkredse om, at det, de bekymrer sig om, er det, han bekymrer sig om. Og det kan være en virkelig nyttig færdighed for en grundlægger. Jeg har talt med investorer, som så siger: "Nå, måske er det en mindre nyttig færdighed til rent faktisk at drive en virksomhed, fordi den sår så meget splid."

Men på Sams personlige side tror jeg, at den ting, jeg opfanger, når jeg forsøger at forbinde på et menneskeligt plan, er den tilsyneladende mangel på dybere konfrontation, refleksion og selvansvarlighed, som også informerer om den supermagt eller ansvar for en virksomhed, der forbereder sig på en børsnotering.

Han er en person, der, med ordene fra et tidligere bestyrelsesmedlem ved navn Sue Yoon, som er med i stykket, der siger, at til et punkt af "fecklessness" er den sætning, hun bruger, virkelig er i stand til at tro på den skiftende virkelighed af hans salgsargumenter eller er i stand til at overbevise sig selv om dem. Eller i det mindste hvis han ikke tror på dem, er han i stand til at blæse igennem dem uden meningsfuld tvivl.

Jeg tror, ​​at den ting, du taler om, hvor du eller jeg måske, mens vi siger tingene og indser, at det er i konflikt med den anden forsikring, vi har givet, på en måde har et øjeblik til at fryse eller tjekke os selv. Det tror jeg ikke sker med ham. Og der er en bredere Silicon Valley-hypekultur og grundlæggerkultur, der på en måde omfavner det.

Det er sjovt. The Verge er bygget på, hvad der svarer til en produktanmeldelserprogram. Det er hjertet af det, vi laver her. Jeg ligger inde med en billion dollars af Apples R&D en gang om året og siger: "Denne telefon er en syver." Og det legitimerer på en måde al vores rapportering og vores meninger andre steder. Vi har en evaluerende funktion, og vi bruger så meget tid på bare at se på AI-produkterne og sige: "Virker de?"

Det føles som om, det mangler i meget af samtalen om AI, som det er i dag. Der er uendelige samtaler om, hvad det kan være i stand til, hvor farligt det kan være. Og så borer du ned, og du siger: "Gør den faktisk det, den skal i dag?" I nogle tilfælde er svaret ja. Men i mange, mange tilfælde er svaret nej.

Det føles som om, det hænger sammen med den hypekultur, du beskriver, og også til følelsen af, at hvis du siger, at det vil gøre noget, og det gør det ikke, og nogen har det dårligt, er det fint, fordi vi er ved det næste. Det er i fortiden. Og især inden for AI er Sam så god til at give de store løfter.

Netop i denne uge, tror jeg, at samme dag som din historie blev offentliggjort, udgav OpenAI et politisk dokument, der sagde, at vi skulle genoverveje den sociale kontrakt og have AI-effektivitetsstipendier fra regeringen. Dette er et stort løfte om, hvordan noget teknologi kan forme verdens fremtid, og hvordan vi lever, og alt det afhænger af, at teknologien fungerer på præcis den måde, som den måske er lovet at virke, eller den burde virke. 

Har du nogensinde oplevet, at Sam tvivler på AI ved at blive til AGI eller superintelligens eller komme i mål? For det er det, jeg undrer mig mest over. Er der nogen overvejelse om, hvorvidt denne kerneteknologi kan gøre alle de ting, som de siger, den kan?

Det er præcis det rigtige sæt spørgsmål. Der er troværdige teknologer, som vi talte med i denne rapport - og Sam Altman er naturligvis ikke en; han er en forretningsmand - der siger, at den måde, som Sam taler om tidslinjen for denne teknologi på, bare er langt væk. Der er blogindlæg, der går et par år tilbage, hvor Sam siger: "Vi har allerede nået begivenhedshorisonten. AGI er i bund og grund her. Superintelligens er rundt om hjørnet. Vi kommer til at være på andre planeter. Vi kommer til at helbrede alle former for kræft." Sandelig, jeg pynter ikke. 

Kræften er faktisk interessant, at Sam hyper den person, der teoretisk kurerede deres hunds kræft, med ChatGPT, og det skete simpelthen ikke. De talte med ChatGPT, og det hjalp dem med at guide nogle forskere, der rent faktisk gjorde arbejdet, men det en-til-en, dette værktøj, der helbredte denne hund, er faktisk ikke historien.

Jeg er glad for, at du rejste det punkt, fordi jeg vil gå videre til dette større punkt om, hvornår både potentialet og risikoen ved teknologien virkelig kommer til at vinde. Men det er værd at nævne disse små sidestykker, der konstant sker fra Sam Altman, hvor han ser ud til at legemliggøre denne egenskab igen. 

Jeg mener, for at bruge eksemplet med WilmerHale-rapporten, hvor vi havde disse oplysninger, der var holdt ude af skrift, og ville vide, om den mundtlige brief undervejs blev givet til andre end de to bestyrelsesmedlemmer, Sam var med til at installere for at føre tilsyn med det. Og han sagde: "Ja, ja, nej, jeg tror, ​​den blev givet til alle, der kom med i bestyrelsen efter." Og vi har en person med direkte kendskab til situationen, der siger, at det simpelthen er løgn. Og det ser virkelig ud til at være tilfældet, at det er usandt. Hvis vi vil være generøse, er han måske misinformeret. 

Der er mange af disse tilfældige forsikringer. Og jeg bruger det eksempel til dels, fordi det er et godt eksempel på at skille sig af, lad os kalde det, der kan have reelle konsekvenser juridisk. Jeg behøver ikke at fortælle dig, i henhold til Delaware-selskabslovgivningen, hvis dette selskabs børsintroduktioner, aktionærer i henhold til paragraf 220 kunne klage over dette og kræve underliggende dokumentation. Der er allerede bestyrelsesmedlemmer, der siger ting som: "Nå, vent et øjeblik, den briefing burde have fundet sted."

Så disse ting, der ser ud til at springe ud af hans mund hele tiden, de kan have reelle markedsbevægende effekter, reelle effekter for OpenAI. For at bringe det tilbage til den slags utopiske hypesprog, der er genopstået, tror jeg ikke tilfældigt den dag, hvor dette stykke udkom, påvirker det også os alle, fordi farerne er så akutte med hensyn til den måde, det er på.bliver indsat i våben, måden det bliver brugt til at identificere kemiske krigsførende agenter, desinformationspotentialet og på grund af den måde, hvorpå den utopiske hype ser ud til at få mange troværdige økonomer til at sige: "Dette har alle tegn på en boble."

Selv Sam Altman har sagt: "Nogen kommer til at tabe en masse penge her." Det kunne virkelig kratere en masse amerikansk og global økonomisk vækst, hvis der er ligesom en sand punktering af en boble, der involverer alle disse virksomheder, der laver aftaler med hinanden, går all in på AI, mens de låner så tungt. Så hvad Sam Altman siger betyder noget, og jeg tror, ​​at overvægten af ​​mennesker omkring ham, du nævnte, at vi talte med mere end hundrede, det var faktisk godt over hundrede. Vi havde en samtale ved målstregen, hvor det var sådan: "Ville det være for småligt at sige, at det er sådan et meget højere tal?" Og vi sagde: "Ja, lad os nedprioritere. Vi vil spille det sejt." Men der var så mange mennesker, og et så betydeligt flertal af dem sagde: "Dette er en bekymring." Og jeg tror, ​​det er alt derfor.

Lad mig spørge dig om det nummer. Som du nævnte, blev folk mere og mere åbne over for bekymringerne, som tiden gik. Det føles som om, at presset omkring boblen - kapløbet om at vinde, at betale al denne investering, at stå frem som vinderen, til børsnoteringen - har ændret en masse holdninger. Det skabte bestemt mere pres på Sam og OpenAI.

Vi offentliggjorde en historie i denne uge om OpenAI-stemningen. Din historie er en del af det, men massive personaleændringer i de ledende rækker hos OpenAI - folk kommer og går. Forskerne er alle på vej væk, stort set til Antropisk, som jeg synes er rigtig interessant. Du kan bare se, at denne virksomhed mærker presset, og den reagerer på det pres på en eller anden måde.

Men så tænker jeg tilbage på, at Sam blev fyret. Dette er bare mindeværdigt for mig. Det er mindeværdigt for ingen andre, men jeg tog et kildeopkald i Bronx Zoo kl. 19 på en fredag, og det var en, der sagde, at de ville prøve at få Sam tilbage. Og så brugte vi weekenden på at jage den historie ned. Og jeg tænkte bare: "Jeg er i zoologisk have. Hvad vil du have, jeg skal lave her?" Og svaret var: "Bliv ved telefonen." Nå, min datter sagde, "Slip telefonen." Og det gjorde jeg. 

Det var ride or die for at få Sam tilbage. Det selskab var ligesom, "Nej, vi lader ikke bestyrelsen fyre Sam Altman." Investorerne, de er citeret i dit stykke, "Vi gik i krig," tror jeg, er Thrive Capital-positionen, "for at få Sam tilbage." Microsoft gik i krig for at få Sam tilbage. Det er senere, og nu siger alle: "Vi skal til børsnotering. Vi kom til målstregen. Vi fik vores fyr tilbage, og han vil få os til målstregen. Vi er bekymrede for, at han er en løgner." 

Hvorfor var det en krig at få ham tilbage dengang? For det ser ikke ud til, at noget faktisk har ændret sig. Du taler om de memoer, som Ilya Sutskever og [Antropisk administrerende direktør] Dario Amodei opbevarede, mens de var samtidige med Sam Altman. Ilyas største bekymring var, at Sam er en løgner.

Intet af det har ændret sig. Så hvorfor var det krig at bringe ham tilbage dengang? Og nu hvor vi er ved målstregen, ser det ud til, at alle bekymringer er ude i det fri.

Nå, først og fremmest, undskyld til din datter og min partner og alle de andre mennesker omkring journalisterne. 

[Griner] Det var noget af en weekend for alle.

Ja, det overtager ens liv, og denne historie har bestemt min, i løbet af den sidste periode. Det relaterer faktisk til dette tema om journalistik og adgang til information, tror jeg. De investorer, der gik i krig for Sam og alle, spillede en rolle i at sikre, at han kom tilbage, og bestyrelsen, der var blevet specifikt designet til at beskytte en nonprofitorganisations mission om at sætte sikkerhed over vækst og at fyre en leder, hvis man ikke kunne stole på det, de gik væk. Det var alt fordi, ja, markedsincitamenterne var der, ikke?

Sam var i stand til at overbevise folk, "Nå, firmaet vil bare falde fra hinanden." Men grunden til, at han havde støtte, var mangel på information. Disse investorer siger i mange tilfælde nu: "Jeg ser tilbage, og jeg tror, ​​jeg burde have haft flere bekymringer, hvis jeg fuldt ud havde vidst, hvad kravene var, og hvad bekymringerne var."

Ikke dem alle;meningerne varierer, og vi citerer en række meninger, men der er betydelige meninger, der handlede på meget delvise oplysninger. Boardet, der fyrede Sam, var, med ordene fra en person, der plejede at være på bestyrelsen, "meget JV", og de fumlede bolden hårdt. Og vi dokumenterer de underliggende klager, og folk kan selv afgøre, om det akkumuleres til den form for presserende bekymring, de følte, det var, men det argument og den information blev ikke præsenteret.

De modtog, hvad nogle af dem nu anerkender som dårlig juridisk rådgivning. For at beskrive det, vil du huske citatet, og sandsynligvis vil mange af dine lyttere og seere huske citatet som en mangel på ærlighed. Det var det, det blev reduceret til, og så ville de i det væsentlige ikke tage opkald.

De ville ikke tage imod opkald. Jeg er sikker på du prøvede. Alle, jeg kender, prøvede, og det nåede til det punkt, hvor man som journalist ikke skal give sine kilder råd, men jeg tænkte: "Dette forsvinder, hvis du ikke begynder at forklare dig selv."

Og det er, hvad der skete. Glem journalister. Du fik Satya Nadella til at sige: "Hvad fanden skete der? Jeg kan ikke få nogen til at forklare mig." Og det er virksomhedens store økonomiske bagmand. Og så har du Satya, der ringer til [LinkedIn-medstifter] Reid Hoffman, og Reid ringer rundt og siger: "Jeg ved ikke, hvad fanden der skete." 

De er forståeligt nok i det tomrum af information og leder efter de traditionelle ikke-AI-indikatorer, der ville retfærdiggøre en så presserende, pludselig fyring. Ligesom, okay, var det sexforbrydelser? Var det underslæb? Og hele det subtile, men efter min mening meningsfulde argument om, at denne teknologi er anderledes, og at denne form for en konstant ophobning af mindre forræderi kunne have meningsfulde spil både for denne virksomhed og måske for verden, gik stort set tabt. Så kapitalistiske incitamenter vandt frem, men også de mennesker, der lavede det, gik ud og opererede ikke altid med fuldstændig information.

Jeg vil lige spørge om "hvad alle troede det var" aspektet et øjeblik, for jeg så helt sikkert nyhederne, og jeg sagde: "Åh, der må være sket noget slemt." Du har lavet en masse #MeToo-rapportering, berømt. Du brød historien om Harvey Weinstein. 

Du brugte meget tid på at rapportere om disse påstande, som jeg tror, ​​du besluttede i sidste ende var ubegrundede: at Altman seksuelt overfaldt mindreårige eller hyrede sexarbejdere, eller endda myrdede en OpenAI whistleblower. Jeg mener, du er den person, der kan rapportere det her ting mest strengt. Besluttede du dig for, at det ikke blev til noget?

Nå, se, jeg er ikke i gang med at sige, at noget er blevet til ingenting. Hvad jeg kan sige er, at jeg brugte måneder på at kigge på disse påstande og fandt ikke bekræftelse for dem. Og det var slående for mig, at disse fyre, disse virksomheder, der har så meget magt over vores fremtid, virkelig bruger uforholdsmæssigt meget af deres tid og ressourcer i en barnlig mudderkamp.

En leder beskriver det som "Shakespeare". Mængden af ​​private efterforskers penge og oppositionssagerne, der bliver udarbejdet, er ubarmhjertige. Og det uheldige er, at den slags sarte ting, som bliver efterfulgt af Sams konkurrenter, bare er en antagelse om kendsgerning, ikke? Der er denne påstand om, at han forfølger mindreårige drenge, og ved mange cocktailfester i Silicon Valley hører du dette. På konferencekredsløbet har jeg bare hørt det gentaget af troværdige, fremtrædende ledere: "Alle ved, at dette er en kendsgerning."

Det triste er, at jeg taler om, hvor dette kommer fra, de forskellige vektorer, som det transmitteres med. Elon Musk og hans medarbejdere skubber tilsyneladende virkelig hardcore sager, der på en eller anden måde bliver til ingenting. De er dampende, når du faktisk begynder at se på de underliggende påstande. Det sørgelige er, at det virkelig slører den mere evidensbaserede kritik her, som jeg synes virkelig fortjener akut opsyn og overvejelse.

Det andet tema, der virkelig kommer igennem i historien, er næsten en følelse af frygt for, at Sam har så mange venner - han har investeret i så mange virksomheder fra sin tidligere rolle som administrerende direktør for Y Combinator, blot til hans personlige investering, hvoraf nogle er i direkte konflikt med hans rolle som CEO for OpenAI - og der er tavshed omkring ham.

Det slog mig, da jeg læste en linje i særdeleshed. Du beskriver Ilya Sutskevers notater, og de er lige ude i Silicon Valley. Alle sammenkalder dem Ilya-memoerne. Men der er endda stille omkring det. De bliver sendt rundt, men de bliver ikke diskuteret. Hvor tror du det kommer fra? Er det frygt? Er det et ønske om at få engleinvestering? Hvor kommer det fra?

Jeg synes, det er meget fejhed, skal jeg være ærlig. Efter at have rapporteret om nationale sikkerhedshistorier, hvor kilderne er whistleblowere, der står til at miste alt og blive retsforfulgt, gør de stadig det rigtige og taler om ting for at skabe ansvarlighed. Jeg har arbejdet på de seksualforbrydelser-relaterede historier, som du nævnte, hvor kilder er dybt traumatiserede og frygter en meget personlig form for gengældelse. 

I mange tilfælde omkring dette beat har du at gøre med mennesker med deres egen profil og magt. De er enten selv kendte mennesker, eller også er de omgivet af kendte mennesker. De har et robust forretningsliv. Efter min mening er det faktisk meget lav eksponering for dem at tale om det her. Og heldigvis bevæger nålen sig, som vi talte om tidligere, og folk taler nu mere.

Men i så lang tid holdt folk egentlig bare kæft med det, fordi jeg synes, at Silicon Valley-kulturen bare er så hensynsløst egeninteresseret og hensynsløst forretnings- og vækstorienteret. Så jeg tror, ​​at det her rammer selv nogle af de mennesker, der var involveret i at fyre Sam, hvor man i dagene efter så, ja, en faktor, der førte til, at han kom tilbage og fyringen af ​​gamle bestyrelsesmedlemmer, var, at han samlede investorer, der var forvirrede over for hans sag. 

Men en anden er, at så mange andre mennesker omkring det, der havde bekymringerne og udtrykte dem akut, bare foldede som servietter og ændrede deres melodi i det øjeblik, de så, at vinden blæste den anden vej, og de ville med i profittoget. 

Det er ærligt talt ret mørkt set fra mit ståsted som journalist.

Nogle af disse mennesker er Mira Murati, som, jeg tror, ​​i 20 minutter var den nye CEO for OpenAI. Hun blev derefter erstattet. Det var en meget kompliceret dynamik, og selvfølgelig kom Sam tilbage. Den anden person er Ilya Sutskever, som var en af ​​stemmerne for at fjerne Sam, og så ændrede han mening, eller sagde i det mindste, at han ændrede mening, og så gik han for at starte sit eget firma. Ved du, hvad der fik ham til at ændre mening? Var det bare penge?

Nå, og for at være klar, så fremhæver jeg ikke de to. Der er andre bestyrelsesmedlemmer, der var involveret i fyringen, som også blev meget stille efter. Jeg synes, det er som et bredere kollektivt problem. Det er i nogle tilfælde mennesker, der havde den moralske fiber til at slå alarmer og tage radikale skridt, og det skal roses. Og det er sådan, du sikrer ansvarlighed. Det kunne have hjulpet mange mennesker, der er berørt af denne teknologi. Det kunne have hjulpet en industri til at forblive mere meningsfuldt sikkerhedsfokuseret.

Men når man handler med whistleblowere og folk, der forsøger at tilskynde til ansvar meget, ser man også, at det kræver fiber at stikke det ud og stå ved sin overbevisning. Og denne industri er virkelig fuld af mennesker, der bare ikke står ved deres overbevisning.

Selvom de tror, ​​at de bygger en digital Gud, der på en eller anden måde enten vil eliminere alt arbejde eller skabe mere arbejde, eller også vil der ske noget.

Nå, det er sagen. Så kulturen med ikke at stå ved din overbevisning og alle etiske bekymringer, der falder i vejen i det øjeblik, der er varme eller andet, der kan true din egen status i branchen, er måske i et vist omfang godt og vel for business-as-usual-virksomheder, der laver en hvilken som helst form for widget.

Men det er også de samme mennesker, der siger: "Dette kan bogstaveligt talt dræbe os alle." Og igen, du behøver ikke at gå til Terminator Skynet-ekstremiteten. Der er en række risici, der allerede er ved at materialisere sig. Det er rigtigt, og de har ret i at advare om det, men du bliver nødt til at have en anden lænestol til at psykologisere, hvordan de to ting kan leve i de samme mennesker, hvor de udsender de påtrængende advarsler, de sætter måske en tå i og prøver at gøre noget, og så folder de sig sammen og tier stille. 

Det er netop derfor, man kan have den slags tilfælde af, at ting bliver holdt ude af skrift, og ting bliver fejet under gulvtæppet, og ingen taler åbent om det i årevis efter kendsgerningen.

Den naturlige, ansvarlige part her ville ikke være disse virksomheders administrerende direktører; det ville være regeringer. I USA, måskedet er delstatsregeringer, måske er det den føderale regering. 

Bestemt, disse virksomheder ønsker alle at være globale. Der er masser af globale implikationer her. Jeg så OpenAI, Google og Anthropic alle få Biden-administrationen til at frigive en AI-bekendtgørelse. Det var ret tandløst til sidst. Den sagde bare, at de skulle tale om, hvad deres modeller var i stand til og frigive nogle sikkerhedstest. Og så støttede de alle Trump, og Trump kom ind og udslettede alt det og sagde: "Vi skal være konkurrencedygtige. Det er en fri for alle. Gå efter det."

Samtidig forsøger de alle at rejse midler fra mellemøstlige lande, der har masser af oliepenge og ønsker at ændre deres økonomier. Det er politikere. Jeg føler, at politikere helt sikkert burde forstå, at nogen taler ud af begge sider af munden, og de bliver ikke for kede af det, hvis nogen bliver skuffede i sidste ende, men politikerne bliver også taget en tur. Hvorfor tror du det er det?

Det er virkelig, tror jeg, hvorfor stykket er vigtigt i min optik, og hvorfor det var værd at bruge al denne tid og detaljer på. Vi er i et miljø, hvor de systemer, der, som du siger, skulle give tilsyn, bare er udhulet. Det er et post-Citizens United America, hvor pengestrømmen er så uhæmmet, og det er en særlig koncentration af det problem omkring AI, hvor der er disse PAC'er, der spreder sig og oversvømmer penge til at ophæve meningsfuld regulering på både stats- og føderalt niveau.

Du har [OpenAI-medstifter] Greg Brockman, Sams næstkommanderende, der direkte bidrager på en væsentlig måde til et par af dem. Det fører til en situation, hvor der virkelig er tilfangetagelse af lovgivere og potentielle regulatorer, og det er en svær spiral at komme ud af. Det sørgelige er, at jeg tror, ​​at der er simple politiske tiltag, hvoraf nogle bliver prøvet andre steder i verden, som ville hjælpe med nogle af disse ansvarlighedsproblemer.

Du kunne have flere obligatoriske sikkerhedstest før implementering, hvilket er noget, der allerede sker i Europa for frontier-modeller. Du kunne have strengere krav til skriftlige offentlige journaler for den slags interne undersøgelser, hvor vi så ting blive holdt ude af skrift i denne sag. Du kunne have et mere robust sæt af nationale sikkerhedskontrolmekanismer for den slags mellemøstlige infrastrukturambitioner, som Sam Altman pressede på. 

Som du siger, gjorde han denne lokkemad og skiftede med Biden-administrationen og sagde: "Reguler os, reguler os," og hjalp dem med at udforme en bekendtgørelse, og så i det øjeblik, hvor Trump kommer ind, virkelig i de allerførste dage, hvor han bare stopper, "Lad os accelerere og lad os bygge et massivt datacentercampus i Abu Dhabi." Du kunne have, det her er virkelig simpelt, ligesom whistleblower-beskyttelse. Der er ingen føderal lov, der beskytter AI-virksomheders medarbejdere, der afslører den slags sikkerhedsproblemer, som bliver luftet i dette stykke.

Vi har tilfælde, hvor Jan Leike, som var senior sikkerhedsmand hos OpenAI, førte super alignment i virksomheden. Han skriver til bestyrelsen, hovedsagelig whistleblower-materiale, og siger, at virksomheden er ved at gå af sporet på sin sikkerhedsmission. Det er den slags mennesker, der faktisk burde have et tilsynsorgan, de kan gå til, og de burde have eksplicit lovbestemt beskyttelse af den slags, vi ser i andre sektorer. Dette er nemt at replikere et Sarbanes-Oxley-stil regime.

Jeg tror, ​​at på trods af hvor akut problemet er med Silicon Valley, der overtager kontrollen over alle magtens løftestænger, og på trods af hvor udhulede nogle af disse institutioner, der kan give tilsyn og værn, er, tror jeg stadig på den grundlæggende matematik om demokrati og selvinteresserede politikere. Og der dukker flere og flere meningsmålingsdata op, som et flertal af amerikanere mener, at bekymringerne, spørgsmålene eller risiciene ved AI i øjeblikket opvejer fordelene.

Så jeg tror, ​​at strømmen af ​​penge ind i politik fra AI, det er inden for al vores magt at gøre det til en kilde til et spørgsmålstegn med hensyn til politikere. Når amerikanere går til at stemme, bør de undersøge, om de mennesker, de stemmer på, især hvis de er ukritiske og anti-regulering, givet alle disse bekymringer, er bankrolleret af store tekniske specialinteresser. Så jeg tror, ​​at hvis folk kan læse stykker som dette, lytte til podcasts som denne og bekymre sig nok om at tænke kritisk omderes beslutninger som vælgere, er der en reel mulighed for at skabe en valgkreds i Washington af repræsentanter, som holder øje med og tvinger tilsyn.

Det kan være en af ​​de mest optimistiske ting, jeg nogensinde har hørt nogen sige om den nuværende AI-industri. Jeg sætter pris på det. Jeg er besat af den meningsmåling, du taler om. Der er meget af det nu. Det hele er ret konsekvent, og det ser ud til, at jo flere unge især bliver udsat for AI, jo mere mistroiske og vrede er de over det. Det er valensen af ​​al meningsmåling. Og jeg ser på det, og jeg tror, ​​ja, kloge politikere ville bare løbe imod det. De ville bare sige, "Vi vil holde stor teknologi ansvarlig." 

Så tænker jeg på de seneste 20 år, en politiker, der siger, at de vil holde big tech ansvarlige, og jeg kæmper for at finde selv et øjeblik, hvor big tech bliver holdt ansvarlig. Det eneste, der får mig til at tro, at det kan være anderledes, er, ja, du skal faktisk bygge datacentrene, og det kan du stemme imod, og du kan indgive andragender imod det, og det kan du protestere imod.

Jeg tror, ​​der er en politiker, der lige fik deres hus skudt på, fordi de stemte på et datacenter. Spændingen er ved at nå op på, vil jeg kalde det, et feberniveau. Du har beskrevet øen i Silicon Valley. Dette er et lukket økosystem. Det føles som om, de tror, ​​de kan styre verden. De lægger et væld af penge i politik, og de løber op imod den virkelighed, at folk ikke elsker produkterne, hvilket ikke giver dem meget dækning. Jo mere de bruger produkterne, jo mere kede af det er de, og politikerne begynder at se, at der er reelle konsekvenser ved at støtte tech-industrien over de mennesker, de repræsenterer. 

Du har talt med så mange mennesker. Tror du, det er muligt for tech-industrien at lære den lektie, der ligger lige foran dem?

Du siger, at det føles som om de tror, ​​de kan styre verden uden ansvar. Jeg tror ikke engang, at det behøver "føles som"-kvalifikationen. Jeg mener, du ser på det sprog, Peter Thiel bruger, det er eksplicit. Selvfølgelig er det et ekstremt eksempel. Og Sam Altman er, selvom han til en vis grad er tæt på og informeret om Thiels ideologi, en meget anderledes person, som måske lyder anderledes og mere afmålt til et vist punkt. 

Men jeg tror, ​​at den bredere ideologi, du får fra Thiel, som grundlæggende er: Vi er færdige med demokratiet, vi har ikke brug for det længere. Vi har så meget, at vi bare vil bygge vores egne små bunkers. Vi beskæftiger os ikke længere med Carnegies eller Rockefellers længere, hvor de er slemme fyre, men de føler, at de skal deltage i en social kontrakt og bygge ting til folk. Der er en ægte nihilisme, der er sat ind.

Og jeg tror, at det bare har været en gensidigt forstærkende spiral i nyere amerikansk historie med moguler og private virksomheder, der erhverver sig superstatslig magt, mens demokratiske institutioner, der kan holde dem ansvarlige, er udhulet. Jeg føler mig ikke optimistisk over tanken om, at de fyre måske bare vågner op en dag og tænker, "Hva, faktisk er vi måske nødt til at deltage i samfundet og hjælpe med at bygge ting for folk."

Jeg mener, du ser på som det mikrokosmiske eksempel på The Giving Pledge, hvor der var et øjeblik, hvor det tilsyneladende var velgørende, og det øjeblik er nu forbi og endda latterliggjort. Det er et problem, det bredere problem med manglende ansvarlighed, som jeg tror kun kan løses eksternt. Det må være vælgerne, der mobiliserer og genopliver magten i regeringens tilsyn. Og du har helt ret i at sige, at den primære vektor, hvorigennem folk måske kunne opnå det, er lokal. Det har at gøre med, hvor infrastrukturen bliver bygget. 

Du nævnte noget af den hvidglødende spænding omkring dette, der fører til vold og trusler, og selvfølgelig bør ingen være voldelige eller truende. Og jeg er heller ikke her for at komme med specifikke politiske anbefalinger udover blot at præsentere nogle af de politiske skridt, der virker grundlæggende og virker andre steder i verden, vel? Eller dem, der har arbejdet i andre sektorer. Jeg er ikke her for at sige, hvilke af dem der skal udføres og hvordan.

Jeg tror, ​​der skal ske noget, og det skal være eksternt, ikke kun at stole på disse virksomheder. Fordi rigtigtnu har vi en situation, hvor de virksomheder, der udvikler teknologien og er bedst rustet til at forstå risiciene, og faktisk er dem, der advarer os om risiciene, også er dem, der ikke har andet end incitament til at gå hurtigt og ignorere disse risici. Og du har bare ikke noget, der opvejer det. Så uanset hvilke reformer der måtte tages i forhold til specifikke detaljer, så må noget støde på det. Og jeg vender stadig tilbage til den optimisme om, at folk stadig betyder noget.

Jeg køber generelt dit argument. Lad mig lige komme med det ene lille modargument, som jeg tror, ​​jeg kan formulere. Den anden ting, der kunne ske uden for stemmeboksen, er, at boblen springer, ikke? At ikke alle disse virksomheder kommer i mål, og at der ikke er et produktmarked, der passer til forbruger-AI-applikationer. Og igen, jeg kan ikke helt se det endnu, men jeg er en forbrugerteknologisk anmelder, og måske har jeg bare højere standarder end alle andre.

Der er produktmarkedspasning i forretningsverdenen, ikke? At have en masse AI-agenter til at skrive en masse software ser ud til at være et rigtigt marked for disse værktøjer. Og du kan læse argumenterne fra disse virksomheder, der siger: "Vi har løst kodning, og det betyder, at vi kan løse hvad som helst. Hvis vi kan lave software, kan vi løse alle problemer."

Jeg tror, ​​der er reelle grænser for, hvad software kan. Det er fantastisk i erhvervslivet. Software kan ikke løse alle problemer i virkeligheden, men de skal nå dertil. De skulle gøre arbejdet færdigt, og måske er det ikke alle, der når i mål. Og der er et nedbrud, og denne boble springer, og måske OpenAI eller Anthropic eller xAI, et af disse virksomheder fejler, og al denne investering forsvinder.

Tror du, det vil påvirke dette? Faktisk, lad mig først stille det første spørgsmål. OpenAI er lige på kanten af ​​en børsnotering. Der er meget tvivl om Sam som leder. Tror du, de kommer i mål?

Jeg vil ikke spå, men jeg tror, ​​du rejser et vigtigt punkt, som er, at markedsincitamenter har betydning internt for Silicon Valley, og usikkerheden i den nuværende bobledynamik står til at afbryde, igen, potentielt, ifølge kritikere, kapløbet mod bunden med hensyn til sikkerhed.

Jeg vil også tilføje, at hvis du ser på historisk forrang, hvor der er et tilsvarende og tilsyneladende uigennemtrængeligt sæt af markedsincitamenter og potentielt skadelige virkninger for offentligheden, er der retssager. Og det ser du som et problemområde på det seneste. Sam Altman er derude i denne uge og støtter lovgivning, der vil beskytte AI-virksomheder fra nogle af de typer ansvar, som OpenAI har været udsat for i f.eks. ulovlige dødssager. Selvfølgelig er der et ønske om at have det værn mod ansvar.

Jeg tror, ​​at domstolene stadig kan være en meningsfuld mekanisme, og det bliver virkelig interessant at se, hvordan disse dragter former sig. Du har allerede set f.eks. gruppesøgsmålet, som jeg og mange, mange andre forfattere, jeg kender, er medlemmer af, mod Anthropic for deres brug af bøger, der var under copyright. Hvis der er kloge juridiske hjerner og sagsøgere, der bekymrer sig, som vi historisk set har set i sager fra stor tobak til stor energi, kan du også få nogle autoværn og nogle incitamenter til at sætte farten ned, være forsigtig eller beskytte folk på den måde.

Det føles som om, at hele omkostningsstrukturen i AI-industrien hænger på en meget, meget velgørende fortolkning af fair use. kommer ikke nok frem. Omkostningsstrukturen i disse virksomheder kan komme ud af kontrol, hvis de skal betale dig og alle andre, hvis arbejde de har taget, men det er ubelejligt at tænke på, så vi tænker bare ikke over det. Lige ved siden af ​​kører alle disse produkter nu med tab. Som i dag kører de alle med tab. De forbrænder flere penge, end de kan tjene. På et tidspunkt skal de dreje på kontakten.

Sam er en forretningsmand. Som du har nævnt flere gange, er han ikke en teknolog. Han er en forretningsmand. Tror du, han er klar til at dreje på kontakten og sige: "Vi skal tjene en dollar?" For når jeg spørger, "tror du, at OpenAI vil klare det?" Det er, når de skal tjene en dollar. Og indtil videre har Sam tjent alle sine dollars ved at bede andre om deres penge i stedet for at få hans virksomheder til at tjene penge.

Nå, det er et stort dvælende spørgsmål for Silicon Valley, for investorer, for offentligheden.Du ser nogle udtalelser og bevægelser ud af OpenAI, der ser ud til at afsløre en slags panik over det. Lukker Sora ned, lukker nogle hjælpeprojekter ned, prøver at fokusere på kerneproduktet. Men så på den anden side, ser du stadig, på samme tid, tonsvis af mission krybe, ikke? Selv et lille eksempel - det er åbenbart ikke kernen i deres forretning - er TBPN-opkøbet.

Forresten, lige da vi var i mål og faktatjekket, får virksomheden, der står over for denne form for journalistisk granskning, en platform, hvor de kan have mere direkte kontrol over samtalen. Jeg tror, ​​at der er mange investorer, der er bekymrede, baseret på de samtaler, jeg har haft, at dette problem med at love alle ting til alle mennesker også strækker sig til denne manglende fokus i kerneforretningsmodellen. Og jeg mener, du er tættere på den slags at prognosticere og se markedet, end jeg sandsynligvis er. Jeg vil overlade dig og lytterne til at bedømme, om de tror, ​​at OpenAI kan skifte kontakten. 

Nå, jeg stillede spørgsmålet, fordi du har fået et citat i stykket fra en højtstående Microsoft-chef, og det er, at "Sams arv kan ende mere med Bernie Madoff eller Sam Bankman-Fried," snarere end Steve Jobs. Det er noget af en sammenligning. Hvad syntes du om den sammenligning?

Jeg synes, det er en omskrivning. Steve Jobs-delen var ikke en del af citatet. Men der er en interessant form for ædruelighed ved det, fordi det er formuleret som: "Jeg tror, ​​der er en lille, men reel chance for, at han ender med at blive en SBF eller en svindler på Madoff-niveau." Det betyder, efter min mening, ikke, at Sam bliver anklaget for de specifikke former for bedrageri eller forbrydelser, men at graden af ​​adskillelse og bedrag fra Sam kan have en chance for i sidste ende at blive husket i den skala.

Ja, jeg tror, ​​at det mest slående ved det citat, ærligt talt, er, at du ringer rundt hos Microsoft, og du ikke får et like, "Det er helt vildt. Det har vi aldrig hørt." Du får en masse lignende, "Jep, mange mennesker her tænker det", hvilket er bemærkelsesværdigt. Og jeg tror, ​​det går til disse møtrikker og bolte forretningsspørgsmål. 

En investor fortalte mig, for eksempel, i lyset af den måde, hvorpå denne egenskab har bestået i årene efter fyringen” – og det syntes også det var en interessant nøgtern tanke – at det ikke nødvendigvis er, at Sam skal være absolut nederst på listen, ligesom det burde være den laveste af de lave i forhold til de mennesker, der absolut ikke må bygge denne teknologi, for hvad det er flere mennesker værd, som denne person er værd. placerer ham måske nederst på listen over personer, der bør bygge AGI, og under adskillige andre ledende skikkelser på dette felt.

Så jeg tænkte, at det var en interessant vurdering, og det er den slags tankegang, jeg tror, man får fra de rigtige pragmatikere, som måske ikke køber så meget ind i sikkerhedsproblemerne. De er bare vækstorienterede, og de tror, at OpenAI nu har et problem med Sam Altman.

Microsoft-stykket er virkelig interessant. Det firma troede, de var på toppen af verden. At de havde foretaget denne investering, og at de ville springe alle, især og vigtigst af alt, Google, og komme tilbage til forbrugernes gode nåde. Det niveau, hvortil de føler sig brændt af dette eventyr - dette er et meget nøgternt drevet firma - tror jeg ikke kan overvurderes.

Du nævnte karaktererne og personlighedstræk. Jeg vil slutte her med et spørgsmål fra vores lyttere. Jeg sagde i vores andet show, The Vergecast, at jeg ville tale med dig, og jeg sagde: "Hvis du har spørgsmål til Ronan om denne historie, så lad mig det vide." Så vi har en her, som jeg synes passer fint sammen med det, du beskriver. Jeg vil lige læse det for dig:

"Hvordan adskiller begrundelserne for dårlig opførsel, grusomme handlinger fra Altman og andre AI-ledere sig fra de begrundelser, Ronan har hørt fra andre højtprofilerede ledere i politik og medier? Retfærdiggør de ikke alle deres handlinger ved at sige, at det er sådan, verden bliver forandret? Hvis jeg ikke gør dette, vil en anden gøre det?"

Ja, der er meget af det, der går rundt. Jeg vil sige, at det, der er karakteristisk for AI, er, at den eksistentielle indsats er så unik, betyder, at begge risikoudsagn er ekstreme, ikke? Du har Sam Altmansiger: "Dette kunne være lys ude for os alle." Og også, kan kritikere sige, at den mani, som spørgeren henviser til, er ekstrem, ikke? 

Det, som Sam anklagede Elon for, var, at han måske vil redde menneskeheden, men kun hvis det er ham. Den slags ego-komponent at ville vinde, som er en ramme Sam bruger hele tiden, og at dette er en for historiebøgerne, det kan ændre alt. Så derfor, selv ud over "du skal knække et par æg"-tankegangen i de fleste Silicon Valley-virksomheder, er der i hovedet på nogle personer, der leder AI, en fuldstændig rationalisering for ethvert nedfald.

Og glem at knække æg. Jeg/tror, ​​at mange af de underliggende sikkerhedsforskere ville sige, at de potentielt risikerer at knække landet, knuse verden og knuse millioner af mennesker, hvis job og sikkerhed hænger i en balance – det er det, der er unikt ved det. Det er der, jeg lukker, reflekterer over denne rapport, og tror virkelig, at det handler om mere end Sam Altman. Det her handler om en industri, der er ubegrænset, og et spiralproblem med, at Amerika ikke er i stand til at begrænse den.

Ja. Nå, vi havde en vis optimisme der, men jeg synes, det er et godt sted at forlade det.

[Griner] Slut på et downbeat.

Selvfølgelig. Det er virkelig enhver god historie. Musk-Altman-sagen er forestående. Jeg tror, ​​vi kommer til at lære meget mere her. Jeg formoder, at jeg vil tale med dig igen. Ronan Farrow, mange tak for at være på Decoder.

Tak.

Spørgsmål eller kommentarer til denne episode? Kontakt os på [email protected]. Vi læser virkelig hver e-mail!

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free