Idag på Decoder pratar jag med Ronan Farrow, en av de största stjärnorna inom undersökande rapportering som arbetar idag. Han bröt historien om Harvey Weinstein, bland många, många andra. Och bara förra veckan publicerade han och medförfattaren Andrew Marantz en otrolig djupdykning i The New Yorker om OpenAI-chefen Sam Altman, hans pålitlighet och uppkomsten av OpenAI själv.
En anteckning innan vi går vidare här – The New Yorker publicerade den historien och Ronan och jag hade det här samtalet innan vi visste omfattningen av attackerna mot Altmans hem, så du kommer inte att höra oss prata om det direkt. Men bara för att säga det, jag tycker att våld av alla slag är oacceptabelt, dessa attacker mot Sam var oacceptabla, och att den typ av hjälplöshet som människor känner, som leder till den här typen av våld, i sig är oacceptabel, och det är värt mycket mer granskning från både branschen och våra politiska ledare. Jag hoppas att det är klart.
Verge-prenumeranter, glöm inte att du får exklusiv tillgång till annonsfri Decoder var du än får dina poddsändningar. Gå hit. Inte en prenumerant? Du kan anmäla dig här.
Allt som sagt, det är mycket som snurrar runt Altman som är rättvist spel för rigorös rapportering - den typ av rapportering som Ronan och Andrew tänkte göra. Tack vare ChatGPTs popularitet har Altman framstått som den mest synliga galjonsfiguren inom AI-branschen, efter att ha förvandlat ett en gång ideellt forskningslabb till ett nästan biljoner dollar privat företag på bara några år. Men myten om Altman är djupt motstridig, lika definierad både av hans uppenbara dealmaking-förmåga och hans rapporterade tendens att ... ja, ljuga för alla omkring honom.
Berättelsen är över 17 000 ord lång, och den innehåller utan tvekan den definitiva redogörelsen för vad som hände 2023 när OpenAI:s styrelse helt plötsligt sparkade Altman för hans påstådda lögn, bara för att han nästan omedelbart skulle återanställas. Det är också en djupdykning i Altmans personliga liv, hans investeringar, hans uppvaktning av pengar från Mellanöstern och hans egna reflektioner över hans tidigare beteende och karaktärsdrag som fick en källa att säga att han var "obunden av sanningen." Jag föreslår verkligen att du läser hela historien; Jag misstänker att det kommer att refereras till i många år framöver.
Ronan pratade med Altman många gånger under de 18 månader han tillbringade med att rapportera det här stycket, och så en av de viktigaste sakerna jag var nyfiken på var om han kände någon förändring i Altman under den tiden. Det har trots allt hänt mycket inom AI, inom tekniken och i världen under det senaste och ett halvt året.
Du kommer att höra Ronan prata om det mycket direkt, såväl som hans känsla av att folk har blivit mycket mer villiga att prata om Altmans förmåga att sträcka ut sanningen. Människor börjar undra, högt och på protokollet, om beteendet hos personer som Altman är oroande, inte bara för AI eller teknik utan också för samhällets kollektiva framtid.
Okej: Ronan Farrow om Sam Altman, AI och sanningen. Här går vi.
Denna intervju har redigerats lätt för längd och tydlighet.
Ronan Farrow, du är en undersökande reporter och bidragsgivare till The New Yorker. Välkommen till Decoder.
Glad att vara här. Tack för att du har mig.
Jag är väldigt glad över att få prata med dig. Du skrev precis ett stort stycke för The New Yorker. Det är en profil av Sam Altman och, ungefär med det, OpenAI. Min läsning av den är att, precis som alla fantastiska funktioner gör, den, med rigorös rapportering, bekräftar många känslor som människor har haft om Sam Altman under mycket lång tid. Du har uppenbarligen publicerat den, du har fått reaktioner på den. Hur känner du för det just nu?
Tja, jag har faktiskt blivit uppmuntrad av i vilken utsträckning det har slagit igenom i en tid där uppmärksamhetsekonomin är så slags schizofren och ytlig. Det här är en historia som, enligt min uppfattning, påverkar oss alla. Och när jag tillbringade ett och ett halvt år av mitt liv, och min medförfattare, Andrew Marantz, också tillbringade sin tid med att verkligen försöka göra något rättsmedicinskt och noggrant, så är det alltid för att jag känner att det finns större strukturella problem som påverkar människor bortom individen och företaget i hjärtat av berättelsen.
Sam Altman, mot bakgrund av Silicon Valley-hypekulturen och nystartade företag som svänger till massiva värderingar baserade på löften som kanske eller inte kan komma att genomföras i framtiden, och en ökande omfamning av en grundarkultur som tror att berätta för olika grupper om olika motstridiga saker är en egenskap, inte enbugg ... Även mot den bakgrunden är Sam Altman ett extraordinärt fall där alla i Silicon Valley som förväntar sig dessa saker inte kan sluta prata om denna fråga om hans pålitlighet och hans ärlighet.
Vi visste redan att han fick sparken för någon version av anklagelser om oärlighet eller påstådd serieljud. Men extraordinärt, trots att det har varit underbara rapporter, har Keach Hagey gjort ett fantastiskt arbete med detta. Karen Hao har gjort ett fantastiskt arbete med detta. Det fanns verkligen ingen definitiv förståelse för de faktiska påstådda bevispunkterna och skälen till att de har hållit sig utanför allmänhetens ögon.
Så punkt nummer ett är att jag känner mig uppmuntrad av det faktum att några av dessa luckor i vår offentliga kunskap, och även i kunskapen hos Silicon Valley-insiders, nu har fyllts lite mer. Några av anledningarna till att det fanns luckor har fyllts i lite mer.
Vi rapporterar om fall där personer inom detta företag verkligen kände att saker och ting var mörklagda eller medvetet inte dokumenterade. En av de nya sakerna i den här historien är en avgörande advokatbyråundersökning av WilmerHale, som uppenbarligen är en fancy, trovärdig, stor advokatbyrå som gjorde undersökningar av Enron och WorldCom, som förresten alla var omfattande, som hundratals publicerade sidor. WilmerHale gjorde den här utredningen som krävdes av styrelseledamöter som hade sparkat Altman som ett villkor för deras avgång när han blev av med dem, och han kom tillbaka. Och extraordinärt – i ögonen på många juridiska experter jag pratade med, och chockerande nog i ögonen på många människor i det här företaget – höll de det ur skrift. Allt som någonsin kom fram var ett pressmeddelande på 800 ord från OpenAI som beskrev det som hände som ett sammanbrott i förtroendet. Och vi bekräftade att detta hölls till muntliga genomgångar.
Det finns fall där, till exempel, en styrelseledamot verkar vilja rösta emot omvandlingen från OpenAI:s ursprungliga ideella form till en vinstdrivande enhet, och det registreras som en nedlagd röst. Det är som en advokat på mötet som säger: "Ja, det kan utlösa för mycket granskning." Och den som vill rösta emot blir antecknad som nedlagd vid alla framträdanden. Det finns en saklig tvist. OpenAI hävdar något annat, som du kanske föreställer dig. Det är alla fall där du har ett företag som för egen räkning håller vår framtid i sina händer.
Säkerhetsinsatserna är så akuta att de inte har försvunnit. Detta är anledningen till att det här företaget grundades som en ideell organisation med fokus på säkerhet, och där saker och ting skymdes på ett sätt att trovärdiga människor runt detta tyckte att det var mindre än professionellt. Och du kopplar det till en bakgrund där det finns så lite politisk aptit för meningsfull reglering. Jag tycker att det är en väldigt brännbar situation.
Poängen för mig är inte bara att Sam Altman förtjänar dessa frågor så akut. Det är också att någon av dessa killar inom det här fältet, och många av nyckelfigurerna, uppvisar, om inte denna speciella idiosynkratiska, påstådda ljugande-hela tiden-egenskapen, säkerligen en viss grad av en race-to-the-bott mentalitet, där människorna som var säkerhetsister har urvattnat dessa åtaganden och alla-är-i-ett-lopp-hållningen.
Jag tror, när vi tittar på de senaste läckorna från Anthropic, att det finns en person som ställer frågan om vem som ska ha fingret på knappen i det här stycket. Svaret är, om vi inte har meningsfull tillsyn, tror jag att vi måste ställa seriösa frågor och försöka få fram så mycket information som möjligt om alla dessa killar. Så jag har blivit uppmuntrad av vad som känns som ett meningsfullt samtal om det, eller början på ett.
Anledningen till att jag frågade det så är att du jobbade med det här i ett och ett halvt år. Du pratade med, tror jag, 100 personer med din medförfattare, Andrew. Det är lång tid för en historia att laga. Jag tänker på det senaste och ett halvt året i AI i synnerhet, och pojke, har attityder och värderingar för alla dessa karaktärer förändrats mycket snabbt.
Kanske ingen mer än Sam Altman, som började som standardvinnare eftersom de hade släppt ChatGPT och alla trodde att det bara skulle ta över för Google. Och sedan svarade Google, vilket verkade förvåna dem att Google skulle försöka skydda sin verksamhet, kanske en av de bästa företagen i teknisk historia, om inte företagshistoria. Anthropic bestämde sig för att fokusera på företaget. Det verkar ta en befallande ledningdär eftersom företagsanvändningen av AI är så hög.
Nu fokuserar OpenAI sin produkt bort från "vi ska ta på Google" till Codex, och de kommer att ta sig an företaget. Jag kan bara inte riktigt avgöra om det, under loppet av din rapportering under det senaste och ett halvt året, känns som att karaktärerna du pratade med förändrats? Liksom deras attityder och deras värderingar, förändrades de?
Ja. Jag tror först och främst att kritiken som utforskas i det här stycket, som kommer från många människor inom dessa företag vid det här laget – att detta är en bransch som, trots de existentiella insatserna, håller på att falla ner i något av en kapplöpning mot botten när det gäller säkerhet och där hastigheten övertrumfar allt annat – den oron har blivit mer akut. Och jag tror att dessa farhågor har blivit mer bekräftade eftersom det senaste och ett halvt året har inträffat. Samtidigt har attityder om Sam Altman specifikt förändrats. När vi började prata med källor om det här, var folk verkligen, riktigt tveksamma till att bli citerade om detta och att skriva om detta.
I slutet av vår rapportering har du en rapportsamling där folk pratar om detta väldigt öppet och explicit, och du har styrelsemedlemmar som säger saker som "Han är en patologisk lögnare. Han är en sociopat." Det finns en rad perspektiv från "Det här är farligt med tanke på säkerhetsinsatserna, och vi behöver ledare för den här tekniken som har förhöjd integritet," hela vägen upp för att gilla, "Glöm säkerhetsinsatserna, det här är beteende som är ohållbart för alla chefer i något större företag, att det bara skapar för mycket dysfunktion."
Så samtalet har blivit mycket mer explicit på ett sätt som känns kanske försenat, men som är uppmuntrande i en mening. Och Sam Altman, till hans förtjänst... Stycket är mycket rättvist och till och med generöst, skulle jag säga, för Sam. Det här är inte den typen av pjäs där det fanns mycket "har du"-grejer. Jag tillbringade många, många timmar i telefon med honom när vi avslutade detta och verkligen hörde av mig.
Som ni kan föreställa er, i ett stycke som detta, kommer inte allt in. Några av de fallen i den här var för att jag lyssnade uppriktigt. Och om Sam faktiskt förde ett argument som jag kände att det bar vatten, att något, även om det var sant, kunde vara sensationellt, gjorde jag verkligen fel när det gällde att hålla detta rättsmedicinska och mätt. Så jag tror att det tas emot med rätta, och jag hoppas bara att det här faktadokumentet som har samlats under den här tidsperioden kan utlösa en mer stärkande konversation om behovet av tillsyn.
Det är faktiskt min nästa fråga. Jag tror att du pratade med Sam ett dussin gånger under loppet av rapporteringen av den här historien. Återigen, det är många samtal under en lång tidsperiod. Trodde du att Sam förändrades under loppet av rapporteringen under det senaste och ett halvt året?
Ja. Jag tror att en av de mest intressanta subplotterna i detta är att Sam Altman också talar om denna egenskap mer explicit än han har gjort tidigare. Sams hållning i det här stycket är inte som: "Det finns ingenting där, det här är inte sant; jag vet inte vad du pratar om." Den hållning han har är att han säger att detta beror på en tendens att tilltala människor och en slags konfliktaversion. Han erkänner att det orsakade problem för honom, särskilt tidigare i karriären.
Han säger, "Tja, jag går förbi det, eller har i viss mån gått förbi det." Jag tror att det som verkligen är intressant för mig är kontingenten av människor vi pratade med som inte bara var slags säkerhetsförespråkare, inte bara de underliggande tekniska forskarna som väldigt ofta tenderar att ha dessa akuta säkerhetsproblem, utan också pragmatiska, stora investerare. De är uppbackare till Sam, som i vissa fall tittar på den här frågan och talar om att han till och med hade spelat en nyckelroll när han kom tillbaka efter skjutningen. Nu, på denna fråga om huruvida han har reformerats, och i vilken utsträckning den förändringen är meningsfull, säger de, "Ja, vi gav honom tvivels fördel vid den tiden."
Jag tänker särskilt på en framstående investerare som sa: "Men sedan dess verkar det tydligt att han inte togs ut bakom vedboden", vilket var frasen som den här använde, i den utsträckning som var nödvändig. Som ett resultat verkar det som att detta nu är en stabil egenskap. Vi ser detta på ett kontinuerligt sätt. Du kan titta på några av OpenAI:s största företagrelationer och hur de liksom bär tyngden av den misstron på ett pågående sätt.
Precis som med Microsoft pratar man med chefer där borta, och de har verkligen akuta och nyligen katalyserade bekymmer. Det finns det här fallet där OpenAI, samma dag som OpenAI bekräftar sin exklusivitet med Microsoft med avseende på underliggande statslösa AI-modeller, också tillkännager ett nytt avtal med Amazon som handlar om att sälja företagslösningar för att bygga AI-agenter som är tillståndssäkra, vilket betyder att de har minne.
Du pratar med Microsoft-folk och de säger: "Det är inte möjligt att göra utan att interagera med de underliggande sakerna som vi har ett exklusivt avtal om." Så det är bara ett av många små exempel där denna egenskap har rankor i pågående affärsverksamhet hela tiden och är föremål för aktiv oro inom OpenAI:s styrelse, inom dess ledningsgrupp och i det bredare tekniska samhället.
Du fortsätter att säga det där "draget". Det finns en rad i berättelsen som för mig känns som avhandlingen, och det är en beskrivning av egenskapen du beskriver. Det är att "Sam Altman är obegränsad av sanningen" och att han har "två egenskaper som nästan aldrig ses hos samma person: den första är en stark önskan att behaga människor, att bli omtyckt i varje given interaktion, och den andra är en nästan sociopatisk brist på oro för konsekvenserna som kan komma av att lura någon."
Jag måste säga er att jag läste den meningen 500 gånger, och jag försökte föreställa mig att jag alltid skulle säga vad folk ville bli omtyckta och sedan inte bli upprörd när de kände sig ljuga för. Och jag kunde inte få mitt känslomässiga tillstånd att förstå hur dessa saker kan existera i samma person. Du har pratat mycket med Sam och du har pratat med människor som har upplevt dessa egenskaper. Hur gör han det?
Ja. Det är intressant på en mänsklig nivå eftersom jag närmar mig rapporteringsorgan på det här sättet med ett verkligt fokus på att humanisera vem som än befinner sig i hjärtat av det och söka djup förståelse och empati. När jag typ försökte närma mig det här från en mer mänsklig synvinkel och säga: "Hej, det här skulle vara förödande för mig om så många människor som jag har arbetat med sa att jag är en patologisk lögnare. Hur bär du den vikten? Hur pratar du om det i terapi? Vad är historien du berättar för dig själv om det?"
Jag fick någon sorts, enligt min uppfattning, kanske västkustens plattityder om det som, "Ja, jag gillar andningsarbete." Men inte mycket av den sortens stärkande känsla av djup självkonfrontation som jag tror att många av oss förmodligen skulle ha om vi såg den här typen av feedback om vårt beteende och vår behandling av människor.
Jag tror att det faktiskt gäller det bredare svaret på frågan också. Sam hävdar att denna egenskap har orsakat problem, men också att det är en del av det som har gett honom kraft att påskynda OpenAI:s tillväxt så mycket att han kan förena och tillfredsställa olika grupper av människor. Han övertygar ständigt alla dessa motstridiga valkretsar att det de bryr sig om är det han bryr sig om. Och det kan vara en riktigt användbar färdighet för en grundare. Jag har pratat med investerare som sedan säger: "Tja, det kanske är en mindre användbar färdighet för att faktiskt driva ett företag eftersom det sår så mycket oenighet."
Men på Sams personliga sida tror jag att det jag uppfattar när jag försöker ansluta på mänsklig nivå är den uppenbara bristen på djupare konfrontation, reflektion och självansvar, vilket också informerar om den supermakten eller ansvar för ett företag som förbereder sig för en börsnotering.
Han är någon som, med ord från en tidigare styrelseledamot vid namn Sue Yoon, som är med i stycket och säger att den fras hon använder till "fecklessness" är i stånd att verkligen tro på den skiftande verkligheten i hans försäljningsargument eller kan övertyga sig själv om dem. Eller åtminstone om han inte tror på dem, kan han blåsa igenom dem utan meningsfull självtvivel.
Jag tror att det som du pratar om, där du eller jag kan, när vi säger saken och inser att den strider mot den andra försäkran vi har gjort, kan ha ett ögonblick av att frysa eller kontrollera oss själva. Jag tror att det inte händer med honom. Och det finns en bredare Silicon Valley-hypekultur och grundarkultur som omfamnar det.
Det är roligt. The Verge bygger på vad som motsvarar produktrecensionerprogrammera. Det är hjärtat i det vi gör här. Jag har en biljon dollar i Apple FoU en gång om året och säger: "Den här telefonen är en sjua." Och det legitimerar liksom all vår rapportering och våra åsikter på andra håll. Vi har en utvärderande funktion, och vi spenderar så mycket tid på att bara titta på AI-produkterna och säga: "Fungerar de?"
Det känns som att det saknas i mycket av samtalet om AI som det är idag. Det finns oändliga samtal om vad det kan göra, hur farligt det kan vara. Och sedan borrar du ner, och du säger, "Gör den verkligen det som den ska göra idag?" I vissa fall är svaret ja. Men i många, många fall är svaret nej.
Det känns som att det ansluter till den hypekultur du beskriver och även till känslan av att, ja, om du säger att det kommer att göra något och det gör det inte, och någon mår dåligt, är det bra eftersom vi är inne på nästa sak. Det är i det förflutna. Och i synnerhet inom AI är Sam så bra på att göra storslagna löften.
Just den här veckan, jag tror att samma dag som din berättelse publicerades, släppte OpenAI ett policydokument som sa att vi måste tänka om det sociala kontraktet och få AI-effektivitetsstipendier från regeringen. Det här är ett stort löfte om hur viss teknik kan forma världens framtid och hur vi lever, och allt detta bygger på att tekniken fungerar på exakt det sätt som den kanske har lovat att fungera eller så borde den fungera.
Har du någonsin märkt att Sam tvivlar på AI förvandlas till AGI eller superintelligens eller kommer i mål? För det är det jag undrar mest över. Finns det någon reflektion om huruvida denna kärnteknologi kan göra alla de saker som de säger att den kan göra?
Det är helt rätt uppsättning frågor. Det finns trovärdiga teknologer som vi pratade med i denna rapport – och uppenbarligen är Sam Altman inte en sådan; han är en affärsperson - som säger att det sätt som Sam pratar om tidslinjen för den här tekniken bara är långt borta. Det finns blogginlägg som går tillbaka några år där Sam säger: "Vi har redan nått händelsehorisonten. AGI är i princip här. Superintelligens är runt hörnet. Vi kommer att vara på andra planeter. Vi kommer att bota alla former av cancer." Sannerligen, jag förskönar inte.
Den cancer är faktiskt intressant, att Sam hypar upp personen som teoretiskt botade sin hunds cancer med ChatGPT, och det hände helt enkelt inte. De pratade med ChatGPT, och det hjälpte dem att vägleda några forskare som faktiskt gjorde arbetet, men det en-till-en-verktyget som botade den här hunden är faktiskt inte historien.
Jag är glad att du tog upp den punkten eftersom jag vill gå vidare till den här större punkten om när både potentialen och risken med tekniken verkligen kommer att växa. Men det är värt att nämna dessa små sidor som ständigt händer från Sam Altman, där han verkar förkroppsliga denna egenskap om igen.
Jag menar, för att använda exemplet med WilmerHale-rapporten, där vi hade denna information som inte hade skrivits, och ville veta om den muntliga briefen längs vägen gavs till någon annan än de två styrelseledamöter Sam hjälpte till att installera för att övervaka den. Och han sa, "Ja, ja, nej, jag tror att det gavs till alla som gick med i styrelsen efter." Och vi har en person med direkt kännedom om situationen som säger att det helt enkelt är en lögn. Och det verkar verkligen vara fallet, att det är osant. Om vi vill vara generösa, kanske han var felinformerad.
Det finns många av dessa tillfälliga försäkringar. Och jag använder det exemplet delvis för att det är ett bra exempel på att demontera, låt oss kalla det, som kan få verkliga konsekvenser juridiskt. Jag behöver inte berätta för dig, enligt Delawares bolagsrätt, om detta företag börsintroduceras, kan aktieägare, enligt avsnitt 220, klaga på detta och kräva underliggande dokumentation. Det finns redan styrelsemedlemmar som säger saker som "Tja, vänta lite, den där briefingen borde ha hänt."
Så dessa saker som tycks hoppa ur munnen på honom hela tiden, de kan ha verkliga marknadseffekter, verkliga effekter för OpenAI. För att återföra det till den typ av utopiskt hypespråk som återuppstått, tror jag att det inte av en slump samma dag som detta stycke kom ut, påverkar oss alla, eftersom farorna är så akuta med avseende på hur det ärutplaceras i vapen, hur det används för att identifiera kemiska krigföringsmedel, desinformationspotentialen och på grund av det sätt på vilket den utopiska hypen verkar få många trovärdiga ekonomer att säga: "Detta har alla tecken på en bubbla."
Till och med Sam Altman har sagt: "Någon kommer att förlora mycket pengar här." Det skulle verkligen kunna kratera en hel del amerikansk och global ekonomisk tillväxt, om det är som en verklig punktering av en bubbla som involverar alla dessa företag som gör affärer med varandra, går all in på AI samtidigt som de lånar så mycket. Så vad Sam Altman säger spelar roll, och jag tror att övervikten av människor runt honom, du nämnde att vi pratade med mer än hundra, det var faktiskt långt över hundra. Vi hade en konversation vid mållinjen där det var som: "Skulle det vara för småaktigt att säga att det är så här mycket högre?" Och vi var som, "Ja, låt oss tona ned. Vi ska spela det coolt." Men det var så många människor och en så betydande majoritet av dem sa: "Detta är ett problem." Och jag tror att det är allt därför.
Låt mig fråga dig om det numret. Som du nämnde blev folk mer och mer öppna med farhågorna allt eftersom. Det känns som att trycket runt bubblan – loppet att vinna, att betala av all denna investering, att framstå som vinnare, till IPO – har förändrat många attityder. Det skapade verkligen mer press på Sam och OpenAI.
Vi publicerade en berättelse den här veckan bara om vibbarna i OpenAI. Din berättelse är en del av det, men massiva personalförändringar i de verkställande leden på OpenAI - människor kommer och går. Forskarna är alla på väg bort, till stor del till Anthropic, vilket jag tycker är riktigt intressant. Du kan bara se att det här företaget känner pressen, och det svarar på det trycket på något sätt.
Men så tänker jag tillbaka på att Sam fick sparken. Det här är bara minnesvärt för mig. Det är minnesvärt för ingen annan, men jag tog ett källsamtal på Bronx Zoo klockan 19 på en fredag, och det var någon som sa att de skulle försöka få tillbaka Sam. Och sedan tillbringade vi helgen med att jaga den historien. Och jag var precis som, "Jag är i djurparken. Vad vill du att jag ska göra här?" Och svaret var: "Håll på telefonen." Tja, min dotter var som, "Släpp luren." Och det är vad jag gjorde.
Det var ride or die för att få tillbaka Sam. Det företaget var som, "Nej, vi låter inte styrelsen sparka Sam Altman." Investerarna, de citeras i ditt stycke, "Vi gick i krig", tror jag, är Thrive Capital-positionen, "för att få tillbaka Sam." Microsoft gick ut i krig för att få tillbaka Sam. Det är senare och nu säger alla, "Vi ska till börsintroduktion. Vi kom till mållinjen. Vi fick tillbaka vår kille och han kommer att ta oss till mållinjen. Vi är oroliga att han är en lögnare."
Varför var det ett krig att få tillbaka honom då? För det verkar inte som att något faktiskt har förändrats. Du talar om de PM som Ilya Sutskever och [Antropisk VD] Dario Amodi behöll medan de var samtida med Sam Altman. Ilyas största oro var att Sam är en lögnare.
Inget av det har förändrats. Så varför var det krig att ta tillbaka honom då? Och nu när vi är i mål verkar det som att alla bekymmer är ute i det fria.
Tja, först och främst, ledsen till din dotter och min partner och alla andra människor runt journalisterna.
[Skrattar] Det var en ganska helg för alla.
Ja, det tar över ens liv, och den här historien har definitivt mitt, under den senaste tiden. Det relaterar faktiskt till det här temat journalistik och tillgång till information, tror jag. Investerarna som gick i krig för Sam och alla spelade roller för att se till att han kom tillbaka, och styrelsen som hade utformats specifikt för att skydda en ideell organisations uppdrag att sätta säkerhet framför tillväxt och att sparka en chef om de inte kunde lita på det, de gick bort. Det var allt för att, ja, marknadsincitamenten fanns där, eller hur?
Sam kunde övertyga folk, "Ja, företaget kommer bara att falla samman." Men anledningen till att han hade stöd var brist på information. Dessa investerare, i många fall, säger nu: "Jag ser tillbaka och jag tror att jag borde ha haft mer oro om jag hade vetat fullt ut vad anspråken var och vad oron var."
Inte alla;åsikterna varierar, och vi citerar en rad åsikter, men det finns betydande åsikter som agerade på mycket ofullständig information. Brädan som sparkade Sam var, enligt en person som brukade vara med på brädet, "mycket JV", och de fumlade bollen hårt. Och vi dokumenterar de underliggande klagomålen, och folk kan själva bestämma om det ackumuleras till den typ av brådskande oro de ansåg att det var, men det argumentet och den informationen presenterades inte.
De fick vad vissa av dem nu erkänner som dålig juridisk rådgivning. För att beskriva det kommer du att komma ihåg citatet, och förmodligen kommer många av dina lyssnare och tittare att minnas citatet som en brist på uppriktighet. Det var vad det reducerades till, och då tog de i princip inte emot samtal.
De ville inte ta emot samtal. Jag är säker på att du försökte. Alla jag känner försökte, och det kom till en punkt där du som journalist inte ska ge dina källor råd, men jag tänkte: "Det här kommer att försvinna om du inte börjar förklara dig själv."
Och det var vad som hände. Glöm journalister. Du fick Satya Nadella att säga, "Vad fan hände? Jag kan inte få någon att förklara för mig." Och det är företagets stora finansiella stödjande. Och så har du Satya som ringer [LinkedIn medgrundare] Reid Hoffman och Reid ringer runt och säger, "Jag vet inte vad fan som hände."
De är förståeligt nog i det tomrummet av information och letar efter de traditionella icke-AI-indikatorerna som skulle motivera en så brådskande, plötslig avfyring. Som, okej, var det sexbrott? Var det förskingring? Och hela det subtila, men jag tror meningsfulla, argumentet att den här tekniken är annorlunda och att denna typ av en stadig ansamling av mindre svek kan ha meningsfulla insatser både för den här verksamheten och kanske för världen, gick till stor del förlorat. Så kapitalistiska incitament vann ut, men också människorna som gjorde det gick ut och arbetade inte alltid med fullständig information.
Jag vill bara fråga om aspekten "vad alla trodde att det var" för ett ögonblick, för jag såg verkligen nyheterna, och jag sa, "Åh, något dåligt måste ha hänt." Du har gjort många #MeToo-rapporter, känt. Du bröt historien om Harvey Weinstein.
Du tillbringade mycket tid med att rapportera om dessa påståenden som jag tror att du i slutändan ansåg var ogrundade: att Altman sexuellt övergrepp minderåriga eller anställde sexarbetare, eller till och med mördade en OpenAI-visselblåsare. Jag menar, du är den person som kan rapportera det här mest rigoröst. Bestämde du dig för att det inte blev någonting?
Tja, se, jag är inte inne på att säga att något har blivit ingenting. Vad jag kan säga är att jag tillbringade månader med att titta på dessa påståenden och inte hittade bekräftelse för dem. Och det var slående för mig att dessa killar, dessa företag som har så mycket makt över vår framtid, verkligen spenderar oproportionerligt mycket av sin tid och sina resurser i en barnslig lerkamp.
En chef beskriver det som "Shakespearean". Mängden privatutredares pengar och oppositionshandlingarna som sammanställs är obevekliga. Och det olyckliga är att den sortens snälla grejer, som blir papegojade av Sams konkurrenter, bara är ett faktum, eller hur? Det finns det här påståendet om att han förföljer minderåriga pojkar, och på många cocktailpartyn i Silicon Valley hör du detta. På konferenskretsen har jag bara hört det upprepas av trovärdiga, framstående chefer: "Alla vet att detta är ett faktum."
Det tråkiga är att jag pratar om var detta kommer ifrån, de olika vektorerna som det överförs med. Elon Musk och hans medarbetare tycks driva riktigt hårda ärenden som inte blir till någonting. De är vaporous när du faktiskt börjar titta på de underliggande påståendena. Det tråkiga är att det verkligen skymmer den mer evidensbaserade kritiken här som jag tycker verkligen förtjänar brådskande tillsyn och beaktande.
Det andra temat som verkligen kommer fram i berättelsen är nästan en känsla av rädsla för att Sam har så många vänner - han har investerat i så många företag från sin tidigare roll som VD för Y Combinator, bara till hans personliga investeringar, av vilka några är i direkt konflikt med hans roll som VD för OpenAI - och det är tyst runt honom.
Det slog mig när jag läste en rad i synnerhet. Du beskriver Ilya Sutskevers memon, och de är precis ute i Silicon Valley. Allakallar dem Ilya-memonen. Men det är till och med tyst runt det. De skickas runt, men de diskuteras inte. Var tror du att det kommer ifrån? Är det rädsla? Är det en önskan att få en ängelinvestering? Var kommer det ifrån?
Jag tycker att det är mycket feghet, ska jag vara ärlig. Efter att ha rapporterat om nationella säkerhetshistorier där källorna är whistleblowers som riskerar att förlora allt och åtalas, gör de fortfarande rätt och pratar om saker för att skapa ansvar. Jag har arbetat på de sexbrottsrelaterade berättelserna som du nämnde, där källor är djupt traumatiserade och fruktar en mycket personlig typ av vedergällning.
I många fall kring detta beat har du att göra med människor med sin egen profil och makt. Antingen är de kända personer själva eller så är de omgivna av kända personer. De har ett robust affärsliv. Enligt min åsikt är det faktiskt väldigt låg exponering för dem att prata om det här. Och tack och lov rör sig nålen som vi pratade om tidigare, och folk pratar nu mer.
Men under en så lång tid har folk egentligen bara hållit käften om det eftersom jag tror att Silicon Valley-kulturen bara är så hänsynslöst egenintresserad och hänsynslöst affärs- och tillväxtorienterad. Så jag tror att det här drabbar även en del av de personer som var inblandade i att sparka Sam, där man dagarna efter såg en faktor som ledde till att han kom tillbaka och sparkade gamla styrelseledamöter var att han samlade investerare som var förvirrade till hans sak.
Men en annan är att så många andra människor runt omkring som hade oron och uttryckte dem brådskande bara veks som servetter och ändrade låt i samma ögonblick som de såg att vinden blåste åt andra hållet och de ville in på profittåget.
Det är ganska mörkt, ärligt talat, ur min synvinkel som reporter.
Några av dessa människor är Mira Murati, som jag tror under 20 minuter var den nya VD:n för OpenAI. Hon byttes sedan ut. Det var en mycket komplicerad dynamik, och uppenbarligen kom Sam tillbaka. Den andra personen är Ilya Sutskever, som var en av rösterna för att ta bort Sam, och sedan ändrade han sig, eller sa åtminstone att han ändrade sig, och sedan gick han för att starta sitt eget företag. Vet du vad som fick honom att ändra sig? Var det bara pengar?
Tja, och för att vara tydlig, jag pekar inte ut dessa två. Det finns andra styrelseledamöter som var inblandade i eldningen som också blev väldigt tysta efter. Jag tror att det är som ett större kollektivt problem. Dessa är, i vissa fall, människor som hade den moraliska fibern att slå larm och vidta radikala åtgärder, och det är att berömma. Och det är så du säkerställer ansvar. Det kunde ha hjälpt många människor som påverkas av den här tekniken. Det kunde ha hjälpt en bransch att förbli mer meningsfullt säkerhetsfokuserad.
Men när du har att göra med whistleblowers och människor som försöker få till det ansvaret mycket, ser du också att det tar fibern att sticka ut och stå för din övertygelse. Och den här branschen är verkligen full av människor som helt enkelt inte står fast vid sin övertygelse.
Även om de tror att de bygger en digital Gud som på något sätt antingen kommer att eliminera allt arbete eller skapa mer arbete, eller så kommer något att hända.
Tja, det är grejen. Så kulturen att inte stå för din övertygelse och alla etiska problem som faller i vägen i det ögonblick det finns någon hetta eller något som kan hota din egen ställning i branschen är kanske bra och bra i någon mån för business-as-usual-företag som gör vilken typ av widget som helst.
Men det här är också samma människor som säger, "Det här kan bokstavligen döda oss alla." Och återigen, du behöver inte gå till Terminator Skynet-extremiteten. Det finns en rad risker som redan förverkligas. Det är verkligt, och de gör rätt i att varna för det, men du måste låta någon annan fåtölj psykologisera hur de två sakerna kan leva i samma människor där de låter de brådskande varningarna, de kanske sätter en tå i och försöker göra något, och sedan fälls de ihop och tystnar.
Det är just därför man kan ha sådana här fall av att saker hålls borta från skrift och saker sopas under mattan, och ingen pratar öppet om det i flera år efter det.
Den naturliga, ansvariga parten här skulle inte vara VD:arna för dessa företag; det skulle vara regeringar. I USA, kanskedet är delstatsregeringar, kanske är det den federala regeringen.
Visst, dessa företag vill alla vara globala. Det finns många globala konsekvenser här. Jag såg OpenAI, Google och Anthropic alla få Biden-administrationen att släppa en AI-exekutiv order. Det var ganska tandlöst till slut. Det stod bara att de var tvungna att prata om vad deras modeller kunde och släppa några säkerhetstester. Och sedan backade de alla Trump, och Trump kom in och utplånade allt det där och sa: "Vi måste vara konkurrenskraftiga. Det är fritt fram för alla. Go for it."
Samtidigt försöker de alla samla in pengar från länder i Mellanöstern som har massor av oljepengar och vill förändra sina ekonomier. Det är politiker. Jag tycker att politiker definitivt borde förstå att någon pratar från båda sidor om munnen, och de kommer inte att bli alltför upprörda om någon blir besviken i slutändan, men politikerna blir också tagna på en tur. Varför tror du det är det?
Det är verkligen, tror jag, varför stycket är viktigt enligt min uppfattning och varför det var värt att lägga all denna tid och detaljer på. Vi befinner oss i en miljö där de system som, som du säger, borde ge tillsyn bara är urholkade. Det är ett post-Citizens United America, där flödet av pengar är så obegränsat, och det är en speciell koncentration av det problemet kring AI, där det finns dessa PACs som sprider sig och översvämmar pengar till att avskaffa meningsfull reglering på både statlig och federal nivå.
Du har [OpenAI medgrundare] Greg Brockman, Sams näst befälhavare, som direkt bidrar på ett stort sätt till ett par av dessa. Det leder till en situation där det verkligen finns tillfångatagande av lagstiftare och potentiella tillsynsmyndigheter, och det är en svår spiral att ta sig ur. Det tråkiga är att jag tror att det finns enkla politiska drag, av vilka några prövas på andra håll i världen, som skulle hjälpa till med några av dessa ansvarsproblem.
Du kan ha fler obligatoriska säkerhetstester före utplacering, vilket är något som redan händer i Europa för frontiermodeller. Man skulle kunna ha strängare krav på skrivna offentliga register för den typ av interna utredningar där vi såg att saker hölls skrivna i det här fallet. Du skulle kunna ha en mer robust uppsättning mekanismer för nationell säkerhetsgranskning för den typ av infrastrukturambitioner i Mellanöstern som Sam Altman drev.
Som du säger, han gjorde det här betet och bytte med Biden-administrationen, och sa: "Reglera oss, reglera oss" och hjälpte dem att skapa en verkställande order, och sedan i samma ögonblick som Trump kommer in, verkligen under de första dagarna, bara stoppade, "Låt oss accelerera och låt oss bygga ett massivt datacentercampus i Abu Dhabi." Du skulle kunna ha, det här är väldigt enkelt, som skydd för whistleblower. Det finns ingen federal lag som skyddar AI-företagsanställda som avslöjar den här typen av säkerhetsproblem som sänds i det här stycket.
Vi har fall där Jan Leike, som var en senior säkerhetskille på OpenAI, ledde superinriktningen på företaget. Han skriver till styrelsen, huvudsakligen whistleblower material, och säger att företaget går av stapeln på sitt säkerhetsuppdrag. Det är den typen av människor som faktiskt borde ha ett tillsynsorgan de kan gå till, och de borde ha uttryckliga lagstadgade skydd av det slag som vi ser inom andra sektorer. Detta är enkelt att replikera en Sarbanes-Oxley-stil.
Jag tror att trots hur akut problemet är med att Silicon Valley tar kontroll över alla maktens spakar, och trots hur urholkade vissa av dessa institutioner som kan ge tillsyn och skyddsräcken är, tror jag fortfarande på den grundläggande matematiken om demokrati och egenintresserade politiker. Och det dyker upp fler och fler omröstningsdata som en majoritet av amerikanerna tror att farhågorna, frågorna eller riskerna med AI för närvarande överväger fördelarna.
Så jag tror att översvämningen av pengar till politiken från AI, det ligger inom all vår makt att göra det till en källa till ett frågetecken med avseende på politiker. När amerikaner går och röstar bör de granska om de människor de röstar på, särskilt om de är okritiska och anti-reglering, med tanke på alla dessa farhågor, är bankrullade av stora tekniska specialintressen. Så jag tror att om folk kan läsa sådana här stycken, lyssna på poddar som denna och bry sig nog att tänka kritiskt omderas beslut som väljare finns det en verklig möjlighet att skapa en valkrets i Washington av representanter som håller ett öga på och tvingar fram tillsyn.
Det kan vara en av de mest optimistiska sakerna jag någonsin hört någon säga om den nuvarande AI-industrin. Jag uppskattar det. Jag är besatt av den omröstning du pratar om. Det finns mycket av det nu. Det hela är ganska konsekvent, och det ser ut som att ju fler unga människor, i synnerhet, utsätts för AI, desto mer misstroende och arga är de över det. Det är valensen i alla omröstningar. Och jag tittar på det, och jag tror, ja, ja, smarta politiker skulle bara köra emot det. De skulle bara säga, "Vi kommer att hålla stora tekniker ansvariga."
Sedan tänker jag på de senaste 20 åren, en politiker som sa att de kommer att hålla stora tekniker ansvariga, och jag kämpar för att ens ett ögonblick av stortekniker hålls ansvariga. Det enda som får mig att tro att det här kan vara annorlunda är, ja, du måste faktiskt bygga datacenter, och du kan rösta mot det, och du kan göra en petition mot det, och du kan protestera mot det.
Jag tror att det finns en politiker som just fick sitt hus beskjutet för att de röstade på ett datacenter. Spänningen når, skulle jag kalla det, ett febersteg. Du har beskrivit öarna i Silicon Valley. Detta är ett slutet ekosystem. Det känns som att de tror att de kan styra världen. De lägger massor av pengar på politiken, och de möter verkligheten att folk inte älskar produkterna, vilket inte ger dem mycket skydd. Ju mer de använder produkterna, desto mer upprörda är de, och politikerna börjar se att det finns verkliga konsekvenser av att stödja teknikindustrin framför människorna de representerar.
Du har pratat med så många människor. Tror du att det är möjligt för teknikindustrin att lära sig den läxa som ligger framför dem?
Du säger att det känns som att de tror att de kan styra världen utan ansvar. Jag tror inte ens att det behöver "känns som"-kvalet. Jag menar, du tittar på språket Peter Thiel använder, det är tydligt. Naturligtvis är det ett extremt exempel. Och Sam Altman, även om han i viss mån är nära och informerad om Thiels ideologi, är en helt annan typ av person som kanske låter annorlunda och mer mätt till en viss punkt.
Men jag tror att den bredare ideologin som du får från Thiel, som i grunden är: Vi är klara med demokrati, vi behöver den inte längre. Vi har så mycket att vi bara vill bygga våra egna små bunkrar. Vi har inte att göra med Carnegies längre eller Rockefellers längre, där de är skurkar, men de känner att de behöver delta i ett socialt kontrakt och bygga saker åt människor. Det är en verklig nihilism som är på väg.
Och jag tror att det bara har varit en ömsesidigt förstärkande spiral under den senaste tidens amerikanska historia där moguler och privata företag skaffar sig superstatlig makt medan demokratiska institutioner som kan hålla dem ansvariga är urholkade. Jag känner mig inte optimistisk inför tanken att de där killarna kanske bara vaknar upp en dag och tänker, "Huh, faktiskt kanske vi behöver delta i samhället och hjälpa till att bygga saker för människor."
Jag menar, du ser på som det mikrokosmiska exemplet på The Giving Pledge, där det fanns ett ögonblick där det tycks vara välgörande, och det ögonblicket är nu förbi och till och med förlöjligat. Det är ett problem, det bredare problemet med bristande ansvarsskyldighet som jag tror bara kan lösas extrinsiskt. Det måste vara väljarna som mobiliserar och återupplivar makten hos regeringens tillsyn. Och du har helt rätt när du säger att den huvudsakliga vektorn genom vilken människor kanske kan uppnå det är lokal. Det har att göra med var infrastruktur byggs.
Du nämnde en del av den glödheta spänningen kring detta som leder till våld och hot, och självklart ska ingen vara våldsam eller hotfull. Och jag är inte heller här för att ge specifika policyrekommendationer annat än att bara presentera några av de politiska stegen som verkar grundläggande och som fungerar på andra håll i världen, eller hur? Eller de som har arbetat inom andra sektorer. Jag är inte här för att säga vilken av dessa som ska utföras och hur.
Jag tror att något måste hända, och det måste vara externt, inte bara lita på dessa företag. För rättnu har vi en situation där de företag som utvecklar tekniken och är bäst rustade att förstå riskerna, och i själva verket är de som varnar oss för riskerna, också är de som inte har något annat än incitament att gå snabbt och ignorera dessa risker. Och du har bara inget som uppväger det. Så vilka reformer än kan ta i form av detaljer, något måste möta det. Och jag återgår fortfarande till den optimismen att människorna fortfarande betyder något.
Jag köper generellt ditt argument. Låt mig bara göra det lilla motargumentet som jag tror att jag kan formulera. Det andra som kan hända utanför valurnan är att bubblan poppar, eller hur? Att inte alla dessa företag kommer i mål och att det inte finns en produktmarknad som är lämplig för AI-tillämpningar för konsumenter. Och återigen, jag ser det inte riktigt än, men jag är en konsumentteknikrecensent, och kanske har jag bara högre standarder än alla andra.
Det finns en produktmarknadsanpassning i affärsvärlden, eller hur? Att låta ett gäng AI-agenter skriva en massa mjukvara verkar vara en riktig marknad för dessa verktyg. Och du kan läsa argumenten från dessa företag som säger: "Vi har löst kodning, och det betyder att vi kan lösa vad som helst. Om vi kan göra mjukvara kan vi lösa alla problem."
Jag tror att det finns verkliga gränser för vad programvara kan göra. Det är bra i affärsvärlden. Programvara kan inte lösa alla problem i verkligheten, men de måste komma dit. De fick slutföra jobbet, och kanske inte alla kommer i mål. Och det blir en krasch, och den här bubblan poppar, och kanske OpenAI eller Anthropic eller xAI, ett av dessa företag misslyckas, och all denna investering försvinner.
Tror du att det skulle påverka detta? Låt mig faktiskt ställa den första frågan först. OpenAI är precis på gränsen till en börsnotering. Det finns många tvivel om Sam som ledare. Tror du att de kommer att ta sig i mål?
Jag tänker inte prognosticera, men jag tror att du tar upp en viktig punkt, som är att marknadsincitament har betydelse internt för Silicon Valley, och den osäkra situationen i den nuvarande bubbeldynamiken kommer att avbryta, återigen, potentiellt, enligt kritiker, kapplöpningen till botten när det gäller säkerhet.
Jag skulle också lägga till det, om du tittar på historisk företräde där det finns en liknande och till synes ogenomtränglig uppsättning marknadsincitament och potentiellt skadliga effekter för allmänheten, det finns rättstvister. Och du ser det som ett orosområde på sistone. Sam Altman är där ute den här veckan och stöder lagstiftning som skulle skydda AI-företag från några av de typer av ansvar som OpenAI har utsatts för i olagliga dödsfall, till exempel. Naturligtvis finns det en önskan att ha den skölden från ansvar.
Jag tror att domstolarna fortfarande kan vara en meningsfull mekanism, och det ska bli riktigt intressant att se hur dessa processer formas. Du har redan sett, till exempel, grupptalan, som jag och många, många andra författare jag känner är medlemmar i, mot Anthropic för deras användning av böcker som var under copyright. Om det finns smarta juridiska hjärnor och målsägande som bryr sig, som vi historiskt sett i fall från stor tobak till stor energi, kan du också få några skyddsräcken och några incitament att sakta ner, vara försiktiga eller skydda människor på det sättet.
Det känns som att hela kostnadsstrukturen för AI-industrin hänger på en mycket, mycket välgörande tolkning av skälig användning. kommer inte upp tillräckligt. Kostnadsstrukturen för dessa företag kan komma utom kontroll om de måste betala dig och alla andra vars arbete de har tagit, men det är obekvämt att tänka på, så vi tänker bara inte på det. Alldeles bredvid går nu alla dessa produkter med förlust. Som idag går de alla med förlust. De bränner mer pengar än de kan tjäna. Vid något tillfälle måste de vända strömbrytaren.
Sam är en affärsman. Som du har nämnt flera gånger, han är ingen teknolog. Han är en affärsman. Tror du att han är redo att vända strömbrytaren och säga, "Vi ska tjäna en dollar?" För när jag frågar, "tror du att OpenAI kommer att klara det?" Det är när de måste tjäna en dollar. Och hittills har Sam tjänat alla sina dollar genom att be andra människor om deras pengar istället för att låta hans företag tjäna pengar.
Tja, det är en stor kvardröjande fråga för Silicon Valley, för investerare, för allmänheten.Du ser några uttalanden och flyttningar från OpenAI som verkar tyda på en sorts panik om det. Stänger av Sora, stänger ner några kringprojekt, försöker nollställa kärnprodukten. Men å andra sidan ser du fortfarande, samtidigt, massor av uppdragskrypning, eller hur? Även ett litet exempel – det är uppenbarligen inte kärnan i deras verksamhet – är TBPN-förvärvet.
Förresten, precis när vi var i mål och kollade fakta, skaffar företaget som står inför den här typen av journalistisk granskning en plattform där de kan ha mer direkt kontroll över konversationen. Jag tror att det finns många investerare som är oroliga, baserat på de samtal jag har haft, att problemet med att lova allt till alla människor också sträcker sig till denna brist på fokus i kärnverksamhetsmodellen. Och jag menar, du är närmare den typen av prognostisering och titta på marknaden än vad jag förmodligen är. Jag låter dig och lyssnarna bedöma om de tror att OpenAI kan vända omkopplaren.
Tja, jag ställde frågan för att du har ett citat i stycket från en senior Microsoft-chef, och det är att "Sams arv kan sluta mer likt Bernie Madoff eller Sam Bankman-Fried," snarare än Steve Jobs. Det är en ganska jämförelse. Vad tyckte du om den jämförelsen?
Jag tror att det är en omskrivning. Steve Jobs-delen var inte en del av citatet. Men det finns en intressant sorts nykterhet i det eftersom det är formulerat som "Jag tror att det finns en liten men verklig chans att han kommer att bli en SBF eller en bedragare på Madoff-nivå." Menar, enligt min mening, inte att Sam anklagas för dessa specifika typer av bedrägerier eller brott, utan att graden av förvirring och bedrägeri från Sam kan ha en chans att i slutändan bli ihågkommen i den skalan.
Ja, jag tror att det som är mest slående med det citatet, ärligt talat, är att du ringer runt på Microsoft och du får inte något liknande, "Det är galet. Det har vi aldrig hört." Du får många som "Japp, många människor här tror det" vilket är anmärkningsvärt. Och jag tror att det handlar om de här affärsfrågorna.
En investerare sa till mig till exempel i ljuset av hur den här egenskapen har bestått under åren efter eldsjälen” – och detta tyckte också att det var en intressant nykter tanke – att det inte nödvändigtvis är att Sam ska vara längst ner på listan, liksom att det borde vara den lägsta av de låga när det gäller de människor som absolut inte får bygga den här tekniken, för vad det är värda människor som Elon är värda. placerar honom kanske längst ner på listan över personer som borde bygga AGI, och under flera andra ledande personer inom detta område.
Så jag tyckte att det var en intressant bedömning, och det är den typen av tänkande jag tror att man får från verkliga pragmatiker som kanske inte köper så mycket in i säkerhetsproblemen. De är bara tillväxtorienterade och de tror att OpenAI nu har ett problem med Sam Altman.
Microsoft-biten är verkligen intressant. Det företaget trodde att de var i toppen av världen. Att de hade gjort den här investeringen och att de skulle hoppa över alla, särskilt och viktigast av allt, Google, och komma tillbaka till konsumenternas goda bekvämligheter. Den nivå till vilken de känner sig brända av det här äventyret – det här är ett väldigt nyktert företag – tror jag inte kan överskattas.
Du nämnde karaktärerna och personlighetsdragen. Jag vill avsluta här med en fråga från våra lyssnare. Jag sa i vår andra serie, The Vergecast, att jag skulle prata med dig, och jag sa: "Om du har frågor till Ronan om den här historien, låt mig veta." Så vi har en här som jag tycker stämmer väl överens med det du beskriver. Jag ska bara läsa den för dig:
"Hur skiljer sig motiveringen för dåligt beteende, mördande handlingar från Altman och andra AI-ledare, från motiveringarna som Ronan har hört från andra högprofilerade ledare inom politik och media? Rättfärdigar inte de alla sina handlingar med att det är så här världen förändras? Om jag inte gör det här kommer någon annan att göra det?”
Ja, det finns mycket av det där. Jag skulle säga att det som är utmärkande för AI är att de existentiella insatserna är så unikt höga betyder att båda riskuttalandena är extrema, eller hur? Du har Sam Altmanatt säga, "Det här kan bli ljus för oss alla." Och även, kan kritiker säga, den mani som frågeställaren syftar på är extrem, eller hur?
Det som Sam anklagade Elon för var att han kanske vill rädda mänskligheten, men bara om det är han. Den typ av egokomponent att vilja vinna, som är en inramning Sam använder hela tiden, och att det här är en för historieböckerna, detta kan förändra allt. Så därför, även utöver "du måste bryta några ägg"-tänkesättet hos de flesta Silicon Valley-företag, finns det, i huvudet på några personer som leder AI, tror jag, en fullständig rationalisering för alla nedfall.
Och glöm att bryta ägg. Jag/tror att många av de underliggande säkerhetsforskarna skulle säga att de potentiellt riskerar att slå sönder landet, krossa världen och slå sönder miljontals människor vars jobb och säkerhet hänger i balans – det är det som är unikt med det. Det är där jag avslutar, reflekterar över denna rapport, och tror verkligen att det handlar om mer än Sam Altman. Det här handlar om en bransch som är obegränsad och ett spiralproblem med att Amerika inte kan begränsa den.
Ja. Tja, vi hade en viss optimism där, men jag tror att det är ett bra ställe att lämna den.
[Skrattar] Avsluta med en nedgång.
Naturligtvis. Det är verkligen varje bra historia. Musk-Altman-rättegången är nära. Jag tror att vi kommer att lära oss mycket mer här. Jag misstänker att jag kommer att vilja prata med dig igen. Ronan Farrow, tack så mycket för att du är på Decoder.
Tack.
Frågor eller kommentarer om detta avsnitt? Kontakta oss på [email protected]. Vi läser verkligen varje mejl!