Oggi su Decoder parlo con Ronan Farrow, una delle più grandi star del giornalismo investigativo oggi attivo. Ha svelato la storia di Harvey Weinstein, tra molte, molte altre. E proprio la scorsa settimana, lui e il coautore Andrew Marantz hanno pubblicato un incredibile articolo di approfondimento sul New Yorker sul CEO di OpenAI Sam Altman, sulla sua affidabilità e sull'ascesa della stessa OpenAI.
Una nota prima di andare oltre: il New Yorker ha pubblicato quella storia e Ronan e io abbiamo avuto questa conversazione prima di conoscere l’intera portata degli attacchi alla casa di Altman, quindi non ci sentirete parlarne direttamente. Ma giusto per dirlo, penso che la violenza di qualsiasi tipo sia inaccettabile, questi attacchi a Sam erano inaccettabili e che il tipo di impotenza che provano le persone, che porta a questo tipo di violenza, è di per sé inaccettabile e merita molto più controllo sia da parte dell’industria che dei nostri leader politici. Spero che sia chiaro.
Abbonati a Verge, non dimenticate che avrete accesso esclusivo a Decoder senza pubblicità ovunque troviate i vostri podcast. Vai qui. Non sei abbonato? Puoi iscriverti qui.
Detto questo, c’è molto che vortica intorno ad Altman e che è un gioco leale per un reporting rigoroso – il tipo di reporting che Ronan e Andrew si proponevano di fare. Grazie alla popolarità di ChatGPT, Altman è emerso come la figura più visibile del settore dell'intelligenza artificiale, avendo trasformato in pochi anni un laboratorio di ricerca senza scopo di lucro in un'azienda privata da quasi trilioni di dollari. Ma il mito di Altman è profondamente conflittuale, ugualmente definito sia dalla sua evidente capacità di concludere accordi sia dalla sua tendenza a... beh, mentire a tutti coloro che lo circondano.
La storia è lunga più di 17.000 parole e contiene probabilmente il resoconto definitivo di ciò che accadde nel 2023, quando il consiglio di amministrazione di OpenAI licenziò improvvisamente Altman per la sua presunta menzogna, solo per essere riassunto quasi immediatamente. È anche un tuffo nella vita personale di Altman, nei suoi investimenti, nel suo corteggiamento per il denaro mediorientale e nelle sue riflessioni sul suo comportamento passato e sui tratti caratteriali che hanno portato una fonte a dire che non era "vincolato dalla verità". Ti consiglio davvero di leggere l'intera storia; Sospetto che verrà fatto riferimento per molti anni a venire.
Ronan ha parlato con Altman molte volte nel corso dei 18 mesi trascorsi a riferire questo pezzo, quindi una delle cose principali che mi incuriosiva era se avesse percepito qualche cambiamento in Altman in quel periodo. Dopotutto, nell’ultimo anno e mezzo sono successe molte cose nel campo dell’intelligenza artificiale, della tecnologia e del mondo.
Sentirai Ronan parlare di questo in modo molto diretto, così come della sua sensazione che le persone siano diventate molto più disposte a parlare della capacità di Altman di distorcere la verità. Le persone stanno iniziando a chiedersi, ad alta voce e pubblicamente, se il comportamento di persone come Altman sia preoccupante, non solo per l’intelligenza artificiale o la tecnologia, ma anche per il futuro collettivo della società.
Ok: Ronan Farrow su Sam Altman, l'intelligenza artificiale e la verità. Eccoci qui.
Questa intervista è stata leggermente modificata per motivi di lunghezza e chiarezza.
Ronan Farrow, sei un giornalista investigativo e collaboratore del New Yorker. Benvenuti in Decodificatore.
Sono felice di essere qui. Grazie per avermi ospitato.
Sono molto entusiasta di parlare con te. Hai appena scritto un pezzo importante per il New Yorker. È un profilo di Sam Altman e, più o meno, di OpenAI. La mia interpretazione è che, come fanno tutti i grandi film, con un resoconto rigoroso, convalida molti sentimenti che le persone hanno avuto nei confronti di Sam Altman per molto tempo. Ovviamente l'hai pubblicato, hai ricevuto reazioni. Come ti senti a riguardo in questo momento?
Beh, in realtà sono rincuorato dalla misura in cui è riuscita a sfondare in un’epoca in cui l’economia dell’attenzione è così schizofrenica e superficiale. Questa è una storia che, a mio avviso, riguarda tutti noi. E quando ho trascorso un anno e mezzo della mia vita, e anche il mio coautore, Andrew Marantz, ha trascorso quel tempo, cercando davvero di fare qualcosa di forense e meticoloso, è sempre perché sento che ci sono problemi strutturali più grandi che colpiscono le persone oltre l'individuo e l'azienda al centro della storia.
Sam Altman, sullo sfondo della cultura pubblicitaria della Silicon Valley e delle startup che si gonfiano verso valutazioni massicce basate su promesse che potrebbero o meno realizzarsi in futuro, e un crescente abbraccio di una cultura del fondatore che pensa che dire a gruppi diversi cose diverse e contrastanti sia una caratteristica, non unbug... Anche in questo contesto, Sam Altman è un caso straordinario in cui tutti nella Silicon Valley che si aspettano queste cose non riescono a smettere di parlare della questione della sua affidabilità e della sua onestà.
Sapevamo già che era stato licenziato per qualche versione di accuse di disonestà o di presunte bugie seriali. Ma straordinariamente, nonostante il fatto che ci siano stati dei reportage meravigliosi, Keach Hagey ha fatto un ottimo lavoro su questo. Karen Hao ha fatto un ottimo lavoro su questo. In realtà non c’era una comprensione definitiva delle reali presunte prove e delle ragioni per cui sono rimaste nascoste agli occhi del pubblico.
Quindi il punto numero uno è che mi sento rincuorato dal fatto che alcune di quelle lacune nella nostra conoscenza pubblica, e anche nella conoscenza degli addetti ai lavori della Silicon Valley, ora sono state un po’ più colmate. Alcune delle ragioni per cui c'erano delle lacune sono state colmate un po' di più.
Riportiamo casi in cui le persone all'interno di questa azienda hanno avuto la sensazione che le cose fossero nascoste o deliberatamente non documentate. Una delle novità in questa storia è un'indagine fondamentale dello studio legale di WilmerHale, che è ovviamente un grande studio legale elegante, credibile che ha condotto indagini su Enron e WorldCom, che, tra l'altro, erano tutte voluminose, come centinaia di pagine pubblicate. WilmerHale ha condotto questa indagine richiesta dai membri del consiglio che avevano licenziato Altman come condizione per la loro partenza quando si era sbarazzato di loro, ed è tornato. E straordinariamente – agli occhi di molti esperti legali con cui ho parlato, e in modo scioccante agli occhi di molte persone in questa azienda – non l’hanno scritto. Tutto ciò che ne è emerso è stato un comunicato stampa di 800 parole di OpenAI che descriveva quello che era successo come un crollo della fiducia. E abbiamo confermato che questo è stato mantenuto nei briefing orali.
Ci sono casi in cui, ad esempio, un membro del consiglio sembra voler votare contro la conversione dalla forma originale di OpenAI senza scopo di lucro in un'entità a scopo di lucro, e ciò viene registrato come un'astensione. C'è come un avvocato durante la riunione che dice: "Beh, questo potrebbe innescare un controllo eccessivo". E chi vuole votare contro viene registrato come astenuto in apparenza. C'è una controversia sui fatti. OpenAI sostiene il contrario, come puoi immaginare. Questi sono tutti casi in cui hai un'azienda che, per conto proprio, ha nelle sue mani il nostro futuro.
La posta in gioco per la sicurezza è così grave che non è scomparsa. Questo è il motivo per cui questa azienda è stata fondata come organizzazione no-profit incentrata sulla sicurezza e in cui le cose venivano oscurate in un modo tale che le persone credibili intorno a questo lo trovavano meno che professionale. E a ciò si aggiunge un contesto in cui c’è così poco interesse politico per una regolamentazione significativa. Penso che sia una situazione molto infiammabile.
Il punto per me non è solo che Sam Altman merita queste domande in modo così acuto. È anche che tutti questi ragazzi in questo campo, e molte delle figure chiave, mostrano, se non questo particolare tratto idiosincratico, il presunto tratto di mentire tutto il tempo, certamente un certo grado di mentalità di corsa al ribasso, dove le persone che erano sicurezze hanno annacquato quegli impegni e la postura di tutti in una gara.
Penso che, guardando le recenti fughe di notizie da Anthropic, ci sia una persona che pone la domanda su chi dovrebbe avere il dito sul pulsante in questo pezzo. La risposta è che, se non abbiamo una supervisione significativa, penso che dovremmo porre domande serie e cercare di far emergere quante più informazioni possibili su tutti questi ragazzi. Quindi sono stato rincuorato da quella che sembra una conversazione significativa al riguardo, o l’inizio di una.
Il motivo per cui l'ho chiesto in questo modo è che ci hai lavorato sopra per un anno e mezzo. Hai parlato con, credo, 100 persone con il tuo coautore, Andrew. È molto tempo per preparare una storia. Penso in particolare all'ultimo anno e mezzo dedicato all'intelligenza artificiale e, ragazzi, gli atteggiamenti e i valori di tutti questi personaggi sono cambiati molto rapidamente.
Forse niente più di Sam Altman, che iniziò come vincitore predefinito perché avevano rilasciato ChatGPT e tutti pensavano che avrebbe preso il posto di Google. E poi Google ha risposto, cosa che li ha sorpresi del fatto che Google avrebbe cercato di proteggere la propria attività, forse una delle migliori aziende nella storia della tecnologia, se non nella storia aziendale. Anthropic ha deciso di concentrarsi sull'impresa. Sembra che stia prendendo un comando dominantelì perché l’uso aziendale dell’intelligenza artificiale è così elevato.
Ora, OpenAI sta rifocalizzando il suo prodotto dal “sfidaremo Google” al Codex, e si occuperanno dell’impresa. Non riesco proprio a capire se, nel corso del tuo reportage nell'ultimo anno e mezzo, ti sembra che i personaggi con cui stavi parlando siano cambiati? Come i loro atteggiamenti e i loro valori, sono cambiati?
SÌ. Penso prima di tutto che la critica esplorata in questo pezzo, proveniente da molte persone all'interno di queste aziende a questo punto - che questo è un settore che, nonostante la posta in gioco esistenziale, sta precipitando in una sorta di corsa al ribasso sulla sicurezza e dove la velocità prevale su tutto il resto - quella preoccupazione è diventata più acuta. E penso che queste preoccupazioni siano state maggiormente confermate man mano che è emerso l’ultimo anno e mezzo. Allo stesso tempo, gli atteggiamenti nei confronti di Sam Altman sono specificamente cambiati. Quando abbiamo iniziato a parlare con le fonti per questo, le persone erano davvero, davvero diffidenti all'idea di essere citate a riguardo e di renderlo pubblico al riguardo.
Alla fine dei nostri reportage, abbiamo un corpo di reportage in cui le persone ne parlano in modo molto aperto ed esplicito, e ci sono membri del consiglio che dicono cose del tipo: "È un bugiardo patologico. È un sociopatico". Esistono diverse prospettive che vanno da "Questo è pericoloso data la posta in gioco in termini di sicurezza, e abbiamo bisogno che i leader di questa tecnologia abbiano un'elevata integrità", fino a "Dimentica la posta in gioco in termini di sicurezza, questo è un comportamento insostenibile per qualsiasi dirigente di qualsiasi grande azienda, perché crea solo troppe disfunzioni".
Quindi la conversazione è diventata molto più esplicita in un modo che forse sembra tardivo, ma in un certo senso è incoraggiante. E Sam Altman, a suo merito... Il pezzo è molto giusto e perfino generoso, direi, nei confronti di Sam. Questo non è il tipo di pezzo in cui c'erano molte cose del tipo "ti ho preso". Ho passato molte, molte ore al telefono con lui mentre stavamo finendo e lo ascoltavamo davvero.
Come puoi immaginare, in un pezzo come questo, non tutto riesce. Alcuni di questi casi in questo erano perché stavo ascoltando con sincerità. E se Sam stava effettivamente sostenendo che mi sentivo portato all'acqua, che qualcosa, anche se fosse vero, potrebbe essere sensazionalista, ho davvero commesso un errore nel mantenere questo argomento forense e misurato. Quindi penso che ciò venga recepito giustamente, e spero solo che la documentazione fattuale accumulata in questo periodo di tempo possa innescare un dibattito più tonificante sulla necessità di una supervisione.
Questa è in realtà la mia prossima domanda. Penso che tu abbia parlato con Sam una dozzina di volte mentre raccontavi questa storia. Ancora una volta, si tratta di molte conversazioni per un lungo periodo di tempo. Pensi che Sam sia cambiato nel corso del reportage nell'ultimo anno e mezzo?
Sì. Penso che una delle sottotrame più interessanti sia che anche Sam Altman parla di questo tratto in modo più esplicito rispetto al passato. La postura di Sam in questo pezzo non è del tipo: "Non c'è niente lì, non è vero; non so di cosa stai parlando". La sua postura è quella di dire che ciò è attribuibile a una tendenza a compiacere le persone e a una sorta di avversione al conflitto. Sta riconoscendo che ciò gli ha causato problemi, in particolare all’inizio della sua carriera.
Sta dicendo: “Bene, sto superando questo, o in una certa misura l’ho superato”. Penso che ciò che è veramente interessante per me sia il contingente di persone con cui abbiamo parlato che non erano solo una sorta di sostenitori della sicurezza, non solo ricercatori tecnici di base che molto spesso tendono ad avere queste acute preoccupazioni sulla sicurezza, ma anche investitori pragmatici e di grande successo. Sono i sostenitori di Sam, che in alcuni casi guardano a questa domanda e dicono di aver avuto un ruolo chiave anche nel suo ritorno dopo il licenziamento. Ora, alla domanda se si è riformato e in che misura questo cambiamento è significativo, dicono: “Beh, gli abbiamo concesso il beneficio del dubbio in quel momento”.
Penso in particolare a un importante investitore che ha detto: "Ma da allora, sembra chiaro che non è stato portato dietro la legnaia", che è stata la frase che questo ha usato, nella misura in cui era necessario. Di conseguenza, sembra che questo sia ora un tratto stabile. Lo stiamo vedendo in modo continuo. Puoi dare un'occhiata ad alcune delle più grandi attività di OpenAIle relazioni e il modo in cui sopportano il peso di quella sfiducia in modo continuo.
Come con Microsoft, parli con i dirigenti laggiù e loro hanno preoccupazioni davvero acute e recentemente catalizzate. C’è questo caso in cui, lo stesso giorno in cui OpenAI riafferma la sua esclusività con Microsoft rispetto ai modelli di intelligenza artificiale stateless sottostanti, annuncia anche un nuovo accordo con Amazon che ha a che fare con la vendita di soluzioni aziendali per la creazione di agenti IA con stato, nel senso che hanno memoria.
Parli con le persone di Microsoft e loro dicono: "Non è possibile farlo senza interagire con le cose sottostanti su cui abbiamo un accordo di esclusività". Questo è solo uno dei tanti piccoli esempi in cui questa caratteristica è costantemente presente nelle attività commerciali in corso ed è oggetto di attiva preoccupazione all’interno del consiglio di amministrazione di OpenAI, all’interno della sua suite esecutiva e nella più ampia comunità tecnologica.
Continui a dire quel "tratto". C'è una frase nella storia che per me sembra la tesi, ed è una descrizione del tratto che stai descrivendo. È che “Sam Altman non è vincolato dalla verità” e che ha “due tratti che non si vedono quasi mai nella stessa persona: il primo è un forte desiderio di compiacere le persone, di piacere in ogni determinata interazione, e il secondo è una mancanza di preoccupazione quasi sociopatica per le conseguenze che possono derivare dall’ingannare qualcuno”.
Devo dirtelo, ho letto quella frase 500 volte, e ho provato a immaginare di dire sempre ciò che le persone volevano piacere e poi non arrabbiarsi quando si sentivano mentite. E non riuscivo a far capire al mio stato emotivo come quelle cose possano esistere nella stessa persona. Hai parlato molto con Sam e hai parlato con persone che hanno sperimentato questi tratti. Come lo fa?
Sì. È interessante a livello umano perché mi avvicino a corpi di reporter come questo con una reale attenzione all’umanizzazione di chiunque sia al centro di tutto e alla ricerca di una profonda comprensione ed empatia. Quando ho provato ad affrontare la cosa da un punto di vista più umano e dire: "Ehi, sarebbe devastante per me se così tante persone con cui ho lavorato dicessero che sono un bugiardo patologico. Come porti questo peso? Come ne parli in terapia? Qual è la storia che racconti a te stesso al riguardo?"
A mio avviso, ho avuto una sorta di banalità della West Coast al riguardo, come: "Sì, mi piace il lavoro sul respiro". Ma non molto del tipo di senso tonificante di profondo confronto con se stessi che penso che molti di noi probabilmente avrebbero se vedessimo questo tipo di feedback sul nostro comportamento e sul modo in cui trattiamo le persone.
Penso che in realtà ciò valga anche per la risposta più ampia alla domanda. Sam afferma che questa caratteristica ha causato problemi, ma è anche parte di ciò che gli ha permesso di accelerare la crescita di OpenAI così tanto da essere in grado di unire e soddisfare diversi gruppi di persone. Convince costantemente tutti questi elettori in conflitto che ciò che interessa a loro è ciò che interessa a lui. E questa può essere un'abilità davvero utile per un fondatore. Ho parlato con investitori che poi hanno detto: “Beh, forse è un’abilità meno utile per gestire effettivamente un’azienda perché semina così tanta discordia”.
Ma dal lato personale di Sam, penso che la cosa che colgo quando cerco di connettermi a livello umano è l’apparente mancanza di un confronto più profondo, di riflessione e di auto-responsabilità, che informa anche di quel superpotere o responsabilità per un’azienda che si prepara per una IPO.
È qualcuno che, secondo le parole di un ex membro del consiglio di nome Sue Yoon, che è registrato nel pezzo dicendo che fino al punto di "inettitudine" è la frase che usa, è in grado di credere davvero alla realtà mutevole delle sue proposte di vendita o è in grado di convincersene. O almeno, se non ci crede, è in grado di affrontarli senza significativi dubbi su se stesso.
Penso che la cosa di cui stai parlando, dove tu o io potremmo, mentre la diciamo e ci rendiamo conto che è in conflitto con l'altra assicurazione che abbiamo fatto, in un certo senso avere un momento per congelarci o controllarci. Penso che questo non accada con lui. E c'è una più ampia cultura dell'hype nella Silicon Valley e una cultura del fondatore che in un certo senso lo abbraccia.
È divertente. The Verge si basa su ciò che equivale a una recensione di prodottoprogramma. È il cuore di ciò che facciamo qui. Possiedo trilioni di dollari di ricerca e sviluppo Apple una volta all'anno e dico: "Questo telefono è un sette". E in un certo senso legittima tutti i nostri resoconti e le nostre opinioni altrove. Abbiamo una funzione valutativa e passiamo così tanto tempo semplicemente a guardare i prodotti di intelligenza artificiale e a chiederci: "Funzionano?"
Sembra che manchi in gran parte della conversazione sull’intelligenza artificiale così com’è oggi. C’è una conversazione infinita su cosa potrebbe essere in grado di fare, quanto potrebbe essere pericoloso. E poi approfondisci e dici: "Fa davvero quello che dovrebbe fare oggi?" In alcuni casi, la risposta è sì. Ma in molti, molti casi, la risposta è no.
Sembra che si colleghi alla cultura dell'hype che stai descrivendo e anche alla sensazione che, beh, se dici che farà qualcosa e non lo fa, e qualcuno si sente male, va bene perché siamo sulla cosa successiva. Questo appartiene al passato. E nell'intelligenza artificiale in particolare, Sam è così bravo a fare grandi promesse.
Proprio questa settimana, penso lo stesso giorno in cui è stata pubblicata la tua storia, OpenAI ha pubblicato un documento politico in cui si afferma che dobbiamo ripensare il contratto sociale e ottenere finanziamenti per l’efficienza dell’IA da parte del governo. Questa è una grande promessa su come alcune tecnologie potrebbero modellare il futuro del mondo e il modo in cui viviamo, e tutto ciò dipende dal fatto che la tecnologia funzioni esattamente nel modo in cui forse ha promesso di funzionare o dovrebbe funzionare.
Hai mai visto Sam dubitare che l'IA si trasformasse in AGI o in superintelligenza o che arrivasse al traguardo? Perché è la cosa che mi chiedo di più. C'è qualche riflessione sul fatto che questa tecnologia di base possa fare tutte le cose che dicono di poter fare?
È esattamente la serie di domande giusta. Ci sono tecnologi credibili con cui abbiamo parlato in questo corpo di reportage - e ovviamente Sam Altman non è uno; è un uomo d'affari - che dice che il modo in cui Sam parla della sequenza temporale di questa tecnologia è semplicemente lontano. Ci sono post di blog risalenti a qualche anno fa in cui Sam dice: "Abbiamo già raggiunto l'orizzonte degli eventi. L'AGI è praticamente qui. La superintelligenza è dietro l'angolo. Saremo su altri pianeti. Cureremo tutte le forme di cancro. " Davvero, non sto abbellindo.
Quello del cancro è in realtà interessante, poiché Sam sta esaltando la persona che teoricamente ha curato il cancro del suo cane con ChatGPT, e semplicemente non è successo. Hanno parlato con ChatGPT e questo li ha aiutati a guidare alcuni ricercatori che hanno effettivamente svolto il lavoro, ma il rapporto uno a uno con questo strumento ha curato questo cane non è in realtà la storia.
Sono felice che tu abbia sollevato questo punto perché voglio passare a questo punto più ampio su quando sia il potenziale che il rischio della tecnologia si manifesteranno davvero. Ma vale la pena menzionare questi piccoli aspetti che accadono costantemente da Sam Altman, dove sembra incarnare nuovamente questa caratteristica.
Voglio dire, per usare l'esempio del rapporto WilmerHale, in cui avevamo queste informazioni che non erano state scritte per iscritto e volevamo sapere se il brief orale lungo il percorso era stato dato a qualcuno diverso dai due membri del consiglio che Sam ha aiutato a installare per supervisionarlo. E lui ha detto: "Sì, sì, no, credo che sia stato dato a tutti coloro che si sono uniti al consiglio dopo". E abbiamo una persona con conoscenza diretta della situazione che dice che è semplicemente una bugia. E sembra proprio che sia così, che non sia vero. Se vogliamo essere generosi forse è stato male informato.
Ci sono molte di queste assicurazioni casuali. E utilizzo questo esempio in parte perché è un ottimo esempio di dissimulazione, chiamiamola così, che può avere conseguenze reali dal punto di vista legale. Non ho bisogno di dirti, secondo il diritto societario del Delaware, se questa società fa IPO, gli azionisti potrebbero, ai sensi della sezione 220, lamentarsi di questo e richiedere la documentazione sottostante. Ci sono già membri del consiglio che dicono cose del tipo: “Bene, aspetta un attimo, quel briefing avrebbe dovuto avvenire”.
Quindi queste cose che sembrano uscire continuamente dalla sua bocca, possono avere effetti reali di movimento del mercato, effetti reali per OpenAI. Riportandolo al tipo di linguaggio pubblicitario utopico che è riemerso, penso che, non a caso, il giorno in cui è uscito questo pezzo, abbia effetto anche su tutti noi, perché i pericoli sono così acuti rispetto al modo in cui èvengono utilizzati negli armamenti, il modo in cui vengono utilizzati per identificare gli agenti di guerra chimica, il potenziale di disinformazione e il modo in cui l’euforia utopica sembra spingere molti economisti credibili a dire: “Questo ha tutti i segni di una bolla”.
Anche Sam Altman ha detto: “Qualcuno perderà un sacco di soldi qui”. Ciò potrebbe davvero mandare in rovina gran parte della crescita economica americana e globale, se si verificasse una vera e propria rottura di una bolla che coinvolgesse tutte queste società che fanno accordi tra loro, puntando tutto sull’intelligenza artificiale mentre si indebitano così pesantemente. Quindi quello che dice Sam Altman è importante, e penso che la preponderanza delle persone intorno a lui, hai detto che abbiamo parlato con più di un centinaio, in realtà erano ben più di un centinaio. Abbiamo avuto una conversazione al traguardo in cui è stato come: "Sarebbe troppo meschino dire che è come un numero molto più alto?" E noi abbiamo pensato: "Sì, minimizziamo. Ci divertiremo". Ma c’erano così tante persone e una maggioranza così significativa che dicevano: “Questa è una preoccupazione”. E penso che questo sia tutto il motivo.
Lascia che ti chieda riguardo a quel numero. Come hai detto, le persone sono diventate sempre più aperte alle preoccupazioni col passare del tempo. Sembra che la pressione attorno alla bolla – la corsa per vincere, per ripagare tutti questi investimenti, per emergere come vincitore, per l’IPO – abbia cambiato molti atteggiamenti. Sicuramente ha creato più pressione su Sam e OpenAI.
Questa settimana abbiamo pubblicato una storia sulle vibrazioni di OpenAI. La tua storia ne fa parte, ma massicci cambiamenti di personale nei ranghi esecutivi di OpenAI: le persone vanno e vengono. I ricercatori stanno tutti andando via, in gran parte verso Anthropic, che penso sia davvero interessante. Puoi semplicemente vedere che questa azienda sente la pressione e sta rispondendo a tale pressione in qualche modo.
Ma poi ripenso al licenziamento di Sam. Questo è semplicemente memorabile per me. È memorabile per nessun altro, ma ho ricevuto una chiamata alla fonte allo zoo del Bronx alle 19:00 di venerdì, ed era qualcuno che diceva che avrebbero cercato di riportare indietro Sam. E poi abbiamo passato il fine settimana a inseguire quella storia. E io ho pensato: "Sono allo zoo. Cosa vuoi che faccia qui?" E la risposta è stata: “Resta al telefono”. Ebbene, mia figlia ha detto: "Scendi dal telefono". Ed è quello che ho fatto.
Riprendere Sam era una questione di corsa o morte. Quella compagnia diceva: "No, non permetteremo al consiglio di licenziare Sam Altman". Gli investitori, come vengono citati nel tuo articolo, "Siamo andati in guerra", penso, è la posizione di Thrive Capital, "per riportare indietro Sam". Microsoft è entrata in guerra per riavere Sam. È passato, e ora tutti dicono: "Stiamo andando all'IPO. Siamo arrivati al traguardo. Abbiamo ripreso il nostro ragazzo e ci porterà al traguardo. Siamo preoccupati che sia un bugiardo".
Perché ci fu una guerra per riprenderlo allora? Perché in realtà non sembra che sia cambiato nulla. Parli dei promemoria che Ilya Sutskever e [l'amministratore delegato di Anthropic] Dario Amodei tenevano quando erano contemporanei di Sam Altman. La preoccupazione principale di Ilya era che Sam fosse un bugiardo.
Niente di tutto ciò è cambiato. Allora perché fu la guerra a riportarlo indietro allora? E ora che siamo al traguardo, sembra che tutte le preoccupazioni siano allo scoperto.
Beh, prima di tutto, mi dispiace per tua figlia, il mio compagno e tutte le altre persone intorno ai giornalisti.
[Ride] È stato un bel fine settimana per tutti.
Sì, prende il sopravvento sulla vita di qualcuno, e questa storia ha sicuramente preso il sopravvento sulla mia, nell'ultimo periodo di tempo. Penso che in realtà si riferisca al tema del giornalismo e dell'accesso all'informazione. Gli investitori che sono andati in guerra per Sam e tutti gli altri hanno avuto un ruolo nel garantire che tornasse, e il consiglio che era stato specificamente progettato per proteggere la missione di un'organizzazione no-profit di anteporre la sicurezza alla crescita e di licenziare un dirigente se non ci si poteva fidare di ciò, se ne sono andati. Tutto questo perché, sì, gli incentivi del mercato c'erano, giusto?
Sam è riuscito a convincere la gente: “Bene, l’azienda andrà in pezzi”. Ma il motivo per cui aveva sostegno era la mancanza di informazioni. Quegli investitori, in molti casi, ora dicono: “Guardo indietro, e penso che avrei dovuto avere più preoccupazioni se avessi saputo pienamente quali erano le affermazioni e quali erano le preoccupazioni”.
Non tutti;le opinioni variano e citiamo una serie di opinioni, ma ce ne sono alcune significative che agivano sulla base di informazioni molto parziali. Il board che ha licenziato Sam è stato, secondo le parole di una persona che era sul board, "molto JV", e hanno armeggiato forte con la palla. E documentiamo le lamentele di fondo, e le persone possono decidere da sole se si accumula nel tipo di preoccupazione urgente che sentivano fosse, ma quell'argomento e quell'informazione non venivano presentate.
Hanno ricevuto ciò che alcuni di loro ora riconoscono come una cattiva consulenza legale. Per descriverlo, ricorderai la citazione e probabilmente molti dei tuoi ascoltatori e spettatori ricorderanno la citazione come una mancanza di candore. Questo era ciò a cui si riduceva, e quindi essenzialmente non rispondevano alle chiamate.
Non avrebbero risposto alle chiamate. Sono sicuro che ci hai provato. Tutti quelli che conosco ci hanno provato, e sono arrivato al punto in cui, come giornalista, non dovresti dare consigli alle tue fonti, ma io pensavo: "Questo passerà se non inizi a spiegarti".
E questo è quello che è successo. Dimentica i giornalisti. Satya Nadella ha detto: "Che diavolo è successo? Non riesco a convincere nessuno a spiegarmelo". E questo è il principale finanziatore dell’azienda. E poi c'è Satya che chiama [il co-fondatore di LinkedIn] Reid Hoffman e Reid che chiamano in giro e dicono: "Non so che cazzo sia successo".
Si trovano comprensibilmente in quel vuoto di informazioni, alla ricerca dei tradizionali indicatori non basati sull’intelligenza artificiale che giustificherebbero un licenziamento così urgente e improvviso. Tipo, okay, si trattava di crimini sessuali? Si è trattato di appropriazione indebita? E l’intera argomentazione sottile, ma credo significativa, secondo cui questa tecnologia è diversa e che questo tipo di costante accumulo di piccoli tradimenti potrebbe avere interessi significativi sia per questo business che forse per il mondo, è stata in gran parte persa. Quindi gli incentivi capitalistici hanno avuto la meglio, ma anche le persone che li hanno realizzati se ne sono andati e non sempre hanno operato con informazioni complete.
Voglio solo chiedere per un momento l'aspetto "quello che tutti pensavano che fosse", perché sicuramente ho visto la notizia e ho detto: "Oh, deve essere successo qualcosa di brutto". Hai fatto molti reportage su #MeToo, notoriamente. Hai svelato la storia di Harvey Weinstein.
Hai passato molto tempo a riferire su queste affermazioni che penso tu abbia ritenuto in definitiva infondate: che Altman avrebbe aggredito sessualmente minori o assunto prostitute, o addirittura ucciso un informatore di OpenAI. Voglio dire, tu sei la persona che può denunciare queste cose nel modo più rigoroso. Hai deciso che non è servito a nulla?
Beh, guarda, non è mio compito dire che qualcosa non ha portato a nulla. Quello che posso dire è che ho passato mesi a esaminare queste affermazioni e non ho trovato conferma. E mi ha colpito il fatto che questi ragazzi, queste aziende che hanno così tanto potere sul nostro futuro, stiano davvero spendendo una quantità sproporzionata del loro tempo e delle loro risorse in un’infantile battaglia nel fango.
Un dirigente lo descrive come “shakespeariano”. La quantità di denaro degli investigatori privati e di dossier dell'opposizione compilati è implacabile. E la cosa sfortunata è che il tipo di cose salaci, che vengono ripetute a pappagallo dai concorrenti di Sam, sono solo dati per scontato, giusto? C'è questa accusa secondo cui lui insegue ragazzi minorenni, e in molti cocktail party nella Silicon Valley, lo senti. Nel circuito delle conferenze, l’ho sentito ripetere da dirigenti credibili e di spicco: “Tutti sanno che questo è un dato di fatto”.
La cosa triste è che parlo della sua provenienza, dei vari vettori con cui viene trasmessa. Elon Musk e i suoi soci sembrano spingere dossier davvero hardcore che non equivalgono a nulla. Sono vaghi quando inizi effettivamente a guardare le affermazioni sottostanti. La cosa triste è che ciò oscura davvero le critiche più basate sull’evidenza che penso meritino davvero supervisione e considerazione urgenti.
L'altro tema che emerge davvero nella storia è quasi un senso di paura che Sam abbia così tanti amici - ha investito in così tante aziende dal suo precedente ruolo di CEO di Y Combinator, fino ai suoi investimenti personali, alcuni dei quali sono in diretto conflitto con il suo ruolo di CEO di OpenAI - e intorno a lui c'è silenzio.
Mi ha colpito mentre leggevo una riga in particolare. Descrivi i promemoria di Ilya Sutskever e sono appena usciti nella Silicon Valley. Tuttili chiama i promemoria di Ilya. Ma anche su questo c’è silenzio. Vengono trasmessi, ma non vengono discussi. Da dove pensi che provenga? È paura? È un desiderio di ottenere un investimento angelico? Da dove viene?
Penso che sia molta codardia, sarò onesto. Avendo riferito di storie di sicurezza nazionale in cui le fonti sono informatori che rischiano di perdere tutto e affrontare un processo, fanno ancora la cosa giusta e parlano di cose per creare responsabilità. Ho lavorato sulle storie legate ai crimini sessuali che hai menzionato, in cui le fonti sono profondamente traumatizzate e temono un tipo di punizione molto personale.
In molti casi in questo ritmo, hai a che fare con persone con il proprio profilo e potere. O sono loro stessi personaggi famosi oppure sono circondati da personaggi famosi. Hanno una vita lavorativa solida. A mio avviso, parlare di queste cose è in realtà un'esposizione molto bassa. E per fortuna, l’ago si sta muovendo come abbiamo detto prima, e le persone ora parlano di più.
Ma per così tanto tempo la gente ha taciuto perché penso che la cultura della Silicon Valley sia così spietatamente egoista e spietatamente orientata al business e alla crescita. Quindi penso che questo affligga anche alcune delle persone coinvolte nel licenziamento di Sam, dove hai visto nei giorni successivi, sì, un fattore che lo ha portato a tornare e al licenziamento dei vecchi membri del consiglio è stato che ha radunato gli investitori che erano confusi con la sua causa.
Ma un altro è che così tante altre persone intorno a esso che avevano le preoccupazioni e le esprimevano con urgenza si sono semplicemente piegate come tovaglioli e hanno cambiato tono nel momento in cui hanno visto che il vento soffiava nella direzione opposta, e volevano entrare nel treno dei profitti.
È piuttosto oscuro, onestamente, dal mio punto di vista di giornalista.
Alcune di queste persone sono Mira Murati, che, credo, per 20 minuti è stata il nuovo CEO di OpenAI. È stata poi sostituita. È stata una dinamica molto complicata e, ovviamente, Sam è tornato. L'altra persona è Ilya Sutskever, che era uno dei votanti per rimuovere Sam, ma poi ha cambiato idea, o almeno ha detto di aver cambiato idea, e poi se n'è andato per avviare la propria azienda. Sapete cosa gli ha fatto cambiare idea? Erano solo soldi?
Bene, e per essere chiari, non sto isolando quei due. Ci sono altri membri del consiglio coinvolti nel licenziamento che dopo sono rimasti in silenzio. Penso che sia come un problema collettivo più ampio. Si tratta, in alcuni casi, di persone che hanno avuto la fibra morale necessaria per lanciare allarmi e intraprendere azioni radicali, e questo è lodevole. Ed è così che assicuri la responsabilità. Ciò avrebbe potuto aiutare molte persone colpite da questa tecnologia. Avrebbe potuto aiutare un settore a rimanere maggiormente focalizzato sulla sicurezza.
Ma quando si ha a che fare con informatori e persone che cercano di sollecitare molto tale responsabilità, si vede anche che ci vuole la fibra per resistere e sostenere le proprie convinzioni. E questo settore è davvero pieno di persone che semplicemente non mantengono le proprie convinzioni.
Anche se pensano che stanno costruendo un Dio digitale che in qualche modo o eliminerà tutto il lavoro o ne creerà più, altrimenti succederà qualcosa.
Bene, questo è il punto. Quindi la cultura di non restare fedeli alle proprie convinzioni e tutte le preoccupazioni etiche vengono messe da parte nel momento in cui si verifica un surriscaldamento o qualcosa che potrebbe minacciare la propria posizione nel settore forse va bene e va bene in una certa misura per le aziende business-as-usual che stanno realizzando qualsiasi tipo di gadget.
Ma queste sono anche le stesse persone che dicono: “Questo potrebbe letteralmente ucciderci tutti”. E ancora una volta, non devi andare all'estremo Terminator Skynet. C’è una serie di rischi che si stanno già materializzando. È reale, e hanno ragione a mettere in guardia a riguardo, ma dovresti chiedere a qualcun altro di psicologizzare la poltrona di come queste due cose possano vivere nelle stesse persone in cui lanciano avvertimenti urgenti, forse stanno mettendo il piede in gioco e cercando di fare qualcosa, e poi si piegano e cadono in silenzio.
Questo è esattamente il motivo per cui ci sono casi di questo tipo in cui le cose non vengono scritte e le cose vengono nascoste sotto il tappeto, e nessuno ne parla apertamente per anni dopo il fatto.
La parte naturale e responsabile qui non sarebbero gli amministratori delegati di queste società; sarebbero i governi. Negli Stati Uniti, forsesono i governi statali, forse è il governo federale.
Certamente, tutte queste aziende vogliono essere globali. Ci sono molte implicazioni globali qui. Ho visto OpenAI, Google e Anthropic spingere l’amministrazione Biden a rilasciare un ordine esecutivo sull’intelligenza artificiale. Alla fine era piuttosto sdentato. Diceva semplicemente che dovevano parlare di ciò di cui erano capaci i loro modelli e rilasciare alcuni test di sicurezza. E poi tutti hanno sostenuto Trump, e Trump è arrivato e ha spazzato via tutto e ha detto: "Dobbiamo essere competitivi. È una partita tutti contro tutti. Provatelo".
Allo stesso tempo, stanno tutti cercando di raccogliere fondi dai paesi del Medio Oriente che hanno molti soldi derivanti dal petrolio e vogliono cambiare le loro economie. Quelli sono politici. Penso che i politici dovrebbero assolutamente capire che qualcuno sta parlando con entrambi i lati della bocca, e non si arrabbieranno troppo se qualcuno alla fine rimane deluso, ma anche i politici vengono presi in giro. Perché pensi che sia così?
Questo è davvero, penso, il motivo per cui il pezzo è importante a mio avviso e perché valeva la pena dedicare tutto questo tempo e dettagli. Ci troviamo in un ambiente in cui i sistemi che, come lei dice, dovrebbero garantire la supervisione sono semplicemente svuotati. Questa è un’America post-Citizens United, dove il flusso di denaro è così libero, ed è una particolare concentrazione di quel problema attorno all’intelligenza artificiale, dove ci sono questi PAC che stanno proliferando e inondando denaro per annullare una regolamentazione significativa sia a livello statale che federale.
Hai [il co-fondatore di OpenAI] Greg Brockman, il secondo in comando di Sam, che contribuisce direttamente in modo importante ad un paio di questi. Ciò porta a una situazione in cui i legislatori e i potenziali regolatori vengono realmente catturati, e da questa spirale è difficile uscire. La cosa triste è che penso che ci siano semplici mosse politiche, alcune delle quali sono in fase di sperimentazione in altre parti del mondo, che potrebbero aiutare a risolvere alcuni di questi problemi di responsabilità.
Si potrebbero avere test di sicurezza pre-implementazione più obbligatori, cosa che sta già accadendo in Europa per i modelli di frontiera. Si potrebbero avere requisiti scritti pubblici più rigorosi per i tipi di indagini interne in cui abbiamo visto cose tenute nascoste in questo caso. Si potrebbe avere un insieme più solido di meccanismi di revisione della sicurezza nazionale per il tipo di ambizioni infrastrutturali del Medio Oriente che Sam Altman stava spingendo.
Come dici tu, stava facendo questa esca e scambiava con l'amministrazione Biden, dicendo: "Regolamentaci, regolaci" e aiutandoli a elaborare un ordine esecutivo, e poi nel momento in cui Trump entra, davvero nei primissimi giorni, senza esclusione di colpi, "Acceleriamo e costruiamo un enorme campus di data center ad Abu Dhabi". Avresti potuto farlo, è davvero semplice, come la protezione degli informatori. Non esiste uno statuto federale che protegga i dipendenti delle società di intelligenza artificiale che rivelano questo tipo di problemi di sicurezza che vengono trasmessi in questo articolo.
Abbiamo casi in cui Jan Leike, che era un responsabile senior della sicurezza presso OpenAI, guidava il super allineamento presso l'azienda. Scrive al consiglio, essenzialmente materiale informativo, dicendo che la società sta andando fuori strada nella sua missione di sicurezza. Questi sono i tipi di persone che dovrebbero effettivamente avere un organismo di controllo a cui rivolgersi e dovrebbero avere tutele statutarie esplicite del tipo che vediamo in altri settori. È semplice replicare un regime in stile Sarbanes-Oxley.
Penso che, nonostante quanto sia acuto il problema della Silicon Valley che assume il controllo di tutte le leve del potere, e nonostante quanto siano svuotate alcune di queste istituzioni che potrebbero fornire supervisione e guardrail, credo ancora nella matematica di base della democrazia e dei politici egoisti. E dai sondaggi emergono sempre più dati secondo cui la maggioranza degli americani ritiene che le preoccupazioni, le domande o i rischi dell’intelligenza artificiale attualmente superino i benefici.
Quindi penso che sia in nostro potere rendere l’ondata di denaro in politica proveniente dall’intelligenza artificiale una fonte di punto interrogativo rispetto ai politici. Quando gli americani vanno a votare, dovrebbero verificare se le persone per cui votano, soprattutto se sono acritiche e contrarie alla regolamentazione, date tutte queste preoccupazioni, sono finanziate da grandi interessi tecnologici. Quindi penso che se le persone potessero leggere pezzi come questo, ascoltare podcast come questo e interessarsi abbastanza da pensarci in modo criticole loro decisioni come elettori, c’è una reale opportunità di generare a Washington un collegio elettorale di rappresentanti che tengano d’occhio e impongano il controllo.
Questa potrebbe essere una delle cose più ottimistiche che abbia mai sentito dire sull’attuale settore dell’intelligenza artificiale. Lo apprezzo. Sono ossessionato dai sondaggi di cui parli. Ce n'è molto adesso. È tutto abbastanza coerente, e sembra che più i giovani, in particolare, sono esposti all’intelligenza artificiale, più sono diffidenti e arrabbiati nei suoi confronti. Questa è la valenza di tutti i sondaggi. E lo guardo, e penso, beh, sì, i politici intelligenti si opporrebbero a questo. Direbbero semplicemente: “Riterremo responsabile la grande tecnologia”.
Poi penso agli ultimi 20 anni, a un politico che ha detto che riterranno responsabili le grandi tecnologie, e faccio fatica a trovare anche un solo momento in cui le grandi tecnologie siano ritenute responsabili. L'unica cosa che mi fa pensare che potrebbe essere diverso è che, beh, in realtà devi costruire i data center e puoi votare contro, puoi presentare una petizione contro questo e puoi protestare contro questo.
Penso che ci sia un politico a cui hanno appena sparato in casa perché ha votato per un data center. La tensione sta raggiungendo, direi, il culmine. Hai descritto l’insularità della Silicon Valley. Questo è un ecosistema chiuso. Sembra che pensino di poter governare il mondo. Stanno investendo un sacco di soldi in politica e si scontrano con la realtà che le persone non amano i prodotti, il che non dà loro molta copertura. Più usano i prodotti, più sono sconvolti, e i politici stanno cominciando a vedere che ci sono conseguenze reali nel sostenere l’industria tecnologica rispetto alle persone che rappresentano.
Hai parlato con così tante persone. Pensi che sia possibile per l’industria tecnologica imparare la lezione che è proprio di fronte a loro?
Dici che sembra che pensino di poter governare il mondo senza responsabilità. Non penso nemmeno che sia necessaria la qualificazione "sembra". Voglio dire, guardi il linguaggio usato da Peter Thiel, è esplicito. Naturalmente, questo è un esempio estremo. E Sam Altman, sebbene in una certa misura sia vicino e informato dall’ideologia di Thiel, è un tipo di persona molto diverso che potrebbe sembrare diverso e più misurato fino a un certo punto.
Ma penso all’ideologia più ampia che ottieni da Thiel, che fondamentalmente è: abbiamo finito con la democrazia, non ne abbiamo più bisogno. Abbiamo così tanto che vorremmo solo costruire i nostri piccoli bunker. Non abbiamo più a che fare con i Carnegie o i Rockefeller, dove sono cattivi, ma sentono di dover partecipare a un contratto sociale e costruire cose per le persone. C’è un vero nichilismo in atto.
E penso che si sia trattato semplicemente di una spirale che si è rafforzata a vicenda nella recente storia americana, in cui magnati e aziende private hanno acquisito potere supergovernativo mentre le istituzioni democratiche che avrebbero potuto renderli responsabili sono state svuotate. Non mi sento ottimista riguardo all’idea che quei ragazzi un giorno possano svegliarsi e pensare: “Eh, in realtà forse abbiamo bisogno di partecipare alla società e aiutare a costruire cose per le persone”.
Voglio dire, assomigli all'esempio microcosmico di The Giving Pledge, dove c'è stato un momento in cui era normale essere caritatevoli, e quel momento è ormai passato e persino ridicolizzato. Questo è un problema, il problema più ampio della mancanza di responsabilità che penso possa essere risolto solo estrinsecamente. Ciò deve essere la mobilitazione degli elettori e la resurrezione del potere di supervisione del governo. E hai esattamente ragione nel dire che il vettore principale attraverso il quale le persone potrebbero forse raggiungere questo obiettivo è locale. Ha a che fare con il luogo in cui vengono costruite le infrastrutture.
Hai menzionato parte della tensione incandescente attorno a questo che sta portando a violenza e minacce e, ovviamente, nessuno dovrebbe essere violento o minaccioso. E non sono qui nemmeno per formulare raccomandazioni politiche specifiche se non per presentare semplicemente alcuni dei passi politici che sembrano basilari e che funzionano in altre parti del mondo, giusto? O chi ha lavorato in altri settori. Non sono qui per dire quali di questi dovrebbero essere eseguiti e come.
Penso che qualcosa debba accadere e che debba essere esterno, non solo fidarsi di queste aziende. Perché giustoora abbiamo una situazione in cui le aziende che stanno sviluppando la tecnologia e sono meglio attrezzate per comprendere i rischi, e di fatto sono quelle che ci avvertono dei rischi, sono anche quelle che non hanno altro che incentivi ad andare veloci e ignorare tali rischi. E semplicemente non hai nulla per controbilanciarlo. Quindi, qualunque siano le riforme che potrebbero richiedere in termini di specificità, qualcosa dovrà scontrarsi con ciò. E torno ancora a quell’ottimismo secondo cui le persone contano ancora.
Generalmente compro la tua argomentazione. Lasciatemi fare solo l'unica piccola controargomentazione che penso di poter articolare. L’altra cosa che potrebbe succedere fuori dalle urne è che la bolla scoppi, giusto? Che non tutte queste aziende arrivano al traguardo e che non esiste un mercato di prodotti adatto alle applicazioni di intelligenza artificiale di consumo. E ancora una volta, non lo vedo ancora del tutto, ma sono un recensore di tecnologia consumer e forse ho semplicemente standard più elevati di chiunque altro.
Esiste un mercato del prodotto adatto al mondo degli affari, giusto? Avere un gruppo di agenti IA che scrivono un sacco di software sembra essere un vero mercato per questi strumenti. E puoi leggere le argomentazioni di queste aziende che dicono: "Abbiamo risolto la codifica, e questo significa che possiamo risolvere qualsiasi cosa. Se possiamo creare software, possiamo risolvere qualsiasi problema".
Penso che ci siano limiti reali alle cose che il software può fare. È fantastico nel mondo degli affari. I software non possono risolvere tutti i problemi nella realtà, ma devono arrivarci. Devono finire il lavoro, e forse non tutti arrivano al traguardo. E c'è un crollo, e questa bolla scoppia, e forse OpenAI o Anthropic o xAI, una di queste società fallisce, e tutti questi investimenti svaniscono.
Pensi che ciò influenzerebbe questo? In realtà, lasciatemi fare prima la prima domanda. OpenAI è proprio al culmine di una IPO. Ci sono molti dubbi su Sam come leader. Pensi che arriveranno al traguardo?
Non ho intenzione di fare pronostici, ma penso che tu sollevi un punto importante, ovvero che gli incentivi di mercato contano all’interno della Silicon Valley, e la precarietà dell’attuale dinamica della bolla è in grado di interrompere, ancora una volta, potenzialmente, secondo i critici, la corsa al ribasso sulla sicurezza.
Vorrei anche aggiungere che, se si guarda ai precedenti storici in cui esiste un insieme simile e apparentemente impenetrabile di incentivi di mercato ed effetti potenzialmente deleteri per il pubblico, c’è un contenzioso sull’impatto. E lo vedi come un'area di preoccupazione ultimamente. Sam Altman è là fuori questa settimana a sostenere una legislazione che proteggerebbe le società di intelligenza artificiale da alcuni dei tipi di responsabilità a cui OpenAI è stata esposta in cause per omicidio colposo, ad esempio. Naturalmente, c’è il desiderio di avere questo scudo dalla responsabilità.
Penso che i tribunali possano ancora rappresentare un meccanismo significativo e sarà davvero interessante vedere come si svilupperanno queste cause. Hai già visto, ad esempio, la class action, di cui io e molti, molti altri autori che conosco siamo membri, contro Anthropic per il loro utilizzo di libri protetti da copyright. Se ci sono menti legali intelligenti e querelanti che si preoccupano, come abbiamo storicamente visto nei casi che vanno dalle grandi aziende del tabacco alle grandi aziende dell’energia, si possono anche ottenere dei guardrail e degli incentivi per rallentare, stare attenti o proteggere le persone in questo modo.
Sembra che l’intera struttura dei costi del settore dell’intelligenza artificiale dipenda da un’interpretazione molto, molto caritatevole del fair use. Non emerge abbastanza. La struttura dei costi di queste aziende potrebbe andare fuori controllo se dovessero pagare te e tutti gli altri di cui hanno preso il lavoro, ma è scomodo pensarci, quindi non ci pensiamo. Inoltre, tutti questi prodotti sono ora in perdita. Come oggi, corrono tutti in perdita. Stanno bruciando più soldi di quanti ne possano guadagnare. Ad un certo punto, devono premere l'interruttore.
Sam è un uomo d'affari. Come hai detto più volte, non è un tecnologo. È un uomo d'affari. Pensi che sia pronto a premere l'interruttore e dire: "Guadagneremo un dollaro?" Perché quando chiedo: "Pensi che OpenAI ce la farà?" È quando devono guadagnare un dollaro. E finora, Sam ha guadagnato tutti i suoi soldi chiedendo i loro soldi ad altre persone invece di far guadagnare soldi alle sue aziende.
Bene, questa è una grande domanda persistente per la Silicon Valley, per gli investitori, per il pubblico.Vedi alcune dichiarazioni e uscite da OpenAI che sembrano evidenziare una sorta di panico al riguardo. Chiudere Sora, chiudere alcuni progetti ausiliari, cercare di concentrarsi sul prodotto principale. Ma d'altra parte, vedi ancora, allo stesso tempo, tonnellate di missioni insinuate, giusto? Anche un piccolo esempio – ovviamente non fondamentale per la loro attività – è l’acquisizione di TBPN.
A proposito, proprio mentre stavamo raggiungendo il traguardo e il controllo dei fatti, l'azienda che si trova ad affrontare questo tipo di controllo giornalistico acquisisce una piattaforma dove può avere un controllo più diretto sulla conversazione. Penso che ci siano molti investitori preoccupati, in base alle conversazioni che ho avuto, che questo problema di promettere tutto a tutte le persone si estenda anche a questa mancanza di focus nel modello di core business. E voglio dire, tu sei più vicino di quanto lo sia io probabilmente al tipo di previsione e osservazione del mercato. Lascerò a te e agli ascoltatori il giudizio se pensano che OpenAI possa cambiare l'interruttore.
Bene, ho posto la domanda perché nell'articolo c'è una citazione di un dirigente senior di Microsoft, che dice che "l'eredità di Sam potrebbe finire per essere più simile a Bernie Madoff o Sam Bankman-Fried" piuttosto che a Steve Jobs. Questo è un bel paragone. Cosa ne pensi di questo confronto?
Penso che sia una parafrasi. La parte di Steve Jobs non faceva parte della citazione. Ma c'è un'interessante sorta di sobrietà in questo perché è formulato come: "Penso che ci sia una piccola ma reale possibilità che finisca per essere un SBF o un truffatore al livello di Madoff". Ciò significa, a mio avviso, non che Sam sia accusato di quei tipi specifici di frode o crimini, ma che il grado di dissimulazione e inganno da parte di Sam potrebbe avere la possibilità di essere ricordato alla fine su quella scala.
Sì, penso che la cosa più sorprendente di quella citazione, onestamente, è che chiami Microsoft e non ricevi una risposta del tipo: "È pazzesco. Non l'abbiamo mai sentito". Ricevi molti commenti del tipo: "Sì, molte persone qui lo pensano", il che è notevole. E penso che riguardi queste domande aziendali pratiche.
Un investitore mi ha detto, ad esempio, alla luce del modo in cui questa caratteristica è persistita negli anni successivi al licenziamento" - e anche questo ha pensato che fosse un pensiero interessante e sobrio - che non è necessariamente che Sam dovrebbe essere in fondo assoluto alla lista, come dovrebbe essere l'ultimo degli ultimi in termini di persone che non devono assolutamente costruire questa tecnologia, per quello che vale. Ci sono molte persone che dicono che Elon Musk è quella persona. Ma che questa caratteristica lo pone forse in fondo alla lista di persone che dovrebbero costruire l’AGI, e sotto molte altre figure di spicco in questo campo.
Quindi ho pensato che fosse una valutazione interessante, e questo è il tipo di pensiero che penso si riceva dai veri pragmatici che forse non accettano così tanto le preoccupazioni sulla sicurezza. Sono semplicemente orientati alla crescita e pensano che OpenAI ora abbia un problema con Sam Altman.
Il pezzo di Microsoft è davvero interessante. Quella compagnia pensava di essere in cima al mondo. Che avevano fatto questo investimento e avrebbero scavalcato tutti, soprattutto e soprattutto Google, e sarebbero tornati nelle grazie dei consumatori. Il livello al quale si sentono bruciati da questa avventura – questa è un’azienda gestita in modo molto sobrio – non credo possa essere sopravvalutato.
Hai menzionato i personaggi e i tratti della personalità. Voglio concludere qui con una domanda dei nostri ascoltatori. Ho detto nel nostro altro programma, The Vergecast, che avrei parlato con te, e ho detto: "Se hai domande per Ronan su questa storia, fammelo sapere". Quindi ne abbiamo uno qui che penso si adatti perfettamente a ciò che stai descrivendo. Te lo leggo proprio:
“In che modo le giustificazioni per il cattivo comportamento e le azioni spietate di Altman e di altri leader dell’intelligenza artificiale differiscono dalle giustificazioni che Ronan ha sentito da altri leader di alto profilo nella politica e nei media? Non giustificano tutti le loro azioni dicendo che è così che il mondo cambia? Se non lo faccio io, lo farà qualcun altro?”
Sì, ce n'è molto in giro. Direi che ciò che distingue l'intelligenza artificiale è che la posta in gioco esistenziale è così eccezionalmente alta che entrambe le dichiarazioni di rischio sono estreme, giusto? Hai Sam Altmandicendo: "Questa potrebbe essere la fine per tutti noi". E inoltre, potrebbero dire i critici, la mania a cui si riferisce l'interrogante è estrema, giusto?
La cosa di cui Sam ha accusato Elon, ufficialmente, è che forse vuole salvare l'umanità, ma solo se è lui. Il tipo di componente dell'ego del voler vincere, che è un'inquadratura che Sam usa continuamente, e che questa è una cosa per i libri di storia, questo potrebbe cambiare tutto. Pertanto, anche al di là della mentalità “devi rompere qualche uovo” della maggior parte delle imprese della Silicon Valley, c’è, nella mente di alcune figure alla guida dell’intelligenza artificiale, credo, una completa razionalizzazione di ogni ricaduta.
E dimentica di rompere le uova. Penso che molti ricercatori sulla sicurezza direbbero che rischiare potenzialmente di distruggere il paese, distruggere il mondo e distruggere milioni di persone il cui lavoro e la cui sicurezza sono in bilico: questo è ciò che lo rende unico. È qui che chiudo, riflettendo su questo corpo di giornalismo, credendo davvero che si tratti di qualcosa di più di Sam Altman. Si tratta di un’industria senza vincoli e del problema crescente dell’America che non è in grado di limitarla.
Sì. Bene, avevamo un po’ di ottimismo lì, ma penso che sia un buon punto di partenza.
[Ride] Termina con un ritmo pessimistico.
Ovviamente. Questa è ogni grande storia, davvero. Il processo Musk-Altman è imminente. Penso che impareremo molto di più qui. Sospetto che vorrò parlarti di nuovo. Ronan Farrow, grazie mille per essere su Decoder.
Grazie.
Domande o commenti su questo episodio? Contattaci a [email protected]. Leggiamo davvero ogni email!