Avui a Decoder, estic parlant amb Ronan Farrow, una de les grans estrelles de la investigació que treballa avui. Va trencar la història de Harvey Weinstein, entre moltes i moltes altres. I la setmana passada, ell i el coautor Andrew Marantz van publicar una increïble funció d'immersió profunda a The New Yorker sobre el CEO d'OpenAI, Sam Altman, la seva fiabilitat i l'auge d'OpenAI.
Una nota abans d'anar més lluny aquí: The New Yorker va publicar aquesta història i Ronan i jo vam tenir aquesta conversa abans de conèixer l'abast dels atacs a la casa d'Altman, així que no ens escoltareu parlar-ne directament. Però només per dir-ho, crec que la violència de qualsevol tipus és inacceptable, aquests atacs a Sam eren inacceptables i que el tipus d'impotència que sent la gent, que condueix a aquest tipus de violència, és en si mateix inacceptable, i val la pena un escrutini molt més per part de la indústria i dels nostres líders polítics. Espero que quedi clar.
Subscriptors de Verge, no oblideu que teniu accés exclusiu al descodificador sense anuncis allà on tingueu els vostres podcasts. Dirigiu-vos aquí. No ets subscriptor? Us podeu inscriure aquí.
Dit tot això, hi ha molts remolins al voltant d'Altman que és un joc just per als informes rigorosos, el tipus d'informes que Ronan i Andrew es van proposar fer. Gràcies a la popularitat de ChatGPT, Altman s'ha convertit en la figura més visible de la indústria de la IA, després d'haver convertit un laboratori d'investigació sense ànim de lucre en una empresa privada de gairebé un bilió de dòlars en pocs anys. Però el mite d'Altman està profundament en conflicte, igualment definit tant per la seva òbvia capacitat de negociar com per la seva tendència a... bé, mentir a tothom que l'envolta.
La història té més de 17.000 paraules i, possiblement, conté el relat definitiu del que va passar el 2023 quan el consell d'administració d'OpenAI va acomiadar molt sobtadament Altman per la seva suposada mentida, només perquè el tornés a contractar gairebé a l'instant. També és una immersió profunda en la vida personal d'Altman, les seves inversions, el seu cortei amb els diners de l'Orient Mitjà i les seves pròpies reflexions sobre el seu comportament passat i els trets de caràcter que van portar a una font a dir que no estava "limitat per la veritat". Us recomano que llegiu tota la història; Sospito que es farà referència durant molts anys.
Ronan va parlar amb Altman moltes vegades durant els 18 mesos que va estar informant d'aquesta peça, i per tant, una de les coses principals que em van interessar va ser si va intuir algun canvi en Altman durant aquest temps. Després de tot, durant l'últim any i mig han passat moltes coses en IA, en tecnologia i al món.
Sentiràs a Ronan parlar d'això molt directament, així com la seva sensació que la gent s'ha tornat molt més disposada a parlar de la capacitat d'Altman d'estirar la veritat. La gent comença a preguntar-se, en veu alta i en el registre, si el comportament de persones com Altman és preocupant, no només per a la IA o la tecnologia, sinó també per al futur col·lectiu de la societat.
D'acord: Ronan Farrow sobre Sam Altman, IA i la veritat. Aquí anem.
Aquesta entrevista ha estat lleugerament editada per a la llargada i la claredat.
Ronan Farrow, ets un periodista d'investigació i col·laborador de The New Yorker. Benvingut a Decoder.
Content d'estar aquí. Gràcies per comptar amb mi.
Estic molt emocionat de parlar amb tu. Acabes d'escriure una gran peça per a The New Yorker. És un perfil de Sam Altman i, una mica amb ell, OpenAI. La meva lectura és que, com fan totes les grans característiques, amb informes rigorosos, valida molts sentiments que la gent ha tingut sobre Sam Altman durant molt de temps. Òbviament l'has publicat, hi has tingut reaccions. Com et sents ara mateix?
Bé, m'ha animat, de fet, fins a quin punt s'ha trencat en un moment en què l'economia de l'atenció és tan esquizofrènica i superficial. Aquesta és una història que, al meu entendre, ens afecta a tots. I quan vaig passar un any i mig de la meva vida, i el meu coautor, Andrew Marantz, també va passar aquest temps seu, intentant realment fer alguna cosa forense i meticulosa, sempre és perquè sento que hi ha problemes estructurals més grans que afecten persones més enllà de l'individu i l'empresa al centre de la història.
Sam Altman, amb el teló de fons de la cultura de l'exageració de Silicon Valley i les startups que creixen valoracions massives basades en promeses que poden o no es compleixen en el futur, i una abraçada creixent d'una cultura fundadora que creu que dir a diferents grups diferents coses conflictives és una característica, no unaerror... Fins i tot en aquest context, Sam Altman és un cas extraordinari en què tots els de Silicon Valley que esperen aquestes coses no poden deixar de parlar sobre aquesta qüestió de la seva fiabilitat i honestedat.
Ja sabíem que va ser acomiadat per alguna versió d'al·legacions de deshonestedat o suposada mentida en sèrie. Però extraordinàriament, malgrat que hi ha hagut informes meravellosos, Keach Hagey ha fet un gran treball en això. Karen Hao ha fet un gran treball en això. Realment no hi havia una comprensió definitiva dels presumptes punts de prova reals i dels motius pels quals s'han quedat fora de l'atenció pública.
Per tant, el primer punt és que em sento animat pel fet que alguns d'aquests buits en el nostre coneixement públic, i fins i tot en el coneixement dels experts de Silicon Valley, ara s'han omplert una mica més. Alguns dels motius pels quals hi havia buits s'han omplert una mica més.
Informem de casos en què les persones d'aquesta empresa realment van sentir que les coses estaven encobertes o deliberadament no documentades. Una de les novetats d'aquesta història és una investigació fonamental del bufet d'advocats de WilmerHale, que òbviament és un gran bufet d'advocats fantàstic, creïble i que va fer investigacions d'Enron i WorldCom, que, per cert, eren voluminoses, com centenars de pàgines publicades. WilmerHale va fer aquesta investigació que van demanar els membres de la junta que havien acomiadat Altman com a condició de la seva marxa quan es va desfer d'ells, i va tornar. I extraordinàriament, als ulls de molts experts jurídics amb qui vaig parlar, i sorprenentment als ulls de moltes persones d'aquesta empresa, ho van mantenir fora d'escrit. Tot el que va sorgir d'això va ser un comunicat de premsa de 800 paraules d'OpenAI que descrivia el que va passar com una ruptura de la confiança. I vam confirmar que això es va mantenir a les sessions informatives orals.
Hi ha casos en què, per exemple, un membre de la junta sembla que vol votar en contra de la conversió de la forma original sense ànim de lucre d'OpenAI a una entitat amb ànim de lucre, i es registra com una abstenció. Hi ha com un advocat a la reunió dient: "Bé, això podria provocar massa escrutini". I la persona que vol votar en contra queda registrada com a abstenció a totes les compareixences. Hi ha una disputa de fets. OpenAI afirma el contrari, com us podeu imaginar. Tots aquests són casos en què tens una empresa que, per compte propi, té el nostre futur a les seves mans.
Les apostes de seguretat són tan agudes que no han desaparegut. Aquesta és la raó per la qual aquesta empresa es va fundar com una organització sense ànim de lucre centrada en la seguretat i on les coses s'estaven enfosquint d'una manera que la gent creïble al voltant d'això la trobava menys que professional. I ho combines amb un teló de fons on hi ha tan poca gana política per una regulació significativa. Crec que és una situació molt inflamable.
La qüestió per a mi no és només que Sam Altman mereixi aquestes preguntes tan agudament. També és que qualsevol d'aquests nois en aquest camp, i moltes de les figures clau, mostren, si no aquest tret particular idiosincràsic i suposat de mentida constant, certament un cert grau de mentalitat de carrera fins al fons, on les persones que eren seguristes han diluït aquests compromisos i la postura de tothom està en una carrera.
Crec que, mentre mirem les filtracions recents d'Anthropic, hi ha una persona que es planteja la pregunta de qui hauria de tenir el dit al botó en aquesta peça. La resposta és que, si no tenim una supervisió significativa, crec que hem de fer preguntes serioses i tractar de treure la màxima informació possible sobre tots aquests nois. Així que m'ha animat el que sembla una conversa significativa sobre això, o els inicis d'una.
La raó per la qual t'ho vaig preguntar és que vas treballar en això durant un any i mig. Crec que heu parlat amb 100 persones amb el vostre coautor, Andrew. Això és molt de temps per cuinar una història. Penso en l'últim any i mig en IA en particular, i noi, les actituds i els valors de tots aquests personatges han canviat molt ràpidament.
Potser ni més ni menys que Sam Altman, que va començar com el guanyador per defecte perquè havien llançat ChatGPT i tothom pensava que això prendria el relleu de Google. I aleshores Google va respondre, la qual cosa semblava sorprendre que Google intentés protegir el seu negoci, potser un dels millors negocis de la història de la tecnologia, si no de la història del negoci. Anthropic va decidir que es centraria en l'empresa. Sembla que està prenent una iniciativa dominantallà perquè l'ús empresarial de la IA és molt elevat.
Ara, OpenAI està reorientant el seu producte lluny de "ens ocuparem de Google" a Codex, i s'encarregaran de l'empresa. No sé si, durant el transcurs del teu reportatge durant l'últim any i mig, sembla que els personatges amb els quals parlaves han canviat? Igual que les seves actituds i els seus valors, van canviar?
Sí. Crec, en primer lloc, que la crítica que s'explora en aquesta peça, provinent de moltes persones dins d'aquestes empreses en aquest moment -que es tracta d'una indústria que, malgrat les apostes existencials, està baixant a una mena de carrera cap al fons en seguretat i on la velocitat supera tota la resta-, aquesta preocupació s'ha accentuat. I crec que aquestes preocupacions han estat més validades a mesura que ha transcendit l'últim any i mig. Simultàniament, les actituds sobre Sam Altman han canviat específicament. Quan vam començar a parlar amb fonts d'això, la gent es va mostrar molt, molt recelosa de ser citat sobre això i d'anar constància sobre això.
Al final del nostre informe, teniu un cos d'informes on la gent parla d'això de manera molt oberta i explícita, i teniu membres de la junta que diuen coses com: "És un mentider patològic. És un sociópata". Hi ha diverses perspectives des de "Això és perillós tenint en compte les apostes de seguretat, i necessitem líders d'aquesta tecnologia que tinguin una integritat elevada", fins a arribar a agradar: "Oblideu-vos dels interessos de seguretat, aquest és un comportament insostenible per a qualsevol executiu de qualsevol empresa important, que només crea massa disfunció".
Per tant, la conversa s'ha tornat molt més explícita d'una manera que potser sembla tardà, però que en certa manera és encoratjadora. I Sam Altman, en el seu crèdit... La peça és molt justa i fins i tot generosa, diria, per a Sam. Aquest no és el tipus de peça on hi havia moltes coses de "te tens". Vaig passar moltes hores al telèfon amb ell mentre estàvem acabant això i realment l'escoltàvem.
Com us podeu imaginar, en una peça com aquesta, no tot surt. Alguns d'aquests casos en aquest van ser perquè escoltava amb sinceritat. I si en Sam estava argumentant que em sentia portat l'aigua, que alguna cosa, encara que fos cert, podria ser sensacionalista, vaig errar realment pel costat de mantenir això forense i mesurat. Per tant, crec que s'està rebent correctament, i només espero que aquest registre de fets acumulat durant aquest període de temps pugui desencadenar una conversa més forta sobre la necessitat de supervisió.
En realitat, aquesta és la meva següent pregunta. Crec que has parlat amb Sam una dotzena de vegades al llarg d'informar d'aquesta història. De nou, són moltes converses durant un llarg període de temps. Creieu que Sam ha canviat al llarg de l'informe durant l'últim any i mig?
Sí. Crec que una de les subtrames més interessants d'això és que Sam Altman també parla d'aquest tret de manera més explícita que en el passat. La postura de Sam en aquesta peça no és com: "No hi ha res, això no és cert; no sé de què estàs parlant". La postura que té és que diu que això és atribuïble a una tendència que agrada a la gent i una mena d'aversió al conflicte. Està reconeixent que li va causar problemes, sobretot a principis de la seva carrera.
Està dient: "Bé, estic passant d'això, o fins a cert punt ho he passat". Crec que el que és realment interessant per a mi és el contingent de persones amb qui vam parlar que no només eren una mena de defensors de la seguretat, no només els investigadors tècnics subjacents que sovint tendeixen a tenir aquests problemes de seguretat aguts, sinó també grans inversors pragmàtics. Són partidaris de Sam, que, en alguns casos, es plantegen aquesta pregunta i parlen fins i tot d'haver tingut un paper clau en el seu retorn després de l'acomiadament. Ara, sobre la qüestió de si s'ha reformat, i fins a quin punt és significatiu aquest canvi, diuen: "Bé, li vam donar el benefici del dubte en aquell moment".
Estic pensant en un inversor destacat en particular que va dir: "Però des de llavors, sembla clar que no el van treure darrere de la llenya", que va ser la frase que va utilitzar aquest, en la mesura que era necessari. Com a resultat, sembla que ara és un tret estable. Ho estem veient d'una manera continuada. Podeu veure alguns dels negocis més importants d'OpenAIles relacions i la manera com porten el pes d'aquesta desconfiança de manera continuada.
Igual que amb Microsoft, parles amb executius d'allà, i tenen preocupacions molt agudes i catalitzades recentment. Hi ha aquest cas en què, el mateix dia, OpenAI reafirma la seva exclusivitat amb Microsoft pel que fa als models d'IA sense estat subjacents, també anuncia un nou acord amb Amazon que té a veure amb la venda de solucions empresarials per crear agents d'IA amb estat, és a dir, que tinguin memòria.
Parles amb la gent de Microsoft i et diuen: "Això no es pot fer sense interactuar amb les coses subjacents sobre les quals tenim un acord d'exclusivitat". Per tant, aquest és només un dels molts exemples petits en què aquest tret té tendències en l'activitat empresarial en curs tot el temps i és un tema de preocupació activa al consell d'OpenAI, a la seva suite executiva i a la comunitat tecnològica més àmplia.
Continues dient aquest "tret". Hi ha una línia a la història que a mi em sembla la tesi, i és una descripció del tret que esteu descrivint. És que "Sam Altman no té cap restricció per la veritat" i que té "dos trets que gairebé mai no es veuen en la mateixa persona: el primer és un fort desig d'agradar a la gent, d'agradar-se en qualsevol interacció determinada, i el segon és una manca de preocupació gairebé sociópàtica per les conseqüències que pot venir d'enganyar algú".
T'he de dir, he llegit aquella frase 500 vegades, i he intentat imaginar-me sempre dient què volia agradar a la gent i després no molestar-me quan se sentia mentida. I no podia fer entendre el meu estat emocional com aquestes coses poden existir en la mateixa persona. Has parlat molt amb Sam i has parlat amb gent que ha experimentat aquests trets. Com ho fa?
Sí. És interessant a nivell humà perquè sí que m'apropo als òrgans d'informació com aquest amb un enfocament real a humanitzar qui hi ha al centre i a buscar una comprensió i empatia profunda. Quan vaig intentar aproximar-me a això des d'un punt de vista més humà i dir: "Eh, això seria devastador per a mi si tantes persones amb qui he treballat diguessin que sóc un mentider patològic. Com portes aquest pes? Com parles d'això a la teràpia? Quina és la història que t'expliques sobre això?"
Al meu punt de vista, vaig tenir alguna mena de tòpics de la costa oest sobre això com: "Sí, m'agrada treballar la respiració". Però no gaire del tipus de sensació d'autoconfrontació profunda que crec que molts de nosaltres probablement tindríem si estiguéssim veient aquest tipus de comentaris sobre el nostre comportament i el nostre tracte a les persones.
Crec que això també va a la resposta més àmplia a la pregunta. Sam assegura que aquest tret ha causat problemes, però també que és part del que l'ha empoderat per accelerar el creixement d'OpenAI tant que és capaç d'unir i complaure diferents grups de persones. Contínuament està convençut a tots aquests grups electorals en conflicte que el que els importa és el que els importa. I això pot ser una habilitat realment útil per a un fundador. He parlat amb inversors que després diuen: "Bé, potser és una habilitat menys útil per dirigir una empresa perquè sembra tanta discòrdia".
Però, des del costat personal de Sam, crec que el que entenc quan intento connectar-me a nivell humà és l'aparent manca de confrontació, reflexió i autoresponsabilització més profunda, que també informa d'aquest superpoder o responsabilitat per a una empresa que es prepara per a una OPI.
És algú que, en paraules d'una antiga membre de la junta anomenada Sue Yoon, que consta a la peça que diu que fins al punt de la "infecció" és la frase que utilitza, és capaç de creure realment la realitat canviant dels seus arguments de venda o és capaç de convèncer-se d'ells. O almenys si no se'ls creu, és capaç d'esclatar-los sense dubtes significatius.
Crec que allò de què estàs parlant, on podríem que tu o jo, mentre ho estem dient i ens adonem que entra en conflicte amb l'altra garantia que hem donat, tenim un moment per congelar-nos o controlar-nos. Crec que això no passa amb ell. I hi ha una cultura popular de Silicon Valley i una cultura fundadora més àmplia que ho inclouen.
És divertit. The Verge es basa en el que equival a ressenyes de productesprograma. És el cor del que fem aquí. Tinc un bilió de dòlars d'R+D d'Apple un cop l'any i dic: "Aquest telèfon és un set". I en certa manera legitima tots els nostres informes i les nostres opinions en altres llocs. Tenim una funció d'avaluació i passem molt de temps només mirant els productes d'IA i dient: "Funcionen?"
Sembla que falta en gran part de la conversa sobre la IA tal com és avui. Hi ha una conversa interminable sobre què podria fer, com de perillós pot ser. I després profundes i dius: "En realitat fa el que se suposa que ha de fer avui?" En alguns casos, la resposta és sí. Però en molts i molts casos, la resposta és no.
Sembla que connecta amb la cultura de l'exageració que estàs descrivint i també amb la sensació que, bé, si dius que farà alguna cosa i no ho fa, i algú se sent malament, està bé perquè estem al següent. Això és en el passat. I en IA en particular, Sam és tan bo per fer les grans promeses.
Només aquesta setmana, crec que el mateix dia que es va publicar la vostra història, OpenAI va publicar un document de política que deia que hem de repensar el contracte social i disposar de beques d'eficiència de l'IA del govern. Aquesta és una gran promesa sobre com algunes tecnologies poden donar forma al futur del món i com vivim, i tot això depèn de que la tecnologia funcioni exactament de la manera que potser s'ha promès funcionar o hauria de funcionar.
Alguna vegada has trobat que Sam dubta que la IA es converteixi en AGI o superintel·ligència o arribi a la meta? Perquè això és el que em pregunto més. Hi ha alguna reflexió sobre si aquesta tecnologia bàsica pot fer totes les coses que diuen que pot fer?
És exactament el conjunt correcte de preguntes. Hi ha tecnòlegs creïbles amb qui vam parlar en aquest cos d'informes, i òbviament Sam Altman no n'és; és una persona de negocis, que diu que la manera com Sam parla de la línia de temps d'aquesta tecnologia està molt lluny. Hi ha publicacions de bloc que es remunten a uns quants anys en què Sam diu: "Ja hem arribat a l'horitzó d'esdeveniments. L'AGI és bàsicament aquí. La superintel·ligència està a la vora. Estarem en altres planetes. Curarem totes les formes de càncer". De veritat, no estic embellint.
El de càncer és realment interessant, que Sam està animant a la persona que teòricament va curar el càncer del seu gos amb ChatGPT, i això simplement no va passar. Van parlar amb ChatGPT, i això els va ajudar a guiar alguns investigadors que realment van fer el treball, però l'un a un, aquesta eina va curar aquest gos no és realment la història.
M'alegro que hagis plantejat aquest punt perquè vull passar a aquest punt més gran sobre quan tant el potencial com el risc de la tecnologia s'aconseguiran realment. Però val la pena esmentar aquests petits aspectes que succeeixen constantment de Sam Altman, on sembla que torna a encarnar aquest tret.
Vull dir, per fer servir l'exemple de l'informe WilmerHale, on teníem aquesta informació que s'havia mantingut fora de l'escriptura, i volíem saber si el resum oral durant el camí es va donar a algú que no fos els dos membres de la junta que Sam va ajudar a instal·lar-lo per supervisar-lo. I va dir: "Sí, sí, no, crec que es va donar a tots els que es van unir a la junta després". I tenim una persona amb coneixement directe de la situació que diu que simplement és mentida. I realment sembla que és el cas, que no és cert. Si volem ser generosos, potser estava mal informat.
Hi ha moltes d'aquestes garanties casuals. I utilitzo aquest exemple en part perquè és un gran exemple de dissimulació, diguem-ne, que pot tenir conseqüències reals legalment. No cal que us digui, segons la llei corporativa de Delaware, si les OPI d'aquesta empresa, els accionistes podrien, d'acord amb la secció 220, queixar-se d'això i exigir la documentació subjacent. Ja hi ha membres de la junta que diuen coses com: "Bé, espera un moment, aquesta sessió informativa hauria d'haver passat".
Així que aquestes coses que semblen sortir de la seva boca tot el temps, poden tenir efectes reals de moviment del mercat, efectes reals per a OpenAI. Tornant-ho al tipus de llenguatge publicitari utòpic que ha ressorgit, crec que no casualment el dia que va sortir aquesta peça, també ens afecta a tots, perquè els perills són molt aguts pel que fa a la forma en què és.s'està desplegant en armament, la manera com s'utilitza per identificar els agents de guerra química, el potencial de desinformació i per la forma en què l'exageració utòpica sembla estar fent que molts economistes creïbles diguin: "Això té tots els signes d'una bombolla".
Fins i tot Sam Altman ha dit: "Algú perdrà molts diners aquí". Això realment podria provocar un gran creixement econòmic nord-americà i mundial, si hi ha una veritable perforació d'una bombolla que implica que totes aquestes empreses es tracten entre elles, que es dediquen a la IA mentre s'endeuen tan fort. Així que el que diu Sam Altman importa, i crec que la preponderància de la gent al seu voltant, vas esmentar que vam parlar amb més d'un centenar, en realitat va ser molt més d'un centenar. Vam tenir una conversa a la línia de meta on va dir: "Seria massa mesquin dir que és com aquest nombre molt més alt?" I vam dir: "Sí, minimitzem-ho. Ho farem genial". Però hi havia tantes persones i una majoria tan significativa que deien: "Això és una preocupació". I crec que per això.
Permeteu-me que us pregunti sobre aquest número. Com heu esmentat, la gent es va obrir cada cop més amb les preocupacions a mesura que passava el temps. Sembla que la pressió al voltant de la bombolla —la cursa per guanyar, per pagar tota aquesta inversió, per sortir com a guanyador, cap a la sortida a borsa— ha canviat moltes actituds. Sens dubte, va crear més pressió sobre Sam i OpenAI.
Aquesta setmana hem publicat una història només sobre les vibracions d'OpenAI. La teva història en forma part, però canvis massius de personal a les files executives d'OpenAI: la gent va i ve. Tots els investigadors es dirigeixen, en gran part a Anthropic, cosa que crec que és realment interessant. Només podeu veure que aquesta empresa està sent la pressió i respon a aquesta pressió d'alguna manera.
Però aleshores penso en Sam que va ser acomiadat. Això és només memorable per a mi. No és memorable per a ningú més, però vaig rebre una trucada al zoo del Bronx a les 19:00 d'un divendres, i algú va dir que intentaran recuperar Sam. I després vam passar el cap de setmana perseguint aquesta història. I vaig dir: "Estic al zoo. Què vols que faci aquí?" I la resposta va ser: "Mantingueu-vos al telèfon". Bé, la meva filla em va dir: "Palla el telèfon". I això és el que vaig fer.
Va ser muntar o morir per recuperar Sam. Aquella empresa va dir: "No, no deixarem que el consell acomiada Sam Altman". Els inversors, es citen al vostre article, "Vam anar a la guerra", crec que és la posició de Thrive Capital, "per recuperar Sam". Microsoft va anar a la guerra per recuperar Sam. És més tard, i ara tothom diu: "Anem a la sortida a borsa. Hem arribat a la meta. Hem recuperat el nostre tipus i ens portarà a la meta. Ens preocupa que sigui un mentider".
Per què va ser una guerra per recuperar-lo llavors? Perquè no sembla que res hagi canviat realment. Parles de les notes que Ilya Sutskever i [director general antròpic] Dario Amodei van guardar mentre eren contemporanis de Sam Altman. La preocupació número u d'Ilya era que Sam és un mentider.
Res d'això ha canviat. Aleshores, per què va ser la guerra per portar-lo de tornada? I ara que estem a la meta, sembla que totes les preocupacions estan al descobert.
Bé, en primer lloc, disculpeu la vostra filla i la meva parella i tota la gent del voltant dels periodistes.
[Riu] Va ser un cap de setmana per a tothom.
Sí, s'apodera de la vida d'un, i aquesta història definitivament té la meva, durant l'últim període de temps. De fet, crec que es relaciona amb aquest tema del periodisme i l'accés a la informació. Els inversors que van anar a la guerra per Sam i tots van jugar un paper per assegurar-se que tornés, i la junta que s'havia dissenyat específicament per protegir la missió d'una organització sense ànim de lucre de posar la seguretat per sobre del creixement i acomiadar un executiu si no se'ls podia confiar, van marxar. Això va ser tot perquè, sí, els incentius del mercat hi eren, oi?
Sam va poder convèncer la gent: "Bé, l'empresa només s'enfonsarà". Però el motiu pel qual tenia suport era la manca d'informació. Aquests inversors, en molts casos, ara diuen: "Miro enrere, i crec que hauria d'haver tingut més preocupacions si hagués sabut completament quines eren les reclamacions i quines eren les preocupacions".
No tots;les opinions varien, i citem una sèrie d'opinions, però n'hi ha d'importants que actuaven amb informació molt parcial. El tauler que va acomiadar Sam va ser, en paraules d'una persona que solia estar al tauler, "molt JV", i van palpar la pilota amb força. I documentem les queixes subjacents, i la gent pot decidir per si mateixa si s'acumula en el tipus de preocupació urgent que creien que era, però aquest argument i aquesta informació no s'estaven presentant.
Van rebre el que alguns d'ells ara reconeixen com un mal assessorament legal. Per descriure-ho, recordareu la cita, i probablement molts dels vostres oients i espectadors la recordaran com una falta de franquesa. Això era a què es va reduir i, bàsicament, no acceptarien trucades.
No acceptarien trucades. Estic segur que ho has intentat. Tothom que conec ho va intentar i va arribar al punt que, com a periodista, no hauríeu de donar consells a les vostres fonts, però jo vaig dir: "Això desapareixerà si no comences a explicar-te".
I això és el que va passar. Oblida't dels periodistes. Vau fer que Satya Nadella digués: "Què dimonis ha passat? No puc aconseguir que ningú m'expliqui". I aquest és el principal suport financer de l'empresa. I després tens Satya trucant al [cofundador de LinkedIn] Reid Hoffman i Reid trucant i dient: "No sé què merda va passar".
És comprensible que es troben en aquest buit d'informació, buscant els indicadors tradicionals que no són IA que justifiquen un acomiadament tan urgent i sobtat. Com, d'acord, van ser delictes sexuals? Va ser malversació? I tot l'argument subtil, però crec que significatiu, que aquesta tecnologia és diferent i que aquest tipus d'acumulació constant de traïcions més petites podria tenir apostes significatives tant per a aquest negoci com potser per al món, es va perdre en gran mesura. Així que els incentius capitalistes van guanyar, però també la gent que el va fer va sortir i no sempre funcionava amb informació completa.
Només vull preguntar sobre l'aspecte "el que tothom pensava que era" per un moment, perquè sens dubte vaig veure la notícia i vaig dir: "Oh, deu haver passat alguna cosa dolenta". Heu fet molts informes de #MeToo, famós. Vas trencar la història de Harvey Weinstein.
Vau passar molt de temps informant d'aquestes afirmacions que crec que vau decidir que finalment eren infundades: que Altman va agredir sexualment menors o va contractar treballadors sexuals, o fins i tot va assassinar un denunciant d'OpenAI. Vull dir, vostè és la persona que pot informar d'aquestes coses amb més rigor. Vau decidir que no va quedar en res?
Bé, mira, no estic en el negoci de dir que alguna cosa ha quedat en no-res. El que puc dir és que vaig passar mesos mirant aquestes afirmacions i no hi vaig trobar corroboració. I em va cridar l'atenció que aquests nois, aquestes empreses que tenen tant poder sobre el nostre futur, realment estan gastant una quantitat desproporcionada del seu temps i recursos en una baralla de fang infantil.
Un executiu el descriu com a "Shakespearian". La quantitat de diners dels investigadors privats i els expedients d'oposició que s'estan compilant és implacable. I el lamentable és que el tipus de coses salades, que repren com a lloro els competidors de Sam, només es suposa un fet, oi? Hi ha aquesta denúncia que persegueix nois menors d'edat, i en molts còctels a Silicon Valley, escolteu això. Al circuit de conferències, ho he sentit repetir per executius destacats i creïbles: "Tothom sap que això és un fet".
El més trist és que parlo d'on ve això, dels diferents vectors pels quals es transmet. Elon Musk i els seus associats aparentment estan impulsant dossiers realment durs que no equivalen a res. Són vaporosos quan comenceu a mirar les afirmacions subjacents. El més trist és que realment enfosqueix les crítiques més basades en l'evidència que crec que realment mereixen una supervisió i consideració urgents.
L'altre tema que realment apareix a la història és gairebé una sensació de por que Sam tingui tants amics: ha invertit en tantes empreses des del seu paper anterior com a director general d'Y Combinator, només fins a la seva inversió personal, algunes de les quals estan en conflicte directe amb el seu paper de CEO d'OpenAI, i hi ha silenci al seu voltant.
Em va sorprendre mentre llegia una línia en particular. Descrius les notes d'Ilya Sutskever, i acaben de sortir a Silicon Valley. Tothomels anomena les notes d'Ilya. Però fins i tot hi ha silenci al voltant d'això. Es passen per aquí, però no es discuteixen. D'on creus que ve? És por? És un desig d'aconseguir una inversió àngel? D'on ve això?
Crec que és molta covardia, seré sincer. Després d'haver informat sobre històries de seguretat nacional on les fonts són denunciants que poden perdre-ho tot i ser processats, encara fan el correcte i parlen de coses per crear responsabilitats. He treballat en les històries relacionades amb delictes sexuals que heu esmentat, on les fonts estan profundament traumatitzades i temen un tipus de retribució molt personal.
En molts casos al voltant d'aquest ritme, esteu tractant amb persones amb el seu propi perfil i poder. Ells mateixos són persones famoses o estan envoltats de persones famoses. Tenen una vida empresarial sòlida. En la meva opinió, en realitat és molt poca exposició per a ells parlar d'aquestes coses. I, per sort, l'agulla es mou com hem parlat abans, i la gent ara parla més.
Però durant tant de temps, la gent es va callar perquè crec que la cultura de Silicon Valley és tan despietadament interessada i despietadament orientada als negocis i al creixement. Per tant, crec que això afecta fins i tot a algunes de les persones que van participar en l'acomiadament de Sam, on vau veure els dies posteriors, sí, un factor que el va portar a tornar i a acomiadar els antics membres de la junta va ser que va reunir inversors que estaven confosos amb la seva causa.
Però una altra és que tantes altres persones al seu voltant que tenien les preocupacions i les van expressar amb urgència només es van plegar com tovallons i van canviar la seva melodia en el moment en què van veure que el vent bufava cap a l'altra banda i van voler entrar al tren de beneficis.
És bastant fosc, sincerament, des del meu punt de vista com a periodista.
Algunes d'aquestes persones són Mira Murati, que, crec, durant 20 minuts va ser la nova CEO d'OpenAI. Aleshores va ser substituïda. Va ser una dinàmica molt complicada i, evidentment, Sam va tornar. L'altra persona és Ilya Sutskever, que va ser un dels vots per eliminar Sam, i després va canviar d'opinió, o almenys va dir que va canviar d'opinió, i després va marxar per crear la seva pròpia empresa. Saps què el va fer canviar d'opinió? Eren només diners?
Bé, i per que quedi clar, no els destaco aquests dos. Hi ha altres membres de la junta que van participar en l'acomiadament que també van callar molt després. Crec que és com un problema col·lectiu més ampli. Es tracta, en alguns casos, de persones que van tenir la fibra moral per sonar les alarmes i prendre mesures radicals, i això és digne d'elogi. I així és com assegures la responsabilitat. Això podria haver ajudat a moltes persones que es veuen afectades per aquesta tecnologia. Podria haver ajudat una indústria a mantenir-se més enfocada a la seguretat.
Però tractant amb denunciants i persones que tracten d'incitar molt a aquesta responsabilitat, també veus que cal la fibra d'enganxar-ho i mantenir les teves conviccions. I aquesta indústria està realment plena de persones que simplement no mantenen les seves conviccions.
Tot i que pensen que estan construint un Déu digital que d'alguna manera eliminarà tota la mà d'obra o crearà més mà d'obra, o passarà alguna cosa.
Bé, aquesta és la cosa. Per tant, la cultura de no mantenir-se al costat de les vostres conviccions i totes les preocupacions ètiques que queden al marge en el moment en què hi ha cap calor o qualsevol cosa que pugui amenaçar la vostra pròpia posició en el negoci potser està bé i bona fins a cert punt per a les empreses que fan el mateix que facin qualsevol tipus de giny.
Però també són les mateixes persones que diuen: "Això ens podria matar literalment a tots". I de nou, no cal que aneu a l'extrem de Terminator Skynet. Hi ha un conjunt de riscos que ja s'estan materialitzant. És real, i tenen raó en advertir-ho, però hauríeu de fer que una altra butaca psicologi com aquestes dues coses poden viure en la mateixa gent on fan els avisos urgents, potser s'estan posant i intenten fer alguna cosa, i després només estan plegant i callant.
Precisament per això podeu tenir aquest tipus de casos de coses que es mantenen fora de l'escriptura i coses escombrades sota la catifa, i ningú no en parli obertament durant anys després del fet.
La part natural i responsable aquí no serien els CEO d'aquestes empreses; serien els governs. Als Estats Units, potsersón els governs estatals, potser és el govern federal.
Certament, totes aquestes empreses volen ser globals. Aquí hi ha moltes implicacions globals. Vaig veure que OpenAI, Google i Anthropic incitaven l'administració Biden a publicar una ordre executiva d'IA. Al final va quedar bastant sense dents. Només va dir que havien de parlar de què eren capaços els seus models i llançar algunes proves de seguretat. I després tots van donar suport a Trump, i Trump va entrar i va esborrar tot això i va dir: "Hem de ser competitius. És un lliure per a tots. Aneu-hi".
Al mateix temps, tots estan intentant recaptar fons dels països de l'Orient Mitjà que tenen molts diners del petroli i volen canviar les seves economies. Són polítics. Crec que els polítics haurien d'entendre definitivament que algú parla per les dues bandes de la boca, i no estaran massa molestos si al final algú queda decebut, però els polítics també s'emporten a passejar. Per què creus que és això?
Crec que això és realment el motiu pel qual la peça importa al meu punt de vista i per què va valdre la pena dedicar-hi tot aquest temps i detalls. Ens trobem en un entorn on els sistemes que, com dius, haurien de proporcionar supervisió només estan buits. Es tracta d'una Amèrica posterior a Ciutadans Units, on el flux de diners és tan lliure, i és una concentració particular d'aquest problema al voltant de la IA, on hi ha aquests PAC que estan proliferant i inundant diners per anul·lar una regulació significativa tant a nivell estatal com federal.
Tens [el cofundador d'OpenAI] Greg Brockman, el segon al comandament de Sam, que contribueix directament d'una manera important a un parell d'aquests. Porta a una situació en què realment hi ha captura de legisladors i reguladors potencials, i d'aquesta és una espiral difícil de sortir. El més trist és que crec que hi ha mesures polítiques senzilles, algunes de les quals s'estan provant en altres llocs del món, que ajudarien amb alguns d'aquests problemes de responsabilitat.
Podríeu tenir més proves de seguretat prèvies al desplegament obligatòries, cosa que ja està passant a Europa per als models de frontera. Podríeu tenir requisits de registre públic escrit més estrictes per als tipus d'investigacions internes en què hem vist coses que no s'escriuen en aquest cas. Podríeu tenir un conjunt més sòlid de mecanismes de revisió de la seguretat nacional per als tipus d'ambicions d'infraestructura de l'Orient Mitjà que impulsava Sam Altman.
Com dius, estava fent aquest esquer i canviant amb l'administració de Biden, dient: "Regula'ns, regula'ns" i ajudant-los a elaborar una ordre executiva, i en el moment en què Trump entra, realment en els primers dies, sense restriccions, "Acelerem i construïm un campus de centre de dades massiu a Abu Dhabi". Podríeu tenir, això és molt senzill, com les proteccions per a denunciants. No hi ha cap estatut federal que protegeixi els empleats de les empreses d'IA que revelin aquest tipus de problemes de seguretat que s'emeten en aquesta peça.
Tenim casos en què Jan Leike, que era un home sènior de seguretat a OpenAI, liderava la super alineació a l'empresa. Escriu a la junta, essencialment material de denunciant, dient que l'empresa està sortint dels rails en la seva missió de seguretat. Aquests són els tipus de persones que realment haurien de tenir un òrgan de supervisió al qual puguin acudir i haurien de tenir proteccions legals explícites del tipus que veiem en altres sectors. Això és senzill de replicar un règim a l'estil Sarbanes-Oxley.
Crec que, malgrat com d'agut és el problema de Silicon Valley assumint el control de totes les palanques del poder, i malgrat com estan buides algunes d'aquestes institucions que poden proporcionar supervisió i baranes, encara crec en les matemàtiques bàsiques de la democràcia i dels polítics interessats. I cada cop apareixen més dades d'enquestes que la majoria dels nord-americans pensen que les preocupacions, preguntes o riscos de la IA actualment superen els beneficis.
Per tant, crec que l'allau de diners a la política des de la intel·ligència artificial, està dins del nostre poder fer d'això una font d'interrogació respecte als polítics. Quan els nord-americans van a votar, haurien d'escrutar si les persones que voten, sobretot si són acrítiques i antireguladores, tenint en compte totes aquestes preocupacions, estan finançades per interessos especials de les grans tecnologies. Així que crec que si la gent pot llegir peces com aquesta, escoltar podcasts com aquest i tenir prou cura com per pensar-hi críticamentles seves decisions com a votants, hi ha una oportunitat real de generar una circumscripció electoral a Washington de representants que vigilin i obliguin la supervisió.
Aquesta podria ser una de les coses més optimistes que mai he sentit dir a algú sobre la indústria actual de la IA. Ho agraeixo. Estic obsessionat amb l'enquesta de què parles. Ara n'hi ha molt. Tot és bastant coherent i sembla que com més els joves, en particular, estan exposats a la IA, més desconfiats i enfadats estan al respecte. Aquesta és la valència de totes les enquestes. I ho miro, i crec que, bé, sí, els polítics intel·ligents només s'oposarien a això. Només dirien: "Anem a fer responsables de les grans tecnologies".
Aleshores penso en els darrers 20 anys, un polític que diu que responsabilitzaran les grans tecnologies i estic lluitant per trobar fins i tot un moment en què les grans tecnologies es responsabilitzen. L'únic que em fa pensar que això podria ser diferent és, bé, en realitat heu de construir els centres de dades, i podeu votar en contra, i podeu demanar-ho en contra, i podeu protestar contra això.
Crec que hi ha un polític al qual li van disparar casa perquè va votar un centre de dades. La tensió està arribant, jo ho diria, a un punt de febre. Heu descrit la insularitat de Silicon Valley. Aquest és un ecosistema tancat. Sembla que pensen que poden dirigir el món. Estan invertint un munt de diners en política i s'enfronten a la realitat que la gent no estima els productes, cosa que no els dóna gaire cobertura. Com més fan servir els productes, més molestos estan, i els polítics comencen a veure que hi ha conseqüències reals per donar suport a la indústria tecnològica sobre les persones que representen.
Has parlat amb molta gent. Creus que és possible que la indústria tecnològica aprengui la lliçó que té al davant?
Dius que se sent com si pensessin que poden dirigir el món sense responsabilitats. Ni tan sols crec que calgui el qualificatiu de "sensació". Vull dir, mireu el llenguatge que fa servir Peter Thiel, és explícit. Per descomptat, aquest és un exemple extrem. I Sam Altman, tot i que està a prop i està informat per la ideologia de Thiel fins a cert punt, és un tipus de persona molt diferent que pot semblar diferent i més mesurat fins a cert punt.
Però crec que la ideologia més àmplia que obtens de Thiel, que és bàsicament: hem acabat amb la democràcia, ja no la necessitem. Tenim tant que només volem construir els nostres propis búnquers. Ja no estem tractant amb els Carnegie o els Rockefeller, on són dolents, però senten que necessiten participar en un contracte social i construir coses per a la gent. Hi ha un autèntic nihilisme que s'instal·la.
I crec que només ha estat una espiral que es reforça mútuament en la història recent nord-americana de magnats i empreses privades que adquireixen un poder supergovernamental mentre les institucions democràtiques que poden fer-los responsables són buides. No em sento optimista amb la idea que aquests nois només es despertin un dia i pensin: "Eh, de fet, potser necessitem participar en la societat i ajudar a construir coses per a la gent".
Vull dir, et mireu com l'exemple microcòsmic de The Giving Pledge, on hi va haver un moment en què semblava ser benèfic, i aquest moment ja ha passat i fins i tot es ridiculitza. Aquest és un problema, el problema més ampli de la manca de responsabilitat que crec que només es pot resoldre extrínsecament. Això ha de ser que els votants es mobilitzin i ressuscitaran el poder de supervisió del govern. I tens tota la raó en dir que el principal vector a través del qual la gent podria aconseguir-ho és local. Té a veure amb el lloc on es construeix la infraestructura.
Heu esmentat part de la tensió al voltant d'això que està donant lloc a violència i amenaces i, òbviament, ningú hauria de ser violent o amenaçador. I tampoc sóc aquí per fer recomanacions polítiques específiques que no sigui només presentar alguns dels passos de la política que semblen bàsics i que funcionen en altres llocs del món, oi? O els que han treballat en altres sectors. No estic aquí per dir quins d'ells s'han d'executar i com.
Crec que alguna cosa ha de passar, i ha de ser externa, no només confiar en aquestes empreses. Perquè correcteara tenim una situació en què les empreses que estan desenvolupant la tecnologia i estan millor equipades per entendre els riscos, i de fet són les que ens avisen dels riscos, també són les que no tenen més que incentius per anar ràpid i ignorar aquests riscos. I simplement no tens res per contrarestar-ho. Per tant, siguin quines siguin les reformes en termes concrets, alguna cosa s'ha de enfrontar. I encara torno a aquest optimisme que la gent encara importa.
En general compro el teu argument. Permeteu-me només fer l'únic contraargument minúscul que crec que puc articular. L'altra cosa que podria passar fora de les urnes és que la bombolla esclati, oi? Que no totes aquestes empreses arriben a la meta i que no hi ha mercat de productes aptes per a les aplicacions d'IA de consum. I de nou, encara no ho veig del tot, però sóc un revisor de tecnologia de consum, i potser només tinc estàndards més alts que tots els altres.
Hi ha un mercat de productes encaixat en el món empresarial, oi? Tenir un munt d'agents d'IA que escriguin un munt de programari sembla ser un mercat real per a aquestes eines. I podeu llegir els arguments d'aquestes empreses que diuen: "Hem resolt la codificació, i això vol dir que podem resoldre qualsevol cosa. Si podem fer programari, podem resoldre qualsevol problema".
Crec que hi ha límits reals a les coses que pot fer el programari. Això és genial en el món empresarial. El programari no pot resoldre tots els problemes en realitat, però han d'arribar-hi. Han d'acabar la feina, i potser no tothom arriba a la meta. I hi ha una caiguda, i aquesta bombolla esclata, i potser OpenAI o Anthropic o xAI, una d'aquestes empreses falla, i tota aquesta inversió desapareix.
Creus que això afectaria això? De fet, deixeu-me fer la primera pregunta primer. OpenAI està just a la cúspide d'una OPI. Hi ha molts dubtes sobre Sam com a líder. Creus que arribaran a la meta?
No faré un pronòstic, però crec que plantegeu un punt important, que és que els incentius del mercat importen internament a Silicon Valley, i la precarietat de la dinàmica actual de la bombolla interromprà, de nou, potencialment, segons els crítics, la cursa cap al fons en seguretat.
També afegiria a això, si ens fixem en la precedència històrica on hi ha un conjunt semblant i aparentment impenetrable d'incentius de mercat i efectes potencialment nocius per al públic, hi ha litigi d'impacte. I això ho veus com un tema de preocupació últimament. Sam Altman està allà aquesta setmana aprovant una legislació que protegiria les empreses d'IA d'alguns dels tipus de responsabilitat a què s'ha vist exposat OpenAI en les demandes per mort injusta, per exemple. Per descomptat, hi ha un desig de tenir aquest escut de responsabilitat.
Crec que els tribunals encara poden ser un mecanisme significatiu, i serà molt interessant veure com es formen aquests vestits. Ja heu vist, per exemple, la demanda col·lectiva, de la qual jo i molts altres autors que conec, en som membres, contra Anthropic pel seu ús de llibres amb drets d'autor. Si hi ha persones jurídiques intel·ligents i demandants que els preocupen, com hem vist històricament en casos des de grans tabacs fins a grans energies, també podeu obtenir algunes baranes i alguns incentius per frenar, tenir cura o protegir les persones d'aquesta manera.
Sembla que tota l'estructura de costos de la indústria de la IA depèn d'una interpretació molt, molt benèfica de l'ús just. No surt prou. L'estructura de costos d'aquestes empreses podria descontrolar-se si us han de pagar a vosaltres ia tots els altres els treballs dels quals han assumit, però és inconvenient pensar-hi, així que no hi pensem. Just al costat d'això, tots aquests productes ara funcionen amb pèrdues. Com avui, tots corren amb pèrdua. Cremen més diners dels que poden guanyar. En algun moment, han d'encendre l'interruptor.
Sam és un home de negocis. Com heu esmentat diverses vegades, no és un tecnòleg. És una persona de negocis. Creus que està preparat per encendre l'interruptor i dir: "Anem a guanyar un dòlar?" Perquè quan pregunto: "Creus que OpenAI ho farà?" És quan han de guanyar un dòlar. I fins ara, Sam ha guanyat tots els seus diners demanant els seus diners a altres persones en lloc de fer que les seves empreses guanyin diners.
Bé, aquesta és una gran pregunta persistent per a Silicon Valley, per als inversors, per al públic.Veu algunes declaracions i moviments fora d'OpenAI que semblen evidenciar una mena de pànic al respecte. Tancar Sora, tancar alguns projectes auxiliars, intentar concentrar-se en el producte principal. Però, d'altra banda, encara veus, alhora, tones de missió arrastrar-se, oi? Fins i tot un petit exemple (òbviament no és el nucli del seu negoci) és l'adquisició de TBPN.
Per cert, just quan estàvem arribant a la meta i la verificació de fets, l'empresa que s'enfronta a aquest tipus d'escrutini periodístic adquireix una plataforma on poden tenir un control més directe sobre la conversa. Crec que hi ha molts inversors que estan preocupats, a partir de les converses que he tingut, que aquest problema de prometre totes les coses a totes les persones també s'estén a aquesta manca d'enfocament en el model de negoci principal. I vull dir, estàs més a prop del tipus de pronòstic i observació del mercat que jo probablement. Deixaré que tu i els oients siguis el jutge de si creuen que OpenAI pot canviar l'interruptor.
Bé, vaig fer la pregunta perquè tens una cita a la peça d'un alt executiu de Microsoft, i és que "el llegat de Sam podria acabar semblant més a Bernie Madoff o Sam Bankman-Fried", en lloc de Steve Jobs. Això és tota una comparació. Què en vas fer d'aquesta comparació?
Crec que és una paràfrasi. La part de Steve Jobs no formava part de la cita. Però hi ha una mena de sobrietat interessant perquè es diu com: "Crec que hi ha una petita però real possibilitat que acabi sent un estafador de nivell Madoff o SBF". Vol dir, al meu parer, no que Sam estigui acusat d'aquests tipus específics de frau o delictes, sinó que el grau de dissimulació i engany de Sam pot tenir la possibilitat de ser recordat a aquesta escala.
Sí, crec que el més sorprenent d'aquesta cita, sincerament, és que truques a Microsoft i no t'agrada: "Això és una bogeria. No ho hem sentit mai". Et dius molt, "Sí, molta gent aquí pensa això", que és notable. I crec que s'aplica a aquestes preguntes empresarials.
Un inversor em va dir, per exemple, a la llum de la forma en què aquest tret ha perdurat en els anys posteriors al tret ", i això també va pensar que era un pensament sobri i interessant, que no és necessàriament que Sam hagi d'estar al final absolut de la llista, com hauria de ser el més baix dels baixos en termes de persones que absolutament no han de construir aquesta tecnologia, per què val la pena aquest tret. potser al final de la llista de persones que haurien de construir AGI, i per sota d'altres figures destacades en aquest camp.
Així que vaig pensar que era una valoració interessant, i aquest és el tipus de pensament que crec que obteniu dels veritables pragmàtics que potser no s'entenen tant per les preocupacions de seguretat. Només estan orientats al creixement i pensen que OpenAI ara té un problema amb Sam Altman.
La peça de Microsoft és realment interessant. Aquella empresa pensava que estaven a la part superior del món. Que havien fet aquesta inversió i que anaven a saltar a tothom, especialment i el més important, a Google, i tornaran a la gràcia dels consumidors. No crec que es pugui exagerar el nivell al qual se senten cremats per aquesta aventura, aquesta és una empresa gestionada amb molta sobrietat.
Has mencionat els personatges i els trets de la personalitat. Vull acabar aquí amb una pregunta dels nostres oients. Vaig dir al nostre altre programa, The Vergecast, que anava a parlar amb tu i li vaig dir: "Si tens preguntes per a Ronan sobre aquesta història, fes-m'ho saber". Així que aquí en tenim un que crec que s'enllaça perfectament amb el que esteu descrivint. Només us el llegiré:
"En què difereixen les justificacions del mal comportament, les accions brutals d'Altman i altres líders d'IA de les justificacions que Ronan ha escoltat d'altres líders d'alt perfil de la política i els mitjans de comunicació? No justifiquen tots els seus actes dient que així és com canvia el món? Si no faig això, algú altre ho farà?"
Sí, hi ha molt d'això. Jo diria que el que caracteritza la IA és que els interessos existencials són tan elevats significa que les dues declaracions de risc són extremes, oi? Tens Sam Altmandient: "Això podria ser una llum apagada per a tots nosaltres". I també, podrien dir els crítics, la mania a què es refereix l'interrogant és extrema, oi?
El que Sam va acusar a Elon, en el registre, va ser que potser vol salvar la humanitat, però només si és ell. El tipus de component d'ego de voler guanyar, que és un enquadrament que Sam utilitza tot el temps, i que aquest és un dels llibres d'història, això podria canviar-ho tot. Així, doncs, fins i tot més enllà de la mentalitat "heu de trencar uns quants ous" de la majoria d'empreses de Silicon Valley, crec que en la ment d'algunes figures que lideren l'IA, crec que hi ha una racionalització completa per a qualsevol conseqüència.
I oblida't de trencar ous. Crec que molts dels investigadors de seguretat subjacents dirien que poden arriscar-se a trencar el país, trencar el món i trencar milions de persones la feina i la seguretat de les quals estan en joc, això és el que és únic. Aquí és on tanco, reflexionant sobre aquest cos d'informes, creient realment que això és més que Sam Altman. Es tracta d'una indústria que no té restriccions i d'un problema en espiral d'Amèrica que no pot limitar-la.
Sí. Bé, teníem una mica d'optimisme allà, però crec que és un bon lloc per deixar-ho.
[Riu] Final amb un ritme negatiu.
Per descomptat. Aquesta és tota gran història, realment. S'acosta el judici Musk-Altman. Crec que aquí aprendrem molt més. Sospito que voldré tornar a parlar amb tu. Ronan Farrow, moltes gràcies per estar a Decoder.
Gràcies.
Preguntes o comentaris sobre aquest episodi? Truqueu-nos a [email protected]. Realment llegim tots els correus electrònics!