Hoxe en Decoder, estou a falar con Ronan Farrow, unha das maiores estrelas da investigación investigadora que traballa hoxe. Rompeu a historia de Harvey Weinstein, entre moitas, moitas outras. E só a semana pasada, el e o coautor Andrew Marantz publicaron unha incrible función de mergullo profundo en The New Yorker sobre o CEO de OpenAI, Sam Altman, a súa fiabilidade e o auxe de OpenAI.
Unha nota antes de ir máis lonxe aquí: The New Yorker publicou esa historia e Ronan e eu tivemos esta conversación antes de coñecer o alcance total dos ataques contra a casa de Altman, así que non nos escoitará falar diso directamente. Pero só por dicilo, creo que a violencia de calquera tipo é inaceptable, estes ataques contra Sam foron inaceptables e que o tipo de impotencia que sente a xente, que leva a este tipo de violencia, é inaceptable en si, e paga a pena moito máis escrutinio tanto da industria como dos nosos líderes políticos. Espero que quede claro.
Os subscritores de Verge, non esquezas que tes acceso exclusivo ao decodificador sen anuncios onde queiras os teus podcasts. Diríxete aquí. Non eres subscritor? Podes rexistrarte aquí.
Dito isto, hai moito remuíño en torno a Altman que é un xogo xusto para os informes rigorosos, o tipo de informes que Ronan e Andrew se propuxeron facer. Grazas á popularidade de ChatGPT, Altman emerxeu como a figura de proa máis visible da industria da IA, tras converter un laboratorio de investigación sen ánimo de lucro nunha empresa privada de case billóns de dólares en poucos anos. Pero o mito de Altman está profundamente en conflito, definido igualmente pola súa obvia habilidade para facer tratos e pola súa tendencia a... ben, mentir a todos os que o rodean.
A historia ten máis de 17.000 palabras e, sen dúbida, contén o relato definitivo do que pasou en 2023 cando o consello de administración de OpenAI despediu de súpeto a Altman pola súa suposta mentira, só para que fose contratado de novo case ao instante. Tamén é unha inmersión profunda na vida persoal de Altman, os seus investimentos, o seu cortexo co diñeiro de Oriente Medio e as súas propias reflexións sobre o seu comportamento pasado e os trazos de carácter que levaron a unha fonte a dicir que non estaba "limitado pola verdade". Realmente suxiro que leas a historia enteira; Sospeito que se fará referencia durante moitos anos.
Ronan falou con Altman moitas veces ao longo dos 18 meses que pasou informando desta peza, polo que unha das principais cousas que tiña curiosidade era se sentiu algún cambio en Altman durante ese tempo. Despois de todo, pasaron moitas cousas na IA, na tecnoloxía e no mundo durante o último ano e medio.
Escoitarás a Ronan falar diso directamente, así como a súa sensación de que a xente está moito máis disposta a falar sobre a capacidade de Altman para estirar a verdade. A xente comeza a preguntarse, en voz alta e no rexistro, se o comportamento de persoas como Altman é preocupante, non só para a IA ou a tecnoloxía, senón tamén para o futuro colectivo da sociedade.
Ok: Ronan Farrow sobre Sam Altman, AI e a verdade. Aquí imos.
Esta entrevista foi lixeiramente editada para a extensión e claridade.
Ronan Farrow, es un xornalista de investigación e colaborador de The New Yorker. Benvido a Decoder.
Encantado de estar aquí. Grazas por terme.
Estou moi emocionado de falar contigo. Acabas de escribir un gran artigo para The New Yorker. É un perfil de Sam Altman e, máis ou menos, de OpenAI. A miña lectura é que, como fan todas as excelentes funcións, con informes rigorosos, valida moitos sentimentos que a xente tivo sobre Sam Altman durante moito tempo. Obviamente o publicaches, obtiveches reaccións. Como te sentes agora mesmo?
Ben, en realidade, alentoume a medida en que se rompeu nun momento no que a economía da atención é tan esquizofrénica e superficial. Esta é unha historia que, ao meu ver, nos afecta a todos. E cando pasei ano e medio da miña vida, e o meu coautor, Andrew Marantz, tamén pasou ese tempo seu, intentando realmente facer algo forense e minucioso, sempre é porque sinto que hai problemas estruturais máis grandes que afectan a persoas máis aló do individuo e da empresa no centro da historia.
Sam Altman, co telón de fondo da cultura publicitaria de Silicon Valley e das startups que aumentan a valoracións masivas baseadas en promesas que poden ou non chegar a cumprirse no futuro, e unha crecente aceptación dunha cultura fundadora que pensa que dicir a diferentes grupos cousas diferentes en conflito é unha característica, non unhabug... Mesmo con ese pano de fondo, Sam Altman é un caso extraordinario no que todos en Silicon Valley que esperan esas cousas non poden deixar de falar sobre esta cuestión da súa fiabilidade e honestidade.
Xa sabiamos que foi despedido por algunha versión de acusacións de deshonestidade ou suposta mentira en serie. Pero extraordinariamente, a pesar do feito de que houbo informes marabillosos, Keach Hagey fixo un gran traballo nisto. Karen Hao fixo un gran traballo nisto. Realmente non houbo unha comprensión definitiva dos supostos puntos de proba reais e das razóns polas que estes quedaron fóra do ollo público.
Polo tanto, o primeiro punto é que me alentou o feito de que algunhas desas lagoas no noso coñecemento público, e mesmo no coñecemento dos expertos de Silicon Valley, se cubran un pouco máis. Algunhas das razóns polas que había ocos cubríronse un pouco máis.
Informamos sobre casos nos que as persoas dentro desta empresa realmente sentiron que as cousas estaban tapadas ou que non se documentaron deliberadamente. Unha das novidades desta historia é unha investigación fundamental do bufete de avogados de WilmerHale, que obviamente é un gran bufete de avogados elegante, crible e que fixo investigacións de Enron e WorldCom, que, por certo, eran todas voluminosas, como centos de páxinas publicadas. WilmerHale fixo esta investigación que foi esixida polos membros da xunta directiva que despediran a Altman como condición para a súa saída cando se desfixo deles, e volveu. E extraordinariamente, aos ollos de moitos expertos xurídicos cos que falei e, sorprendentemente, aos ollos de moitas persoas desta empresa, mantivéronse fóra da escritura. Todo o que xurdiu diso foi un comunicado de prensa de 800 palabras de OpenAI que describía o que pasou como unha ruptura da confianza. E confirmamos que isto se mantiña en sesións orais.
Hai casos nos que, por exemplo, un membro do consello parece querer votar en contra da conversión do formulario orixinal sen ánimo de lucro de OpenAI nunha entidade con ánimo de lucro, e rexístrase como unha abstención. Hai como un avogado na reunión dicindo: "Ben, iso podería provocar demasiado escrutinio". E a persoa que queira votar en contra queda rexistrada como abstención en todas as comparecencias. Hai unha disputa de feitos. OpenAI afirma o contrario, como podes imaxinar. Todos estes son casos nos que tes unha empresa que, pola súa conta, ten o noso futuro nas súas mans.
As apostas de seguridade son tan agudas que non desapareceron. Esta é a razón pola que se fundou esta empresa como unha organización sen ánimo de lucro centrada na seguridade, e onde as cousas estaban escurecidas de forma que a xente creíble ao seu redor a atopaba menos que profesional. E combinas iso cun pano de fondo onde hai tan pouco apetito político por unha regulación significativa. Creo que é unha situación moi inflamable.
O punto para min non é só que Sam Altman mereza estas preguntas tan agudamente. Tamén é que calquera destes mozos neste campo, e moitas das figuras clave, exhiben, se non este particular trazo idiosincrático, supostamente mentireiro de todo o tempo, certamente un certo grao de mentalidade de carreira ata o fondo, onde as persoas que eran seguristas diluaron eses compromisos e a postura de todos están nunha carreira.
Creo que, mentres miramos as filtracións recentes de Anthropic, hai unha persoa que se pregunta quen debería ter o dedo no botón nesta peza. A resposta é que, se non temos unha supervisión significativa, creo que temos que facer preguntas serias e tentar sacar toda a información posible sobre todos estes rapaces. Entón, alentoume o que parece unha conversación significativa sobre iso, ou os comezos dunha.
O motivo polo que llo preguntei así é que traballaches nisto durante ano e medio. Creo que falaches con 100 persoas co teu coautor, Andrew. É moito tempo para cociñar unha historia. Penso no último ano e medio en IA en particular, e rapaz, que as actitudes e os valores de todos estes personaxes cambiaron moi rápido.
Quizais nada máis que Sam Altman, quen comezou como o gañador predeterminado porque lanzaran ChatGPT e todo o mundo pensaba que só se ocuparía de Google. E entón Google respondeu, o que parecía sorprendelos de que Google tentaría protexer o seu negocio, quizais un dos mellores negocios da historia da tecnoloxía, se non da historia empresarial. Anthropic decidiu que se centraría na empresa. Parece que está a tomar unha vantaxe dominantealí porque o uso empresarial da IA é tan alto.
Agora, OpenAI está reorientando o seu produto lonxe de "imos asumir Google" para Codex, e eles van asumir a empresa. Non podo dicir moi ben se, ao longo da súa reportaxe durante o último ano e medio, parece que os personaxes cos que falabas cambiaron? Como as súas actitudes e os seus valores, cambiaron?
Si. Creo, en primeiro lugar, que a crítica que se explora nesta peza, procedente de moitas persoas dentro destas empresas neste momento - que esta é unha industria que, a pesar das apostas existenciais, está a descender nunha especie de carreira cara ao fondo en materia de seguridade e onde a velocidade supera todo o demais - esa preocupación agudizouse. E creo que esas preocupacións foron máis validadas a medida que transcendeu o último ano e medio. Simultaneamente, as actitudes sobre Sam Altman cambiaron especificamente. Cando comezamos a falar con fontes para iso, a xente estaba moi, moi recelosa de ser citado sobre isto e de ir rexistrado sobre isto.
Ao final do noso informe, tes un corpo de informes onde a xente fala sobre isto de forma moi aberta e explícita, e tes membros do consello que din cousas como: "É un mentireiro patolóxico. É un sociópata". Hai unha serie de perspectivas desde: "Isto é perigoso tendo en conta os riscos de seguridade, e necesitamos líderes desta tecnoloxía que teñan unha integridade elevada", ata chegar a dicir: "Esquece o xogo de seguridade, este é un comportamento insostible para calquera executivo de calquera empresa importante, que simplemente crea demasiada disfunción".
Entón, a conversación fíxose moito máis explícita dun xeito que quizais parece tardío, pero é alentadora nun sentido. E Sam Altman, no seu haber... A peza é moi xusta e ata xenerosa, diría eu, para Sam. Este non é o tipo de peza onde había moitas cousas de "teo". Pasei moitas, moitas horas por teléfono con el mentres estabamos rematando isto e realmente o escoitaba.
Como podes imaxinar, nunha peza coma esta non todo chega. Algúns deses casos neste foi porque escoitaba con sinceridade. E se Sam estaba realmente argumentando que me sentía cargado de auga, que algo, aínda que fose verdade, podería ser sensacionalista, realmente errou no lado de manter isto forense e medido. Polo tanto, creo que se está recibindo correctamente, e só espero que este rexistro de feitos que se acumula durante este período de tempo poida desencadear unha conversación máis estimulante sobre a necesidade de supervisión.
Esa é en realidade a miña seguinte pregunta. Creo que falaches con Sam unha ducia de veces ao longo do relato desta historia. De novo, son moitas conversas durante un longo período de tempo. Pensaches que Sam cambiou ao longo dos informes durante o último ano e medio?
Si. Creo que unha das subtramas máis interesantes neste é que Sam Altman tamén está a falar deste trazo de forma máis explícita que no pasado. A postura de Sam nesta peza non é como: "Non hai nada alí, isto non é verdade; non sei de que estás falando". A postura que ten é que di que isto é atribuíble a unha tendencia agradable á xente e a unha especie de aversión ao conflito. Recoñece que lle causou problemas, especialmente no inicio da súa carreira.
Está dicindo: "Ben, estou pasando diso ou, en certa medida, paseino". Creo que o que é realmente interesante para min é o continxente de persoas coas que falamos que non eran só unha especie de defensores da seguridade, non só os investigadores técnicos subxacentes que adoitan ter estes problemas de seguridade agudos, senón tamén investidores pragmáticos e importantes. Son partidarios de Sam, quen, nalgúns casos, miran esta pregunta e falan de ter desempeñado un papel fundamental no seu regreso despois do disparo. Agora, sobre esta cuestión de se se reformou e ata que punto ten sentido ese cambio, din: "Ben, démoslle o beneficio da dúbida no seu momento".
Estou pensando nun investidor destacado en particular que dixo: "Pero desde entón, parece claro que non o sacaron detrás da leñeira", que foi a frase que utilizou este, na medida en que era necesario. Como resultado, parece que agora é un trazo estable. Estamos a ver isto dun xeito continuo. Podes ver algúns dos maiores negocios de OpenAIrelacións e a forma en que cargan o peso desa desconfianza dun xeito continuo.
Do mesmo xeito que con Microsoft, falas con executivos de alí, e teñen preocupacións moi agudas e catalizadas recentemente. Hai este caso no que, o mesmo día que OpenAI reafirma a súa exclusividade con Microsoft con respecto aos modelos de intelixencia artificial sen estado subxacentes, tamén anuncia un novo acordo con Amazon que ten que ver coa venda de solucións empresariais para construír axentes de intelixencia artificial que teñan estado, o que significa que teñan memoria.
Falas coa xente de Microsoft e dixen: "Non se pode facer iso sen interactuar co material subxacente no que temos un acordo de exclusividade". Polo tanto, ese é só un dos moitos pequenos exemplos nos que este trazo ten tensores na actividade empresarial en curso todo o tempo e é un tema de preocupación activa dentro do consello de administración de OpenAI, no seu conxunto executivo e na comunidade tecnolóxica máis ampla.
Vostede segue dicindo ese "trazo". Hai unha liña na historia que me parece a tese, e é unha descrición do trazo que estás describindo. É que "Sam Altman non está restrinxido pola verdade" e que ten "dous trazos que case nunca se ven na mesma persoa: o primeiro é un forte desexo de agradar á xente, de gustarlle en calquera interacción, e o segundo é unha falta de preocupación case sociópata polas consecuencias que poden derivar de enganar a alguén".
Teño que dicirche, lin esa frase 500 veces, e tratei de imaxinar sempre dicindo o que a xente quería que lle gustase e despois non molestarme cando se sentía mentida. E non puiden facer entender ao meu estado emocional como esas cousas poden existir na mesma persoa. Falaches moito con Sam e falaches con persoas que experimentaron estes trazos. Como o fai?
Si. É interesante a nivel humano porque achégome a organismos de reportaxe coma este cun foco real en humanizar a quen estea no centro e buscando unha comprensión e empatía profundas. Cando intentei abordar isto desde un punto de vista máis humano e dicir: "Oe, isto sería devastador para min se tantas persoas coas que traballei dixesen que son un mentireiro patolóxico. Como levas ese peso? Como falas diso na terapia? Cal é a historia que te contas sobre iso?"
Eu teño algún tipo de, na miña opinión, talvez lugares comúns da costa oeste sobre iso como: "Si, gústame traballar a respiración". Pero non hai moito do tipo de sensación de autoconfrontación profunda que creo que moitos de nós probablemente teríamos se estivésemos vendo este tipo de comentarios sobre o noso comportamento e o noso trato ás persoas.
Creo que iso tamén se refire á resposta máis ampla á pregunta. Sam afirma que este trazo causou problemas, pero tamén que é parte do que lle permitiu acelerar tanto o crecemento de OpenAI que é capaz de unir e agradar a diferentes grupos de persoas. Está constantemente convencendo a todas estas circunscricións en conflito de que o que lles importa é o que lle importa a el. E iso pode ser unha habilidade moi útil para un fundador. Falei con investidores que despois din: "Ben, quizais sexa unha habilidade menos útil para dirixir unha empresa porque sementa tanta discordia".
Pero no lado persoal de Sam, creo que o que me dedico cando intento conectar a nivel humano é a aparente falta de confrontación, reflexión e autoresponsabilización máis profundas, o que tamén informa desa superpotencia ou responsabilidade dunha empresa que se prepara para unha OPI.
É alguén que, en palabras dun ex-membro do consello chamado Sue Yoon, que consta no rexistro na peza dicindo que ata o punto de "incorrección" é a frase que usa, é capaz de crer realmente a cambiante realidade dos seus argumentos de venda ou é capaz de convencerse deles. Ou, polo menos, se non os cre, é capaz de escabullirse deles sen dúbidas significativas.
Creo que a cousa da que estás a falar, onde ti ou eu poderiamos, mentres estamos dicindo a cousa e dándonos conta de que entra en conflito coa outra garantía que fixemos, temos un momento de conxelación ou control. Creo que iso non lle pasa. E hai unha cultura popular máis ampla de Silicon Valley e unha cultura de fundador que o abraza.
É divertido. The Verge está construído sobre o que equivale a comentarios dun produtoprograma. É o corazón do que facemos aquí. Manteño un billón de dólares de I+D de Apple unha vez ao ano e digo: "Este teléfono é un sete". E algo lexitima todos os nosos informes e as nosas opinións noutros lugares. Temos unha función de avaliación e pasamos moito tempo só mirando os produtos de IA e dicindo: "Funcionan?"
Parece que falta en gran parte da conversación sobre a IA como é hoxe. Hai unha conversa interminable sobre o que podería facer, o perigoso que pode ser. E despois analizas e dis: "Realmente fai o que se supón que debería facer hoxe?" Nalgúns casos, a resposta é si. Pero en moitos, moitos casos, a resposta é non.
Iso parece que se conecta coa cultura de bombo que estás describindo e tamén coa sensación de que, ben, se dis que vai facer algo e non o fai, e alguén se sente mal, está ben porque estamos no seguinte. Iso está no pasado. E en IA en particular, Sam é tan bo facendo as grandes promesas.
Só esta semana, creo que o mesmo día en que se publicou a túa historia, OpenAI publicou un documento político que dicía que temos que repensar o contrato social e ter estipendios de eficiencia da IA do goberno. Esta é unha gran promesa sobre como algunhas tecnoloxías poden moldear o futuro do mundo e como vivimos, e todo iso depende de que a tecnoloxía funcione exactamente do xeito en que quizais se promete que funcionará ou debería funcionar.
Algunha vez descubriches que Sam dubidaba que a IA se convertese en AGI ou superintelixencia ou chegase á meta? Porque iso é o que máis me pregunto. Hai algunha reflexión sobre se esta tecnoloxía básica pode facer todas as cousas que din que pode facer?
É exactamente o conxunto correcto de preguntas. Hai tecnólogos cribles cos que falamos neste corpo de informes, e obviamente Sam Altman non o é; é un empresario, que din que a forma en que Sam fala sobre o calendario desta tecnoloxía está moi lonxe. Hai publicacións no blog que se remontan a uns anos nas que Sam di: "Xa chegamos ao horizonte dos eventos. AGI está basicamente aquí. A superintelixencia está á volta da esquina. Estaremos noutros planetas. Imos curar todas as formas de cancro". A verdade, non estou embelecendo.
O cancro é realmente interesante, que Sam está exaltando a persoa que teoricamente curou o cancro do seu can con ChatGPT, e iso simplemente non pasou. Falaron con ChatGPT, e iso axudoulles a guiar a algúns investigadores que realmente fixeron o traballo, pero o un a un, esta ferramenta que curaba a este can non é realmente a historia.
Alégrome de que plantexase ese punto porque quero pasar a este punto máis importante sobre cando realmente se van a incorporar tanto o potencial como o risco da tecnoloxía. Pero paga a pena mencionar estes pequenos lados que suceden constantemente de Sam Altman, onde parece encarnar este trazo de novo.
Quero dicir, por usar o exemplo do informe de WilmerHale, onde tiñamos esta información que fora mantida por escrito, e queriamos saber se o escrito oral no camiño foi entregado a alguén que non fose os dous membros do consello que Sam axudou a instalar para supervisalo. E dixo: "Si, si, non, creo que foi dado a todos os que se uniron ao consello despois". E temos unha persoa con coñecemento directo da situación dicindo que simplemente é mentira. E realmente parece ser o caso, que é falso. Se queremos ser xenerosos, quizais foi mal informado.
Hai moitas destas garantías casuales. E utilizo ese exemplo en parte porque é un gran exemplo de disimular, chamémoslle, que pode ter consecuencias reais legalmente. Non teño que dicirlle, segundo a lexislación corporativa de Delaware, se os accionistas desta empresa poderían, segundo o artigo 220, queixarse diso e esixir documentación subxacente. Xa hai membros da directiva dicindo cousas como: "Ben, agarda un minuto, esa reunión informativa debería ter lugar".
Entón, estas cousas que parecen saltar da súa boca todo o tempo, poden ter efectos reais que moven o mercado, efectos reais para OpenAI. Volvendo ao tipo de linguaxe exagerada utópica que rexurdiu, creo que non por casualidade o día que saíu esta peza, tamén nos afecta a todos, porque os perigos son moi agudos con respecto á forma en que é.sendo despregado en armamento, a forma en que se está a usar para identificar axentes de guerra química, o potencial de desinformación e pola forma en que o bombo utópico parece estar incitando a moitos economistas cribles a dicir: "Isto ten todos os signos dunha burbulla".
Incluso Sam Altman dixo: "Alguén vai perder moito diñeiro aquí". Iso podería provocar moito crecemento económico americano e mundial, se hai como unha verdadeira perforación dunha burbulla que implique a todas estas empresas a facer tratos entre elas, a apostar pola intelixencia artificial mentres se endeuda tanto. Entón, o que di Sam Altman importa, e creo que a preponderancia da xente ao seu redor, mencionaches que falamos con máis de cen, en realidade foi moito máis dun cento. Mantivemos unha conversación na liña de meta na que se dixo: "Sería demasiado mezquino dicir que é un número moito maior?" E nós dixemos: "Si, minimicemos. Tocarémolo ben". Pero había tantas persoas e unha maioría tan significativa delas que dicían: "Isto é unha preocupación". E creo que por iso é todo.
Permíteme preguntarche por ese número. Como mencionaches, a xente abriuse cada vez máis coas preocupacións co paso do tempo. Parece que a presión ao redor da burbulla -a carreira para gañar, para pagar todo este investimento, para saír como gañador, para a IPO- cambiou moitas actitudes. Sen dúbida creou máis presión sobre Sam e OpenAI.
Esta semana publicamos unha historia só sobre as vibracións de OpenAI. A túa historia forma parte dela, pero cambios masivos de persoal nas filas executivas de OpenAI: a xente vai e vén. Todos os investigadores están dirixidos, en gran parte, a Anthropic, o que creo que é realmente interesante. Podes ver que esta empresa está a sentir a presión e responde a esa presión dalgún xeito.
Pero entón penso en que Sam foi despedido. Isto é só memorable para min. Non é memorable para ninguén, pero tomei unha chamada de fonte no zoolóxico do Bronx ás 19.00 horas dun venres, e alguén dicía que ían tentar recuperar a Sam. E despois pasamos a fin de semana perseguindo esa historia. E dixen: "Estou no zoolóxico. Que queres que faga aquí?" E a resposta foi: "Permanece no teléfono". Ben, a miña filla dixo: "Desconecte o teléfono". E iso foi o que fixen.
Foi pasear ou morrer para recuperar a Sam. Esa empresa dixo: "Non, non imos deixar que o consello despide a Sam Altman". Os investimentos, cítanse na súa peza: "Imos á guerra", creo que é a posición de Thrive Capital, "para recuperar a Sam". Microsoft foi á guerra para recuperar a Sam. É máis tarde, e agora todos dicen: "Imos á saída a bolsa. Chegamos á meta. Volvemos ao noso tipo e vainos levar á meta. Preocúpanos que sexa un mentireiro".
Por que foi unha guerra para recuperalo entón? Porque non parece que nada cambiou realmente. Falas das notas que Ilya Sutskever e [CEO de Anthropic] Dario Amodei gardaron mentres eran contemporáneos de Sam Altman. A preocupación número un de Ilya era que Sam é un mentireiro.
Nada diso cambiou. Entón, por que foi a guerra para traelo de volta? E agora que estamos na meta, parece que todas as preocupacións están ao descuberto.
Pois antes de nada, desculpe a súa filla e a miña parella e a toda a xente que rodea aos xornalistas.
[Ri] Foi unha fin de semana para todos.
Si, se apodera da propia vida, e esta historia definitivamente ten a miña, durante o último período de tempo. En realidade, refírese a este tema do xornalismo e do acceso á información, creo. Os investimentos que foron á guerra por Sam e todos xogaron un papel para asegurarse de que volvese, e o consello que fora deseñado especificamente para protexer a misión dunha organización sen ánimo de lucro de poñer a seguridade por riba do crecemento e despedir a un executivo se non se podía confiar neles, marcharon. Iso foi todo porque, si, os incentivos do mercado estaban aí, non?
Sam foi capaz de convencer á xente: "Ben, a empresa vai desmoronarse". Pero o motivo polo que tiña apoio foi a falta de información. Eses investimentos, en moitos casos, agora din: "Miro cara atrás, e creo que debería ter máis preocupacións se soubese plenamente cales eran as reclamacións e cales eran as preocupacións".
Non todos;as opinións varían, e citamos unha serie de opinións, pero hai outras significativas que estaban actuando con información moi parcial. O taboleiro que despediu a Sam foi, en palabras dunha persoa que adoitaba estar no taboleiro, "moi JV", e botaron a pelota con forza. E documentamos as queixas subxacentes, e a xente pode decidir por si mesma se se acumula no tipo de preocupación urxente que consideraban que era, pero ese argumento e esa información non estaban sendo presentados.
Recibiron o que algúns deles recoñecen agora como un mal asesoramento xurídico. Para describilo, lembrarás a cita e, probablemente, moitos dos teus oíntes e espectadores lembrarán a cita como unha falta de sinceridade. A iso se reduciu, e entón esencialmente non aceptaban chamadas.
Non aceptarían chamadas. Seguro que o intentaches. Todos os que coñezo intentárono, e chegou ao punto de que, como xornalista, non debes dar consellos ás túas fontes, pero eu dixen: "Isto desaparecerá se non comezas a explicarte".
E iso foi o que pasou. Esquece os xornalistas. Tiches a Satya Nadella dicindo: "Que diaños pasou? Non podo conseguir que ninguén me explique". E ese é o principal apoio financeiro da empresa. E despois tes a Satya chamando ao [cofundador de LinkedIn] Reid Hoffman e Reid chamando e dicindo: "Non sei que carallo pasou".
Están comprensiblemente nese baleiro de información, buscando os indicadores tradicionais que non son AI que xustificarían un disparo tan urxente e repentino. Como, vale, foron delitos sexuais? Foi malversación? E todo o argumento sutil, pero creo significativo, de que esta tecnoloxía é diferente e de que este tipo de acumulación constante de traizóns menores podería ter intereses significativos tanto para este negocio como para o mundo, perdeuse en gran medida. Así que gañaron os incentivos capitalistas, pero tamén saíu a xente que o fixo e non sempre operaba con información completa.
Só quero preguntar sobre o aspecto "o que todos pensaban que era" por un momento, porque certamente vin a noticia e dixen: "Oh, algo malo debeu pasar". Fixeches moitos informes de #MeToo, famoso. Rompeches a historia de Harvey Weinstein.
Pasaches moito tempo informando destas afirmacións que creo que decidiches que finalmente non tiñan fundamento: que Altman agrediu sexualmente a menores ou contratou traballadoras sexuais, ou mesmo asasinou a un denunciante de OpenAI. Quero dicir, ti es a persoa que pode denunciar estas cousas con máis rigor. ¿Decidiches que non quedou en nada?
Ben, mira, eu non estou a dicir que algo quedou en nada. O que podo dicir é que pasei meses mirando estas afirmacións e non atopei ningunha corroboración para elas. E chamoume a atención que estes mozos, estas empresas que teñen tanto poder sobre o noso futuro, realmente están gastando unha cantidade desproporcionada do seu tempo e recursos nunha loita de barro infantil.
Un executivo descríbeo como "Shakespeariano". A cantidade de diñeiro do investigador privado e dos expedientes da oposición que se están a compilar é implacable. E o desafortunado é que o tipo de cousas salaces, que son repetidas polos competidores de Sam, son só feitos asumidos, non? Hai esta acusación de que persegue a nenos menores de idade, e en moitos cócteles en Silicon Valley, escoitas isto. No circuíto da conferencia, escoiteino repetir a executivos destacados e cribles: "Todo o mundo sabe que isto é un feito".
O triste é que falo de onde vén isto, dos distintos vectores polos que se transmite. Elon Musk e os seus asociados parecen impulsar expedientes realmente duros que non chegan a nada. Son vaporosos cando comezas a mirar as afirmacións subxacentes. O triste é que realmente oculta as críticas máis baseadas en evidencias que creo que realmente merecen unha supervisión e unha consideración urxentes.
O outro tema que realmente aparece na historia é case a sensación de medo de que Sam teña tantos amigos: investiu en tantas empresas desde o seu papel anterior como CEO de Y Combinator, só ata a súa inversión persoal, algunhas das cales están en conflito directo co seu papel como CEO de OpenAI, e hai silencio ao seu redor.
Chamoume a atención cando estaba lendo unha liña en particular. Vostede describe as notas de Ilya Sutskever, e acaban de saír en Silicon Valley. Todoschámalles as notas de Ilya. Pero ata hai silencio arredor diso. Pasan por aí, pero non se discuten. De onde cres que vén iso? É medo? É un desexo de conseguir un investimento anxo? De onde vén iso?
Creo que é moita covardía, serei sincero. Despois de ter informado sobre historias de seguridade nacional onde as fontes son denunciantes que poden perder todo e ser procesados, aínda fan o correcto e falan de cousas para crear responsabilidades. Traballei nas historias relacionadas con delitos sexuais que mencionaches, onde as fontes están profundamente traumatizadas e temen un tipo de retribución moi persoal.
En moitos casos ao redor deste ritmo, estás tratando con persoas co seu propio perfil e poder. Son persoas famosas ou están rodeadas de xente famosa. Teñen unha vida empresarial sólida. Na miña opinión, en realidade é moi pouca exposición para eles falar destas cousas. E, afortunadamente, a agulla está movendo como falabamos antes, e agora a xente fala máis.
Pero durante tanto tempo, a xente realmente calou sobre iso porque creo que a cultura de Silicon Valley é tan despiadadamente interesada e despiadadamente orientada aos negocios e ao crecemento. Entón, creo que isto afecta incluso a algunhas das persoas que estiveron implicadas no despedimento de Sam, onde viches nos días posteriores, si, un factor que o levou a volver e ao despedimento de vellos membros do consello foi que reuniu investidores que estaban confundidos coa súa causa.
Pero outra é que tantas outras persoas ao seu redor que tiñan as preocupacións e as expresaban con urxencia, simplemente dobraron como servilletas e cambiaron a súa sintonía no momento en que viron que o vento sopraba para outro lado, e querían entrar no tren do beneficio.
É bastante escuro, sinceramente, dende o meu punto de vista como xornalista.
Algunhas desas persoas son Mira Murati, quen, creo, durante 20 minutos foi a nova CEO de OpenAI. Despois foi substituída. Foi unha dinámica moi complicada e, obviamente, Sam volveu. A outra persoa é Ilya Sutskever, que foi un dos votos para eliminar a Sam, e despois cambiou de opinión, ou polo menos dixo que cambiou de opinión, e logo marchou para crear a súa propia empresa. Sabes que o fixo cambiar de opinión? Era só diñeiro?
Ben, e para que quede claro, non estou a destacar a eses dous. Hai outros membros da directiva que participaron no despedimento que tamén calaron moito despois. Creo que é como un problema colectivo máis amplo. Trátase, nalgúns casos, de persoas que tiveron a fibra moral para facer sonar as alarmas e tomar medidas radicais, e iso é de eloxio. E así é como garante a responsabilidade. Iso podería ter axudado a moitas persoas que se ven afectadas por esta tecnoloxía. Podería axudar a unha industria a seguir centrada máis significativamente na seguridade.
Pero ao tratar con denunciantes e persoas que intentan incitar moito a esa responsabilidade, tamén ves que fai falta a fibra de sacalo e manter as túas conviccións. E esta industria está verdadeiramente chea de persoas que simplemente non defenden as súas conviccións.
Aínda que pensan que están construíndo un Deus dixital que, dalgún xeito, eliminará todo o traballo ou creará máis traballo, ou algo pasará.
Ben, esa é a cousa. Polo tanto, a cultura de non manter as túas conviccións e todas as preocupacións éticas que quedan ao lado no momento en que hai calor ou calquera cousa que poida ameazar a túa propia posición na empresa, quizais estea ben, ata certo punto, para as compañías que seguen como sempre que están facendo calquera tipo de widget.
Pero estas tamén son as mesmas persoas que están dicindo: "Isto podería literalmente matarnos a todos". E de novo, non tes que ir ao extremo de Terminator Skynet. Hai un conxunto de riscos que xa se están materializando. É real, e teñen razón ao avisar diso, pero terías que facerlle psicoloxía a outra persoa como sillón de como esas dúas cousas poden vivir na mesma xente onde están facendo soar as advertencias urxentes, quizais estean poñendo un dedo do pé e intentando facer algo, e despois só están dobrando e calando.
É precisamente por iso que podes ter este tipo de exemplos de cousas que non se escriben e as cousas son varridas debaixo da alfombra, e ninguén fala diso abertamente durante anos despois do feito.
A parte natural e responsable aquí non serían os CEO destas empresas; serían gobernos. Nos Estados Unidos, quizaisson gobernos estatais, quizais sexa o goberno federal.
Certamente, todas estas empresas queren ser globais. Aquí hai moitas implicacións globais. Vin que OpenAI, Google e Anthropic incitaban á administración Biden a publicar unha orde executiva de IA. Foi bastante desdentado ao final. Só dixo que tiñan que falar do que eran capaces os seus modelos e lanzar algunhas probas de seguridade. E entón todos apoiaron a Trump, e Trump entrou e eliminou todo iso e dixo: "Temos que ser competitivos. É un libre para todos. Vaia por iso".
Ao mesmo tempo, todos intentan recadar fondos dos países de Oriente Medio que teñen moito diñeiro do petróleo e queren cambiar as súas economías. Eses son os políticos. Sinto que os políticos deberían entender definitivamente que alguén está falando por ambos os dous lados da súa boca, e non se van a molestar demasiado se alguén está decepcionado ao final, pero os políticos tamén se están a dar un paseo. Por que cres que é iso?
Creo que é realmente por iso que a peza importa na miña opinión e polo que valeu a pena dedicarlle todo este tempo e detalles. Estamos nun ambiente no que os sistemas que, como vostede di, deberían proporcionar supervisión están só balizados. Esa é unha América post-Citizens United, onde o fluxo de diñeiro é tan libre, e é unha concentración particular dese problema arredor da IA, onde hai estes PAC que están proliferando e inundando cartos para anular unha regulación significativa tanto a nivel estatal como federal.
Tes [o cofundador de OpenAI] Greg Brockman, o segundo ao mando de Sam, contribuíndo directamente dun xeito importante a algúns destes. Leva a unha situación na que realmente hai captura de lexisladores e potenciais reguladores, e esa é unha espiral difícil de saír. O triste é que creo que hai simples movementos políticos, algúns dos cales se están a probar noutros lugares do mundo, que axudarían con algúns destes problemas de responsabilidade.
Poderías ter máis probas de seguridade obrigatorias previas ao despregamento, algo que xa está a suceder en Europa para os modelos de fronteira. Podería ter requisitos de rexistro público escritos máis estritos para os tipos de investigacións internas nas que vimos que cousas non estaban escritas neste caso. Poderías ter un conxunto máis sólido de mecanismos de revisión da seguridade nacional para os tipos de ambicións de infraestrutura de Oriente Medio que estaba a impulsar Sam Altman.
Como dis, estaba facendo este cebo e cambiou coa administración Biden, dicindo: "Regúlanos, regúlanos" e axudándoos a elaborar unha orde executiva, e despois no momento en que Trump entra, verdadeiramente nos primeiros días, sen obstáculos, "Aceleremos e construímos un campus de centro de datos masivo en Abu Dhabi". Poderías ter, este é moi sinxelo, como as proteccións para denunciantes. Non hai ningún estatuto federal que protexa aos empregados das empresas de IA que revelen este tipo de problemas de seguridade que se emiten nesta peza.
Temos casos nos que Jan Leike, que era un xefe de seguridade en OpenAI, dirixía a superaliñación na empresa. Escribe ao consello, esencialmente material de denunciante, dicindo que a empresa está a saír dos carrís na súa misión de seguridade. Eses son os tipos de persoas que deberían ter un órgano de supervisión ao que poidan acudir, e deberían ter proteccións estatutarias explícitas do tipo que vemos noutros sectores. Isto é sinxelo de replicar un réxime ao estilo de Sarbanes-Oxley.
Creo que, a pesar do grave que é o problema de que Silicon Valley asuma o control de todas as pancas do poder, e a pesar do vaciado que están algunhas destas institucións que poden proporcionar supervisión e gardarrais, sigo crendo nas matemáticas básicas da democracia e dos políticos interesados. E cada vez aparecen máis datos de enquisas que a maioría dos estadounidenses pensan que as preocupacións, preguntas ou riscos da IA superan actualmente os beneficios.
Entón, creo que o aluvión de cartos na política da intelixencia artificial está dentro de todas as nosas competencias facer que isto sexa unha fonte de interrogación con respecto aos políticos. Cando os estadounidenses van votar, deberían estar escrutando se as persoas polas que votan, especialmente se son acríticas e anti-regulación, dadas todas estas preocupacións, están financiadas por grandes intereses tecnolóxicos. Entón, creo que se a xente pode ler pezas coma esta, escoitar podcasts coma este e preocuparse o suficiente como para pensar críticamenteas súas decisións como electores, hai unha oportunidade real de xerar un electorado en Washington de representantes que vixían e forzasen a supervisión.
Esa pode ser unha das cousas máis optimistas que xamais escoitei dicir a alguén sobre a actual industria da IA. Agradézoo. Estou obsesionado coa enquisa da que falas. Agora hai moito. Todo é bastante consistente, e parece que cantos máis mozos, en particular, están expostos á IA, máis desconfiados e enfadados están por iso. Esa é a valencia de todas as enquisas. E miro iso, e penso que, ben, si, os políticos intelixentes só se enfrontarían a iso. Só dirían: "Imos responsabilizar ás grandes tecnoloxías".
Entón penso nos últimos 20 anos, un político dicindo que van responsabilizar ás grandes empresas tecnolóxicas, e estou a loitar por atopar un momento en que as grandes tecnoloxías sexan responsables. O único que me fai pensar que isto pode ser diferente é, ben, en realidade tes que construír os centros de datos, e podes votar en contra, e podes facer unha petición contra iso, e podes protestar contra iso.
Creo que hai un político ao que lle dispararon a casa porque votou por un centro de datos. A tensión está chegando, eu diríao, a unha febre. Describiches a insularidade de Silicon Valley. Este é un ecosistema pechado. Parece que pensan que poden dirixir o mundo. Están poñendo un montón de cartos en política, e atópanse coa realidade de que á xente non lle gustan os produtos, o que non lles dá moita cobertura. Canto máis usan os produtos, máis molestos están e os políticos comezan a ver que hai consecuencias reais para apoiar a industria tecnolóxica sobre as persoas que representan.
Falaches con moita xente. Cres que é posible que a industria tecnolóxica aprenda a lección que ten diante?
Vostede di que parece que pensan que poden dirixir o mundo sen responsabilidade. Nin sequera creo que necesite o cualificativo de "sentir como". Quero dicir, mira a linguaxe que está a usar Peter Thiel, é explícito. Por suposto, ese é un exemplo extremo. E Sam Altman, aínda que está preto e informado pola ideoloxía de Thiel ata certo punto, é un tipo de persoa moi diferente que pode soar diferente e máis medido ata certo punto.
Pero creo que a ideoloxía máis ampla que recibe de Thiel, que é basicamente: acabamos coa democracia, xa non a necesitamos. Temos tanto que só queremos construír os nosos propios pequenos búnkers. Xa non estamos tratando cos Carnegie nin cos Rockefeller, onde son malos, pero senten que necesitan participar nun contrato social e construír cousas para as persoas. Hai un auténtico nihilismo que se instala.
E creo que só foi unha espiral de reforzo mutuo na historia recente de Estados Unidos de magnates e empresas privadas que adquiren un poder supergobernamental mentres que as institucións democráticas que poderían responsabilizarse deles son baleiradas. Non me sinto optimista sobre a idea de que eses mozos poidan espertar un día e pensar: "Eh, en realidade quizais necesitemos participar na sociedade e axudar a construír cousas para as persoas".
Quero dicir, miras como o exemplo microcósmico de The Giving Pledge, onde houbo un momento no que parecía ser benéfico, e ese momento xa pasou e ata ridiculizado. Ese é un problema, o problema máis amplo da falta de rendición de contas que penso que só se pode resolver de forma extrínseca. Iso ten que ser os votantes mobilizándose e resucitando o poder de supervisión do goberno. E tes toda a razón ao dicir que o principal vector a través do cal a xente quizais podería conseguilo é local. Ten que ver co lugar onde se están construíndo infraestruturas.
Mencionaches parte da tensión candente en torno a isto que está a levar a violencia e ameazas e, obviamente, ninguén debería ser violento nin ameazar. E tampouco estou aquí para facer recomendacións políticas específicas, ademais de presentar algúns dos pasos políticos que parecen básicos e que están funcionando noutros lugares do mundo, non? Ou os que traballaron noutros sectores. Non estou aquí para dicir cal delas debería executarse e como.
Creo que algo ten que pasar, e ten que ser externo, non só confiar nestas empresas. Porque certoagora temos unha situación na que as empresas que están a desenvolver a tecnoloxía e están mellor equipadas para comprender os riscos, e de feito son as que nos advirten dos riscos, son tamén as que non teñen máis que incentivos para ir rápido e ignorar eses riscos. E simplemente non tes nada que contrarrestar iso. Entón, calquera que sexan as reformas que poidan tomar en termos específicos, algo ten que enfrontarse a iso. E sigo volvendo a ese optimismo de que a xente segue importando.
En xeral compro o teu argumento. Permítanme facer o único contraargumento que creo que podo articular. A outra cousa que podería pasar fóra das urnas é que a burbulla estala, non? Que non todas estas empresas chegan á meta e que non existe un mercado de produtos apto para as aplicacións de IA de consumo. E de novo, aínda non o vexo moi ben, pero son un revisor de tecnoloxía de consumo, e quizais teña estándares máis altos que os demais.
Hai un mercado de produtos encaixado no mundo dos negocios, non? Ter un grupo de axentes de intelixencia artificial que escriben un montón de software parece ser un verdadeiro mercado para estas ferramentas. E podes ler os argumentos destas empresas dicindo: "Resolvemos a codificación, e iso significa que podemos resolver calquera cousa. Se podemos facer software, podemos resolver calquera problema".
Creo que hai límites reais para as cousas que o software pode facer. Iso é xenial no mundo dos negocios. O software non pode resolver todos os problemas na realidade, pero teñen que chegar. Teñen que rematar o traballo, e quizais non todos chegan á meta. E hai un colapso, e esta burbulla estala, e quizais OpenAI ou Anthropic ou xAI, unha destas empresas falla, e todo este investimento desaparece.
Cres que iso afectaría a isto? De feito, déixeme facer a primeira pregunta primeiro. OpenAI está xusto na cúspide dunha saída a bolsa. Hai moitas dúbidas sobre Sam como líder. Cres que van chegar á meta?
Non vou prognosticar, pero creo que plantexas un punto importante, que é que os incentivos do mercado importan internamente a Silicon Valley, e a precariedade da dinámica actual da burbulla si que interrompe a, de novo, potencialmente, segundo os críticos, a carreira cara ao fondo en materia de seguridade.
Tamén engadiría que, se observas a precedencia histórica onde hai un conxunto similar e aparentemente impenetrable de incentivos de mercado e efectos potencialmente nocivos para o público, hai litixios de impacto. E ves iso como unha área de preocupación ultimamente. Sam Altman está aí fóra esta semana aprobando unha lexislación que protexería ás empresas de IA dalgúns dos tipos de responsabilidade ás que OpenAI estivo exposto en demandas por morte por neglixencia, por exemplo. Por suposto, hai un desexo de ter ese escudo contra a responsabilidade.
Creo que os tribunais aínda poden ser un mecanismo significativo, e será moi interesante ver como se forman estes traxes. Xa viches, por exemplo, a demanda colectiva, da que somos membros eu e moitos outros autores que coñezo, contra Anthropic polo uso de libros que estaban baixo dereitos de autor. Se hai mentes xurídicas intelixentes e demandantes que se preocupan, como vimos historicamente en casos desde o tabaco grande ata as grandes enerxías, tamén podes obter algunhas barandillas e algúns incentivos para ralentizar, ter coidado ou protexer á xente dese xeito.
Parece que toda a estrutura de custos da industria da IA depende dunha interpretación moi, moi benéfica do uso xusto. Non xorde o suficiente. A estrutura de custos destas empresas podería descontrolarse se tes que pagar a ti e a todos os demais cuxo traballo tomaron, pero é un inconveniente pensalo, polo que simplemente non pensamos niso. Xusto ao lado diso, todos estes produtos agora están a funcionar con perdas. Como hoxe, todos están a perder. Están queimando máis diñeiro do que poden gañar. Nalgún momento, teñen que premer o interruptor.
Sam é un home de negocios. Como mencionaches varias veces, non é tecnólogo. É un empresario. Cres que está preparado para prender o interruptor e dicir: "Imos gañar un dólar?" Porque cando pregunto: "Cres que OpenAI vai facelo?" É cando teñen que gañar un dólar. E ata agora, Sam gañou todos os seus dólares pedindo o seu diñeiro a outras persoas en lugar de que as súas empresas gañasen cartos.
Ben, esa é unha gran pregunta persistente para Silicon Valley, para os investimentos, para o público.Ves algunhas declaracións e movementos fóra de OpenAI que parecen evidenciar unha especie de pánico por iso. Pechar a Sora, pechar algúns proxectos auxiliares, tentar centrarse no produto principal. Pero, por outra banda, aínda ves, ao mesmo tempo, toneladas de misión arrastrada, non? Incluso un pequeno exemplo, obviamente non é o núcleo do seu negocio, é a adquisición de TBPN.
Por certo, xusto cando estabamos chegando á meta e comprobando os feitos, a empresa que se enfronta a este tipo de escrutinio xornalístico adquire unha plataforma onde poden ter un control máis directo sobre a conversa. Creo que hai moitos investidores aos que lles preocupa, en función das conversacións que tiven, que este problema de prometer todas as cousas a todas as persoas tamén se estenda a esta falta de enfoque no modelo de negocio principal. E quero dicir, estás máis preto do tipo de prognóstico e observación do mercado que eu. Deixovos a vostede e aos oíntes para que sexan o xuíz de se cren que OpenAI pode cambiar o interruptor.
Ben, fixen a pregunta porque tes unha cita na peza dun alto executivo de Microsoft, e é que, "O legado de Sam pode acabar sendo máis parecido a Bernie Madoff ou Sam Bankman-Fried", en lugar de Steve Jobs. Iso é toda unha comparación. Que pensaches desa comparación?
Creo que iso é unha paráfrase. A parte de Steve Jobs non formaba parte da cita. Pero hai un tipo de sobriedade interesante porque se expresa como: "Creo que hai unha pequena pero real posibilidade de que acabe sendo un SBF ou un estafador de nivel Madoff". Significando, na miña opinión, non que Sam estea acusado deses tipos específicos de fraude ou delitos, senón que o grao de disimulación e engano de Sam pode ter a posibilidade de ser recordado a esa escala.
Si, creo que o máis rechamante desta cita, sinceramente, é que chamas a Microsoft e non che gusta: "Isto é unha tolemia. Nunca escoitamos iso". Vostede recibe moito como: "Si, moita xente aquí pensa iso", o que é notable. E creo que vai a estas preguntas de negocio de porcas e parafusos.
Un investidor díxome, por exemplo, á luz da forma en que este trazo persistiu nos anos posteriores ao despedimento "-e tamén pensou que este era un pensamento sobrio interesante- que non é necesariamente que Sam deba estar na parte inferior absoluta da lista, como debería ser o máis baixo en canto ás persoas que non deben construír esta tecnoloxía, polo que vale o que valen. quizais na parte inferior da lista de persoas que deberían construír AGI, e por debaixo de outras figuras destacadas neste campo.
Entón, pensei que era unha valoración interesante, e ese é o tipo de pensamento que creo que reciben dos auténticos pragmáticos que quizais non se comprometan tanto cos problemas de seguridade. Están só orientados ao crecemento e pensan que OpenAI agora ten un problema con Sam Altman.
A peza de Microsoft é realmente interesante. Esa empresa pensaba que estaban na cima do mundo. Que fixeran este investimento e que ían dar un salto a todo o mundo, sobre todo e o máis importante, a Google, e volver a entrar na boa gracia dos consumidores. O nivel ao que se senten queimados por esta aventura -esta é unha empresa moi sobria- non creo que se poida exagerar.
Mencionaches os personaxes e os trazos da personalidade. Quero rematar aquí cunha pregunta dos nosos oíntes. Dixen no noso outro programa, The Vergecast, que ía falar contigo e díxenlle: "Se tes preguntas para Ronan sobre esta historia, avísame". Polo tanto, temos un aquí que creo que se relaciona perfectamente co que estás describindo. Só vou lerche:
"En que se diferencian as xustificacións do mal comportamento, as accións feroces de Altman e outros líderes da IA das xustificacións que Ronan escoitou doutros líderes de alto perfil en política e medios? Non xustifican todos os seus actos dicindo que así cambia o mundo? Se non o fago, outra persoa fará?
Si, hai moito diso. Eu diría que o distintivo da IA é que as apostas existenciais son tan altas significa que ambas as declaracións de risco son extremas, non? Tes a Sam Altmandicindo: "Isto podería ser unha luz apagada para todos nós". E tamén, poderían dicir os críticos, a manía á que se refire o interrogador é extrema, non?
O que Sam acusou a Elon, no rexistro, foi que quizais quere salvar á humanidade, pero só se é el. O tipo de compoñente do ego de querer gañar, que é un encuadre que Sam usa todo o tempo, e que este é un para os libros de historia, isto podería cambialo todo. Polo tanto, aínda máis alá da mentalidade de "tedes que romper uns cantos ovos" da maioría das empresas de Silicon Valley, creo que hai, na mente dalgunhas figuras que lideran a intelixencia artificial, unha racionalización completa para calquera consecuencia.
E esquece romper os ovos. Creo que moitos dos investigadores de seguridade subxacentes dirían que corren o risco de romper o país, romper o mundo e romper millóns de persoas cuxos traballos e seguridade están en xogo: iso é o único. Aí é onde pecho, reflexionando sobre este corpo de informes, crendo realmente que isto é algo máis que Sam Altman. Trátase dunha industria que non está restrinxida e un problema en espiral de Estados Unidos que non pode limitalo.
Si. Ben, tiñamos algo de optimismo alí, pero creo que ese é un bo lugar para deixalo.
[Risas] Termina cun ritmo descendente.
Por suposto. Esa é toda gran historia, de verdade. O xuízo Musk-Altman está próximo. Creo que aquí imos aprender moito máis. Sospeito que quererei falar contigo de novo. Ronan Farrow, moitas grazas por estar en Decoder.
Grazas.
Preguntas ou comentarios sobre este episodio? Contáctanos en [email protected]. Realmente lemos todos os correos electrónicos!