Hoy en Decoder, hablo con Ronan Farrow, una de las mayores estrellas del periodismo de investigación que trabaja en la actualidad. Dio a conocer la historia de Harvey Weinstein, entre muchas, muchas otras. Y apenas la semana pasada, él y el coautor Andrew Marantz publicaron un artículo increíble y profundo en The New Yorker sobre el CEO de OpenAI, Sam Altman, su confiabilidad y el surgimiento de OpenAI. 

Una nota antes de continuar: The New Yorker publicó esa historia y Ronan y yo tuvimos esta conversación antes de conocer el alcance total de los ataques a la casa de Altman, por lo que no nos escucharán hablar de eso directamente. Pero solo para decirlo, creo que la violencia de cualquier tipo es inaceptable, estos ataques contra Sam fueron inaceptables y que el tipo de impotencia que siente la gente, que conduce a este tipo de violencia, es en sí mismo inaceptable y merece mucho más escrutinio tanto por parte de la industria como de nuestros líderes políticos. Espero que quede claro.

Suscriptores de Verge, no olviden que obtienen acceso exclusivo a Decoder sin publicidad dondequiera que obtengan sus podcasts. Dirígete aquí. ¿No eres suscriptor? Puedes registrarte aquí.

Dicho todo esto, hay muchas cosas dando vueltas en torno a Altman que son objeto de un informe riguroso: el tipo de informe que Ronan y Andrew se propusieron hacer. Gracias a la popularidad de ChatGPT, Altman se ha convertido en la figura más visible de la industria de la IA, habiendo convertido un laboratorio de investigación sin fines de lucro en una empresa privada de casi un billón de dólares en tan solo unos años. Pero el mito de Altman está profundamente en conflicto, igualmente definido tanto por su obvia capacidad para hacer tratos como por su supuesta tendencia a... bueno, mentirle a todos los que lo rodean.

La historia tiene más de 17.000 palabras y contiene posiblemente el relato definitivo de lo que sucedió en 2023 cuando la junta directiva de OpenAI despidió repentinamente a Altman por su supuesta mentira, solo para que lo recontrataran casi instantáneamente. También es una inmersión profunda en la vida personal de Altman, sus inversiones, su cortejo del dinero del Medio Oriente y sus propias reflexiones sobre su comportamiento pasado y los rasgos de carácter que llevaron a una fuente a decir que "no estaba limitado por la verdad". Realmente te sugiero que leas la historia completa; Sospecho que se hará referencia a él durante muchos años más. 

Ronan habló con Altman muchas veces durante los 18 meses que pasó informando este artículo, por lo que una de las principales cosas que me interesaba era si percibió algún cambio en Altman durante ese tiempo. Después de todo, han sucedido muchas cosas en la IA, en la tecnología y en el mundo durante el último año y medio.

Escucharás a Ronan hablar de eso muy directamente, así como de su sensación de que la gente se ha vuelto mucho más dispuesta a hablar sobre la capacidad de Altman para estirar la verdad. La gente está empezando a preguntarse, en voz alta y públicamente, si el comportamiento de personas como Altman es preocupante, no sólo para la IA o la tecnología, sino también para el futuro colectivo de la sociedad.

Bien: Ronan Farrow sobre Sam Altman, la IA y la verdad. Aquí vamos. 

Esta entrevista ha sido ligeramente editada para mayor extensión y claridad. 

Ronan Farrow, usted es periodista de investigación y colaborador de The New Yorker. Bienvenido a Decodificador.

Me alegro de estar aquí. Gracias por invitarme.

Estoy muy emocionado de hablar contigo. Acabas de escribir un artículo importante para The New Yorker. Es un perfil de Sam Altman y, más o menos, de OpenAI. Mi lectura es que, como todas las funciones excelentes, con informes rigurosos, valida muchos de los sentimientos que la gente ha tenido sobre Sam Altman durante mucho tiempo. Obviamente lo publicaste, obtuviste reacciones. ¿Cómo te sientes al respecto ahora mismo?

Bueno, en realidad me ha alentado ver hasta qué punto se ha abierto paso en una época en la que la economía de la atención es tan esquizofrénica y superficial. Esta es una historia que, en mi opinión, nos afecta a todos. Y cuando pasé un año y medio de mi vida, y mi coautor, Andrew Marantz, también pasó ese tiempo tratando de hacer algo forense y meticuloso, siempre es porque siento que hay problemas estructurales más importantes que afectan a las personas más allá del individuo y la empresa en el centro de la historia. 

Sam Altman, en el contexto de la cultura exagerada de Silicon Valley y de las startups que alcanzan valoraciones masivas basadas en promesas que pueden o no cumplirse en el futuro, y una adopción cada vez mayor de una cultura de fundadores que piensa que decirle a diferentes grupos diferentes cosas conflictivas es una característica, no unaerror... Incluso en ese contexto, Sam Altman es un caso extraordinario en el que todos los que en Silicon Valley esperan esas cosas no pueden dejar de hablar sobre la cuestión de su confiabilidad y honestidad. 

Ya sabíamos que lo despidieron por alguna versión de acusaciones de deshonestidad o supuestas mentiras en serie. Pero extraordinariamente, a pesar de que ha habido reportajes maravillosos, Keach Hagey ha hecho un gran trabajo en esto. Karen Hao ha hecho un gran trabajo en esto. Realmente no hubo una comprensión definitiva de los supuestos puntos de prueba reales y las razones por las que se mantuvieron fuera del ojo público. 

Así que el punto número uno es que me siento alentado por el hecho de que algunas de esas lagunas en nuestro conocimiento público, e incluso en el conocimiento de los conocedores de Silicon Valley, ahora se han llenado un poco más. Algunas de las razones por las que había lagunas se han cubierto un poco más.

Informamos sobre casos en los que las personas dentro de esta empresa realmente sintieron que las cosas estaban encubiertas o no documentadas deliberadamente. Una de las cosas nuevas en esta historia es una investigación fundamental de un bufete de abogados realizada por WilmerHale, que obviamente es un bufete de abogados grande, elegante y creíble que realizó investigaciones sobre Enron y WorldCom, que, por cierto, fueron todas voluminosas, como cientos de páginas publicadas. WilmerHale hizo esta investigación que fue exigida por los miembros de la junta que habían despedido a Altman como condición para su partida cuando él se deshizo de ellos, y él regresó. Y, de manera extraordinaria, a los ojos de muchos expertos legales con los que hablé, y sorprendentemente a los ojos de muchas personas en esta empresa, no lo escribieron. Todo lo que surgió de eso fue un comunicado de prensa de 800 palabras de OpenAI que describía lo sucedido como una ruptura de la confianza. Y confirmamos que esto se limitó a sesiones informativas orales.

Hay casos en los que, por ejemplo, un miembro de la junta aparentemente quiere votar en contra de la conversión de la forma original sin fines de lucro de OpenAI a una entidad con fines de lucro, y se registra como una abstención. Hay un abogado en la reunión que dice: "Bueno, eso podría provocar demasiado escrutinio". Y la persona que quiere votar en contra queda registrada como abstención según todas las apariencias. Hay una disputa fáctica. OpenAI afirma lo contrario, como puedes imaginar. Todos estos son casos en los que tenemos una empresa que, por sí misma, tiene nuestro futuro en sus manos. 

Los riesgos de seguridad son tan graves que no han desaparecido. Esta es la razón por la que esta empresa se fundó como una organización sin fines de lucro centrada en la seguridad, y donde las cosas se ocultaban de una manera que las personas creíbles a su alrededor lo encontraban poco profesional. Y a eso se suma un contexto en el que hay muy poco apetito político por una regulación significativa. Creo que es una situación muy combustible. 

La cuestión para mí no es sólo que Sam Altman merezca estas preguntas con tanta urgencia. También es que cualquiera de estos tipos en este campo, y muchas de las figuras clave, exhiben, si no este rasgo idiosincrásico particular de mentir todo el tiempo, ciertamente cierto grado de mentalidad de carrera hacia el fondo, donde las personas que eran seguridadistas han suavizado esos compromisos y la postura de que todos están en una carrera.

Creo que, al observar las filtraciones recientes de Anthropic, hay una persona que plantea la pregunta de quién debería tener el dedo en el botón de este artículo. La respuesta es, si no tenemos una supervisión significativa, creo que tenemos que hacer preguntas serias y tratar de sacar a la luz la mayor cantidad de información posible sobre todos estos tipos. Así que me siento alentado por lo que parece una conversación significativa sobre eso, o el comienzo de una.

La razón por la que te lo pregunté así es porque trabajaste en esto durante un año y medio. Creo que habló con 100 personas con su coautor, Andrew. Es mucho tiempo para cocinar una historia. Pienso en el último año y medio en IA en particular, y vaya, las actitudes y valores de todos estos personajes cambiaron muy rápidamente. 

Quizás ninguno más que Sam Altman, quien comenzó como el ganador predeterminado porque habían lanzado ChatGPT y todos pensaron que simplemente reemplazaría a Google. Y entonces Google respondió, lo que pareció sorprenderles de que Google intentara proteger su negocio, tal vez uno de los mejores de la historia de la tecnología, si no de la historia empresarial. Anthropic decidió que se centraría en la empresa. Parece estar tomando una iniciativa dominanteallí porque el uso empresarial de la IA es muy alto.

Ahora, OpenAI está reenfocando su producto desde "vamos a enfrentarnos a Google" al Codex, y ellos se harán cargo de la empresa. Simplemente no puedo decir si, durante el transcurso de su reportaje durante el último año y medio, ¿parece que los personajes con los que estaba hablando cambiaron? Al igual que sus actitudes y sus valores, ¿cambiaron?

Sí. Creo, en primer lugar, que la crítica que se explora en este artículo, proveniente de muchas personas dentro de estas empresas en este momento (que esta es una industria que, a pesar de los riesgos existenciales, está descendiendo hacia una especie de carrera hacia el fondo en materia de seguridad y donde la velocidad está por encima de todo lo demás), esa preocupación se ha agudizado. Y creo que esas preocupaciones se han validado más a medida que ha transcurrido el último año y medio. Al mismo tiempo, las actitudes hacia Sam Altman han cambiado específicamente. Cuando empezamos a hablar con las fuentes para esto, la gente estaba realmente recelosa de ser citada sobre esto y dejar constancia de esto.

Al final de nuestros informes, hay un conjunto de informes en los que la gente habla de esto de manera muy abierta y explícita, y hay miembros de la junta que dicen cosas como: "Es un mentiroso patológico. Es un sociópata". Hay una variedad de perspectivas que van desde "Esto es peligroso dados los riesgos de seguridad, y necesitamos líderes de esta tecnología que tengan una integridad elevada", hasta "Olvídese de los riesgos de seguridad, este es un comportamiento que es insostenible para cualquier ejecutivo de cualquier empresa importante, que simplemente crea demasiada disfunción".

Así que la conversación se ha vuelto mucho más explícita de una manera que tal vez parezca tardía, pero que en cierto sentido es alentadora. Y Sam Altman, hay que reconocerlo... La pieza es muy justa e incluso generosa, diría yo, con Sam. Este no es el tipo de pieza en la que hay muchas cosas de "te atrapé". Pasé muchas, muchas horas hablando por teléfono con él mientras terminábamos esto y realmente lo escuché. 

Como puedes imaginar, en una pieza como esta no todo encaja. Algunos de esos casos en este fueron porque estaba escuchando con sinceridad. Y si Sam en realidad estaba argumentando que yo sentía que algo era cierto, que algo, incluso si fuera cierto, podría ser sensacionalista, realmente me equivoqué al mantener esto forense y mesurado. Así que creo que esto se está recibiendo correctamente y sólo espero que este expediente de hechos acumulado durante este período pueda desencadenar una conversación más estimulante sobre la necesidad de supervisión.

De hecho, esa es mi siguiente pregunta. Creo que hablaste con Sam una docena de veces mientras escribías esta historia. Nuevamente, son muchas conversaciones durante un largo período de tiempo. ¿Pensaste que Sam cambió en el transcurso de los informes durante el último año y medio?

Sí. Creo que una de las subtramas más interesantes de esto es que Sam Altman también está hablando de este rasgo de manera más explícita que en el pasado. La postura de Sam en esta pieza no es como: "No hay nada allí, esto no es cierto; no sé de qué estás hablando". Su postura es que dice que esto se debe a una tendencia a complacer a la gente y a una especie de aversión al conflicto. Él reconoce que le causó problemas, particularmente al principio de su carrera.

Él está diciendo: "Bueno, estoy superando eso, o hasta cierto punto lo he superado". Creo que lo que es realmente interesante para mí es el contingente de personas con las que hablamos que no eran simplemente defensores de la seguridad, no solo los investigadores técnicos subyacentes que muy a menudo tienden a tener estas graves preocupaciones sobre la seguridad, sino también grandes inversores pragmáticos. Son partidarios de Sam, que en algunos casos analizan esta cuestión y hablan incluso de haber desempeñado un papel clave en su regreso tras el despido. Ahora, sobre la cuestión de si se ha reformado y en qué medida es significativo ese cambio, dicen: "Bueno, en ese momento le dimos el beneficio de la duda".

Estoy pensando en un inversor destacado en particular que dijo: “Pero desde entonces, parece claro que no lo sacaron detrás de la leñera”, que fue la frase que éste utilizó, en la medida en que fue necesario. Como resultado, parece que ahora este es un rasgo estable. Estamos viendo esto de manera continua. Puede ver algunos de los negocios más importantes de OpenAIrelaciones y la forma en que cargan el peso de esa desconfianza de manera continua. 

Al igual que con Microsoft, hablas con ejecutivos de allí y tienen preocupaciones realmente agudas y catalizadas recientemente. Existe un caso en el que, el mismo día que OpenAI reafirma su exclusividad con Microsoft con respecto a los modelos subyacentes de IA sin estado, también anuncia un nuevo acuerdo con Amazon que tiene que ver con la venta de soluciones empresariales para crear agentes de IA con estado, es decir, que tengan memoria.

Hablas con la gente de Microsoft y te dicen: "Eso no es posible sin interactuar con las cosas subyacentes sobre las que tenemos un acuerdo de exclusividad". Entonces, este es solo uno de los muchos pequeños ejemplos en los que este rasgo influye constantemente en la actividad empresarial en curso y es un tema de preocupación activa dentro de la junta directiva de OpenAI, dentro de su suite ejecutiva y en la comunidad tecnológica en general.

Sigues diciendo ese "rasgo". Hay una línea en la historia que para mí parece la tesis y es una descripción del rasgo que estás describiendo. Es que "Sam Altman no está limitado por la verdad" y que tiene "dos rasgos que casi nunca se ven en la misma persona: el primero es un fuerte deseo de complacer a la gente, de agradar en cualquier interacción determinada, y el segundo es una falta de preocupación casi sociópata por las consecuencias que pueden surgir de engañar a alguien".

Tengo que decirte que leí esa frase 500 veces y traté de imaginarme diciendo siempre lo que la gente quería agradar y luego no enojarme cuando sentían que les habían mentido. Y no podía hacer entender a mi estado emocional cómo esas cosas pueden existir en una misma persona. Has hablado mucho con Sam y has hablado con personas que han experimentado estos rasgos. ¿Cómo lo hace?

Sí. Es interesante a nivel humano porque me acerco a cuerpos de reportajes como este con un verdadero enfoque en humanizar a quien esté en el centro y buscando una profunda comprensión y empatía. Cuando intenté abordar esto desde un punto de vista más humano y decir: "Oye, esto sería devastador para mí si tantas personas con las que he trabajado dijeran que soy un mentiroso patológico. ¿Cómo llevas ese peso? ¿Cómo hablas de eso en terapia? ¿Cuál es la historia que te cuentas a ti mismo sobre eso?"

En mi opinión, recibí una especie de tópicos de la costa oeste sobre eso, como: "Sí, me gusta el trabajo de respiración". Pero no mucho del tipo de sensación estimulante de profunda autoconfrontación que creo que muchos de nosotros probablemente tendríamos si viéramos este tipo de retroalimentación sobre nuestro comportamiento y nuestro trato a las personas.

Creo que eso también se aplica a la respuesta más amplia a la pregunta. Sam afirma que este rasgo ha causado problemas, pero también que es parte de lo que le ha permitido acelerar tanto el crecimiento de OpenAI que es capaz de unir y complacer a diferentes grupos de personas. Está constantemente convenciendo a todos estos electores en conflicto de que lo que les importa a ellos es lo que a él le importa. Y esa puede ser una habilidad realmente útil para un fundador. He hablado con inversores que luego dicen: "Bueno, tal vez sea una habilidad menos útil para dirigir una empresa porque siembra mucha discordia".

Pero en el lado personal de Sam, creo que lo que percibo cuando intento conectarme a nivel humano es la aparente falta de confrontación, reflexión y responsabilidad personal más profundas, lo que también informa ese superpoder o responsabilidad para una empresa que se prepara para una IPO.

Es alguien que, en palabras de una ex miembro de la junta llamada Sue Yoon, que consta en el artículo diciendo que hasta el punto de “irresponsabilidad” es la frase que usa, es capaz de creer realmente en la cambiante realidad de sus argumentos de venta o es capaz de convencerse a sí mismo de ellos. O al menos, si no les cree, es capaz de fanfarronear sin dudas significativas.

Creo que lo que estás hablando, donde tú o yo podríamos, mientras lo decimos y nos damos cuenta de que entra en conflicto con la otra garantía que hemos hecho, es como tener un momento para congelarnos o controlarnos. Creo que eso no pasa con él. Y existe una cultura exagerada y una cultura de fundadores más amplia en Silicon Valley que en cierto modo abraza eso.

Es gracioso. The Verge se basa en lo que equivale a reseñas de productosprograma. Es el corazón de lo que hacemos aquí. Una vez al año tengo un billón de dólares en investigación y desarrollo de Apple y digo: "Este teléfono es un siete". Y en cierto modo legitima todos nuestros informes y nuestras opiniones en otros lugares. Tenemos una función evaluativa y pasamos mucho tiempo simplemente mirando los productos de IA y preguntándonos: "¿Funcionan?".

Parece que eso falta en gran parte de la conversación sobre la IA tal como está hoy. Hay una conversación interminable sobre lo que podría hacer y lo peligroso que podría ser. Y luego profundizas y dices: "¿Realmente hace lo que se supone que debe hacer hoy?" En algunos casos, la respuesta es sí. Pero en muchos, muchos casos, la respuesta es no.

Parece que se conecta con la cultura exagerada que estás describiendo y también con la sensación de que, bueno, si dices que va a hacer algo y no lo hace, y alguien se siente mal, está bien porque pasamos a lo siguiente. Eso es en el pasado. Y en IA en particular, Sam es muy bueno haciendo grandes promesas.

Esta misma semana, creo que el mismo día en que se publicó su historia, OpenAI publicó un documento de política que decía que tenemos que repensar el contrato social y recibir estipendios de eficiencia de la IA del gobierno. Esta es una gran promesa sobre cómo alguna tecnología podría moldear el futuro del mundo y cómo vivimos, y todo eso depende de que la tecnología funcione exactamente de la manera en que tal vez se prometió que funcionaría o debería funcionar. 

¿Alguna vez encontraste a Sam dudando de que la IA se convirtiera en AGI o superinteligencia o llegara a la meta? Porque eso es lo que más me pregunto. ¿Hay alguna reflexión sobre si esta tecnología central puede hacer todas las cosas que dicen que puede hacer?

Es exactamente el conjunto correcto de preguntas. Hay tecnólogos creíbles con los que hablamos en este conjunto de informes, y obviamente Sam Altman no es uno de ellos; es una persona de negocios y dice que la forma en que Sam habla sobre el cronograma de esta tecnología está muy lejos. Hay publicaciones de blogs que se remontan a hace unos años en las que Sam dice: "Ya hemos alcanzado el horizonte de sucesos. AGI está básicamente aquí. La superinteligencia está a la vuelta de la esquina. Estaremos en otros planetas. Curaremos todas las formas de cáncer". En verdad, no estoy embelleciendo. 

Lo del cáncer es realmente interesante, que Sam está promocionando a la persona que teóricamente curó el cáncer de su perro con ChatGPT, y eso simplemente no sucedió. Hablaron con ChatGPT y eso les ayudó a guiar a algunos investigadores que realmente hicieron el trabajo, pero la historia de cómo esta herramienta curó a este perro uno a uno no es realmente la historia.

Me alegro de que hayas planteado ese punto porque quiero pasar a un punto más importante sobre cuándo se concederán realmente tanto el potencial como el riesgo de la tecnología. Pero vale la pena mencionar estos pequeños detalles que suceden constantemente con Sam Altman, donde parece encarnar este rasgo una vez más. 

Quiero decir, para usar el ejemplo del informe WilmerHale, donde teníamos esta información que no se había escrito y queríamos saber si el informe oral a lo largo del camino se entregó a alguien más que a los dos miembros de la junta que Sam ayudó a instalar para supervisarlo. Y él dijo: “Sí, sí, no, creo que se lo dieron a todos los que se unieron a la junta después”. Y tenemos a una persona con conocimiento directo de la situación diciendo que simplemente es mentira. Y eso realmente parece ser así, que no es cierto. Si queremos ser generosos, quizá estaba mal informado. 

Hay muchas de estas garantías casuales. Y uso ese ejemplo en parte porque es un gran ejemplo de disimulo, llamémoslo así, que puede tener consecuencias legales reales. No necesito decirles que, según la ley corporativa de Delaware, si esta empresa sale a bolsa, los accionistas podrían, según la sección 220, quejarse de esto y exigir la documentación subyacente. Ya hay miembros de la junta que dicen cosas como: "Bueno, espera un minuto, esa sesión informativa debería haberse realizado".

Entonces, estas cosas que parecen salir de su boca todo el tiempo, pueden tener efectos reales en el mercado, efectos reales para OpenAI. Volviendo al tipo de lenguaje publicitario utópico que ha resurgido, creo que no es coincidencia que el día en que salió este artículo también nos afecte a todos, porque los peligros son muy agudos con respecto a la forma en que se presenta.desplegado en armamento, la forma en que se utiliza para identificar agentes de guerra química, el potencial de desinformación y la forma en que la exageración utópica parece estar incitando a muchos economistas creíbles a decir: "Esto tiene todos los signos de una burbuja".

Incluso Sam Altman ha dicho: "Alguien va a perder mucho dinero aquí". Eso realmente podría arruinar gran parte del crecimiento económico estadounidense y mundial, si se produce una verdadera explosión de una burbuja que involucre a todas estas empresas que hacen acuerdos entre sí, apostando por la IA mientras se endeudan tanto. Entonces, lo que dice Sam Altman es importante, y creo que la preponderancia de las personas que lo rodean, usted mencionó que hablamos con más de cien, en realidad fueron más de cien. Tuvimos una conversación en la línea de meta en la que pensamos: "¿Sería demasiado mezquino decir que es un número mucho más alto?" Y dijimos: "Sí, restemos importancia. Lo haremos con calma". Pero había tanta gente y una mayoría tan significativa de ellos que decían: "Esto es preocupante". Y creo que ese es el motivo.

Déjame preguntarte sobre ese número. Como mencionaste, la gente se volvió cada vez más abierta a sus inquietudes a medida que pasaba el tiempo. Parece que la presión en torno a la burbuja (la carrera para ganar, para pagar toda esta inversión, para emerger como ganador, para salir a bolsa) ha cambiado muchas actitudes. Ciertamente creó más presión sobre Sam y OpenAI.

Publicamos una historia esta semana sobre las vibraciones de OpenAI. Su historia es parte de ello, pero hay cambios masivos de personal en los rangos ejecutivos de OpenAI: la gente va y viene. Todos los investigadores se están dirigiendo, en gran parte hacia Anthropic, lo que creo que es realmente interesante. Se puede ver que esta empresa está sintiendo la presión y está respondiendo a esa presión de alguna manera.

Pero luego pienso en el despido de Sam. Esto es simplemente memorable para mí. No es memorable para nadie más, pero recibí una llamada de una fuente en el zoológico del Bronx a las 7 p.m. un viernes, y alguien decía que iban a intentar recuperar a Sam. Y luego pasamos el fin de semana investigando esa historia. Y yo dije: "Estoy en el zoológico. ¿Qué quieres que haga aquí?". Y la respuesta fue: "Quédate al teléfono". Bueno, mi hija me dijo: "Cuelga el teléfono". Y eso es lo que hice. 

Era cabalgar o morir recuperar a Sam. Esa empresa dijo: "No, no permitiremos que la junta despida a Sam Altman". Los inversores, como se cita en su artículo, "Fuimos a la guerra", creo, es la posición de Thrive Capital, "para recuperar a Sam". Microsoft fue a la guerra para recuperar a Sam. Ya es más tarde, y ahora todo el mundo dice: "Vamos a hacer una oferta pública inicial. Llegamos a la meta. Recuperamos a nuestro hombre y él nos llevará a la meta. Nos preocupa que sea un mentiroso". 

¿Por qué fue una guerra para recuperarlo entonces? Porque no parece que nada haya cambiado realmente. Hablas de los memorandos que Ilya Sutskever y [CEO de Anthropic] Dario Amodei guardaron cuando eran contemporáneos de Sam Altman. La principal preocupación de Ilya era que Sam fuera un mentiroso.

Nada de eso ha cambiado. Entonces, ¿por qué fue la guerra para traerlo de regreso entonces? Y ahora que estamos en la línea de meta, parece que todas las preocupaciones han quedado a la vista.

Bueno, antes que nada, lo siento por su hija, mi pareja y todas las demás personas que rodean a los periodistas. 

[Risas] Fue un gran fin de semana para todos.

Sí, se apodera de la vida de uno, y esta historia definitivamente se apodera de la mía, durante el último período de tiempo. En realidad, creo que se relaciona con este tema del periodismo y el acceso a la información. Los inversores que fueron a la guerra por Sam y todos desempeñaron un papel para asegurarse de que regresara, y la junta directiva que había sido diseñada específicamente para proteger la misión de una organización sin fines de lucro de anteponer la seguridad al crecimiento y despedir a un ejecutivo si no se les podía confiar eso, se fueron. Todo eso se debió a que, sí, los incentivos del mercado estaban ahí, ¿verdad?

Sam pudo convencer a la gente: "Bueno, la empresa simplemente se va a desmoronar". Pero la razón por la que contó con apoyo fue la falta de información. Esos inversores, en muchos casos, ahora dicen: "Miro hacia atrás y creo que debería haber tenido más preocupaciones si hubiera sabido plenamente cuáles eran las reclamaciones y cuáles eran las preocupaciones".

No todos ellos;Las opiniones varían y citamos una variedad de opiniones, pero hay algunas importantes que actuaron basándose en información muy parcial. La junta que despidió a Sam era, en palabras de una persona que solía estar en la junta, “muy JV”, y perdieron el balón con fuerza. Y documentamos las quejas subyacentes, y las personas pueden decidir por sí mismas si se acumulan en el tipo de preocupación urgente que sintieron que era, pero ese argumento y esa información no se presentaron.

Recibieron lo que algunos de ellos ahora reconocen como un mal asesoramiento legal. Para describirlo, recordará la cita y probablemente muchos de sus oyentes y espectadores recordarán la cita como una falta de franqueza. A eso se redujo todo, y luego esencialmente no aceptarían llamadas.

No aceptarían llamadas. Estoy seguro de que lo intentaste. Todos los que conozco lo intentaron y llegó al punto en que, como periodista, se supone que no debes dar consejos a tus fuentes, pero yo dije: "Esto desaparecerá si no empiezas a dar explicaciones".

Y eso es lo que pasó. Olvídense de los periodistas. Satya Nadella decía: "¿Qué diablos pasó? No puedo conseguir que nadie me explique". Y ese es el principal respaldo financiero de la empresa. Y luego tienes a Satya llamando a [el cofundador de LinkedIn] Reid Hoffman y Reid llamando y diciendo: "No sé qué carajo pasó". 

Es comprensible que se encuentren en ese vacío de información, buscando los indicadores tradicionales distintos de la IA que justificarían un despido tan urgente y repentino. Bueno, ¿fueron delitos sexuales? ¿Fue malversación de fondos? Y todo el argumento sutil, pero creo que significativo, de que esta tecnología es diferente y que este tipo de acumulación constante de traiciones más pequeñas podría tener riesgos significativos tanto para este negocio como tal vez para el mundo, se perdió en gran medida. Así que ganaron los incentivos capitalistas, pero también las personas que lo hicieron salieron y no siempre operaron con información completa.

Sólo quiero preguntar por un momento sobre el aspecto “lo que todos pensaban que era”, porque ciertamente vi las noticias y dije: “Oh, algo malo debe haber sucedido”. Has hecho muchos reportajes #MeToo, es famoso. Rompiste la historia de Harvey Weinstein. 

Pasó mucho tiempo informando sobre estas afirmaciones que creo que decidió que en última instancia eran infundadas: que Altman agredió sexualmente a menores o contrató trabajadoras sexuales, o incluso asesinó a un denunciante de OpenAI. Quiero decir, usted es la persona que puede denunciar estas cosas con mayor rigor. ¿Decidiste que todo quedó en nada?

Bueno, mira, no estoy en el negocio de decir que algo ha quedado en nada. Lo que puedo decir es que pasé meses analizando estas afirmaciones y no encontré confirmación para ellas. Y me llamó la atención que estos tipos, estas empresas que tienen tanto poder sobre nuestro futuro, realmente estén gastando una cantidad desproporcionada de su tiempo y recursos en una pueril pelea de barro.

Un ejecutivo lo describe como “shakesperiano”. La cantidad de dinero de los investigadores privados y de los expedientes de la oposición que se están recopilando es incesante. Y lo desafortunado es que el tipo de cosas lascivas que los competidores de Sam repiten como loros son simplemente un hecho asumido, ¿verdad? Existe la acusación de que persigue a niños menores de edad, y en muchos cócteles en Silicon Valley se escucha esto. En el circuito de conferencias, lo escuché repetido por ejecutivos prominentes y creíbles: "Todo el mundo sabe que esto es un hecho".

Lo triste es que hablo de dónde viene esto, de los distintos vectores por los que se transmite. Elon Musk y sus asociados aparentemente están impulsando expedientes realmente duros que casi no llegan a nada. Son vaporosos cuando realmente empiezas a mirar las afirmaciones subyacentes. Lo triste es que realmente oscurece las críticas más basadas en evidencia que creo que realmente merecen una supervisión y consideración urgente.

El otro tema que realmente surge en la historia es casi una sensación de miedo de que Sam tenga tantos amigos (ha invertido en tantas empresas desde su rol anterior como CEO de Y Combinator, hasta sus inversiones personales, algunas de las cuales están en conflicto directo con su papel como CEO de OpenAI) y hay silencio a su alrededor.

Me llamó la atención mientras leía una línea en particular. Usted describe los memorandos de Ilya Sutskever y acaban de publicarse en Silicon Valley. TodosLos llama los memorandos de Ilya. Pero incluso hay silencio en torno a eso. Se transmiten, pero no se discuten. ¿De dónde crees que viene eso? ¿Es miedo? ¿Es un deseo de conseguir una inversión ángel? ¿De dónde viene eso?

Creo que es mucha cobardía, seré honesto. Después de haber informado sobre historias de seguridad nacional donde las fuentes son denunciantes que corren el riesgo de perderlo todo y enfrentar un proceso judicial, todavía hacen lo correcto y hablan de cosas para generar rendición de cuentas. He trabajado en las historias relacionadas con crímenes sexuales que mencionaste, donde las fuentes están profundamente traumatizadas y temen un tipo de represalia muy personal. 

En muchos casos, en este ámbito, se trata de personas con su propio perfil y poder. O son gente famosa o están rodeados de gente famosa. Tienen una vida empresarial sólida. En mi opinión, en realidad es muy poco expuesto para ellos hablar de estas cosas. Y afortunadamente, la aguja se está moviendo como mencionamos antes, y la gente ahora habla más.

Pero durante mucho tiempo, la gente simplemente se calló al respecto porque creo que la cultura de Silicon Valley es despiadadamente egoísta y despiadadamente orientada a los negocios y al crecimiento. Así que creo que esto afecta incluso a algunas de las personas que estuvieron involucradas en el despido de Sam, como se vio en los días posteriores, sí, un factor que lo llevó a regresar y al despido de antiguos miembros de la junta directiva fue que reunió a inversionistas que estaban confundidos con su causa. 

Pero otra es que muchas otras personas a su alrededor que tenían preocupaciones y las expresaron con urgencia simplemente se doblaron como servilletas y cambiaron de opinión en el momento en que vieron que el viento soplaba en la otra dirección y quisieron subirse al tren de las ganancias. 

Honestamente, es bastante oscuro desde mi punto de vista como reportero.

Algunas de esas personas son Mira Murati, quien, creo, durante 20 minutos fue la nueva directora ejecutiva de OpenAI. Luego fue reemplazada. Fue una dinámica muy complicada y, obviamente, Sam regresó. La otra persona es Ilya Sutskever, quien fue uno de los votos para destituir a Sam, y luego cambió de opinión, o al menos dijo que cambió de opinión, y luego se fue para iniciar su propia empresa. ¿Sabes qué le hizo cambiar de opinión? ¿Fue solo dinero?

Bueno, y para ser claros, no estoy destacando a esos dos. Otros miembros de la junta que estuvieron involucrados en el despido también guardaron silencio después. Creo que es como un problema colectivo más amplio. En algunos casos se trata de personas que tuvieron la fibra moral necesaria para hacer sonar las alarmas y tomar medidas radicales, y eso es digno de elogio. Y así es como se garantiza la responsabilidad. Eso podría haber ayudado a muchas personas afectadas por esta tecnología. Podría haber ayudado a una industria a permanecer más centrada en la seguridad.

Pero al tratar con denunciantes y personas que intentan incitar a la rendición de cuentas, también se ve que se necesita la fibra necesaria para mantenerse firme y defender sus convicciones. Y esta industria está verdaderamente llena de personas que simplemente no mantienen sus convicciones.

Aunque piensen que están construyendo un Dios digital que de alguna manera eliminará todo el trabajo o creará más trabajo, o algo sucederá.

Bueno, esa es la cuestión. Por lo tanto, la cultura de no defender sus convicciones y dejar de lado todas las preocupaciones éticas en el momento en que hay algo de tensión o cualquier cosa que pueda amenazar su propia posición en el negocio tal vez esté muy bien hasta cierto punto para las empresas que siguen como de costumbre y que están fabricando cualquier tipo de artilugio.

Pero estas son también las mismas personas que dicen: “Esto podría literalmente matarnos a todos”. Y nuevamente, no es necesario llegar al extremo Terminator Skynet. Hay un conjunto de riesgos que ya se están materializando. Es real, y tienen razón al advertir sobre eso, pero habría que pedirle a alguien más que sicologizara en el sillón cómo esas dos cosas pueden vivir en la misma gente cuando están dando las advertencias urgentes, tal vez están metiendo un dedo del pie e intentando hacer algo, y luego simplemente se doblan y se quedan en silencio. 

Es precisamente por eso que puedes tener este tipo de casos en los que cosas se mantienen fuera de la escritura y se esconden debajo de la alfombra, y nadie habla de ello tan abiertamente durante años después del hecho.

La parte natural y responsable aquí no serían los directores ejecutivos de estas empresas; serían los gobiernos. En los Estados Unidos, tal vezson los gobiernos estatales, tal vez sea el gobierno federal. 

Ciertamente, todas estas empresas quieren ser globales. Hay muchas implicaciones globales aquí. Vi a OpenAI, Google y Anthropic incitar a la administración Biden a publicar una orden ejecutiva sobre IA. Al final fue bastante desdentado. Simplemente decía que tenían que hablar sobre lo que sus modelos eran capaces de hacer y publicar algunas pruebas de seguridad. Y luego todos respaldaron a Trump, y Trump entró y borró todo eso y dijo: "Tenemos que ser competitivos. Es una batalla campal. Adelante".

Al mismo tiempo, todos están tratando de recaudar fondos de países de Medio Oriente que tienen mucho dinero del petróleo y quieren cambiar sus economías. Esos son los políticos. Siento que los políticos definitivamente deberían entender que alguien está hablando con ambos lados de la boca, y no se enojarán demasiado si alguien al final se decepciona, pero los políticos también están siendo engañados. ¿Por qué crees que es así?

Creo que esta es realmente la razón por la que la pieza es importante en mi opinión y por la que valió la pena dedicarle todo este tiempo y detalles. Estamos en un entorno en el que los sistemas que, como usted dice, deberían proporcionar supervisión, simplemente están vacíos. Se trata de una América post-Ciudadanos, donde el flujo de dinero es tan ilimitado, y hay una concentración particular de ese problema en torno a la IA, donde existen estos PAC que están proliferando e inundando dinero para anular regulaciones significativas tanto a nivel estatal como federal.

Tienes a [el cofundador de OpenAI] Greg Brockman, el segundo al mando de Sam, que contribuye directamente de manera importante a un par de ellos. Conduce a una situación en la que realmente hay captura de legisladores y reguladores potenciales, y es difícil salir de esa espiral. Lo triste es que creo que hay medidas políticas simples, algunas de las cuales se están probando en otras partes del mundo, que ayudarían con algunos de estos problemas de rendición de cuentas.

Podría haber más pruebas de seguridad obligatorias antes del despliegue, algo que ya está ocurriendo en Europa para los modelos fronterizos. Podrían tener requisitos de registros públicos escritos más estrictos para los tipos de investigaciones internas en las que vimos que en este caso no se escribieron cosas. Se podría contar con un conjunto más sólido de mecanismos de revisión de la seguridad nacional para los tipos de ambiciones de infraestructura en Medio Oriente que Sam Altman estaba impulsando. 

Como usted dice, estaba haciendo este cebo y cambio con la administración Biden, diciendo: "Regúlennos, regúlennos", y ayudándolos a redactar una orden ejecutiva, y luego, en el momento en que Trump entra, realmente en los primeros días, sin restricciones, "Aceleremos y construyamos un campus de centro de datos masivo en Abu Dhabi". Podrías haberlo hecho, este es realmente simple, como la protección de los denunciantes. No existe ningún estatuto federal que proteja a los empleados de las empresas de inteligencia artificial que revelen este tipo de preocupaciones de seguridad que se exponen en este artículo.

Tenemos casos en los que Jan Leike, que era un responsable de seguridad senior en OpenAI, lideraba la súper alineación en la empresa. Escribe a la junta directiva, esencialmente material para denunciantes, diciendo que la empresa se está descarrilando en su misión de seguridad. Ese es el tipo de personas que realmente deberían tener un organismo de supervisión al que puedan acudir, y deberían tener protecciones legales explícitas del tipo que vemos en otros sectores. Es sencillo replicar un régimen al estilo Sarbanes-Oxley.

Creo que a pesar de lo grave que es el problema de que Silicon Valley asuma el control de todas las palancas del poder, y a pesar de lo vacías que están algunas de estas instituciones que podrían proporcionar supervisión y barreras de seguridad, todavía creo en las matemáticas básicas de la democracia y de los políticos interesados. Y cada vez surgen más datos de encuestas que indican que la mayoría de los estadounidenses piensa que las preocupaciones, preguntas o riesgos de la IA actualmente superan los beneficios.

Así que creo que está en todo nuestro poder convertir la avalancha de dinero en política procedente de la IA en una fuente de interrogantes con respecto a los políticos. Cuando los estadounidenses van a votar, deberían examinar si las personas por las que votan, especialmente si son acríticas y están en contra de la regulación, dadas todas estas preocupaciones, están financiadas por intereses especiales de las grandes empresas tecnológicas. Entonces, creo que si la gente puede leer artículos como este, escuchar podcasts como este y preocuparse lo suficiente como para pensar críticamentesus decisiones como votantes, existe una oportunidad real de generar un electorado en Washington de representantes que vigilen y fuercen la supervisión.

Esta podría ser una de las cosas más optimistas que he oído decir a alguien sobre la industria actual de la IA. Te lo agradezco. Estoy obsesionado con las encuestas de las que estás hablando. Hay mucho de eso ahora. Todo es bastante consistente, y parece que cuanto más expuestos están los jóvenes, en particular a la IA, más desconfiados y enojados se sienten al respecto. Ésa es la valencia de todas las encuestas. Y miro eso y pienso, bueno, sí, los políticos inteligentes simplemente se opondrían a eso. Simplemente dirían: "Vamos a responsabilizar a las grandes tecnologías". 

Luego pienso en los últimos 20 años, un político que dijo que iba a responsabilizar a las grandes tecnologías, y estoy luchando por encontrar al menos un momento en el que las grandes tecnologías rindan cuentas. Lo único que me hace pensar que esto podría ser diferente es que, bueno, en realidad hay que construir los centros de datos y se puede votar en contra de eso, y se puede presentar una petición en contra de eso, y se puede protestar contra eso.

Creo que hay un político al que le acaban de disparar en su casa porque votó por un centro de datos. La tensión está alcanzando, yo diría, un punto álgido. Ha descrito la insularidad de Silicon Valley. Este es un ecosistema cerrado. Parece que creen que pueden gobernar el mundo. Están invirtiendo un montón de dinero en política y se topan con la realidad de que a la gente no le gustan los productos, lo que no les da mucha cobertura. Cuanto más utilizan los productos, más molestos están, y los políticos están empezando a ver que apoyar a la industria tecnológica tiene consecuencias reales sobre las personas que representan. 

Has hablado con tanta gente. ¿Crees que es posible que la industria tecnológica aprenda la lección que tiene delante?

Dices que se siente como si pensaran que pueden gobernar el mundo sin tener que rendir cuentas. Ni siquiera creo que eso necesite el calificativo "se siente". Quiero decir, si miras el lenguaje que usa Peter Thiel, es explícito. Por supuesto, ese es un ejemplo extremo. Y Sam Altman, aunque hasta cierto punto es cercano y está informado por la ideología de Thiel, es un tipo de persona muy diferente que puede sonar diferente y más mesurado hasta cierto punto. 

Pero sí creo que la ideología más amplia que se obtiene de Thiel, que básicamente es: hemos terminado con la democracia, ya no la necesitamos. Tenemos tanto que sólo queremos construir nuestros propios pequeños búnkeres. Ya no estamos tratando con los Carnegie ni con los Rockefeller, quienes son tipos malos, pero sienten que necesitan participar en un contrato social y construir cosas para la gente. Hay un nihilismo real que se ha instalado.

Y creo que ha sido simplemente una espiral que se refuerza mutuamente en la historia reciente de Estados Unidos, en la que magnates y empresas privadas adquieren poderes supergubernamentales mientras se vacían las instituciones democráticas que podrían exigirles responsabilidades. No me siento optimista ante la idea de que esos tipos puedan despertarse un día y pensar: "Eh, en realidad tal vez necesitemos participar en la sociedad y ayudar a construir cosas para la gente".

Quiero decir, nos fijamos en el ejemplo microcósmico de The Giving Pledge, donde hubo un momento en el que parecía ser caritativo, y ese momento ya pasó e incluso es ridiculizado. Ése es un problema, el problema más amplio de la falta de rendición de cuentas, que creo que sólo puede resolverse de manera extrínseca. Tienen que ser votantes movilizando y resucitando el poder de supervisión del gobierno. Y tiene toda la razón al decir que el principal vector a través del cual la gente podría lograrlo es el local. Tiene que ver con dónde se está construyendo la infraestructura. 

Mencionaste parte de la tensión candente en torno a esto que está generando violencia y amenazas y, obviamente, nadie debería ser violento o amenazador. Y tampoco estoy aquí para hacer recomendaciones políticas específicas, salvo simplemente presentar algunos de los pasos políticos que parecen básicos y que están funcionando en otras partes del mundo, ¿verdad? O aquellos que han trabajado en otros sectores. No estoy aquí para decir cuáles de ellas deberían ejecutarse y cómo.

Creo que es necesario que suceda algo, y debe ser externo, no solo confiar en estas empresas. porque correctoAhora tenemos una situación en la que las empresas que están desarrollando la tecnología y están mejor equipadas para comprender los riesgos, y de hecho son las que nos advierten de los riesgos, son también las que no tienen más que incentivos para ir rápido e ignorar esos riesgos. Y simplemente no tienes nada que contrarreste eso. Entonces, cualesquiera que sean las reformas que se requieran en términos específicos, algo tiene que chocar con eso. Y todavía vuelvo a ese optimismo de que la gente todavía importa.

Generalmente compro tu argumento. Permítanme presentar un pequeño contraargumento que creo que puedo articular. La otra cosa que podría pasar fuera de las urnas es que la burbuja explote, ¿verdad? Que no todas estas empresas llegan a la meta y que no existe un mercado de productos adecuado para las aplicaciones de IA de consumo. Y nuevamente, todavía no lo veo del todo, pero soy un crítico de tecnología de consumo y tal vez tenga estándares más altos que los demás.

Existe un mercado de productos adecuado en el mundo empresarial, ¿verdad? Tener un grupo de agentes de IA que escriban una gran cantidad de software parece ser un mercado real para estas herramientas. Y se pueden leer los argumentos de estas empresas que dicen: "Hemos resuelto la codificación, y eso significa que podemos resolver cualquier cosa. Si podemos crear software, podemos resolver cualquier problema".

Creo que existen límites reales a las cosas que puede hacer el software. Eso es genial en el mundo de los negocios. En la realidad, el software no puede resolver todos los problemas, pero tienen que llegar allí. Tienen que terminar el trabajo y tal vez no todos lleguen a la meta. Y hay una crisis, y esta burbuja estalla, y tal vez OpenAI o Anthropic o xAI, una de estas empresas fracasa y toda esta inversión desaparece.

¿Crees que eso afectaría esto? En realidad, déjame hacer primero la primera pregunta. OpenAI está a punto de salir a bolsa. Hay muchas dudas sobre Sam como líder. ¿Crees que van a llegar a la meta?

No voy a pronosticar, pero creo que usted plantea un punto importante: que los incentivos del mercado sí importan internamente para Silicon Valley, y la precariedad de la actual dinámica de la burbuja sí puede interrumpir la carrera hacia el abismo en materia de seguridad, una vez más, potencialmente, según los críticos.

También añadiría a eso que, si nos fijamos en los precedentes históricos en los que existe un conjunto similar y aparentemente impenetrable de incentivos de mercado y efectos potencialmente nocivos para el público, hay litigios de impacto. Y usted ve eso como un área de preocupación últimamente. Sam Altman salió esta semana respaldando una legislación que protegería a las empresas de inteligencia artificial de algunos de los tipos de responsabilidad a los que OpenAI ha estado expuesta en demandas por muerte por negligencia, por ejemplo. Por supuesto, existe el deseo de tener ese escudo contra la responsabilidad.

Creo que los tribunales aún pueden ser un mecanismo significativo y será realmente interesante ver cómo evolucionan estas demandas. Ya vieron, por ejemplo, la demanda colectiva, de la que yo y muchos, muchos otros autores que conozco somos miembros, contra Anthropic por el uso de libros que estaban protegidos por derechos de autor. Si hay mentes jurídicas inteligentes y demandantes a quienes les importa, como hemos visto históricamente en casos que van desde las grandes tabacaleras hasta las grandes energéticas, también se pueden obtener algunas barreras de seguridad y algunos incentivos para frenar, ser cuidadosos o proteger a las personas de esa manera.

Parece que toda la estructura de costos de la industria de la IA depende de una interpretación muy, muy caritativa del uso legítimo. No surge lo suficiente. La estructura de costos de estas empresas podría salirse de control si tienen que pagarle a usted y a todos los demás cuyo trabajo han realizado, pero es incómodo pensar en ello, así que simplemente no pensamos en ello. Además de eso, todos estos productos ahora funcionan con pérdidas. Como hoy, todos están perdidos. Están quemando más dinero del que pueden ganar. En algún momento, tienen que accionar el interruptor.

Sam es un hombre de negocios. Como has mencionado varias veces, él no es un tecnólogo. Es una persona de negocios. ¿Crees que está listo para accionar el interruptor y decir: "¿Vamos a ganar un dólar?" Porque cuando pregunto: "¿Crees que OpenAI lo logrará?" Es cuando tienen que ganar un dólar. Y hasta ahora, Sam ha ganado todo su dinero pidiendo su dinero a otras personas en lugar de hacer que sus empresas ganen dinero.

Bueno, esa es una gran pregunta pendiente para Silicon Valley, para los inversores y para el público.Se ven algunas declaraciones y movimientos fuera de OpenAI que parecen evidenciar una especie de pánico al respecto. Cerrar a Sora, cerrar algunos proyectos auxiliares, intentar centrarse en el producto principal. Pero, por otro lado, todavía ves, al mismo tiempo, toneladas de misiones arrastradas, ¿verdad? Incluso un pequeño ejemplo (obviamente no es fundamental para su negocio) es la adquisición de TBPN.

Por cierto, justo cuando llegamos a la meta y verificamos los hechos, la empresa que enfrenta este tipo de escrutinio periodístico adquiere una plataforma donde puede tener un control más directo sobre la conversación. Creo que hay muchos inversores a los que les preocupa, según las conversaciones que he tenido, que este problema de prometer todo a todo el mundo también se extienda a esta falta de enfoque en el modelo de negocio principal. Y quiero decir, probablemente usted esté más cerca que yo del tipo de pronosticar y observar el mercado. Dejaré que usted y los oyentes juzguen si creen que OpenAI puede activar el interruptor. 

Bueno, hice la pregunta porque tienes una cita en el artículo de un alto ejecutivo de Microsoft, y es que "el legado de Sam podría terminar más similar a Bernie Madoff o Sam Bankman-Fried", en lugar de Steve Jobs. Esa es toda una comparación. ¿Qué opinas de esa comparación?

Creo que es una paráfrasis. La parte de Steve Jobs no formaba parte de la cita. Pero hay un tipo interesante de sobriedad en ello porque está redactado como: "Creo que hay una pequeña pero real posibilidad de que termine siendo un SBF o un estafador al nivel de Madoff". Lo que significa, en mi opinión, no que Sam esté siendo acusado de esos tipos específicos de fraude o crímenes, sino que el grado de disimulo y engaño de Sam puede tener posibilidades de ser finalmente recordado a esa escala.

Sí, creo que lo más sorprendente de esa cita, sinceramente, es que llamas a Microsoft y no te responden: "Eso es una locura. Nunca hemos oído eso". Muchos dicen: "Sí, mucha gente aquí piensa eso", lo cual es notable. Y creo que se refiere a estas cuestiones empresariales básicas. 

Un inversor me dijo, por ejemplo, a la luz de la forma en que este rasgo ha persistido en los años posteriores al despido" - y esto también pensó que era un pensamiento sobrio interesante - que no es necesariamente que Sam deba estar absolutamente al final de la lista, como debería ser el más bajo de los bajos en términos de las personas que absolutamente no deben desarrollar esta tecnología, por lo que vale. Hay varias personas que dijeron que Elon Musk es esa persona. Pero que este rasgo lo coloca tal vez al final de la lista de personas que deberían construir AGI, y debajo de varias otras figuras destacadas en este campo.

Así que pensé que era una evaluación interesante, y ese es el tipo de pensamiento que creo que se obtiene de los verdaderos pragmáticos que tal vez no estén tan interesados en las preocupaciones de seguridad. Simplemente están orientados al crecimiento y piensan que OpenAI ahora tiene un problema con Sam Altman.

La pieza de Microsoft es realmente interesante. Esa empresa pensaba que estaban en la cima del mundo. Que habían hecho esta inversión e iban a superar a todos, especialmente y más importante, a Google, y volver a ganarse el favor de los consumidores. Creo que no se puede exagerar el nivel al que se sienten quemados por esta aventura (esta es una empresa administrada con mucha sobriedad).

Mencionaste los personajes y los rasgos de personalidad. Quiero terminar aquí con una pregunta de nuestros oyentes. Dije en nuestro otro programa, The Vergecast, que iba a hablar contigo y dije: "Si tienes preguntas para Ronan sobre esta historia, házmelo saber". Así que aquí tenemos uno que creo que encaja perfectamente con lo que estás describiendo. Sólo te lo voy a leer:

“¿En qué se diferencian las justificaciones del mal comportamiento y las acciones despiadadas de Altman y otros líderes de AI de las justificaciones que Ronan ha escuchado de otros líderes de alto perfil en la política y los medios? ¿No justifican todos sus acciones diciendo que así es como cambia el mundo? ¿Si yo no hago esto, alguien más lo hará?

Sí, hay mucho de eso dando vueltas. Yo diría que lo que distingue a la IA es que el hecho de que lo que está en juego existencial sea tan excepcionalmente alto significa que ambas declaraciones de riesgo son extremas, ¿verdad? Tienes a Sam Altman.diciendo: “Esto podría ser un apagón para todos nosotros”. Y además, podrían decir los críticos, la manía a la que se refiere el interrogador es extrema, ¿verdad? 

De lo que Sam acusó a Elon, oficialmente, fue de que tal vez quiera salvar a la humanidad, pero solo si es él. El tipo de componente del ego de querer ganar, que es un marco que Sam usa todo el tiempo, y que este es uno para los libros de historia, podría cambiarlo todo. Por lo tanto, incluso más allá de la mentalidad de “hay que romper algunos huevos” de la mayoría de las empresas de Silicon Valley, creo que en la mente de algunas figuras que lideran la IA hay una racionalización completa de todas y cada una de las consecuencias.

Y olvídate de romper huevos. Creo que muchos de los investigadores de seguridad subyacentes dirían que existe un riesgo potencial de arruinar al país, arruinar al mundo y arruinar a millones de personas cuyos empleos y seguridad están en juego: eso es lo que lo hace único. Ahí es donde termino, reflexionando sobre este conjunto de informes, creyendo realmente que se trata de algo más que Sam Altman. Se trata de una industria que no tiene restricciones y del problema creciente de que Estados Unidos no puede limitarla.

Sí. Bueno, teníamos algo de optimismo ahí, pero creo que es un buen lugar para dejarlo.

[Risas] Termina con un tiempo pesimista.

Por supuesto. Esa es toda gran historia, de verdad. El juicio Musk-Altman está próximo. Creo que vamos a aprender mucho más aquí. Sospecho que querré hablar contigo de nuevo. Ronan Farrow, muchas gracias por estar en Decoder.

Gracias.

¿Preguntas o comentarios sobre este episodio? Contáctenos a [email protected]. ¡Realmente leemos cada correo electrónico!

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free