Aujourd'hui sur Decoder, je parle avec Ronan Farrow, l'une des plus grandes stars du reportage d'investigation travaillant aujourd'hui. Il a dévoilé l’histoire d’Harvey Weinstein, parmi tant d’autres. Et pas plus tard que la semaine dernière, lui et son co-auteur Andrew Marantz ont publié dans The New Yorker un incroyable article approfondi sur le PDG d'OpenAI, Sam Altman, sa fiabilité et l'essor d'OpenAI lui-même. 

Une remarque avant d’aller plus loin : le New Yorker a publié cette histoire et Ronan et moi avons eu cette conversation avant de connaître toute l’ampleur des attaques contre la maison d’Altman, vous ne nous entendrez donc pas en parler directement. Mais juste pour le dire, je pense que toute forme de violence est inacceptable, que ces attaques contre Sam étaient inacceptables et que le genre d’impuissance que ressentent les gens, qui conduit à ce type de violence, est en soi inacceptable et mérite un examen beaucoup plus approfondi de la part de l’industrie et de nos dirigeants politiques. J'espère que c'est clair.

Abonnés de Verge, n'oubliez pas que vous bénéficiez d'un accès exclusif à Decoder sans publicité partout où vous obtenez vos podcasts. Rendez-vous ici. Vous n'êtes pas abonné ? Vous pouvez vous inscrire ici.

Cela dit, il y a beaucoup de choses qui tourbillonnent autour d’Altman qui sont un jeu équitable pour des reportages rigoureux – le genre de reportages que Ronan et Andrew ont décidé de faire. Grâce à la popularité de ChatGPT, Altman est devenu la figure de proue la plus visible de l'industrie de l'IA, ayant transformé en quelques années seulement un laboratoire de recherche à but non lucratif en une entreprise privée valant près de mille milliards de dollars. Mais le mythe d’Altman est profondément conflictuel, également défini à la fois par sa capacité évidente à conclure des accords et par sa tendance signalée à… enfin, à mentir à tout le monde autour de lui.

L'histoire compte plus de 17 000 mots et contient sans doute le récit définitif de ce qui s'est passé en 2023 lorsque le conseil d'administration d'OpenAI a très soudainement licencié Altman pour son prétendu mensonge, pour ensuite qu'il soit réembauché presque instantanément. C’est également une plongée en profondeur dans la vie personnelle d’Altman, ses investissements, sa fréquentation de l’argent du Moyen-Orient et ses propres réflexions sur son comportement passé et ses traits de caractère qui ont conduit une source à dire qu’il n’était « pas contraint par la vérité ». Je vous suggère vraiment de lire toute l'histoire ; Je soupçonne qu'il sera référencé pendant de nombreuses années à venir. 

Ronan a parlé à Altman à plusieurs reprises au cours des 18 mois qu'il a passés à rapporter cet article, et donc l'une des principales choses qui m'intéressait était de savoir s'il avait ressenti un changement chez Altman au cours de cette période. Après tout, beaucoup de choses se sont passées dans le domaine de l’IA, de la technologie et dans le monde au cours de la dernière année et demie.

Vous entendrez Ronan en parler très directement, ainsi que son sentiment que les gens sont devenus beaucoup plus disposés à parler de la capacité d’Altman à étendre la vérité. Les gens commencent à se demander, ouvertement et publiquement, si le comportement de personnes comme Altman est préoccupant, non seulement pour l’IA ou la technologie, mais aussi pour l’avenir collectif de la société.

D'accord : Ronan Farrow sur Sam Altman, l'IA et la vérité. On y va. 

Cette interview a été légèrement modifiée pour plus de longueur et de clarté. 

Ronan Farrow, vous êtes journaliste d’investigation et collaborateur du New Yorker. Bienvenue sur Décodeur.

Je suis heureux d'être ici. Merci de m'avoir invité.

Je suis très excité de vous parler. Vous venez d'écrire un gros article pour le New Yorker. C’est un profil de Sam Altman et, en quelque sorte, d’OpenAI. D'après ce que j'en ai lu, c'est que, comme le font toutes les fonctionnalités intéressantes, il valide, avec des reportages rigoureux, de nombreux sentiments que les gens ont à propos de Sam Altman depuis très longtemps. Vous l’avez évidemment publié, vous avez reçu des réactions. Comment vous sentez-vous à ce moment-là ?

Eh bien, j’ai été réconforté, en fait, par la mesure dans laquelle cela a percé à une époque où l’économie de l’attention est si schizophrénique et superficielle. C’est une histoire qui, à mon avis, nous concerne tous. Et quand j’ai passé un an et demi de ma vie, et que mon co-auteur, Andrew Marantz, a également passé ce temps, à essayer vraiment de faire quelque chose de médico-légal et de méticuleux, c’est toujours parce que j’ai l’impression qu’il y a des problèmes structurels plus importants qui affectent les gens au-delà de l’individu et de l’entreprise au cœur de l’histoire. 

Sam Altman, dans le contexte de la culture de battage médiatique de la Silicon Valley et des startups qui gonflent à des valorisations massives basées sur des promesses qui peuvent ou non se réaliser à l'avenir, et de l'adoption croissante d'une culture de fondateur qui pense que dire à différents groupes différentes choses contradictoires est une caractéristique, pas unebug… Même dans ce contexte, Sam Altman est un cas extraordinaire où tous ceux qui, dans la Silicon Valley, s'attendent à ces choses, ne peuvent s'empêcher de parler de cette question de sa fiabilité et de son honnêteté. 

Nous savions déjà qu'il avait été licencié en raison d'allégations de malhonnêteté ou de mensonges présumés en série. Mais extraordinairement, malgré les excellents reportages, Keach Hagey a fait un excellent travail sur ce sujet. Karen Hao a fait un excellent travail à ce sujet. Il n’y avait pas vraiment de compréhension définitive des véritables éléments de preuve allégués et des raisons pour lesquelles ils sont restés hors de la vue du public. 

Le premier point est donc que je me sens réconforté par le fait que certaines de ces lacunes dans nos connaissances publiques, et même dans celles des initiés de la Silicon Valley, ont désormais été un peu plus comblées. Certaines des raisons pour lesquelles il y avait des lacunes ont été un peu plus comblées.

Nous rapportons des cas où des personnes au sein de cette entreprise ont vraiment eu l'impression que les choses étaient dissimulées ou délibérément non documentées. L’une des nouveautés de cette histoire est une enquête cruciale menée par WilmerHale, un grand cabinet d’avocats sophistiqué et crédible qui a mené des enquêtes sur Enron et WorldCom, qui, soit dit en passant, étaient toutes volumineuses, comme des centaines de pages publiées. WilmerHale a mené cette enquête demandée par les membres du conseil d'administration qui avaient licencié Altman comme condition de leur départ lorsqu'il s'était débarrassé d'eux, et il est revenu. Et extraordinairement – ​​aux yeux de nombreux experts juridiques avec lesquels j’ai parlé, et de manière choquante aux yeux de nombreuses personnes dans cette entreprise – ils l’ont gardé sous silence. Tout ce qui en est ressorti est un communiqué de presse de 800 mots d’OpenAI décrivant ce qui s’est passé comme une rupture de confiance. Et nous avons confirmé que cela s'était limité aux briefings oraux.

Il existe des cas où, par exemple, un membre du conseil d’administration semble vouloir voter contre la conversion de la forme originale à but non lucratif d’OpenAI en une entité à but lucratif, et cela est enregistré comme une abstention. Il y a comme un avocat présent à la réunion qui dit : « Eh bien, cela pourrait déclencher un examen trop minutieux. » Et celui qui veut voter contre est enregistré comme abstention selon toutes les apparences. Il y a un différend factuel. OpenAI prétend le contraire, comme vous pouvez l'imaginer. Ce sont tous des cas où vous avez une entreprise qui, de son propre chef, tient notre avenir entre ses mains. 

Les enjeux de sécurité sont si graves qu’ils n’ont pas disparu. C'est la raison pour laquelle cette entreprise a été fondée en tant qu'organisation à but non lucratif axée sur la sécurité, et où les choses étaient obscurcies de telle manière que les personnes crédibles autour de ce sujet la trouvaient moins que professionnelle. Et cela s’ajoute à un contexte où il y a si peu d’appétit politique pour une réglementation significative. Je pense que c’est une situation très combustible. 

Le point pour moi n’est pas seulement que Sam Altman mérite si intensément ces questions. C’est aussi que chacun de ces gars dans ce domaine, et bon nombre des personnalités clés, présentent, sinon ce trait idiosyncratique particulier, prétendument de mensonge tout le temps, du moins un certain degré d’une mentalité de nivellement par le bas, où les gens qui étaient des spécialistes de la sécurité ont édulcoré ces engagements et tout le monde est dans une posture de course.

Je pense que, lorsque nous examinons les récentes fuites d’Anthropic, il y a une personne qui pose la question de savoir qui devrait mettre le doigt sur le bouton dans cet article. La réponse est que si nous n’avons pas de surveillance significative, je pense que nous devons poser des questions sérieuses et essayer de faire apparaître autant d’informations que possible sur tous ces types. J’ai donc été réconforté par ce qui semble être une conversation significative à ce sujet, ou le début d’une telle conversation.

La raison pour laquelle je l'ai posé ainsi, c'est que vous avez travaillé là-dessus pendant un an et demi. Vous avez parlé à, je crois, 100 personnes avec votre co-auteur, Andrew. C’est long pour une histoire à cuisiner. Je pense en particulier à la dernière année et demie dans le domaine de l'IA, et bon sang, les attitudes et les valeurs de tous ces personnages ont changé très rapidement. 

Peut-être pas plus que Sam Altman, qui a commencé comme gagnant par défaut parce qu'ils avaient publié ChatGPT et que tout le monde pensait que cela prendrait le relais pour Google. Et puis Google a répondu, ce qui a semblé les surprendre en voyant que Google essayait de protéger son activité, peut-être l'une des meilleures entreprises de l'histoire de la technologie, voire de l'histoire des affaires. Anthropic a décidé de se concentrer sur l'entreprise. Il semble prendre une avance considérablelà-bas parce que l’utilisation de l’IA en entreprise est très élevée.

Aujourd’hui, OpenAI recentre son produit du « nous allons nous attaquer à Google » vers le Codex, et ils vont s’attaquer à l’entreprise. Je ne peux tout simplement pas dire si, au cours de vos reportages au cours de la dernière année et demie, vous avez l’impression que les personnages à qui vous parliez ont changé ? Leurs attitudes et leurs valeurs ont-elles changé ?

Oui. Je pense tout d’abord que la critique explorée dans cet article, émanant de nombreuses personnes au sein de ces entreprises à ce stade – selon laquelle il s’agit d’une industrie qui, malgré les enjeux existentiels, sombre dans une sorte de nivellement par le bas en matière de sécurité et où la vitesse l’emporte sur tout le reste – cette préoccupation est devenue plus aiguë. Et je pense que ces préoccupations ont été davantage justifiées au cours de la dernière année et demie. Simultanément, les attitudes à l’égard de Sam Altman ont particulièrement changé. Lorsque nous avons commencé à parler à des sources à ce sujet, les gens étaient vraiment très méfiants à l’idée d’être cités à ce sujet et d’en parler officiellement.

À la fin de nos reportages, vous disposez d’un corpus de reportages dans lequel les gens parlent de cela très ouvertement et explicitement, et vous avez des membres du conseil d’administration qui disent des choses comme : « C’est un menteur pathologique. C’est un sociopathe. » Il existe toute une gamme de points de vue allant de « C'est dangereux étant donné les enjeux de sécurité, et nous avons besoin de dirigeants de cette technologie qui font preuve d'une grande intégrité », jusqu'à « Oubliez les enjeux de sécurité, c'est un comportement intenable pour tout dirigeant d'une grande entreprise, qui crée simplement trop de dysfonctionnements. »

La conversation est donc devenue beaucoup plus explicite, d’une manière qui semble peut-être tardive, mais qui est encourageante dans un sens. Et Sam Altman, à son honneur… La pièce est très juste et même généreuse, je dirais, envers Sam. Ce n’est pas le genre de morceau où il y avait beaucoup de trucs « vous avez eu ». J'ai passé de très nombreuses heures au téléphone avec lui alors que nous terminions cela et je l'ai vraiment écouté. 

Comme vous pouvez l'imaginer, dans une pièce comme celle-ci, tout n'est pas compris. Certains de ces cas dans celui-ci étaient dus au fait que j'écoutais sincèrement. Et si Sam faisait réellement valoir que je me sentais emporté par l'eau, que quelque chose, même si c'était vrai, pouvait être sensationnaliste, j'avais vraiment tort de garder cela médico-légal et mesuré. Je pense donc que cela est reçu à juste titre, et j’espère simplement que ce dossier factuel accumulé au cours de cette période pourra déclencher une conversation plus vivifiante sur la nécessité d’une surveillance.

C'est en fait ma prochaine question. Je pense que vous avez parlé à Sam une douzaine de fois au cours du reportage de cette histoire. Encore une fois, cela représente beaucoup de conversations sur une longue période. Pensez-vous que Sam a changé au cours du reportage au cours de la dernière année et demie ?

Ouais. Je pense que l’une des intrigues secondaires les plus intéressantes est que Sam Altman parle également de ce trait plus explicitement que par le passé. La posture de Sam dans cette pièce n’est pas du genre : « Il n’y a rien là, ce n’est pas vrai ; je ne sais pas de quoi tu parles. » Selon lui, cela est dû à une tendance à plaire aux gens et à une sorte d’aversion au conflit. Il reconnaît que cela lui a causé des problèmes, surtout au début de sa carrière.

Il dit : « Eh bien, j’ai dépassé cela, ou j’ai, dans une certaine mesure, dépassé cela. » Je pense que ce qui est vraiment intéressant pour moi, c'est le groupe de personnes à qui nous avons parlé qui n'étaient pas seulement des défenseurs de la sécurité, pas seulement des chercheurs techniques sous-jacents qui ont très souvent tendance à avoir de graves préoccupations en matière de sécurité, mais aussi des investisseurs pragmatiques et importants. Ce sont des partisans de Sam, qui, dans certains cas, se penchent sur cette question et parlent même d’avoir joué un rôle clé dans son retour après le licenciement. Maintenant, sur la question de savoir s’il s’est réformé et dans quelle mesure ce changement est-il significatif, ils disent : « Eh bien, nous lui avons donné le bénéfice du doute à l’époque. »

Je pense en particulier à un investisseur de premier plan qui a déclaré : « Mais depuis, il semble clair qu’il n’a pas été emmené derrière le bûcher », expression que celui-ci a utilisée, dans la mesure où c’était nécessaire. En conséquence, il semble que ce soit désormais un trait stable. Nous le constatons de manière continue. Vous pouvez consulter certaines des plus grandes activités d’OpenAIrelations et la façon dont elles portent en quelque sorte le poids de cette méfiance de manière continue. 

Comme chez Microsoft, vous discutez avec des dirigeants là-bas, et ils ont des préoccupations très aiguës et récemment catalysées. Il y a ce cas où, le même jour, OpenAI réaffirme son exclusivité avec Microsoft en ce qui concerne les modèles d'IA apatrides sous-jacents, et annonce également un nouvel accord avec Amazon qui concerne la vente de solutions d'entreprise pour créer des agents d'IA avec état, c'est-à-dire qu'ils ont de la mémoire.

Vous parlez aux gens de Microsoft, et ils vous disent : « Ce n’est pas possible sans interagir avec les éléments sous-jacents sur lesquels nous avons un accord d’exclusivité. » Ce n’est donc qu’un des nombreux petits exemples où cette caractéristique s’étend à tout moment à l’activité commerciale en cours et constitue un sujet de préoccupation active au sein du conseil d’administration d’OpenAI, de sa suite exécutive et de la communauté technologique au sens large.

Vous n’arrêtez pas de dire ce « trait ». Il y a une ligne dans l’histoire qui me semble être la thèse, et c’est une description du trait que vous décrivez. C’est que « Sam Altman n’est pas contraint par la vérité » et qu’il a « deux traits qu’on ne voit presque jamais chez la même personne : le premier est un fort désir de plaire aux gens, d’être aimé dans une interaction donnée, et le second est un manque d’intérêt presque sociopathique pour les conséquences qui peuvent découler de la tromperie de quelqu’un. »

Je dois vous dire que j'ai lu cette phrase 500 fois et j'ai essayé d'imaginer toujours dire ce que les gens voulaient qu'on aime et ne pas être contrarié lorsqu'ils se sentent mentis. Et je n’arrivais pas à faire comprendre à mon état émotionnel comment ces choses peuvent exister chez la même personne. Vous avez beaucoup parlé à Sam et à des personnes qui ont connu ces traits de caractère. Comment fait-il ?

Ouais. C’est intéressant sur le plan humain, car j’aborde des reportages comme celui-ci en mettant réellement l’accent sur l’humanisation de ceux qui en sont au cœur et en recherchant une compréhension et une empathie profondes. Quand j'ai en quelque sorte essayé d'aborder cela d'un point de vue plus humain et de dire : "Hé, ce serait dévastateur pour moi si tant de personnes avec qui j'ai travaillé disaient que je suis un menteur pathologique. Comment supportez-vous ce poids ? Comment parlez-vous de cela en thérapie ? Quelle histoire vous racontez-vous à ce sujet ?"

À mon avis, j'ai peut-être une sorte de platitudes de la côte Ouest à ce sujet, comme : « Ouais, j'aime le travail sur la respiration. » Mais pas beaucoup du genre de sentiment vivifiant de profonde confrontation avec soi-même que je pense que beaucoup d’entre nous éprouveraient probablement si nous voyions ce genre de retour sur notre comportement et notre traitement envers les gens.

Je pense que cela s’applique également à la réponse plus large à la question. Sam affirme que cette caractéristique a causé des problèmes, mais aussi que cela fait partie de ce qui lui a permis d’accélérer la croissance d’OpenAI au point qu’il est capable d’unir et de plaire à différents groupes de personnes. Il convainc constamment tous ces groupes en conflit que ce qui les intéresse est ce qui l’intéresse. Et cela peut être une compétence très utile pour un fondateur. J’ai parlé à des investisseurs qui disaient alors : « Eh bien, c’est peut-être une compétence moins utile pour diriger une entreprise, car elle sème tellement la discorde. »

Mais du côté personnel de Sam, je pense que ce que je retiens lorsque j'essaie de me connecter au niveau humain, c'est le manque apparent de confrontation plus profonde, de réflexion et de responsabilité personnelle, qui informe également sur ce super pouvoir ou cette responsabilité pour une entreprise se préparant à une introduction en bourse.

C'est quelqu'un qui, selon les mots d'une ancienne membre du conseil d'administration nommée Sue Yoon, qui a déclaré publiquement dans l'article que l'expression qu'elle utilise jusqu'à « l'imprudence », est capable de vraiment croire à la réalité changeante de ses arguments de vente ou est capable de s'en convaincre. Ou du moins, s’il ne les croit pas, il est capable de les fanfaronner sans douter de lui-même.

Je pense que la chose dont vous parlez, où vous ou moi pourrions, alors que nous disons la chose et réalisons qu'elle entre en conflit avec l'autre assurance que nous avons donnée, avons en quelque sorte un moment de blocage ou de vérification. Je pense que cela n’arrive pas avec lui. Et il existe une culture de battage médiatique plus large dans la Silicon Valley et une culture de fondateur qui embrasse en quelque sorte cela.

C'est drôle. The Verge est construit sur ce qui équivaut à des critiques de produitsprogramme. C’est le cœur de ce que nous faisons ici. Je détiens un billion de dollars de R&D Apple une fois par an et je dis : « Ce téléphone vaut sept. » Et cela légitime en quelque sorte tous nos reportages et nos opinions ailleurs. Nous avons une fonction d'évaluation et nous passons beaucoup de temps à simplement examiner les produits d'IA et à nous demander : « Est-ce qu'ils fonctionnent ?

On dirait que cela manque dans une grande partie du débat sur l’IA tel qu’il est aujourd’hui. Il y a des discussions sans fin sur ce qu’il pourrait faire, à quel point il pourrait être dangereux. Et puis vous approfondissez et vous dites : « Est-ce qu'il fait réellement ce qu'il est censé faire aujourd'hui ? Dans certains cas, la réponse est oui. Mais dans de très nombreux cas, la réponse est non.

Cela semble être lié à la culture de battage médiatique que vous décrivez et aussi au sentiment que, eh bien, si vous dites que ça va faire quelque chose et que ce n'est pas le cas, et que quelqu'un se sent mal, ce n'est pas grave parce que nous passons à autre chose. C'est du passé. Et dans l’IA en particulier, Sam est si doué pour faire de grandes promesses.

Cette semaine encore, je pense que le jour même de la publication de votre article, OpenAI a publié un document politique qui dit que nous devons repenser le contrat social et obtenir du gouvernement des allocations pour l'efficacité de l'IA. Il s’agit d’une grande promesse sur la façon dont certaines technologies pourraient façonner l’avenir du monde et notre façon de vivre, et tout cela repose sur le fonctionnement de la technologie exactement de la manière dont elle a peut-être promis de fonctionner ou devrait fonctionner. 

Avez-vous déjà trouvé Sam doutant que l’IA se transforme en AGI ou en superintelligence ou qu’elle parvienne à la ligne d’arrivée ? Parce que c’est la chose sur laquelle je me pose le plus de questions. Y a-t-il une réflexion sur la capacité de cette technologie de base à faire tout ce qu’elle prétend pouvoir faire ?

C’est exactement la bonne série de questions. Il y a des technologues crédibles avec lesquels nous avons parlé dans cet ensemble de reportages – et évidemment Sam Altman n’en fait pas partie ; c'est un homme d'affaires – qui dit que la façon dont Sam parle du calendrier de cette technologie est tout simplement lointaine. Il y a quelques années, il y a des articles de blog dans lesquels Sam dit : "Nous avons déjà atteint l'horizon des événements. L'AGI est essentiellement là. La superintelligence est au coin de la rue. Nous allons être sur d'autres planètes. Nous allons guérir toutes les formes de cancer." Vraiment, je n’embellis pas. 

Celui du cancer est en fait intéressant, Sam fait la promotion de la personne qui a théoriquement guéri le cancer de son chien avec ChatGPT, et cela ne s'est tout simplement pas produit. Ils ont parlé à ChatGPT, et cela les a aidés à guider certains chercheurs qui ont réellement fait le travail, mais le cas individuel, cet outil a guéri ce chien n'est pas vraiment l'histoire.

Je suis heureux que vous ayez soulevé ce point, car je souhaite aborder ce point plus important, à savoir quand le potentiel et le risque de la technologie vont réellement se concrétiser. Mais il convient de mentionner ces petits apartés qui arrivent constamment chez Sam Altman, où il semble incarner à nouveau ce trait. 

Je veux dire, pour reprendre l'exemple du rapport WilmerHale, dans lequel nous avions ces informations qui avaient été gardées sous forme écrite, et nous voulions savoir si le mémoire oral en cours de route avait été remis à quelqu'un d'autre que les deux membres du conseil d'administration que Sam avait aidé à installer pour le superviser. Et il a répondu : « Ouais, ouais, non, je crois qu’il a été donné à tous ceux qui ont rejoint le conseil d’administration par la suite. » Et nous avons une personne ayant une connaissance directe de la situation qui dit que c’est simplement un mensonge. Et il semble effectivement que ce soit le cas, que ce soit faux. Si on veut être généreux, peut-être a-t-il été mal informé. 

Il y a beaucoup de ces assurances informelles. Et j’utilise cet exemple en partie parce que c’est un excellent exemple de dissimulation, disons, qui peut avoir de réelles conséquences juridiques. Je n’ai pas besoin de vous dire, en vertu du droit des sociétés du Delaware, si les introductions en bourse de cette société, les actionnaires pourraient, en vertu de l’article 220, s’en plaindre et exiger des documents sous-jacents. Il y a déjà des membres du conseil d’administration qui disent des choses comme : « Eh bien, attendez une minute, ce briefing aurait dû avoir lieu. »

Donc, ces choses qui semblent sortir de sa bouche tout le temps, elles peuvent avoir de réels effets sur le marché, de réels effets pour OpenAI. Pour en revenir au genre de langage utopique et à la mode qui a refait surface, je pense que ce n’est pas une coïncidence le jour où cet article est sorti, cela nous affecte également tous, parce que les dangers sont si aigus en ce qui concerne la façon dont il est diffusé.son déploiement dans l’armement, la façon dont il est utilisé pour identifier les agents de guerre chimique, le potentiel de désinformation et la façon dont le battage médiatique utopique semble inciter de nombreux économistes crédibles à dire : « Cela présente tous les signes d’une bulle ».

Même Sam Altman a déclaré : « Quelqu’un va perdre beaucoup d’argent ici. » Cela pourrait vraiment engendrer une grande partie de la croissance économique américaine et mondiale, s’il y avait une véritable bulle impliquant toutes ces entreprises concluant des accords les unes avec les autres, se lançant à fond dans l’IA tout en empruntant massivement. Donc ce que dit Sam Altman est important, et je pense que la prépondérance des personnes autour de lui, vous avez mentionné que nous avons parlé à plus d'une centaine, c'était en fait bien plus d'une centaine. Nous avons eu une conversation sur la ligne d’arrivée où l’on s’est dit : « Est-ce que ce serait trop mesquin de dire que c’est un nombre beaucoup plus élevé ? » Et nous nous sommes dit : "Ouais, minimisons l'importance. Nous allons jouer cool." Mais il y avait tellement de gens et une majorité significative d’entre eux qui disaient : « C’est un sujet de préoccupation ». Et je pense que c’est tout ça.

Permettez-moi de vous poser des questions sur ce numéro. Comme vous l’avez mentionné, les gens ont fait part de plus en plus ouvertement de leurs préoccupations au fil du temps. On a l’impression que la pression autour de la bulle – la course pour gagner, pour rembourser tous ces investissements, pour sortir vainqueur, pour entrer en bourse – a changé beaucoup d’attitudes. Cela a certainement créé plus de pression sur Sam et OpenAI.

Nous avons publié cette semaine un article sur les vibrations d'OpenAI. Votre histoire en fait partie, mais des changements massifs de personnel dans les rangs de la direction d'OpenAI – les gens vont et viennent. Les chercheurs sont tous partis, en grande partie vers Anthropic, ce que je trouve vraiment intéressant. Vous pouvez simplement voir que cette entreprise ressent la pression et qu’elle répond à cette pression d’une manière ou d’une autre.

Mais ensuite je repense au licenciement de Sam. C'est tout simplement mémorable pour moi. Ce n’est mémorable pour personne d’autre, mais j’ai reçu un appel d’une source au zoo du Bronx un vendredi à 19 heures, et c’était quelqu’un qui disait qu’il allait essayer de récupérer Sam. Et puis nous avons passé le week-end à traquer cette histoire. Et je me disais : "Je suis au zoo. Que veux-tu que je fasse ici ?" Et la réponse a été : « Restez au téléphone ». Eh bien, ma fille m'a dit : « Raccrochez le téléphone ». Et c’est ce que j’ai fait. 

C'était rouler ou mourir pour récupérer Sam. Cette entreprise a dit : « Non, nous ne laissons pas le conseil d’administration licencier Sam Altman. » Les investisseurs, ils sont cités dans votre article : « Nous sommes allés en guerre », je pense, c'est la position de Thrive Capital, « pour récupérer Sam ». Microsoft est entré en guerre pour récupérer Sam. C'est plus tard, et maintenant tout le monde se dit : "Nous allons entrer en bourse. Nous sommes arrivés à la ligne d'arrivée. Nous avons récupéré notre gars, et il va nous amener à la ligne d'arrivée. Nous craignons qu'il soit un menteur." 

Pourquoi y avait-il eu une guerre pour le récupérer à l'époque ? Parce qu’il ne semble pas que quelque chose ait réellement changé. Vous parlez des mémos qu'Ilya Sutskever et [PDG d'Anthropic] Dario Amodei ont conservés alors qu'ils étaient contemporains de Sam Altman. La préoccupation numéro un d’Ilya était que Sam soit un menteur.

Rien de tout cela n’a changé. Alors pourquoi y a-t-il eu la guerre pour le ramener à l'époque ? Et maintenant que nous avons franchi la ligne d’arrivée, il semble que toutes les inquiétudes soient révélées au grand jour.

Eh bien, tout d'abord, désolé pour votre fille, mon partenaire et toutes les autres personnes autour des journalistes. 

[Rires] C'était un sacré week-end pour tout le monde.

Oui, cela prend le dessus sur la vie, et cette histoire a définitivement la mienne, au cours de la dernière période. Cela se rapporte en fait au thème du journalisme et de l'accès à l'information, je pense. Les investisseurs qui sont partis en guerre pour Sam et tous ont joué un rôle pour garantir son retour, et le conseil d’administration qui avait été spécialement conçu pour protéger la mission d’une organisation à but non lucratif consistant à privilégier la sécurité avant la croissance et à licencier un dirigeant si on ne pouvait pas leur faire confiance pour cela, ils sont partis. Tout cela parce que, oui, les incitations du marché existaient, n’est-ce pas ?

Sam a réussi à convaincre les gens : « Eh bien, l’entreprise va tout simplement s’effondrer. » Mais la raison pour laquelle il bénéficiait de ce soutien était le manque d’informations. Ces investisseurs, dans de nombreux cas, disent maintenant : « Avec le recul, je pense que j’aurais dû avoir davantage d’inquiétudes si j’avais su pleinement quelles étaient les allégations et quelles étaient les inquiétudes. »

Pas tous ;les opinions varient, et nous citons toute une gamme d’opinions, mais il y en a d’importantes qui agissaient sur la base d’informations très partielles. Le tableau qui a viré Sam était, selon les mots d’une personne qui faisait partie du tableau, « très JV », et ils ont tâté la balle durement. Et nous documentons les plaintes sous-jacentes, et les gens peuvent décider eux-mêmes si cela se transforme en une préoccupation urgente qu'ils estimaient être, mais cet argument et cette information n'ont pas été présentés.

Ils ont reçu ce que certains d’entre eux considèrent aujourd’hui comme de mauvais conseils juridiques. Pour le décrire, vous vous souviendrez de la citation, et probablement beaucoup de vos auditeurs et téléspectateurs se souviendront de la citation comme d’un manque de franchise. C’était à cela que cela se réduisait, et ils ne répondaient pratiquement plus aux appels.

Ils ne répondraient pas aux appels. Je suis sûr que vous avez essayé. Tous ceux que je connais ont essayé, et c’est arrivé au point où, en tant que journaliste, vous n’êtes pas censé donner des conseils à vos sources, mais je me suis dit : « Cela disparaîtra si vous ne commencez pas à vous expliquer.

Et c’est ce qui s’est passé. Oubliez les journalistes. Satya Nadella vous a dit : "Qu'est-ce qui s'est passé ? Je n'arrive à demander à personne de m'expliquer." Et c’est le principal bailleur de fonds de l’entreprise. Et puis vous avez Satya qui appelle [le co-fondateur de LinkedIn] Reid Hoffman et Reid qui appelle et dit : « Je ne sais pas ce qui s'est passé, putain. 

Ils se trouvent naturellement dans ce vide d’informations, à la recherche des indicateurs traditionnels non liés à l’IA qui justifieraient un licenciement aussi urgent et soudain. Genre, d'accord, c'était des crimes sexuels ? Était-ce un détournement de fonds ? Et tout l’argument subtil, mais je pense significatif, selon lequel cette technologie est différente et que ce type d’accumulation constante de petites trahisons pourrait avoir des enjeux significatifs à la fois pour cette entreprise et peut-être pour le monde, a été en grande partie perdu. Les incitations capitalistes l’ont donc emporté, mais les personnes qui les avaient créées sont également parties et n’opéraient pas toujours avec des informations complètes.

Je voudrais juste poser une question sur « ce que tout le monde pensait que c'était » pendant un instant, car j'ai certainement vu les nouvelles et j'ai dit : « Oh, quelque chose de grave a dû se produire ». Vous avez fait beaucoup de reportages #MeToo, c’est célèbre. Vous avez dévoilé l'histoire d'Harvey Weinstein. 

Vous avez passé beaucoup de temps à rendre compte de ces affirmations que vous avez, je pense, jugées finalement infondées : selon lesquelles Altman aurait agressé sexuellement des mineurs ou embauché des travailleuses du sexe, ou même assassiné un lanceur d'alerte d'OpenAI. Je veux dire, vous êtes la personne qui peut signaler ce genre de choses avec le plus de rigueur. Avez-vous décidé que cela n'avait abouti à rien ?

Eh bien, écoutez, je n’ai pas pour mission de dire que quelque chose n’a abouti à rien. Ce que je peux dire, c’est que j’ai passé des mois à examiner ces affirmations et que je n’ai trouvé aucune corroboration. Et j’ai été frappé de constater que ces types, ces entreprises qui ont tant de pouvoir sur notre avenir, consacrent réellement une quantité disproportionnée de leur temps et de leurs ressources à une bataille de boue enfantine.

Un cadre le décrit comme « shakespearien ». Les sommes investies par les enquêteurs privés et les dossiers d'opposition en cours de constitution sont implacables. Et ce qui est malheureux, c’est que le genre de trucs salaces, repris par les concurrents de Sam, ne sont que des suppositions, n’est-ce pas ? Il y a cette allégation selon laquelle il poursuit des garçons mineurs, et lors de nombreux cocktails dans la Silicon Valley, vous entendez cela. Dans le circuit des conférences, j’ai entendu des dirigeants crédibles et éminents le répéter : « Tout le monde sait que c’est un fait. »

Ce qui est triste, c’est que je parle d’où ça vient, des différents vecteurs par lesquels ça se transmet. Elon Musk et ses associés semblent mener des dossiers vraiment hardcore qui ne mènent à rien. Elles sont vaporeuses quand on commence réellement à examiner les affirmations sous-jacentes. Ce qui est triste, c’est que cela obscurcit vraiment les critiques plus fondées sur des preuves qui, à mon avis, méritent vraiment une surveillance et un examen urgents.

L’autre thème qui ressort vraiment de l’histoire est presque un sentiment de peur parce que Sam a tant d’amis – il a investi dans tant d’entreprises depuis son précédent rôle de PDG de Y Combinator, jusqu’à ses investissements personnels, dont certains sont en conflit direct avec son rôle de PDG d’OpenAI – et il y a le silence autour de lui.

Cela m'a frappé en lisant une ligne en particulier. Vous décrivez les mémos d’Ilya Sutskever, et ils viennent tout juste de paraître dans la Silicon Valley. Tout le mondeles appelle les mémos d'Ilya. Mais il y a même un silence à ce sujet. Ils circulent, mais ils ne sont pas discutés. D'où penses-tu que ça vienne ? Est-ce la peur ? Est-ce un désir d’obtenir des investissements providentiels ? D'où ça vient ?

Je pense que c’est beaucoup de lâcheté, je vais être honnête. Après avoir rendu compte d’articles sur la sécurité nationale dans lesquels les sources sont des lanceurs d’alerte qui risquent de tout perdre et d’être poursuivis, ils font toujours ce qu’il faut et parlent de choses pour créer des responsabilités. J’ai travaillé sur les histoires liées aux crimes sexuels que vous avez mentionnées, où les sources sont profondément traumatisées et craignent des représailles très personnelles. 

Dans de nombreux cas, autour de ce rythme, vous avez affaire à des personnes ayant leur propre profil et leur propre pouvoir. Soit ils sont eux-mêmes des personnes célèbres, soit ils sont entourés de personnes célèbres. Ils ont une vie professionnelle solide. À mon avis, parler de ce genre de choses est en fait très peu exposé. Et heureusement, l’aiguille bouge comme nous l’avons dit plus tôt, et les gens en parlent désormais davantage.

Mais pendant si longtemps, les gens se sont contentés de se taire parce que je pense que la culture de la Silicon Valley est impitoyablement intéressée et impitoyablement orientée vers les affaires et la croissance. Je pense donc que cela afflige même certaines des personnes impliquées dans le licenciement de Sam, où vous avez vu dans les jours qui ont suivi, oui, un facteur qui l'a amené à revenir et au licenciement d'anciens membres du conseil d'administration était qu'il avait rallié à sa cause des investisseurs qui étaient confus. 

Mais une autre raison est que tant d'autres personnes autour de l'entreprise qui avaient des inquiétudes et les exprimaient de manière urgente se sont simplement pliées comme des serviettes et ont changé de ton dès qu'elles ont vu que le vent soufflait dans l'autre sens, et elles ont voulu prendre le train du profit. 

C’est assez sombre, honnêtement, de mon point de vue de journaliste.

Certaines de ces personnes sont Mira Murati, qui, je crois, a été pendant 20 minutes la nouvelle PDG d'OpenAI. Elle a ensuite été remplacée. C'était une dynamique très compliquée, et évidemment, Sam est revenu. L'autre personne est Ilya Sutskever, qui a voté pour destituer Sam, puis il a changé d'avis, ou du moins a dit qu'il avait changé d'avis, puis il est parti pour créer sa propre entreprise. Savez-vous ce qui l'a fait changer d'avis ? Était-ce juste de l'argent ?

Eh bien, et pour être clair, je ne cible pas ces deux-là. Il y a d’autres membres du conseil d’administration impliqués dans le licenciement qui sont également restés très silencieux par la suite. Je pense que c’est comme un problème collectif plus large. Il s’agit, dans certains cas, de personnes qui ont eu la fibre morale nécessaire pour tirer la sonnette d’alarme et prendre des mesures radicales, et cela mérite d’être salué. Et c’est ainsi que vous garantissez la responsabilité. Cela aurait pu aider beaucoup de personnes touchées par cette technologie. Cela aurait pu aider une industrie à rester davantage axée sur la sécurité.

Mais face aux lanceurs d’alerte et aux personnes qui tentent souvent de susciter cette responsabilisation, vous voyez également qu’il faut avoir la fibre nécessaire pour tenir le coup et rester fidèle à ses convictions. Et cette industrie regorge vraiment de gens qui ne respectent tout simplement pas leurs convictions.

Même s’ils pensent qu’ils construisent un Dieu numérique qui, d’une manière ou d’une autre, soit éliminera tout travail, soit créera plus de travail, ou bien quelque chose se produira.

Eh bien, c'est le problème. Ainsi, la culture consistant à ne pas respecter vos convictions et à laisser de côté toutes les préoccupations éthiques dès qu’il y a une chaleur ou tout ce qui pourrait menacer votre propre position dans l’entreprise est peut-être très bien, dans une certaine mesure, pour les entreprises qui continuent de faire comme d’habitude et qui fabriquent n’importe quel type de gadget.

Mais ce sont aussi les mêmes personnes qui disent : « Cela pourrait littéralement tous nous tuer. » Et encore une fois, vous n’êtes pas obligé d’aller à l’extrême Terminator Skynet. Il existe un ensemble de risques qui se matérialisent déjà. C’est réel, et ils ont raison de mettre en garde à ce sujet, mais il faudrait que quelqu’un d’autre psychologise comment ces deux choses peuvent vivre chez les mêmes personnes où ils lancent des avertissements urgents, ils mettent peut-être un orteil et essaient de faire quelque chose, puis ils se plient et se taisent. 

C’est précisément la raison pour laquelle il peut arriver que des choses ne soient pas écrites et que des choses soient balayées sous le tapis, sans que personne n’en parle ouvertement pendant des années après coup.

La partie naturelle et responsable ne serait pas les PDG de ces entreprises ; ce seraient les gouvernements. Aux États-Unis, peut-êtrece sont les gouvernements des États, peut-être le gouvernement fédéral. 

Certes, ces entreprises veulent toutes être mondiales. Il y a ici de nombreuses implications mondiales. J’ai vu OpenAI, Google et Anthropic inciter l’administration Biden à publier un décret sur l’IA. C'était plutôt édenté au final. Il disait simplement qu'ils devaient parler de ce dont leurs modèles étaient capables et publier des tests de sécurité. Et puis ils ont tous soutenu Trump, et Trump est arrivé et a effacé tout cela et a dit : "Nous devons être compétitifs. C'est chacun pour soi. Allez-y."

Dans le même temps, ils tentent tous de lever des fonds auprès des pays du Moyen-Orient qui possèdent beaucoup d’argent pétrolier et souhaitent changer leur économie. Ce sont des politiciens. J’ai l’impression que les politiciens devraient absolument comprendre que quelqu’un parle des deux côtés de la bouche, et ils ne seront pas trop contrariés si quelqu’un est déçu à la fin, mais les politiciens se font aussi prendre au piège. Pourquoi pensez-vous que c'est le cas ?

C'est vraiment, je pense, pourquoi cette pièce est importante à mon avis et pourquoi cela valait la peine d'y consacrer tout ce temps et ces détails. Nous sommes dans un environnement où les systèmes qui, comme vous le dites, devraient assurer la surveillance sont tout simplement vidés. C’est une Amérique unie post-Citizens, où le flux d’argent est si libre, et c’est une concentration particulière de ce problème autour de l’IA, où il y a ces PAC qui prolifèrent et inondent l’argent pour annuler une réglementation significative au niveau des États et au niveau fédéral.

Vous avez [le co-fondateur d’OpenAI] Greg Brockman, le commandant en second de Sam, qui contribue directement et de manière majeure à quelques-uns d’entre eux. Cela conduit à une situation dans laquelle il y a réellement capture des législateurs et des régulateurs potentiels, et il est difficile de sortir de cette spirale. Ce qui est triste, c'est que je pense qu'il existe des mesures politiques simples, dont certaines sont testées ailleurs dans le monde, qui pourraient aider à résoudre certains de ces problèmes de responsabilité.

Vous pourriez avoir davantage de tests de sécurité obligatoires avant le déploiement, ce qui se produit déjà en Europe pour les modèles Frontier. Vous pourriez imposer des exigences plus strictes en matière de dossiers publics écrits pour les types d'enquêtes internes dans lesquelles nous avons constaté que des éléments n'étaient pas écrits dans cette affaire. Vous pourriez disposer d’un ensemble plus robuste de mécanismes d’examen de la sécurité nationale pour le type d’ambitions en matière d’infrastructures au Moyen-Orient que prônait Sam Altman. 

Comme vous le dites, il faisait cet appât et ce changement avec l’administration Biden, en disant : « Réglementez-nous, réglez-nous », et en les aidant à élaborer un décret, puis, dès que Trump entre en fonction, vraiment dans les tout premiers jours, sans aucune restriction, « Accélérons et construisons un immense campus de centres de données à Abu Dhabi. » Vous auriez pu le faire, c'est une question très simple, comme la protection des lanceurs d'alerte. Il n’existe aucune loi fédérale protégeant les employés des sociétés d’IA qui divulguent le genre de problèmes de sécurité évoqués dans cet article.

Nous avons des cas où Jan Leike, qui était responsable de la sécurité chez OpenAI, dirigeait le super alignement au sein de l'entreprise. Il écrit au conseil d'administration, essentiellement du matériel de dénonciation, affirmant que l'entreprise déraille dans sa mission de sécurité. C’est le genre de personnes qui devraient pouvoir s’adresser à un organisme de surveillance et qui devraient bénéficier de protections statutaires explicites du type de celles que nous voyons dans d’autres secteurs. Il est simple de reproduire un régime de type Sarbanes-Oxley.

Je pense que malgré l’acuité du problème de la prise de contrôle par la Silicon Valley de tous les leviers du pouvoir, et malgré l’épuisement de certaines de ces institutions qui pourraient assurer une surveillance et des garde-fous, je crois toujours aux mathématiques de base de la démocratie et des politiciens intéressés. Et de plus en plus de données de sondage émergent selon lesquelles une majorité d’Américains pensent que les préoccupations, les questions ou les risques de l’IA l’emportent actuellement sur les avantages.

Je pense donc que l’afflux d’argent provenant de l’IA dans la politique, il est en notre pouvoir d’en faire une source de point d’interrogation à l’égard des politiciens. Lorsque les Américains vont voter, ils devraient vérifier si les personnes pour lesquelles ils votent, surtout s’ils ne sont pas critiques et anti-réglementation, compte tenu de toutes ces préoccupations, sont financés par des intérêts particuliers des grandes technologies. Je pense donc que si les gens peuvent lire des articles comme celui-ci, écouter des podcasts comme celui-ci et s'en soucier suffisamment pour réfléchir de manière critique àleurs décisions en tant qu'électeurs, il existe une réelle opportunité de générer à Washington une circonscription de représentants qui surveillent et imposent une surveillance.

C’est peut-être l’une des choses les plus optimistes que j’ai jamais entendues dire à propos de l’industrie actuelle de l’IA. Je l'apprécie. Je suis obsédé par les sondages dont vous parlez. Il y en a beaucoup maintenant. Tout cela est assez cohérent, et il semble que plus les jeunes, en particulier, sont exposés à l’IA, plus ils sont méfiants et en colère à son sujet. C’est la valence de tous les sondages. Et je regarde cela, et je pense, eh bien, oui, des politiciens intelligents s’opposeraient simplement à cela. Ils diraient simplement : « Nous allons demander des comptes aux grandes technologies. » 

Ensuite, je pense aux 20 dernières années, à un politicien disant qu’il allait demander des comptes aux grandes technologies, et j’ai du mal à trouver ne serait-ce qu’un seul moment où les grandes technologies soient tenues pour responsables. La seule chose qui me fait penser que cela pourrait être différent, c'est que vous devez en fait construire des centres de données, et vous pouvez voter contre cela, et vous pouvez pétitionner contre cela, et vous pouvez protester contre cela.

Je pense qu’il y a un homme politique qui vient de se faire tirer dessus parce qu’il a voté pour un centre de données. La tension atteint, je dirais, un paroxysme de fièvre. Vous avez décrit l’insularité de la Silicon Valley. Il s’agit d’un écosystème fermé. On a l’impression qu’ils pensent pouvoir diriger le monde. Ils investissent énormément d’argent dans la politique et se heurtent à la réalité selon laquelle les gens n’aiment pas leurs produits, ce qui ne leur donne pas beaucoup de couverture. Plus ils utilisent les produits, plus ils sont mécontents, et les politiciens commencent à voir les conséquences réelles du soutien à l’industrie technologique par rapport aux personnes qu’ils représentent. 

Vous avez parlé à tellement de gens. Pensez-vous qu’il est possible pour l’industrie technologique de tirer la leçon qui se trouve sous ses yeux ?

Vous dites qu’ils ont l’impression de pouvoir diriger le monde sans rendre de comptes. Je ne pense même pas que cela ait besoin du qualificatif « se sent comme ». Je veux dire, vous regardez le langage utilisé par Peter Thiel, il est explicite. Bien sûr, c’est un exemple extrême. Et Sam Altman, bien qu’il soit proche et informé dans une certaine mesure par l’idéologie de Thiel, est un type de personne très différent qui peut paraître différent et plus mesuré jusqu’à un certain point. 

Mais je pense que l’idéologie plus large que l’on retrouve chez Thiel, qui est fondamentalement la suivante : nous en avons fini avec la démocratie, nous n’en avons plus besoin. Nous en avons tellement que nous voulons simplement construire nos propres petits bunkers. Nous n’avons plus affaire aux Carnegie ou aux Rockefeller, où ce sont des méchants, mais ils sentent qu’ils doivent participer à un contrat social et construire des choses pour les gens. Il y a un véritable nihilisme qui s’installe.

Et je pense qu’il s’agit simplement d’une spirale qui se renforce mutuellement dans l’histoire américaine récente, dans laquelle des magnats et des entreprises privées acquièrent un pouvoir supergouvernemental tandis que les institutions démocratiques qui pourraient les tenir pour responsables sont vidées de leur substance. Je ne suis pas optimiste quant à l’idée que ces gars-là pourraient se réveiller un jour et penser : « Euh, en fait, peut-être que nous devons participer à la société et aider à construire des choses pour les gens. »

Je veux dire, regardez l’exemple microcosmique de The Giving Pledge, où il y a eu un moment où cela semblait être charitable, et ce moment est maintenant passé et même ridiculisé. C’est un problème, le problème plus large du manque de responsabilité, qui, à mon avis, ne peut être résolu que de manière extrinsèque. Il faut que les électeurs se mobilisent et ressuscitent le pouvoir de contrôle du gouvernement. Et vous avez tout à fait raison de dire que le principal vecteur par lequel les gens pourraient y parvenir est peut-être le local. Cela dépend de l’endroit où l’infrastructure est construite. 

Vous avez mentionné certaines des tensions brûlantes autour de cette question qui conduisent à la violence et aux menaces, et évidemment, personne ne devrait être violent ou menaçant. Et je ne suis pas non plus ici pour faire des recommandations politiques spécifiques, si ce n’est pour simplement présenter certaines des mesures politiques qui semblent fondamentales et qui fonctionnent ailleurs dans le monde, n’est-ce pas ? Ou ceux qui ont travaillé dans d’autres secteurs. Je ne suis pas ici pour dire lesquels doivent être exécutés et comment.

Je pense que quelque chose doit se produire, et cela doit être externe, et pas seulement faire confiance à ces entreprises. Parce que c'est vrainous nous trouvons désormais dans une situation où les entreprises qui développent la technologie et sont les mieux équipées pour comprendre les risques, et qui sont en fait celles qui nous avertissent des risques, sont aussi celles qui n’ont rien d’autre que des incitations à aller vite et à ignorer ces risques. Et vous n’avez tout simplement rien pour contrebalancer cela. Ainsi, quelles que soient les réformes concrètes qu’elles pourraient impliquer, quelque chose doit se heurter à cela. Et je reviens toujours à cet optimisme selon lequel les gens comptent toujours.

J'accepte généralement votre argument. Permettez-moi juste de présenter le petit contre-argument que je pense pouvoir articuler. L’autre chose qui pourrait arriver en dehors des urnes, c’est que la bulle éclate, n’est-ce pas ? Que toutes ces entreprises n’arrivent pas à franchir la ligne d’arrivée et qu’il n’existe pas de marché de produits adapté aux applications d’IA grand public. Et encore une fois, je ne le vois pas encore vraiment, mais je suis un évaluateur de technologies grand public, et peut-être que j'ai simplement des normes plus élevées que tout le monde.

Il existe une adéquation au marché des produits dans le monde des affaires, n’est-ce pas ? Avoir un groupe d'agents d'IA qui écrivent un tas de logiciels semble être un véritable marché pour ces outils. Et vous pouvez lire les arguments de ces entreprises disant : "Nous avons résolu le codage, et cela signifie que nous pouvons tout résoudre. Si nous pouvons créer des logiciels, nous pouvons résoudre tous les problèmes."

Je pense qu'il y a de réelles limites aux choses que les logiciels peuvent faire. C’est génial dans le monde des affaires. En réalité, les logiciels ne peuvent pas résoudre tous les problèmes, mais ils doivent y parvenir. Ils doivent terminer le travail, et peut-être que tout le monde n’atteint pas la ligne d’arrivée. Et il y a un krach, et cette bulle éclate, et peut-être qu’OpenAI, Anthropic ou xAI, l’une de ces entreprises fait faillite, et tous ces investissements disparaissent.

Pensez-vous que cela affecterait cela ? En fait, permettez-moi de poser d'abord la première question. OpenAI est sur le point d’être introduit en bourse. Il y a beaucoup de doutes sur Sam en tant que leader. Pensez-vous qu’ils vont atteindre la ligne d’arrivée ?

Je ne vais pas faire de pronostic, mais je pense que vous soulevez un point important, à savoir que les incitations du marché sont importantes en interne à la Silicon Valley, et que la précarité de la dynamique actuelle de la bulle risque d’interrompre, encore une fois, potentiellement, selon les critiques, un nivellement par le bas en matière de sécurité.

J’ajouterais également que si l’on considère les précédents historiques où il existe un ensemble similaire et apparemment impénétrable d’incitations de marché et d’effets potentiellement préjudiciables pour le public, il y a des litiges d’impact. Et vous considérez cela comme un sujet de préoccupation ces derniers temps. Sam Altman est là cette semaine pour approuver une législation qui protégerait les sociétés d'IA de certains types de responsabilité auxquelles OpenAI a été exposée dans des poursuites pour mort injustifiée, par exemple. Bien sûr, on souhaite avoir cette protection contre toute responsabilité.

Je pense que les tribunaux peuvent encore constituer un mécanisme utile, et il sera vraiment intéressant de voir comment ces poursuites évolueront. Vous avez déjà vu, par exemple, le recours collectif, dont moi-même et de nombreux autres auteurs que je connais sommes membres, contre Anthropic pour son utilisation de livres protégés par le droit d'auteur. S’il y a des juristes intelligents et des plaignants qui s’en soucient, comme nous l’avons vu historiquement dans des affaires allant des grandes sociétés de tabac aux grandes entreprises énergétiques, vous pouvez également obtenir des garde-fous et des incitations pour ralentir, être prudent ou protéger les gens de cette façon.

On a l’impression que l’ensemble de la structure des coûts de l’industrie de l’IA repose sur une interprétation très, très charitable de l’utilisation équitable. Cela ne revient pas assez. La structure des coûts de ces entreprises pourrait devenir incontrôlable si elles devaient vous payer, vous et tous ceux dont elles ont pris le travail, mais il n’est pas pratique d’y penser, alors nous n’y pensons tout simplement pas. Juste à côté, tous ces produits fonctionnent désormais à perte. Comme aujourd’hui, ils courent tous à perte. Ils brûlent plus d’argent qu’ils ne peuvent en gagner. À un moment donné, ils doivent appuyer sur le bouton.

Sam est un homme d'affaires. Comme vous l’avez mentionné à plusieurs reprises, ce n’est pas un technologue. C’est un homme d’affaires. Pensez-vous qu’il est prêt à appuyer sur l’interrupteur et à dire : « Nous allons gagner un dollar ? » Parce que quand je demande : « Pensez-vous qu’OpenAI va réussir ? » C’est quand ils doivent gagner un dollar. Et jusqu’à présent, Sam a gagné tout son argent en demandant leur argent à d’autres personnes au lieu de laisser ses entreprises gagner de l’argent.

Eh bien, c’est une grande question qui persiste pour la Silicon Valley, pour les investisseurs et pour le public.Vous voyez certaines déclarations et sorties d’OpenAI qui semblent témoigner d’une sorte de panique à ce sujet. Arrêter Sora, arrêter certains projets auxiliaires, essayer de se concentrer sur le produit principal. Mais d’un autre côté, vous voyez toujours, en même temps, des tonnes de dérives de mission, n’est-ce pas ? L’acquisition de TBPN n’est qu’un petit exemple – ce n’est évidemment pas le cœur de leur activité.

D’ailleurs, alors que nous atteignions la ligne d’arrivée et la vérification des faits, l’entreprise confrontée à ce type de surveillance journalistique acquiert une plate-forme où elle peut avoir un contrôle plus direct sur la conversation. Je pense que de nombreux investisseurs s’inquiètent, sur la base des conversations que j’ai eues, du fait que ce problème de promettre tout à tout le monde s’étend également à ce manque de concentration dans le modèle économique de base. Et je veux dire, vous êtes probablement plus proche que moi du genre de pronostic et d’observation du marché. Je vous laisse, ainsi qu'aux auditeurs, juger s'ils pensent qu'OpenAI peut actionner le commutateur. 

Eh bien, j’ai posé la question parce que vous avez une citation dans l’article d’un cadre supérieur de Microsoft, à savoir que « l’héritage de Sam pourrait finir par ressembler davantage à celui de Bernie Madoff ou de Sam Bankman-Fried », plutôt qu’à celui de Steve Jobs. C'est toute une comparaison. Que pensez-vous de cette comparaison ?

Je pense que c'est une paraphrase. La partie Steve Jobs ne faisait pas partie de la citation. Mais il y a une sorte de sobriété intéressante car il est formulé comme suit : « Je pense qu’il y a une petite mais réelle chance qu’il finisse par être un SBF ou un escroc de niveau Madoff. » Cela signifie, à mon avis, non pas que Sam soit accusé de ces types spécifiques de fraude ou de crimes, mais que le degré de dissimulation et de tromperie de Sam peut avoir une chance d'être finalement rappelé à cette échelle.

Ouais, je pense que ce qui est le plus frappant dans cette citation, honnêtement, c'est que vous appelez chez Microsoft et vous n'obtenez pas de réponse : "C'est fou. Nous n'avons jamais entendu ça." On vous dit souvent : « Oui, beaucoup de gens ici pensent ça », ce qui est remarquable. Et je pense que cela renvoie à ces questions commerciales concrètes. 

Un investisseur m'a dit, par exemple, à la lumière de la façon dont cette caractéristique a persisté dans les années qui ont suivi le licenciement" - et il a également pensé que c'était une pensée sobre et intéressante - que ce n'est pas nécessairement que Sam devrait être tout en bas de la liste, comme devrait être le plus bas de la liste des personnes qui ne doivent absolument pas construire cette technologie, pour ce qu'elle vaut. Il y a plusieurs personnes qui ont dit qu'Elon Musk est cette personne. Mais que cette caractéristique le place peut-être au bas de la liste des personnes qui devraient build AGI, et derrière plusieurs autres personnalités de premier plan dans ce domaine.

J’ai donc pensé que c’était une évaluation intéressante, et c’est le genre de réflexion que je pense que vous recevez des vrais pragmatiques qui n’adhèrent peut-être pas autant aux problèmes de sécurité. Ils sont simplement axés sur la croissance et pensent qu’OpenAI a désormais un problème avec Sam Altman.

L'article de Microsoft est vraiment intéressant. Cette entreprise pensait être au sommet du monde. Qu'ils avaient fait cet investissement et qu'ils allaient devancer tout le monde, en particulier et surtout Google, et revenir dans les bonnes grâces des consommateurs. Je ne pense pas qu’on puisse exagérer à quel point ils se sentent brûlés par cette aventure – c’est une entreprise très sobrement gérée.

Vous avez évoqué les personnages et les traits de personnalité. Je veux terminer ici avec une question de nos auditeurs. J'ai dit dans notre autre émission, The Vergecast, que j'allais vous parler, et j'ai dit : « Si vous avez des questions pour Ronan à propos de cette histoire, faites-le-moi savoir. » Nous en avons donc un ici qui, je pense, correspond parfaitement à ce que vous décrivez. Je vais juste vous le lire :

« En quoi les justifications du mauvais comportement et des actions acharnées d'Altman et d'autres dirigeants de l'IA diffèrent-elles des justifications que Ronan a entendues de la part d'autres dirigeants politiques et médiatiques de haut niveau ? Ne justifient-ils pas tous leurs actions en disant que c’est ainsi que le monde change ? Si je ne le fais pas, quelqu’un d’autre le fera ?

Ouais, il y en a beaucoup qui circulent. Je dirais que ce qui est distinctif de l’IA, c’est que les enjeux existentiels étant si élevés, cela signifie que les déclarations de risque sont extrêmes, n’est-ce pas ? Vous avez Sam Altmanen disant: «Cela pourrait éteindre la lumière pour nous tous.» Et aussi, pourraient dire les critiques, la manie à laquelle fait référence l’interrogateur est extrême, n’est-ce pas ? 

La chose dont Sam a accusé Elon, officiellement, c'est qu'il veut peut-être sauver l'humanité, mais seulement si c'est lui. Le genre de composante d’ego qui consiste à vouloir gagner, qui est un cadre que Sam utilise tout le temps, et qui en est un pour les livres d’histoire, cela pourrait tout changer. Par conséquent, même au-delà de l’état d’esprit « il faut casser quelques œufs » de la plupart des entreprises de la Silicon Valley, il existe, dans l’esprit de certaines personnalités dirigeantes de l’IA, je pense, une rationalisation complète de toutes les retombées.

Et oubliez de casser des œufs. Je pense que de nombreux chercheurs en sécurité diraient que risquer de briser le pays, de briser le monde et de briser des millions de personnes dont l’emploi et la sécurité sont en jeu – c’est ce qui est unique. C’est là que je termine, en réfléchissant à cet ensemble de reportages, croyant vraiment qu’il s’agit de bien plus que Sam Altman. Il s’agit d’une industrie sans contrainte et d’un problème croissant lié à l’incapacité de l’Amérique à la contraindre.

Ouais. Eh bien, nous avions un certain optimisme là-bas, mais je pense que c’est un bon endroit pour en rester là.

[Rires] Terminez sur un temps fort.

Bien sûr. C’est vraiment toutes les belles histoires. Le procès Musk-Altman approche. Je pense que nous allons en apprendre beaucoup plus ici. Je pense que j'aurai envie de vous parler à nouveau. Ronan Farrow, merci beaucoup d'être sur Decoder.

Merci.

Des questions ou des commentaires sur cet épisode ? Contactez-nous à [email protected]. Nous lisons vraiment chaque e-mail !

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free