Heute spreche ich bei Decoder mit Ronan Farrow, einem der größten Stars der investigativen Berichterstattung der Gegenwart. Er hat neben vielen anderen auch die Geschichte von Harvey Weinstein aufgedeckt. Und erst letzte Woche veröffentlichten er und Co-Autor Andrew Marantz im New Yorker einen unglaublich ausführlichen Beitrag über OpenAI-CEO Sam Altman, seine Vertrauenswürdigkeit und den Aufstieg von OpenAI selbst.
Eine Anmerkung, bevor wir hier weitermachen: Der New Yorker veröffentlichte diese Geschichte und Ronan und ich führten dieses Gespräch, bevor wir das volle Ausmaß der Angriffe auf Altmans Haus kannten, Sie werden uns also nicht direkt darüber sprechen hören. Aber um es mal so zu sagen: Ich denke, Gewalt jeglicher Art ist inakzeptabel, diese Angriffe auf Sam waren inakzeptabel, und die Art von Hilflosigkeit, die die Menschen empfinden und die zu dieser Art von Gewalt führt, ist an sich inakzeptabel und es lohnt sich, sie sowohl von der Industrie als auch von unseren politischen Führern genauer unter die Lupe zu nehmen. Ich hoffe, das ist klar.
Verge-Abonnenten: Vergessen Sie nicht, dass Sie überall dort, wo Sie Ihre Podcasts beziehen, exklusiven Zugriff auf den werbefreien Decoder erhalten. Gehen Sie hierher. Kein Abonnent? Hier können Sie sich anmelden.
Alles in allem schwirrt um Altman eine Menge herum, die ein faires Spiel für eine rigorose Berichterstattung ist – die Art von Berichterstattung, die sich Ronan und Andrew vorgenommen haben. Dank der Popularität von ChatGPT hat sich Altman zum sichtbarsten Aushängeschild der KI-Branche entwickelt, da er in nur wenigen Jahren aus einem einst gemeinnützigen Forschungslabor ein fast Billionen Dollar schweres Privatunternehmen gemacht hat. Aber der Mythos von Altman ist zutiefst widersprüchlich und wird sowohl durch seine offensichtliche Fähigkeit, Geschäfte zu machen, als auch durch seine angebliche Tendenz, ... nun ja, alle um ihn herum anzulügen, definiert.
Die Geschichte ist über 17.000 Wörter lang und enthält wohl die endgültige Darstellung dessen, was im Jahr 2023 geschah, als der Vorstand von OpenAI Altman ganz plötzlich wegen seiner angeblichen Lüge entließ, nur um ihn fast sofort wieder einzustellen. Es ist auch ein tiefer Einblick in Altmans Privatleben, seine Investitionen, sein Werben um Geld aus dem Nahen Osten und seine eigenen Überlegungen zu seinem früheren Verhalten und seinen Charaktereigenschaften, die eine Quelle dazu veranlassten, zu sagen, er sei „nicht von der Wahrheit eingeschränkt“. Ich empfehle Ihnen wirklich, die gesamte Geschichte zu lesen. Ich vermute, dass noch viele Jahre darauf Bezug genommen wird.
Ronan hat in den 18 Monaten, die er damit verbracht hat, über diesen Artikel zu berichten, viele Male mit Altman gesprochen, und deshalb war ich vor allem neugierig, ob er in dieser Zeit irgendeine Veränderung bei Altman gespürt hat. Schließlich hat sich in den letzten anderthalb Jahren in der KI, in der Technik und auf der Welt viel getan.
Sie werden hören, wie Ronan sehr direkt darüber spricht und auch das Gefühl hat, dass die Menschen viel eher bereit sind, über Altmans Fähigkeit zu sprechen, die Wahrheit zu verbreiten. Die Menschen beginnen sich laut und öffentlich zu fragen, ob das Verhalten von Menschen wie Altman nicht nur für KI oder Technologie, sondern auch für die kollektive Zukunft der Gesellschaft besorgniserregend ist.
Okay: Ronan Farrow über Sam Altman, KI und die Wahrheit. Auf geht's.
Dieses Interview wurde aus Gründen der Länge und Klarheit leicht bearbeitet.
Ronan Farrow, Sie sind investigativer Reporter und Mitarbeiter des New Yorker. Willkommen bei Decoder.
Ich bin froh, hier zu sein. Danke, dass du mich hast.
Ich freue mich sehr, mit Ihnen zu sprechen. Sie haben gerade einen großen Artikel für The New Yorker geschrieben. Es ist ein Profil von Sam Altman und damit auch von OpenAI. Meiner Meinung nach bestätigt es, wie alle großartigen Features, mit einer gründlichen Berichterstattung viele Gefühle, die die Leute schon seit sehr langer Zeit gegenüber Sam Altman hegen. Offensichtlich haben Sie es veröffentlicht und Reaktionen darauf erhalten. Wie fühlst du dich gerade dabei?
Eigentlich hat es mich ermutigt, in einer Zeit, in der die Aufmerksamkeitsökonomie so schizophren und oberflächlich ist, den Durchbruch geschafft zu haben. Das ist eine Geschichte, die meiner Meinung nach uns alle betrifft. Und wenn ich anderthalb Jahre meines Lebens damit verbracht habe, und auch mein Co-Autor Andrew Marantz hat diese Zeit damit verbracht, wirklich etwas Forensisches und Akribisches zu tun, dann immer, weil ich das Gefühl habe, dass es größere strukturelle Probleme gibt, die Menschen betreffen, die über den Einzelnen und das Unternehmen im Kern der Geschichte hinausgehen.
Sam Altman, vor dem Hintergrund der Hype-Kultur im Silicon Valley und Start-ups, die auf der Grundlage von Versprechen, die möglicherweise in der Zukunft eintreten oder auch nicht eintreten, zu enormen Bewertungen aufsteigen, und vor dem Hintergrund einer zunehmenden Akzeptanz einer Gründerkultur, die denkt, dass es ein Merkmal und kein Problem ist, verschiedenen Gruppen unterschiedliche widersprüchliche Dinge zu erzählenFehler … Selbst vor diesem Hintergrund ist Sam Altman ein außergewöhnlicher Fall, in dem jeder im Silicon Valley, der solche Dinge erwartet, nicht aufhören kann, über diese Frage seiner Vertrauenswürdigkeit und Ehrlichkeit zu reden.
Wir wussten bereits, dass er wegen einer Version von Vorwürfen der Unehrlichkeit oder angeblicher Serienlügen entlassen wurde. Aber ungeachtet der wunderbaren Berichterstattung hat Keach Hagey in diesem Bereich hervorragende Arbeit geleistet. Karen Hao hat hier großartige Arbeit geleistet. Es gab wirklich kein endgültiges Verständnis der tatsächlichen angeblichen Beweispunkte und der Gründe, warum diese aus der Öffentlichkeit verschwiegen wurden.
Punkt eins ist also, dass ich mich durch die Tatsache ermutigt fühle, dass einige dieser Lücken in unserem öffentlichen Wissen und sogar im Wissen von Insidern aus dem Silicon Valley nun etwas mehr geschlossen wurden. Einige der Gründe, warum es Lücken gab, wurden etwas weiter ausgefüllt.
Wir berichten über Fälle, in denen man in diesem Unternehmen wirklich das Gefühl hatte, dass Dinge vertuscht oder bewusst nicht dokumentiert wurden. Eines der neuen Dinge in dieser Geschichte ist eine entscheidende Anwaltskanzlei-Untersuchung von WilmerHale, einer offensichtlich schicken, glaubwürdigen Großkanzlei, die Ermittlungen gegen Enron und WorldCom durchgeführt hat, die übrigens alle umfangreich waren und Hunderte von Seiten veröffentlicht wurden. WilmerHale führte diese Untersuchung durch, die von Vorstandsmitgliedern gefordert wurde, die Altman als Bedingung für ihren Abgang gefeuert hatten, als er sie loswurde, und er kam zurück. Und außergewöhnlicherweise – in den Augen vieler Rechtsexperten, mit denen ich gesprochen habe, und schockierend in den Augen vieler Leute in diesem Unternehmen – haben sie es aus dem Schreiben herausgehalten. Alles, was dabei herauskam, war eine 800-Wörter-Pressemitteilung von OpenAI, in der das Geschehen als Vertrauensbruch beschrieben wurde. Und wir haben bestätigt, dass es sich dabei um mündliche Briefings handelte.
Es gibt beispielsweise Fälle, in denen ein Vorstandsmitglied scheinbar gegen die Umwandlung von OpenAIs ursprünglicher gemeinnütziger Form in eine gewinnorientierte Organisation stimmen möchte und dies als Enthaltung vermerkt wird. Es ist so, als würde ein Anwalt in der Besprechung sagen: „Nun, das könnte zu viel Kontrolle auslösen.“ Und wer dagegen stimmen will, wird allem Anschein nach als Enthaltung registriert. Es gibt einen Sachverhalt. OpenAI behauptet etwas anderes, wie Sie sich vorstellen können. Das sind alles Fälle, in denen man ein Unternehmen hat, das nach eigenen Angaben unsere Zukunft in seinen Händen hält.
Die Sicherheitsrisiken sind so akut, dass sie nicht verschwunden sind. Aus diesem Grund wurde dieses Unternehmen als gemeinnützige Organisation gegründet, die sich auf Sicherheit konzentrierte und bei der die Dinge auf eine Art und Weise verschleiert wurden, die glaubwürdige Leute in der Umgebung als weniger professionell empfanden. Und das vor dem Hintergrund, dass es so wenig politisches Interesse an einer sinnvollen Regulierung gibt. Ich denke, es ist eine sehr brisante Situation.
Für mich geht es nicht nur darum, dass Sam Altman diese Fragen so dringend verdient. Es ist auch so, dass jeder dieser Leute in diesem Bereich und viele der Schlüsselfiguren, wenn nicht diese besondere eigenwillige Eigenschaft des angeblichen ständigen Lügens, sicherlich ein gewisses Maß an einer Race-to-the-Bottom-Mentalität an den Tag legen, bei der die Leute, die Sicherheitsleute waren, diese Verpflichtungen und die Haltung „Jeder ist im Rennen“ abgeschwächt haben.
Ich denke, wenn wir uns die jüngsten Leaks von Anthropic ansehen, gibt es eine Person, die die Frage stellt, wer in diesem Artikel den Finger auf den Knopf haben sollte. Die Antwort lautet: Wenn wir keine sinnvolle Aufsicht haben, müssen wir meiner Meinung nach ernsthafte Fragen stellen und versuchen, so viele Informationen wie möglich über all diese Leute ans Licht zu bringen. Deshalb hat mich das Gefühl, ein bedeutungsvolles Gespräch darüber zu haben, oder die Anfänge eines solchen, ermutigt.
Der Grund, warum ich das so gefragt habe, ist, dass Sie anderthalb Jahre daran gearbeitet haben. Ich glaube, Sie haben mit Ihrem Co-Autor Andrew mit 100 Menschen gesprochen. Es dauert lange, bis eine Geschichte reif ist. Ich denke insbesondere an die letzten anderthalb Jahre in der KI, und meine Güte, die Einstellungen und Werte all dieser Charaktere haben sich sehr schnell verändert.
Vielleicht niemand mehr als Sam Altman, der als Standardsieger startete, weil sie ChatGPT veröffentlicht hatten und alle dachten, dass dies einfach Google ersetzen würde. Und dann antwortete Google, was sie offenbar überraschte, dass Google versuchen würde, sein Geschäft zu schützen, vielleicht eines der besten Unternehmen in der Technologiegeschichte, wenn nicht sogar in der Unternehmensgeschichte. Anthropic beschloss, sich auf das Unternehmen zu konzentrieren. Es scheint eine souveräne Führung zu übernehmendort, weil der Einsatz von KI in Unternehmen so hoch ist.
Jetzt richtet OpenAI sein Produkt neu aus: „Wir werden es mit Google aufnehmen“ hin zu Codex, und sie werden es mit dem Unternehmen aufnehmen. Ich kann nur nicht genau sagen, ob es sich im Laufe Ihrer Berichterstattung in den letzten anderthalb Jahren so anfühlt, als hätten sich die Charaktere, mit denen Sie gesprochen haben, verändert? Haben sich auch ihre Einstellungen und Werte verändert?
Ja. Ich denke zunächst einmal, dass die Kritik, die in diesem Artikel untersucht wird und die zu diesem Zeitpunkt von vielen Leuten in diesen Unternehmen kommt – dass es sich um eine Branche handelt, die trotz der existenziellen Risiken in eine Art Wettlauf nach unten in Sachen Sicherheit gerät und in dem Geschwindigkeit alles andere übertrumpft –, dass diese Besorgnis akuter geworden ist. Und ich denke, diese Bedenken haben sich im Laufe der letzten anderthalb Jahre noch mehr bestätigt. Gleichzeitig hat sich insbesondere die Einstellung zu Sam Altman geändert. Als wir anfingen, diesbezüglich mit Quellen zu sprechen, waren die Leute sehr, sehr misstrauisch, wenn es darum ging, zitiert zu werden und dies öffentlich zu machen.
Am Ende unserer Berichterstattung haben Sie eine Reihe von Berichten, in denen sehr offen und explizit darüber gesprochen wird, und es gibt Vorstandsmitglieder, die Dinge sagen wie: „Er ist ein pathologischer Lügner. Er ist ein Soziopath.“ Es gibt eine Reihe von Perspektiven, von „Das ist angesichts der Sicherheitsrisiken gefährlich, und wir brauchen Führungskräfte dieser Technologie mit erhöhter Integrität“ bis hin zu „Vergessen Sie die Sicherheitsrisiken, das ist ein Verhalten, das für jede Führungskraft eines großen Unternehmens unhaltbar ist, weil es einfach zu viel Funktionsstörung schafft.“
Das Gespräch ist also viel deutlicher geworden, auf eine Weise, die vielleicht verspätet wirkt, aber in gewisser Hinsicht ermutigend ist. Und man muss Sam Altman zugute halten … Das Stück ist sehr fair und sogar großzügig, würde ich sagen, gegenüber Sam. Dies ist nicht die Art von Stück, in der es viel „Habe dich“-Zeug gibt. Ich habe viele, viele Stunden mit ihm telefoniert, als wir das erledigten, und ihm wirklich zugehört.
Wie Sie sich vorstellen können, kommt in einem Stück wie diesem nicht alles rein. Einige dieser Fälle in diesem Stück waren darauf zurückzuführen, dass ich aufrichtig zugehört habe. Und wenn Sam tatsächlich argumentierte, dass ich das Gefühl hatte, dass etwas stichhaltig sei und dass etwas, selbst wenn es wahr wäre, sensationslüstern sein könnte, dann habe ich mich wirklich geirrt, indem ich es forensisch und maßvoll gehalten habe. Ich denke also, dass dies richtig aufgenommen wird, und ich hoffe nur, dass diese Tatsachenaufzeichnungen, die sich über diesen Zeitraum angesammelt haben, eine anregendere Diskussion über die Notwendigkeit einer Aufsicht auslösen können.
Das ist eigentlich meine nächste Frage. Ich glaube, Sie haben im Laufe der Berichterstattung über diese Geschichte ein Dutzend Mal mit Sam gesprochen. Auch das sind viele Gespräche über einen langen Zeitraum. Dachten Sie, dass sich Sam im Laufe der Berichterstattung in den letzten anderthalb Jahren verändert hat?
Ja. Ich denke, eine der interessantesten Nebenhandlungen dabei ist, dass Sam Altman auch expliziter als in der Vergangenheit über diese Eigenschaft spricht. Die Haltung von Sam in diesem Stück ist nicht so: „Da ist nichts, das ist nicht wahr; ich weiß nicht, wovon du redest.“ Die Haltung, die er einnimmt, ist, dass er sagt, dies sei auf eine menschenfreundliche Tendenz und eine Art Konfliktaversion zurückzuführen. Er räumt ein, dass es ihm vor allem zu Beginn seiner Karriere Probleme bereitete.
Er sagt: „Nun, ich komme darüber hinweg oder habe es bis zu einem gewissen Grad überwunden.“ Ich denke, was für mich wirklich interessant ist, ist die Gruppe von Leuten, mit denen wir gesprochen haben, die nicht nur Sicherheitsbefürworter waren, nicht nur die zugrunde liegenden technischen Forscher, die sehr oft zu diesen akuten Sicherheitsbedenken neigen, sondern auch pragmatische Großinvestoren. Sie sind Unterstützer von Sam, die sich in einigen Fällen mit dieser Frage befassen und davon sprechen, dass sie sogar eine Schlüsselrolle bei seiner Rückkehr nach der Entlassung gespielt haben. Auf die Frage, ob er sich reformiert hat und inwieweit diese Änderung sinnvoll ist, sagen sie: „Nun, wir haben ihm damals im Zweifelsfall Recht gegeben.“
Ich denke insbesondere an einen prominenten Investor, der sagte: „Aber seitdem scheint es klar zu sein, dass er nicht hinter den Holzschuppen gebracht wurde.“ Diesen Satz verwendete dieser, soweit es nötig war. Infolgedessen scheint es, als sei dies nun ein stabiles Merkmal. Wir sehen dies fortlaufend. Sie können sich einige der größten Unternehmen von OpenAI ansehenBeziehungen und die Art und Weise, wie sie das Gewicht dieses Misstrauens dauerhaft tragen.
Wie bei Microsoft spricht man dort mit Führungskräften, und sie haben wirklich akute und in letzter Zeit verstärkte Bedenken. Es gibt diesen Fall, an dem OpenAI am selben Tag seine Exklusivität mit Microsoft in Bezug auf zugrunde liegende zustandslose KI-Modelle bekräftigt und gleichzeitig einen neuen Vertrag mit Amazon ankündigt, der sich mit dem Verkauf von Unternehmenslösungen zum Aufbau von zustandsbehafteten KI-Agenten befasst, das heißt, sie verfügen über Speicher.
Man spricht mit Microsoft-Leuten und sie sagen: „Das geht nicht, ohne mit den zugrunde liegenden Dingen zu interagieren, für die wir einen Exklusivvertrag haben.“ Das ist also nur eines von vielen kleinen Beispielen, bei denen diese Eigenschaft ständig in die laufende Geschäftstätigkeit einfließt und im Vorstand von OpenAI, in der Führungsetage und in der breiteren Tech-Community ein aktives Anliegen ist.
Du sagst immer wieder dieses „Merkmal“. Es gibt eine Zeile in der Geschichte, die sich für mich wie eine These anfühlt und eine Beschreibung der Eigenschaft ist, die Sie beschreiben. Es heißt, dass „Sam Altman sich nicht durch die Wahrheit einschränken lässt“ und dass er „zwei Eigenschaften hat, die man fast nie bei derselben Person sieht: Die erste ist ein starker Wunsch, Menschen zu gefallen, in jeder Interaktion gemocht zu werden, und die zweite ist ein fast soziopathischer Mangel an Sorge um die Konsequenzen, die sich daraus ergeben können, jemanden zu täuschen.“
Ich muss Ihnen sagen, ich habe diesen Satz 500 Mal gelesen und mir vorzustellen versucht, immer zu sagen, was die Leute wollen, um gemocht zu werden, und mich dann nicht aufzuregen, wenn sie sich belogen fühlen. Und ich konnte meinen emotionalen Zustand nicht verstehen lassen, wie diese Dinge in derselben Person existieren können. Sie haben viel mit Sam gesprochen, und Sie haben mit Menschen gesprochen, die diese Eigenschaften erlebt haben. Wie macht er das?
Ja. Auf menschlicher Ebene ist es interessant, weil ich bei der Herangehensweise an solche Berichterstattungsgremien den Fokus wirklich darauf lege, denjenigen zu menschlich zu machen, der im Mittelpunkt steht, und tiefes Verständnis und Mitgefühl anzustreben. Als ich versuchte, die Sache von einem menschlicheren Standpunkt aus anzugehen und zu sagen: „Hey, das wäre verheerend für mich, wenn so viele Leute, mit denen ich zusammengearbeitet habe, sagen würden, ich sei ein pathologischer Lügner. Wie tragen Sie diese Last? Wie sprechen Sie darüber in der Therapie? Was ist die Geschichte, die Sie sich dazu erzählen?“
Meiner Meinung nach habe ich dazu eine Art Plattitüden von der Westküste gehört, wie zum Beispiel: „Ja, ich mag Atemübungen.“ Aber nicht sehr viel von dem belebenden Gefühl tiefer Selbstkonfrontation, das meiner Meinung nach viele von uns verspüren würden, wenn wir diese Art von Rückmeldung über unser Verhalten und unseren Umgang mit Menschen sehen würden.
Ich denke, das gilt auch für die umfassendere Antwort auf die Frage. Sam behauptet, dass diese Eigenschaft Probleme verursacht hat, aber auch, dass sie Teil dessen ist, was ihn dazu befähigt hat, das Wachstum von OpenAI so stark zu beschleunigen, dass er in der Lage ist, verschiedene Gruppen von Menschen zu vereinen und zufrieden zu stellen. Er überzeugt all diese widersprüchlichen Wähler ständig davon, dass ihnen das am Herzen liegt, was ihm am Herzen liegt. Und das kann für einen Gründer eine wirklich nützliche Fähigkeit sein. Ich habe mit Investoren gesprochen, die dann sagten: „Vielleicht ist es eine weniger nützliche Fähigkeit für die tatsächliche Führung eines Unternehmens, weil sie so viel Zwietracht sät.“
Aber was Sam persönlich betrifft, denke ich, dass das, was mir auffällt, wenn ich versuche, auf menschlicher Ebene in Kontakt zu treten, der offensichtliche Mangel an tiefergehender Konfrontation, Reflexion und Selbstverantwortung ist, der auch die Supermacht oder Haftung eines Unternehmens beeinflusst, das sich auf einen Börsengang vorbereitet.
Er ist jemand, der, um es mit den Worten eines ehemaligen Vorstandsmitglieds namens Sue Yoon zu sagen, die in dem Artikel zu Protokoll gibt, dass sie bis zur Grenze von „Unsinn“ den Ausdruck nennt, in der Lage ist, die sich verändernde Realität seiner Verkaufsgespräche wirklich zu glauben oder sich selbst davon zu überzeugen. Oder zumindest kann er, wenn er ihnen nicht glaubt, ohne große Selbstzweifel darüber reden.
Ich denke, bei der Sache, über die Sie sprechen, könnten Sie oder ich, während wir die Sache sagen und erkennen, dass sie im Widerspruch zu der anderen Zusicherung steht, die wir gemacht haben, einen Moment lang einfrieren oder uns selbst überprüfen. Ich denke, das passiert bei ihm nicht. Und es gibt eine breitere Hype- und Gründerkultur im Silicon Valley, die das in gewisser Weise berücksichtigt.
Es ist lustig. The Verge basiert auf ProduktbewertungenProgramm. Es ist das Herzstück dessen, was wir hier tun. Ich halte einmal im Jahr eine Billion Dollar an Apple-Forschung und -Entwicklung in der Hand und sage: „Dieses Telefon ist eine Sieben.“ Und es legitimiert gewissermaßen all unsere Berichterstattung und unsere Meinungen anderswo. Wir haben eine bewertende Funktion und verbringen so viel Zeit damit, uns die KI-Produkte anzusehen und zu fragen: „Funktionieren sie?“
Es fühlt sich an, als würde es in vielen Gesprächen über KI heute fehlen. Es gibt endlose Diskussionen darüber, was es bewirken könnte und wie gefährlich es sein könnte. Und dann führt man einen Drilldown durch und fragt sich: „Tut es tatsächlich das, was es heute tun soll?“ In manchen Fällen lautet die Antwort ja. Aber in vielen, vielen Fällen lautet die Antwort nein.
Das scheint mit der Hype-Kultur zusammenzuhängen, die Sie beschreiben, und auch mit dem Gefühl, dass es in Ordnung ist, wenn Sie sagen, dass es etwas bewirken wird, es aber nicht tut und sich jemand schlecht fühlt, denn wir sind schon beim nächsten Ding. Das ist Vergangenheit. Und insbesondere im KI-Bereich ist Sam so gut darin, große Versprechungen zu machen.
Erst diese Woche, ich glaube, am selben Tag, an dem Ihre Geschichte veröffentlicht wurde, veröffentlichte OpenAI ein Richtliniendokument, in dem es hieß, wir müssten den Gesellschaftsvertrag überdenken und von der Regierung Stipendien für die KI-Effizienz erhalten. Dies ist ein großes Versprechen darüber, wie eine Technologie die Zukunft der Welt und unseres Lebens prägen könnte, und all das hängt davon ab, dass die Technologie genau so funktioniert, wie sie vielleicht versprochen wurde oder funktionieren sollte.
Haben Sie Sam jemals daran gezweifelt, dass KI sich in AGI oder Superintelligenz verwandeln oder die Ziellinie erreichen würde? Denn das ist es, worüber ich mich am meisten wundere. Gibt es irgendwelche Überlegungen darüber, ob diese Kerntechnologie all das tun kann, was sie angeblich kann?
Es sind genau die richtigen Fragen. Es gibt glaubwürdige Technologen, mit denen wir in dieser Berichterstattung gesprochen haben – und offensichtlich ist Sam Altman keiner; Er ist ein Geschäftsmann – und sie sagen, dass die Art und Weise, wie Sam über den Zeitplan für diese Technologie spricht, völlig daneben liegt. Es gibt Blogeinträge aus der Zeit vor ein paar Jahren, in denen Sam sagt: „Wir haben bereits den Ereignishorizont erreicht. AGI ist im Grunde da. Die Superintelligenz steht vor der Tür. Wir werden auf anderen Planeten sein. Wir werden alle Formen von Krebs heilen.“ Wirklich, ich beschönige nicht.
Die Krebsfrage ist eigentlich interessant, dass Sam die Person hochjubelt, die theoretisch den Krebs ihres Hundes mit ChatGPT geheilt hat, und das ist einfach nicht passiert. Sie sprachen mit ChatGPT und das half ihnen dabei, einige Forscher anzuleiten, die die Arbeit tatsächlich erledigten, aber die Eins-zu-eins-Erklärung, dass dieses Tool diesen Hund geheilt hat, ist eigentlich nicht die Geschichte.
Ich freue mich, dass Sie diesen Punkt angesprochen haben, denn ich möchte auf den größeren Punkt eingehen, wann sowohl das Potenzial als auch das Risiko der Technologie wirklich zum Tragen kommen. Aber es lohnt sich, diese kleinen Nebenbemerkungen zu erwähnen, die immer wieder bei Sam Altman passieren, wo er diese Eigenschaft immer wieder zu verkörpern scheint.
Ich meine, um das Beispiel des WilmerHale-Berichts zu verwenden, bei dem wir über diese Informationen verfügten, die nicht schriftlich festgehalten wurden, und wir wissen wollten, ob die mündliche Weisung nebenbei jemand anderem als den beiden Vorstandsmitgliedern gegeben wurde, die Sam mit deren Beaufsichtigung eingesetzt hatte. Und er sagte: „Ja, ja, nein, ich glaube, es wurde jedem gegeben, der danach dem Vorstand beigetreten ist.“ Und wir haben eine Person mit direktem Wissen über die Situation, die sagt, dass es einfach eine Lüge sei. Und das scheint tatsächlich so zu sein, dass es unwahr ist. Wenn wir großzügig sein wollen, war er vielleicht falsch informiert.
Es gibt viele dieser beiläufigen Zusicherungen. Und ich verwende dieses Beispiel zum Teil, weil es ein großartiges Beispiel für Verstellung ist, wie wir es nennen wollen, die rechtlich echte Konsequenzen haben kann. Ich muss Ihnen nicht sagen, dass Aktionäre nach dem Gesellschaftsrecht von Delaware bei einem Börsengang dieses Unternehmens gemäß Abschnitt 220 darüber Beschwerde einlegen und die zugrunde liegende Dokumentation verlangen könnten. Es gibt bereits Vorstandsmitglieder, die Dinge sagen wie: „Moment mal, das Briefing hätte stattfinden sollen.“
Diese Dinge, die ihm scheinbar ständig aus dem Mund springen, können also echte marktbewegende Auswirkungen haben, echte Auswirkungen für OpenAI. Um es auf die Art von utopischer Hype-Sprache zurückzubringen, die wieder aufgetaucht ist: Ich denke, es ist kein Zufall, dass es an dem Tag, an dem dieses Stück herauskam, auch Auswirkungen auf uns alle hat, weil die Gefahren angesichts der Art und Weise, wie es ist, so akut sindder Einsatz in Waffen, die Art und Weise, wie es zur Identifizierung chemischer Kampfstoffe verwendet wird, das Desinformationspotenzial und die Art und Weise, in der der utopische Hype viele glaubwürdige Ökonomen zu der Aussage zu veranlassen scheint: „Das weist alle Anzeichen einer Blase auf.“
Sogar Sam Altman hat gesagt: „Jemand wird hier viel Geld verlieren.“ Das könnte das amerikanische und weltweite Wirtschaftswachstum erheblich beeinträchtigen, wenn es zu einem echten Platzen einer Blase kommt, bei der all diese Unternehmen Geschäfte miteinander abschließen, sich voll auf KI konzentrieren und gleichzeitig so hohe Kredite aufnehmen. Es ist also wichtig, was Sam Altman sagt, und ich denke, die Mehrheit der Menschen um ihn herum, Sie haben erwähnt, dass wir mit mehr als hundert gesprochen haben, tatsächlich waren es weit über hundert. An der Ziellinie führten wir ein Gespräch, bei dem wir uns fragten: „Wäre es zu kleinlich zu sagen, dass es sich um eine viel höhere Zahl handelt?“ Und wir sagten: „Ja, spielen wir es herunter. Wir werden es cool angehen.“ Aber es gab so viele Menschen und eine so große Mehrheit von ihnen, die sagten: „Das gibt Anlass zur Sorge.“ Und ich denke, das ist alles der Grund.
Lassen Sie mich Sie nach dieser Nummer fragen. Wie Sie bereits erwähnt haben, sind die Menschen im Laufe der Zeit immer offener für ihre Bedenken geworden. Es fühlt sich an, als hätte der Druck rund um die Blase – der Wettlauf um den Sieg, um die Rückzahlung all dieser Investitionen, um als Gewinner hervorzugehen, bis zum Börsengang – viele Einstellungen verändert. Es hat sicherlich mehr Druck auf Sam und OpenAI ausgeübt.
Wir haben diese Woche eine Geschichte über die Stimmung von OpenAI veröffentlicht. Ihre Geschichte gehört dazu, aber in den Führungsetagen von OpenAI gibt es massive personelle Veränderungen – Menschen kommen und gehen. Die Forscher sind alle auf dem Weg, hauptsächlich zu Anthropic, was ich wirklich interessant finde. Man sieht einfach, dass dieses Unternehmen den Druck spürt und in irgendeiner Weise auf diesen Druck reagiert.
Aber dann denke ich daran zurück, wie Sam gefeuert wurde. Das ist für mich einfach unvergesslich. Es ist für niemanden anderen unvergesslich, aber ich nahm an einem Freitag um 19 Uhr einen Anruf im Bronx Zoo entgegen, und jemand sagte, sie würden versuchen, Sam zurückzubekommen. Und dann haben wir das Wochenende damit verbracht, dieser Geschichte nachzujagen. Und ich dachte nur: „Ich bin im Zoo. Was soll ich hier machen?“ Und die Antwort war: „Bleiben Sie am Telefon.“ Nun, meine Tochter meinte: „Legen Sie den Hörer auf.“ Und das habe ich getan.
Es ging darum, Sam zurückzubekommen. Diese Firma meinte: „Nein, wir lassen nicht zu, dass der Vorstand Sam Altman feuert.“ Die Investoren, die in Ihrem Artikel zitiert werden: „Wir sind in den Krieg gezogen“, ist meiner Meinung nach die Position von Thrive Capital, „um Sam zurückzubekommen.“ Microsoft zog in den Krieg, um Sam zurückzubekommen. Es ist später und jetzt sagen alle: „Wir gehen an die Börse. Wir haben die Ziellinie erreicht. Wir haben unseren Mann zurückbekommen, und er wird uns an die Ziellinie bringen. Wir machen uns Sorgen, dass er ein Lügner ist.“
Warum war es damals ein Krieg, ihn zu bekommen? Weil es nicht so aussieht, als hätte sich tatsächlich etwas geändert. Sie sprechen über die Memos, die Ilya Sutskever und [Anthropic-CEO] Dario Amodei aufbewahrten, als sie Zeitgenossen von Sam Altman waren. Ilyas größte Sorge war, dass Sam ein Lügner ist.
Daran hat sich nichts geändert. Warum also war es damals Krieg, ihn zurückzubringen? Und jetzt, wo wir am Ziel angelangt sind, scheinen alle Bedenken offenkundig zu sein.
Zunächst einmal möchte ich mich bei Ihrer Tochter, meinem Partner und allen anderen Menschen im Umfeld der Journalisten entschuldigen.
[Lacht] Es war für alle ein ziemliches Wochenende.
Ja, es nimmt das Leben eines Menschen in Anspruch, und diese Geschichte hat in der letzten Zeit definitiv mein Leben übernommen. Ich denke, es bezieht sich tatsächlich auf dieses Thema des Journalismus und des Zugangs zu Informationen. Die Investoren, die für Sam in den Krieg zogen, und alle trugen dazu bei, dass er zurückkam, und der Vorstand, der speziell dazu bestimmt war, die Mission einer gemeinnützigen Organisation zu schützen, Sicherheit über Wachstum zu stellen und eine Führungskraft zu entlassen, wenn man ihnen das nicht anvertrauen konnte, sind weggegangen. Das lag alles nur daran, dass die Marktanreize vorhanden waren, oder?
Sam konnte die Leute überzeugen: „Nun, das Unternehmen wird einfach auseinanderfallen.“ Der Grund, warum er Unterstützung erhielt, war jedoch ein Mangel an Informationen. In vielen Fällen sagen diese Anleger jetzt: „Wenn ich zurückblicke, denke ich, dass ich mir mehr Sorgen gemacht hätte, wenn ich genau gewusst hätte, was die Behauptungen waren und was die Bedenken waren.“
Nicht alle;Die Meinungen sind unterschiedlich und wir zitieren eine Reihe von Meinungen, aber es gibt bedeutende Meinungen, die auf sehr unvollständigen Informationen basieren. Das Board, das Sam gefeuert hat, war, in den Worten einer Person, die früher auf dem Board war, „sehr JV“, und sie haben den Ball hart gefummelt. Und wir dokumentieren die zugrunde liegenden Beschwerden, und die Menschen können selbst entscheiden, ob sie sich zu der Art von dringendem Anliegen ausweiten, das sie für richtig hielten, aber dieses Argument und diese Informationen wurden nicht vorgelegt.
Sie erhielten etwas, was einige von ihnen heute als schlechte Rechtsberatung bezeichnen. Um es zu beschreiben, werden Sie sich an das Zitat erinnern, und wahrscheinlich werden sich viele Ihrer Zuhörer und Zuschauer an das Zitat als Mangel an Offenheit erinnern. Darauf wurde es reduziert, und dann nahmen sie praktisch keine Anrufe mehr entgegen.
Sie würden keine Anrufe entgegennehmen. Ich bin sicher, Sie haben es versucht. Jeder, den ich kenne, hat es versucht, und es kam zu dem Punkt, an dem man als Journalist seinen Quellen keinen Rat mehr geben sollte, aber ich meinte: „Das wird verschwinden, wenn du nicht anfängst, dich selbst zu erklären.“
Und genau das ist passiert. Vergessen Sie Journalisten. Satya Nadella sagte: „Was zum Teufel ist passiert? Ich kann niemanden dazu bringen, es mir zu erklären.“ Und das ist der wichtigste Geldgeber des Unternehmens. Und dann ruft Satya [LinkedIn-Mitbegründer] Reid Hoffman an und Reid ruft herum und sagt: „Ich weiß nicht, was zum Teufel passiert ist.“
Sie stecken verständlicherweise in dieser Informationslücke und suchen nach den traditionellen Nicht-KI-Indikatoren, die eine so dringende, plötzliche Entlassung rechtfertigen würden. Okay, waren es Sexualverbrechen? War es Unterschlagung? Und das gesamte subtile, aber meiner Meinung nach bedeutungsvolle Argument, dass diese Technologie anders ist und dass diese Art einer stetigen Anhäufung kleinerer Verrätereien bedeutende Auswirkungen sowohl für dieses Unternehmen als auch vielleicht für die Welt haben könnte, ging weitgehend verloren. Die kapitalistischen Anreize haben sich also durchgesetzt, aber auch die Leute, die es geschaffen haben, sind ausgeschieden und haben nicht immer über vollständige Informationen verfügt.
Ich möchte nur für einen Moment nach dem Aspekt „Was alle dachten“ fragen, denn ich habe die Nachrichten auf jeden Fall gesehen und gesagt: „Oh, es muss etwas Schlimmes passiert sein.“ Sie haben bekanntlich viel über #MeToo berichtet. Sie haben die Harvey-Weinstein-Geschichte aufgedeckt.
Sie haben viel Zeit damit verbracht, über diese Behauptungen zu berichten, die Ihrer Meinung nach letztendlich unbegründet waren: dass Altman Minderjährige sexuell missbraucht oder Sexarbeiterinnen angeheuert oder sogar einen OpenAI-Whistleblower ermordet hat. Ich meine, Sie sind die Person, die diese Dinge am strengsten melden kann. Haben Sie entschieden, dass es zu nichts geführt hat?
Nun ja, es geht mir nicht darum, zu sagen, dass etwas zu nichts geführt hat. Was ich sagen kann, ist, dass ich diese Behauptungen monatelang geprüft habe und keine Bestätigung dafür gefunden habe. Und es fiel mir auf, dass diese Leute, diese Unternehmen, die so viel Macht über unsere Zukunft haben, wirklich unverhältnismäßig viel Zeit und Ressourcen in eine kindische Schlammschlacht stecken.
Eine Führungskraft beschreibt es als „Shakespeareanisch“. Die Summe der Gelder privater Ermittler und der zusammengestellten Oppositionsdossiers ist unerbittlich. Und das Unglückliche ist, dass die Art von anzüglichem Zeug, das von Sams Konkurrenten nachgeplappert wird, nur eine angenommene Tatsache ist, oder? Es gibt den Vorwurf, dass er minderjährigen Jungen hinterherjagt, und das hört man auf vielen Cocktailpartys im Silicon Valley. Auf Konferenzen habe ich es gerade von glaubwürdigen, prominenten Führungskräften wiederholen hören: „Jeder weiß, dass das eine Tatsache ist.“
Das Traurige ist, dass ich darüber spreche, woher das kommt und über die verschiedenen Vektoren, über die es übertragen wird. Elon Musk und seine Mitarbeiter treiben offenbar wirklich knallharte Dossiers voran, die ins Leere laufen. Sie sind vage, wenn man sich tatsächlich mit den zugrunde liegenden Behauptungen befasst. Das Traurige ist, dass dadurch die eher evidenzbasierten Kritiken hier wirklich verdeckt werden, die meiner Meinung nach wirklich dringende Beachtung und Beachtung verdienen.
Das andere Thema, das in der Geschichte wirklich zum Ausdruck kommt, ist fast ein Gefühl der Angst, dass Sam so viele Freunde hat – er hat in so viele Unternehmen investiert, von seiner vorherigen Rolle als CEO von Y Combinator bis hin zu seinen persönlichen Investitionen, von denen einige in direktem Konflikt mit seiner Rolle als CEO von OpenAI stehen – und dass um ihn herum Stille herrscht.
Als ich eine Zeile las, fiel es mir besonders auf. Sie beschreiben die Memos von Ilya Sutskever und sie sind gerade im Silicon Valley erschienen. Allenennt sie die Ilja-Memos. Aber darüber herrscht sogar Stille. Sie werden herumgereicht, aber nicht besprochen. Woher kommt das Ihrer Meinung nach? Ist es Angst? Ist es der Wunsch, Angel-Investitionen zu tätigen? Woher kommt das?
Ehrlich gesagt halte ich das für große Feigheit. Obwohl sie über Geschichten aus dem Bereich der nationalen Sicherheit berichtet haben, bei denen es sich bei den Quellen um Whistleblower handelt, die Gefahr laufen, alles zu verlieren und strafrechtlich verfolgt zu werden, tun sie dennoch das Richtige und reden über Dinge, um Rechenschaftspflicht zu schaffen. Ich habe an den von Ihnen erwähnten Geschichten im Zusammenhang mit Sexualverbrechen gearbeitet, bei denen die Quellen zutiefst traumatisiert sind und eine sehr persönliche Art von Vergeltung fürchten.
In vielen Fällen hat man es in diesem Umfeld mit Menschen mit eigenem Profil und eigener Macht zu tun. Entweder sind sie selbst berühmte Menschen oder sie sind von berühmten Menschen umgeben. Sie haben ein robustes Geschäftsleben. Meiner Meinung nach ist es für sie eigentlich sehr gering, über dieses Thema zu reden. Und zum Glück bewegt sich die Nadel so, wie wir es vorhin besprochen haben, und die Leute reden jetzt mehr.
Aber so lange haben die Leute einfach den Mund gehalten, weil ich denke, dass die Kultur des Silicon Valley einfach so rücksichtslos eigennützig und rücksichtslos geschäfts- und wachstumsorientiert ist. Ich denke, das trifft sogar einige der Leute, die an der Entlassung von Sam beteiligt waren. In den Tagen danach sah man, dass ein Faktor, der zu seiner Rückkehr und der Entlassung alter Vorstandsmitglieder führte, darin bestand, dass er Investoren um sich scharte, die von seiner Sache überzeugt waren.
Aber ein weiterer Grund ist, dass so viele andere Leute in der Umgebung, die ihre Bedenken hatten und sie dringend zum Ausdruck brachten, sich wie Servietten zusammenfalteten und ihre Meinung änderten, sobald sie sahen, dass der Wind in die andere Richtung wehte, und sie in den Gewinnzug einsteigen wollten.
Ehrlich gesagt ist es aus meiner Sicht als Reporter ziemlich düster.
Einige dieser Leute sind Mira Murati, die, glaube ich, 20 Minuten lang die neue CEO von OpenAI war. Sie wurde dann ersetzt. Es war eine sehr komplizierte Dynamik, und offensichtlich kam Sam zurück. Die andere Person ist Ilya Sutskever, der einer der Wähler war, die dafür gestimmt haben, Sam zu entfernen, und dann hat er seine Meinung geändert oder zumindest gesagt, dass er seine Meinung geändert hat, und dann ist er gegangen, um seine eigene Firma zu gründen. Wissen Sie, warum er seine Meinung geändert hat? War es nur Geld?
Nun, und um es klarzustellen: Ich möchte diese beiden nicht hervorheben. Es gibt andere Vorstandsmitglieder, die an der Entlassung beteiligt waren und danach ebenfalls sehr still waren. Ich denke, es ist wie ein umfassenderes kollektives Problem. In manchen Fällen handelt es sich dabei um Menschen, die den moralischen Mut hatten, Alarm zu schlagen und radikale Maßnahmen zu ergreifen, und das ist lobenswert. Und so stellen Sie die Verantwortlichkeit sicher. Das hätte vielen Menschen helfen können, die von dieser Technologie betroffen sind. Es hätte einer Branche helfen können, sich stärker auf die Sicherheit zu konzentrieren.
Aber wenn man es oft mit Whistleblowern und Leuten zu tun hat, die versuchen, diese zur Rechenschaft zu ziehen, merkt man auch, dass es den Mut erfordert, durchzuhalten und zu seinen Überzeugungen zu stehen. Und diese Branche ist wirklich voll von Menschen, die einfach nicht zu ihren Überzeugungen stehen.
Auch wenn sie denken, dass sie einen digitalen Gott erschaffen, der entweder alle Arbeit eliminiert oder mehr Arbeit schafft, oder es wird etwas passieren.
Nun, das ist die Sache. Die Kultur, nicht zu seinen Überzeugungen zu stehen und alle ethischen Bedenken auf der Strecke zu lassen, sobald es zu Spannungen kommt oder irgendetwas, das das eigene Ansehen im Geschäft gefährden könnte, ist für Unternehmen, die wie gewohnt weitermachen und irgendwelche Widgets herstellen, vielleicht bis zu einem gewissen Grad schön und gut.
Aber das sind auch die gleichen Leute, die sagen: „Das könnte uns alle buchstäblich umbringen.“ Und auch hier müssen Sie nicht zum Extrem von Terminator Skynet gehen. Es gibt eine Reihe von Risiken, die sich bereits konkretisieren. Es ist real, und sie haben recht, wenn sie davor warnen, aber Sie müssten jemand anderen psychologisieren lassen, wie diese beiden Dinge bei denselben Menschen leben können, bei denen sie die dringenden Warnungen aussprechen, sie vielleicht einen Fuß hineinstecken und versuchen, etwas zu tun, und dann einfach zusammenbrechen und verstummen.
Genau aus diesem Grund kann es vorkommen, dass Dinge nicht schriftlich niedergelegt werden und unter den Teppich gekehrt werden, ohne dass noch Jahre später jemand so offen darüber spricht.
Die natürliche, verantwortliche Partei wären hier nicht die CEOs dieser Unternehmen; es wären Regierungen. In den Vereinigten Staaten vielleichtEs sind die Landesregierungen, vielleicht ist es die Bundesregierung.
Sicherlich wollen diese Unternehmen alle global sein. Hier gibt es viele globale Auswirkungen. Ich habe beobachtet, wie OpenAI, Google und Anthropic die Biden-Administration dazu drängten, eine KI-Durchführungsverordnung zu erlassen. Am Ende war es ziemlich zahnlos. Es hieß lediglich, sie müssten darüber sprechen, wozu ihre Modelle fähig seien, und einige Sicherheitstests veröffentlichen. Und dann unterstützten sie alle Trump, und Trump kam herein, wischte das alles zunichte und sagte: „Wir müssen wettbewerbsfähig sein. Es ist ein Kampf gegen alle. Machen Sie mit.“
Gleichzeitig versuchen sie alle, Gelder aus Ländern des Nahen Ostens zu sammeln, die über viel Ölgeld verfügen und ihre Wirtschaft verändern wollen. Das sind Politiker. Ich bin der Meinung, dass Politiker auf jeden Fall verstehen sollten, dass jemand aus beiden Seiten spricht, und sie werden sich nicht zu sehr aufregen, wenn jemand am Ende enttäuscht ist, aber auch die Politiker lassen sich auf die Schippe nehmen. Warum glauben Sie, dass das so ist?
Das ist meiner Meinung nach der Grund, warum das Stück meiner Meinung nach wichtig ist und warum es sich gelohnt hat, so viel Zeit und Details darauf zu verwenden. Wir befinden uns in einem Umfeld, in dem die Systeme, die, wie Sie sagen, für die Aufsicht sorgen sollten, einfach ausgehöhlt sind. Das ist ein Post-Bürger-Vereinigtes Amerika, in dem der Geldfluss so ungehindert ist, und es ist eine besondere Konzentration dieses Problems rund um die KI, wo es diese PACs gibt, die sich vermehren und Geld überschwemmen, um sinnvolle Regulierungen sowohl auf Landes- als auch auf Bundesebene aufzuheben.
Sie haben [OpenAI-Mitbegründer] Greg Brockman, Sams Stellvertreter, der zu einigen davon direkt einen wichtigen Beitrag leistet. Dies führt zu einer Situation, in der Gesetzgeber und potenzielle Regulierungsbehörden tatsächlich gefangen genommen werden, und es ist schwierig, aus dieser Spirale herauszukommen. Das Traurige ist, dass es meiner Meinung nach einfache politische Maßnahmen gibt, von denen einige anderswo auf der Welt erprobt werden, die bei einigen dieser Rechenschaftsprobleme helfen würden.
Man könnte verpflichtendere Sicherheitstests vor dem Einsatz einführen, was in Europa bei Grenzmodellen bereits der Fall ist. Sie könnten strengere Anforderungen an die schriftliche öffentliche Aufzeichnung für die Art interner Untersuchungen haben, bei denen wir in diesem Fall gesehen haben, dass Dinge nicht schriftlich festgehalten werden. Sie könnten über einen robusteren Satz nationaler Sicherheitsüberprüfungsmechanismen für die Art von Infrastrukturambitionen im Nahen Osten verfügen, die Sam Altman vorangetrieben hat.
Wie Sie sagen, hat er mit der Biden-Administration diesen Köder gemacht und gesagt: „Regulieren Sie uns, regulieren Sie uns“, und hat ihnen dabei geholfen, eine Durchführungsverordnung auszuarbeiten, und dann, als Trump hereinkam, wirklich in den allerersten Tagen, machte er einfach keine Kompromisse: „Lasst uns Gas geben und einen riesigen Rechenzentrumscampus in Abu Dhabi bauen.“ Das hätte man tun können, das ist eine ganz einfache Sache, wie zum Beispiel der Whistleblower-Schutz. Es gibt kein Bundesgesetz, das Mitarbeiter von KI-Unternehmen schützt, die solche Sicherheitsbedenken offenlegen, die in diesem Artikel geäußert werden.
Wir haben Fälle, in denen Jan Leike, ein leitender Sicherheitsmann bei OpenAI, die Super-Ausrichtung im Unternehmen leitete. Er schreibt an den Vorstand, im Wesentlichen Whistleblower-Material, und sagt, das Unternehmen sei bei seiner Sicherheitsmission aus dem Ruder gelaufen. Das sind die Leute, die eigentlich eine Aufsichtsbehörde haben sollten, an die sie sich wenden können, und sie sollten über explizite gesetzliche Schutzmaßnahmen verfügen, wie wir sie in anderen Sektoren sehen. Damit lässt sich ein Regime im Sarbanes-Oxley-Stil einfach nachbilden.
Ich denke, dass ich, obwohl das Problem, dass das Silicon Valley die Kontrolle über alle Hebel der Macht übernimmt, so akut ist und obwohl einige dieser Institutionen, die Aufsicht und Leitplanken bieten könnten, ausgehöhlt sind, immer noch an die grundlegende Mathematik der Demokratie und eigennütziger Politiker glaube. Und immer mehr Umfrageergebnisse belegen, dass eine Mehrheit der Amerikaner der Meinung ist, dass die Bedenken, Fragen oder Risiken der KI derzeit die Vorteile überwiegen.
Daher denke ich, dass die Geldflut, die durch die KI in die Politik gelangt, in unserer Macht steht, sie zu einem Grund für ein Fragezeichen in Bezug auf Politiker zu machen. Wenn Amerikaner wählen gehen, sollten sie prüfen, ob die Menschen, die sie wählen, insbesondere wenn sie angesichts all dieser Bedenken unkritisch und gegen die Regulierung sind, von Sonderinteressen großer Technologiekonzerne finanziert werden. Ich denke also, wenn die Leute solche Artikel lesen, sich Podcasts wie diesen anhören können und sich genug Mühe geben, kritisch darüber nachzudenkenWenn sie als Wähler ihre Entscheidungen treffen, besteht eine echte Chance, in Washington eine Wählerschaft von Vertretern zu schaffen, die ein Auge auf die Kontrolle haben und diese erzwingen.
Das ist vielleicht eines der optimistischsten Dinge, die ich je über die aktuelle KI-Branche gehört habe. Ich schätze es. Ich bin besessen von den Umfragen, von denen Sie sprechen. Mittlerweile gibt es viel davon. Das ist alles ziemlich konsistent und es sieht so aus, als ob vor allem junge Menschen umso misstrauischer und wütender gegenüber KI sind, je mehr sie damit in Berührung kommen. Das ist die Wertigkeit aller Umfragen. Und wenn ich mir das ansehe, denke ich, nun ja, kluge Politiker würden einfach dagegen antreten. Sie würden einfach sagen: „Wir werden die großen Technologiekonzerne zur Rechenschaft ziehen.“
Dann denke ich an die letzten 20 Jahre, als ein Politiker sagte, dass er große Technologiekonzerne zur Rechenschaft ziehen wird, und es fällt mir schwer, auch nur einen einzigen Moment zu finden, in dem große Technologiekonzerne zur Rechenschaft gezogen werden. Das Einzige, was mich denken lässt, dass das anders sein könnte, ist, dass man tatsächlich die Rechenzentren bauen muss, und man kann dagegen stimmen, man kann dagegen eine Petition einreichen und man kann dagegen protestieren.
Ich glaube, es gibt einen Politiker, auf den gerade sein Haus geschossen wurde, weil er für ein Rechenzentrum gestimmt hat. Die Spannung erreicht, ich würde es sagen, einen Höhepunkt. Sie haben die Insellage des Silicon Valley beschrieben. Dies ist ein geschlossenes Ökosystem. Es fühlt sich an, als ob sie glauben, sie könnten die Welt regieren. Sie stecken eine Menge Geld in die Politik und stoßen auf die Realität, dass die Leute die Produkte nicht lieben, was ihnen nicht viel Deckung verschafft. Je häufiger sie die Produkte verwenden, desto verärgerter sind sie, und die Politiker beginnen zu erkennen, dass es echte Konsequenzen hat, die Technologieindustrie gegenüber den Menschen, die sie vertreten, zu unterstützen.
Du hast mit so vielen Menschen gesprochen. Halten Sie es für möglich, dass die Technologiebranche die Lektion, die vor ihr liegt, lernt?
Sie sagen, es fühlt sich so an, als ob sie glauben, sie könnten die Welt ohne Verantwortung regieren. Ich glaube nicht einmal, dass dafür das „fühlt sich an“-Qualifikationsmerkmal nötig ist. Ich meine, schauen Sie sich die Sprache an, die Peter Thiel verwendet, sie ist explizit. Das ist natürlich ein extremes Beispiel. Und Sam Altman ist, obwohl er Thiels Ideologie bis zu einem gewissen Grad nahesteht und von ihr geprägt ist, eine ganz andere Art von Person, die vielleicht bis zu einem gewissen Punkt anders und maßvoller klingt.
Aber ich glaube schon, dass die umfassendere Ideologie, die man von Thiel vermittelt, im Wesentlichen lautet: Wir sind mit der Demokratie fertig, wir brauchen sie nicht mehr. Wir haben so viel, dass wir einfach unsere eigenen kleinen Bunker bauen wollen. Wir haben es nicht mehr mit den Carnegies oder den Rockefellers zu tun, wo sie die Bösewichte sind, aber sie haben das Gefühl, dass sie sich an einem Gesellschaftsvertrag beteiligen und Dinge für die Menschen bauen müssen. Es ist ein echter Nihilismus im Gange.
Und ich glaube, dass es sich in der jüngeren amerikanischen Geschichte einfach um eine sich gegenseitig verstärkende Spirale handelt, in der Mogule und Privatunternehmen die Macht der Superregierung erlangen, während demokratische Institutionen, die sie zur Rechenschaft ziehen könnten, ausgehöhlt werden. Ich bin nicht optimistisch, was die Vorstellung angeht, dass diese Leute eines Tages einfach aufwachen und denken: „Hm, vielleicht müssen wir uns tatsächlich an der Gesellschaft beteiligen und dabei helfen, Dinge für die Menschen aufzubauen.“
Ich meine, Sie sehen aus wie das mikrokosmische Beispiel von The Giving Pledge, wo es einen Moment gab, in dem es wohltätig zu sein schien, und dieser Moment nun vorbei ist und sogar lächerlich gemacht wird. Das ist ein Problem, das umfassendere Problem mangelnder Rechenschaftspflicht, das meiner Meinung nach nur extrinsisch gelöst werden kann. Das müssen Wähler sein, die die Macht der staatlichen Kontrolle mobilisieren und wiederbeleben. Und Sie haben völlig Recht, wenn Sie sagen, dass der Hauptvektor, über den Menschen dies erreichen könnten, lokal ist. Es hängt davon ab, wo die Infrastruktur aufgebaut wird.
Sie haben einige der brandheißen Spannungen erwähnt, die zu Gewalt und Drohungen führen, und natürlich sollte niemand gewalttätig oder bedrohlich sein. Und ich bin auch nicht hier, um spezifische politische Empfehlungen abzugeben, sondern nur um einige der politischen Schritte vorzustellen, die grundlegend erscheinen und anderswo auf der Welt funktionieren, oder? Oder diejenigen, die in anderen Branchen gearbeitet haben. Ich bin nicht hier, um zu sagen, welche davon wie ausgeführt werden sollen.
Ich denke schon, dass etwas passieren muss, und zwar extern, und nicht nur durch Vertrauen in diese Unternehmen. Denn richtigJetzt haben wir eine Situation, in der die Unternehmen, die die Technologie entwickeln und am besten in der Lage sind, die Risiken zu verstehen, und die uns tatsächlich vor den Risiken warnen, auch nur einen Anreiz haben, schnell zu handeln und diese Risiken zu ignorieren. Und Sie haben einfach nichts, um das auszugleichen. Was auch immer die Reformen im Einzelnen sein mögen, dem muss etwas entgegenwirken. Und ich bin immer noch optimistisch, dass die Menschen immer noch wichtig sind.
Im Allgemeinen kaufe ich Ihre Argumentation ab. Lassen Sie mich nur das eine kleine Gegenargument vorbringen, das ich meiner Meinung nach artikulieren kann. Das andere, was außerhalb der Wahlurne passieren könnte, ist, dass die Blase platzt, oder? Dass nicht alle diese Unternehmen die Ziellinie erreichen und dass es keine markttauglichen Produkte für Verbraucher-KI-Anwendungen gibt. Und noch einmal: Ich verstehe es noch nicht ganz, aber ich bin ein Verbraucher-Tech-Rezensent und habe vielleicht einfach höhere Ansprüche als alle anderen.
In der Geschäftswelt gibt es eine Produktmarktanpassung, oder? Es scheint ein echter Markt für diese Tools zu sein, wenn eine Reihe von KI-Agenten eine Reihe von Software schreiben. Und Sie können die Argumente dieser Unternehmen lesen, die sagen: „Wir haben die Codierung gelöst, und das bedeutet, dass wir alles lösen können. Wenn wir Software erstellen können, können wir alle Probleme lösen.“
Ich denke, dass den Möglichkeiten von Software echte Grenzen gesetzt sind. Das ist großartig in der Geschäftswelt. Software kann in der Realität nicht jedes Problem lösen, aber sie muss dort ankommen. Sie müssen den Job zu Ende bringen, und vielleicht schafft es nicht jeder bis zur Ziellinie. Und es gibt einen Absturz, und diese Blase platzt, und vielleicht scheitert OpenAI oder Anthropic oder xAI, eines dieser Unternehmen, und all diese Investitionen sind weg.
Glauben Sie, dass sich das darauf auswirken würde? Lassen Sie mich zunächst die erste Frage stellen. OpenAI steht kurz vor einem Börsengang. Es gibt viele Zweifel an Sam als Anführer. Glaubst du, dass sie es bis zur Ziellinie schaffen werden?
Ich werde keine Prognosen abgeben, aber ich denke, Sie sprechen einen wichtigen Punkt an, nämlich dass Marktanreize intern für das Silicon Valley von Bedeutung sind und dass die Unsicherheit der aktuellen Blasendynamik den – laut Kritikern – möglicherweise erneuten Wettlauf nach unten in Sachen Sicherheit unterbrechen könnte.
Ich möchte noch hinzufügen, dass es, wenn man sich die historischen Präzedenzfälle anschaut, bei denen es ähnlich und scheinbar undurchdringliche Marktanreize und potenziell schädliche Auswirkungen für die Öffentlichkeit gibt, Rechtsstreitigkeiten über Auswirkungen gibt. Und Sie sehen das in letzter Zeit als einen Bereich an, der Anlass zur Sorge gibt. Sam Altman ist diese Woche da draußen und befürwortet Gesetze, die KI-Unternehmen vor einigen Arten von Haftung schützen würden, denen OpenAI beispielsweise in Klagen wegen unrechtmäßiger Tötung ausgesetzt war. Natürlich besteht der Wunsch, diesen Schutz vor Haftung zu haben.
Ich denke, dass die Gerichte immer noch ein sinnvoller Mechanismus sein können, und es wird wirklich interessant sein zu sehen, wie sich diese Klagen entwickeln. Sie haben zum Beispiel bereits die Sammelklage gegen Anthropic gesehen, der ich und viele, viele andere mir bekannte Autoren angehören, wegen der Nutzung von Büchern, die dem Urheberrecht unterliegen. Wenn es kluge juristische Köpfe und Kläger gibt, die sich darum kümmern, wie wir es in der Vergangenheit in Fällen von großen Tabakkonzernen bis hin zu großen Energiekonzernen gesehen haben, können Sie auch einige Leitplanken und Anreize erhalten, um langsamer zu werden, vorsichtig zu sein oder Menschen auf diese Weise zu schützen.
Es scheint, als ob die gesamte Kostenstruktur der KI-Branche von einer sehr, sehr wohltätigen Interpretation der fairen Nutzung abhängt. Kommt nicht genug vor. Die Kostenstruktur dieser Unternehmen könnte außer Kontrolle geraten, wenn sie Sie und alle anderen, deren Arbeit sie übernommen haben, bezahlen müssen, aber es ist unbequem, darüber nachzudenken, also denken wir einfach nicht darüber nach. Daneben laufen alle diese Produkte inzwischen mit Verlust. Wie heute sind sie alle ratlos. Sie verbrennen mehr Geld, als sie verdienen können. Irgendwann müssen sie den Schalter umlegen.
Sam ist Geschäftsmann. Wie Sie bereits mehrfach erwähnt haben, ist er kein Techniker. Er ist ein Geschäftsmann. Glauben Sie, dass er bereit ist, den Schalter umzulegen und zu sagen: „Wir werden einen Dollar verdienen?“ Denn wenn ich frage: „Glauben Sie, dass OpenAI es schaffen wird?“ Dann müssen sie einen Dollar verdienen. Und bis jetzt hat Sam sein gesamtes Geld dadurch verdient, dass er andere Leute um ihr Geld gebeten hat, anstatt seine Unternehmen Geld verdienen zu lassen.
Nun, das ist eine große Frage für das Silicon Valley, für Investoren und für die Öffentlichkeit.Sie sehen einige Aussagen und Schritte aus OpenAI, die eine Art Panik darüber auszudrücken scheinen. Sora schließen, einige Nebenprojekte schließen und versuchen, sich auf das Kernprodukt zu konzentrieren. Andererseits sieht man aber gleichzeitig immer noch jede Menge Mission Creep, oder? Selbst ein kleines Beispiel – es gehört offensichtlich nicht zum Kerngeschäft des Unternehmens – ist die TBPN-Übernahme.
Übrigens, gerade als wir die Ziellinie erreichten und die Fakten überprüften, erhält das Unternehmen, das sich einer solchen journalistischen Prüfung gegenübersieht, eine Plattform, auf der es eine direktere Kontrolle über das Gespräch haben kann. Ich denke, dass es viele Investoren gibt, die aufgrund der Gespräche, die ich geführt habe, besorgt sind, dass dieses Problem, allen Menschen alles zu versprechen, auch zu dieser mangelnden Fokussierung im Kerngeschäftsmodell führt. Und ich meine, Sie sind der Art, Prognosen zu stellen und den Markt zu beobachten, wahrscheinlich näher als ich. Ich überlasse es Ihnen und den Zuhörern, zu beurteilen, ob sie glauben, dass OpenAI den Schalter umlegen kann.
Nun, ich habe die Frage gestellt, weil Sie in dem Artikel ein Zitat eines leitenden Microsoft-Managers finden, und zwar: „Sams Vermächtnis ähnelt am Ende eher Bernie Madoff oder Sam Bankman-Fried“ als Steve Jobs. Das ist schon ein Vergleich. Was halten Sie von diesem Vergleich?
Ich denke, das ist eine Paraphrase. Der Teil von Steve Jobs war nicht Teil des Zitats. Aber es liegt eine interessante Art von Nüchternheit darin, weil es so formuliert ist: „Ich denke, es besteht eine kleine, aber reale Chance, dass er am Ende ein SBF oder ein Betrüger auf Madoff-Niveau wird.“ Meiner Meinung nach bedeutet das nicht, dass Sam wegen dieser spezifischen Arten von Betrug oder Verbrechen angeklagt wird, sondern dass das Ausmaß der Heuchelei und Täuschung seitens Sam möglicherweise eine Chance hat, letztendlich in diesem Ausmaß in Erinnerung zu bleiben.
Ja, ich denke, das Auffälligste an diesem Zitat ist ehrlich gesagt, dass man bei Microsoft anruft und nicht die Antwort bekommt: „Das ist verrückt. Das haben wir noch nie gehört.“ Man hört oft: „Ja, das denken viele Leute hier“, was bemerkenswert ist. Und ich denke, es geht um diese grundlegenden Geschäftsfragen.
Ein Investor erzählte mir zum Beispiel angesichts der Art und Weise, wie diese Eigenschaft in den Jahren nach der Entlassung erhalten geblieben ist“ – und er hielt dies auch für einen interessanten, nüchternen Gedanken –, dass es nicht unbedingt so sei, dass Sam ganz unten auf der Liste stehen sollte, sondern dass er der unterste der unteren sein sollte, was die Leute betrifft, die diese Technologie auf keinen Fall bauen dürfen, was sie wert ist. Es gibt mehrere Leute, die gesagt haben, dass Elon Musk diese Person ist. Aber dass diese Eigenschaft ihn vielleicht ganz unten auf die Liste der Leute bringt Wer sollte AGI aufbauen, und unter mehreren anderen führenden Persönlichkeiten auf diesem Gebiet.
Ich fand das also eine interessante Einschätzung, und ich denke, das ist die Art von Denkweise, die man von echten Pragmatikern bekommt, die sich vielleicht nicht so sehr mit den Sicherheitsbedenken auseinandersetzen. Sie sind einfach wachstumsorientiert und glauben, dass OpenAI jetzt ein Problem mit Sam Altman hat.
Der Artikel von Microsoft ist wirklich interessant. Diese Firma dachte, sie sei an der Weltspitze. Dass sie diese Investition getätigt hatten und alle, insbesondere und am wichtigsten, Google überholen und wieder in die Gunst der Verbraucher gelangen würden. Das Ausmaß, in dem sie sich von diesem Abenteuer verbrannt fühlen – dies ist ein sehr nüchtern geführtes Unternehmen – kann meiner Meinung nach nicht genug betont werden.
Sie haben die Charaktere und Persönlichkeitsmerkmale erwähnt. Ich möchte hier mit einer Frage unserer Zuhörer schließen. Ich sagte in unserer anderen Sendung, The Vergecast, dass ich mit Ihnen sprechen würde, und sagte: „Wenn Sie Fragen an Ronan zu dieser Geschichte haben, lassen Sie es mich wissen.“ Wir haben hier also eines, das meiner Meinung nach gut mit dem übereinstimmt, was Sie beschreiben. Ich lese es dir einfach vor:
„Inwiefern unterscheiden sich die Rechtfertigungen für schlechtes Benehmen und mörderisches Vorgehen von Altman und anderen KI-Führern von den Rechtfertigungen, die Ronan von anderen hochkarätigen Führungskräften in Politik und Medien gehört hat? Rechtfertigen sie nicht alle ihr Handeln damit, dass sich die Welt dadurch verändert? Wenn ich das nicht tue, wird es jemand anderes tun?“
Ja, davon gibt es eine Menge. Ich würde sagen, das Besondere an KI ist, dass die existenziellen Risiken so hoch sind, dass beide Risikoaussagen extrem sind, oder? Sie haben Sam Altmansagen: „Das könnte für uns alle das Licht der Welt auslöschen.“ Und außerdem, so könnten Kritiker sagen, ist die Manie, auf die sich der Fragesteller bezieht, extrem, oder?
Was Sam Elon offiziell vorwarf, war, dass er vielleicht die Menschheit retten will, aber nur, wenn er es ist. Die Art von Ego-Komponente, gewinnen zu wollen, die Sam immer wieder verwendet und die in die Geschichtsbücher eingehen wird, könnte alles verändern. Selbst über die Denkweise der meisten Silicon-Valley-Unternehmen hinaus, „man muss ein paar Eier zerschlagen“, gibt es meiner Meinung nach in den Köpfen einiger KI-Verantwortlicher eine vollständige Rationalisierung für alle Folgen.
Und vergessen Sie das Zerschlagen von Eiern. Ich denke, viele der zugrunde liegenden Sicherheitsforscher würden sagen, dass das Risiko besteht, das Land, die Welt und Millionen von Menschen zu ruinieren, deren Arbeitsplätze und Sicherheit auf dem Spiel stehen – das ist das Einzigartige daran. Damit komme ich zum Schluss, wenn ich über diese Berichterstattung nachdenke und wirklich davon überzeugt bin, dass es hier um mehr als nur Sam Altman geht. Hier geht es um eine Industrie, die keinen Zwängen unterliegt, und um das sich verschärfende Problem, dass Amerika nicht in der Lage ist, diese Zwänge einzudämmen.
Ja. Nun, da waren wir etwas optimistisch, aber ich denke, das ist ein guter Punkt, um damit Schluss zu machen.
[Lacht] Schluss mit einem Downbeat.
Natürlich. Das ist wirklich jede tolle Geschichte. Der Musk-Altman-Prozess steht bevor. Ich denke, wir werden hier noch viel mehr lernen. Ich vermute, dass ich noch einmal mit Ihnen reden möchte. Ronan Farrow, vielen Dank, dass Sie bei Decoder dabei sind.
Danke schön.
Fragen oder Kommentare zu dieser Episode? Kontaktieren Sie uns unter [email protected]. Wir lesen wirklich jede E-Mail!