Hoje no Decoder, estou conversando com Ronan Farrow, uma das maiores estrelas do jornalismo investigativo atualmente. Ele divulgou a história de Harvey Weinstein, entre muitas, muitas outras. E na semana passada, ele e o coautor Andrew Marantz publicaram um artigo incrível e aprofundado no The New Yorker sobre o CEO da OpenAI, Sam Altman, sua confiabilidade e a ascensão da própria OpenAI.
Uma observação antes de prosseguirmos aqui: a The New Yorker publicou essa história e Ronan e eu tivemos essa conversa antes de sabermos toda a extensão dos ataques à casa de Altman, então você não nos ouvirá falar sobre isso diretamente. Mas, só para dizer, penso que qualquer tipo de violência é inaceitável, que estes ataques a Sam foram inaceitáveis e que o tipo de desamparo que as pessoas sentem, que leva a este tipo de violência, é em si inaceitável e merece muito mais escrutínio por parte da indústria e dos nossos líderes políticos. Espero que esteja claro.
Assinantes do Verge, não se esqueçam de que vocês têm acesso exclusivo ao Decoder sem anúncios, onde quer que você obtenha seus podcasts. Vá aqui. Não é assinante? Você pode se inscrever aqui.
Dito isso, há muita coisa girando em torno de Altman que é um jogo justo para reportagens rigorosas – o tipo de reportagem que Ronan e Andrew se propuseram a fazer. Graças à popularidade do ChatGPT, Altman emergiu como a figura de proa mais visível da indústria de IA, tendo transformado um laboratório de pesquisa antes sem fins lucrativos em uma empresa privada de quase um trilhão de dólares em apenas alguns anos. Mas o mito de Altman é profundamente conflituoso, definido igualmente pela sua óbvia capacidade de negociar e pela sua alegada tendência para... bem, mentir a todos à sua volta.
A história tem mais de 17.000 palavras e contém, sem dúvida, o relato definitivo do que aconteceu em 2023, quando o conselho de administração da OpenAI demitiu repentinamente Altman por sua suposta mentira, apenas para ele ser recontratado quase instantaneamente. É também um mergulho profundo na vida pessoal de Altman, nos seus investimentos, na sua corte ao dinheiro do Médio Oriente e nas suas próprias reflexões sobre o seu comportamento passado e traços de carácter que levaram uma fonte a dizer que ele estava “irrestringido pela verdade”. Eu realmente sugiro que você leia a história inteira; Suspeito que será referenciado por muitos anos.
Ronan conversou com Altman muitas vezes durante os 18 meses que passou reportando este artigo e, portanto, uma das principais coisas que me deixou curioso foi se ele sentiu alguma mudança em Altman ao longo desse tempo. Afinal, muita coisa aconteceu na IA, na tecnologia e no mundo no último ano e meio.
Você ouvirá Ronan falar sobre isso diretamente, bem como sua sensação de que as pessoas estão muito mais dispostas a falar sobre a capacidade de Altman de esticar a verdade. As pessoas começam a questionar-se, em voz alta e publicamente, se o comportamento de pessoas como Altman é preocupante, não apenas para a IA ou a tecnologia, mas também para o futuro colectivo da sociedade.
Ok: Ronan Farrow sobre Sam Altman, IA e a verdade. Aqui vamos nós.
Esta entrevista foi levemente editada para maior extensão e clareza.
Ronan Farrow, você é um repórter investigativo e colaborador da The New Yorker. Bem-vindo ao Decodificador.
Estou feliz por estar aqui. Obrigado por me receber.
Estou muito animado para falar com você. Você acabou de escrever um grande artigo para a The New Yorker. É um perfil de Sam Altman e, mais ou menos, do OpenAI. Minha leitura é que, como fazem todos os grandes recursos, com relatórios rigorosos, valida muitos sentimentos que as pessoas têm sobre Sam Altman há muito tempo. Você obviamente publicou, obteve reações a ele. Como você está se sentindo sobre isso agora?
Bem, na verdade, fiquei encorajado com a medida em que isso foi rompido em uma época em que a economia da atenção é tão esquizofrênica e superficial. Esta é uma história que, a meu ver, afeta a todos nós. E quando passei um ano e meio da minha vida, e meu coautor, Andrew Marantz, também passou esse tempo tentando realmente fazer algo forense e meticuloso, é sempre porque sinto que há questões estruturais maiores que afetam as pessoas além do indivíduo e da empresa no centro da história.
Sam Altman, tendo como pano de fundo a cultura exagerada do Vale do Silício e as startups que atingem avaliações massivas com base em promessas que podem ou não acontecer no futuro, e uma adoção crescente de uma cultura fundadora que pensa que contar a diferentes grupos diferentes coisas conflitantes é uma característica, não umbug…Mesmo nesse contexto, Sam Altman é um caso extraordinário em que todos no Vale do Silício que esperam essas coisas não param de falar sobre a questão de sua confiabilidade e honestidade.
Já sabíamos que ele foi demitido por causa de alguma versão de alegações de desonestidade ou supostas mentiras em série. Mas, extraordinariamente, apesar de terem havido reportagens maravilhosas, Keach Hagey fez um excelente trabalho sobre isto. Karen Hao fez um ótimo trabalho nisso. Realmente não houve uma compreensão definitiva dos supostos pontos de prova e das razões pelas quais eles permaneceram fora dos olhos do público.
Portanto, o ponto número um é que me sinto encorajado pelo facto de algumas dessas lacunas no nosso conhecimento público, e mesmo no conhecimento dos membros do Vale do Silício, terem sido agora um pouco mais preenchidas. Algumas das razões pelas quais existiam lacunas foram preenchidas um pouco mais.
Relatamos casos em que as pessoas dentro desta empresa realmente sentiram que as coisas estavam encobertas ou deliberadamente não documentadas. Uma das novidades nesta história é uma investigação crucial de um escritório de advocacia realizada pela WilmerHale, que é obviamente um grande escritório de advocacia sofisticado e confiável que fez investigações sobre a Enron e a WorldCom, que, aliás, eram todas volumosas, como centenas de páginas publicadas. WilmerHale fez a investigação exigida pelos membros do conselho que demitiram Altman como condição para sua saída quando ele se livrou deles, e ele voltou. E extraordinariamente – aos olhos de muitos especialistas jurídicos com quem conversei e, surpreendentemente, aos olhos de muitas pessoas nesta empresa – eles mantiveram o documento fora do papel. Tudo o que surgiu disso foi um comunicado de imprensa de 800 palavras da OpenAI que descreveu o que aconteceu como uma quebra de confiança. E confirmamos que isso foi mantido em briefings orais.
Há casos em que, por exemplo, um membro do conselho aparentemente quer votar contra a conversão da forma original sem fins lucrativos da OpenAI para uma entidade com fins lucrativos, e isso é registado como uma abstenção. É como se um advogado na reunião dissesse: “Bem, isso pode gerar muito escrutínio”. E quem quiser votar contra fica registado como abstenção, ao que tudo indica. Há uma disputa factual. A OpenAI afirma o contrário, como você pode imaginar. Todos estes são casos em que temos uma empresa que, por sua própria conta, tem o nosso futuro nas mãos.
Os riscos de segurança são tão graves que não desapareceram. Esta é a razão pela qual esta empresa foi fundada como uma organização sem fins lucrativos focada na segurança, e onde as coisas estavam sendo obscurecidas de uma forma que pessoas confiáveis em torno disso acharam isso menos que profissional. E juntamos isso a um cenário onde há tão pouco apetite político por uma regulamentação significativa. Acho que é uma situação muito combustível.
A questão para mim não é apenas que Sam Altman merece tão profundamente essas questões. É também que qualquer um destes indivíduos neste campo, e muitas das figuras-chave, exibem, se não este traço idiossincrático e alegadamente mentiroso o tempo todo, certamente algum grau de mentalidade de corrida para o fundo, onde as pessoas que eram seguranças diluiram esses compromissos e a postura de que todos estão numa corrida.
Acho que, ao olharmos para os vazamentos recentes da Anthropic, há uma pessoa que levanta a questão de quem deveria ter o dedo no botão desta peça. A resposta é: se não tivermos uma supervisão significativa, penso que temos de fazer perguntas sérias e tentar trazer à tona o máximo de informação possível sobre todos estes indivíduos. Então, fiquei animado com o que parece ser uma conversa significativa sobre isso, ou o início de uma.
A razão pela qual perguntei dessa forma é que você trabalhou nisso por um ano e meio. Você conversou com, creio eu, 100 pessoas com seu coautor, Andrew. É muito tempo para uma história cozinhar. Penso no último ano e meio em IA em particular, e cara, as atitudes e valores de todos esses personagens mudaram muito rapidamente.
Talvez ninguém mais do que Sam Altman, que começou como o vencedor padrão porque havia lançado o ChatGPT e todos pensaram que isso apenas substituiria o Google. E então o Google respondeu, o que pareceu surpreendê-los com o fato de o Google tentar proteger seu negócio, talvez um dos melhores negócios da história da tecnologia, se não da história dos negócios. A Antrópica decidiu que focaria no empreendimento. Parece estar assumindo uma liderança dominantelá porque o uso empresarial de IA é muito alto.
Agora, a OpenAI está redirecionando seu produto de “vamos enfrentar o Google” para Codex, e eles vão assumir a empresa. Eu simplesmente não consigo dizer se, durante o curso de sua reportagem no último ano e meio, parece que os personagens com quem você estava conversando mudaram. Tal como as suas atitudes e os seus valores, estes mudaram?
Sim. Penso, em primeiro lugar, que a crítica que é explorada neste artigo, vinda de muitas pessoas dentro destas empresas neste momento - que esta é uma indústria que, apesar dos riscos existenciais, está a descer para uma espécie de corrida ao fundo do poço em termos de segurança e onde a velocidade está a superar tudo o resto - essa preocupação tornou-se mais aguda. E acho que essas preocupações foram mais validadas no decorrer do último ano e meio. Simultaneamente, as atitudes em relação a Sam Altman mudaram especificamente. Quando começamos a conversar com fontes sobre isso, as pessoas ficaram muito, muito desconfiadas de serem citadas sobre isso e deixarem registrado sobre isso.
No final da nossa reportagem, você tem um corpo de reportagens onde as pessoas falam sobre isso de forma muito aberta e explícita, e você tem membros do conselho dizendo coisas como: "Ele é um mentiroso patológico. Ele é um sociopata". Há uma série de perspectivas que vão desde “Isso é perigoso, dados os riscos de segurança, e precisamos de líderes desta tecnologia que tenham integridade elevada”, até “Esqueça os riscos de segurança, este é um comportamento insustentável para qualquer executivo de qualquer grande empresa, que apenas cria muita disfunção”.
Portanto, a conversa tornou-se muito mais explícita, de uma forma que talvez pareça tardia, mas é encorajadora em certo sentido. E Sam Altman, para seu crédito… A peça é muito justa e até generosa, eu diria, para Sam. Este não é o tipo de peça onde há muitas coisas do tipo “te peguei”. Passei muitas e muitas horas ao telefone com ele enquanto estávamos terminando isso e realmente o ouvi.
Como você pode imaginar, em uma peça como essa nem tudo entra. Alguns desses casos neste aqui foram porque eu estava ouvindo com sinceridade. E se Sam estava realmente apresentando um argumento que eu achava que era verdade, que algo, mesmo que fosse verdade, poderia ser sensacionalista, eu realmente errei por manter isso forense e comedido. Portanto, penso que isso está a ser recebido corretamente e só espero que este registo factual acumulado ao longo deste período possa desencadear uma conversa mais estimulante sobre a necessidade de supervisão.
Na verdade, essa é minha próxima pergunta. Acho que você conversou com Sam uma dúzia de vezes durante a reportagem desta história. Novamente, são muitas conversas durante um longo período de tempo. Você acha que Sam mudou ao longo da reportagem no último ano e meio?
Sim. Acho que uma das subtramas mais interessantes nisso é que Sam Altman também está falando sobre essa característica de forma mais explícita do que no passado. A postura de Sam nesta peça não é: “Não há nada aí, isso não é verdade; não sei do que você está falando”. A postura que ele tem é que ele diz que isso é atribuível a uma tendência de agradar as pessoas e a uma espécie de aversão ao conflito. Ele está reconhecendo que isso lhe causou problemas, principalmente no início de sua carreira.
Ele está dizendo: “Bem, estou superando isso, ou até certo ponto já superei isso”. Penso que o que é realmente interessante para mim é o contingente de pessoas com quem falámos que não eram apenas uma espécie de defensores da segurança, não apenas os investigadores técnicos subjacentes que muitas vezes tendem a ter estas graves preocupações de segurança, mas também grandes investidores pragmáticos. São apoiadores de Sam, que, em alguns casos, olham para essa questão e falam até mesmo de terem desempenhado um papel fundamental na sua volta após a demissão. Agora, sobre esta questão de saber se ele foi reformado e até que ponto essa mudança é significativa, eles dizem: “Bem, demos-lhe o benefício da dúvida na altura”.
Estou a pensar num investidor proeminente em particular que disse: “Mas desde então, parece claro que ele não foi levado para trás do depósito de lenha”, que foi a frase que este usou, na medida do necessário. Como resultado, parece que esta é agora uma característica estável. Estamos vendo isso de forma contínua. Você pode ver alguns dos maiores negócios da OpenAIrelacionamentos e a maneira como eles carregam o peso dessa desconfiança de forma contínua.
Como acontece com a Microsoft, você conversa com executivos de lá, e eles têm preocupações realmente agudas e recentemente catalisadas. Há este caso em que, no mesmo dia em que a OpenAI reafirma a sua exclusividade com a Microsoft no que diz respeito aos modelos subjacentes de IA sem estado, também anuncia um novo acordo com a Amazon que tem a ver com a venda de soluções empresariais para a construção de agentes de IA com estado, o que significa que têm memória.
Você conversa com o pessoal da Microsoft e eles dizem: “Isso não é possível sem interagir com as coisas subjacentes sobre as quais temos um acordo de exclusividade”. Portanto, este é apenas um dos muitos pequenos exemplos em que esta característica tem influência na atividade empresarial contínua o tempo todo e é um assunto de preocupação ativa no conselho da OpenAI, no seu conjunto executivo e na comunidade tecnológica em geral.
Você continua dizendo essa “característica”. Há uma linha na história que para mim parece uma tese, e é uma descrição da característica que você está descrevendo. É que “Sam Altman não é limitado pela verdade” e tem “duas características que quase nunca são vistas na mesma pessoa: a primeira é um forte desejo de agradar as pessoas, de ser querido em qualquer interação, e a segunda é uma falta de preocupação quase sociopática com as consequências que podem advir de enganar alguém”.
Devo dizer que li essa frase 500 vezes e tentei me imaginar sempre dizendo o que as pessoas queriam que gostassem e depois não ficar chateado quando se sentissem enganados. E não consegui fazer com que meu estado emocional entendesse como essas coisas podem existir na mesma pessoa. Você conversou muito com Sam e com pessoas que vivenciaram essas características. Como ele faz isso?
Sim. É interessante em um nível humano porque eu abordo órgãos de reportagem como esse com um foco real em humanizar quem está no centro disso e em buscar profunda compreensão e empatia. Quando tentei abordar isso de um ponto de vista mais humano e dizer: "Ei, seria devastador para mim se tantas pessoas com quem trabalhei dissessem que sou um mentiroso patológico. Como você carrega esse peso? Como você fala sobre isso na terapia? Qual é a história que você conta a si mesmo sobre isso?"
Na minha opinião, recebi algum tipo de banalidade da Costa Oeste sobre isso, como: “Sim, gosto de respirar”. Mas não muito do tipo de sentimento revigorante de autoconfrontação profunda que acho que muitos de nós provavelmente teríamos se víssemos esse tipo de feedback sobre nosso comportamento e como tratamos as pessoas.
Acho que isso também leva à resposta mais ampla à pergunta. Sam afirma que essa característica causou problemas, mas também que é parte do que o capacitou a acelerar tanto o crescimento da OpenAI que ele é capaz de unir e agradar diferentes grupos de pessoas. Ele está constantemente convencendo todos esses constituintes conflitantes de que o que lhes importa é o que importa a ele. E essa pode ser uma habilidade muito útil para um fundador. Conversei com investidores que então disseram: “Bem, talvez seja uma habilidade menos útil para realmente administrar uma empresa porque semeia muita discórdia”.
Mas do lado pessoal de Sam, acho que o que percebo quando tento me conectar em um nível humano é a aparente falta de confronto, reflexão e auto-responsabilidade mais profundos, o que também informa esse superpoder ou responsabilidade para uma empresa que se prepara para um IPO.
Ele é alguém que, nas palavras de uma ex-membro do conselho chamada Sue Yoon, que está registrado no artigo dizendo que até o ponto de “incapacidade” é a frase que ela usa, é capaz de realmente acreditar na mudança da realidade de seus discursos de vendas ou é capaz de se convencer deles. Ou pelo menos se ele não acredita neles, ele é capaz de ultrapassá-los sem dúvidas significativas.
Acho que aquilo sobre o qual você está falando, onde você ou eu poderíamos, enquanto dizemos a coisa e percebemos que ela entra em conflito com a outra garantia que fizemos, meio que temos um momento para congelar ou nos verificar. Acho que isso não acontece com ele. E há uma cultura mais ampla do Vale do Silício e uma cultura de fundadores que abraça isso.
É engraçado. The Verge é baseado no que equivale a análises de produtosprograma. É o cerne do que fazemos aqui. Eu guardo um trilhão de dólares em pesquisa e desenvolvimento da Apple uma vez por ano e digo: “Este telefone é um sete”. E isso meio que legitima todas as nossas reportagens e opiniões em outros lugares. Temos uma função avaliativa e passamos muito tempo apenas olhando para os produtos de IA e perguntando: “Eles funcionam?”
Parece que isso está faltando em muitas conversas sobre IA como é hoje. Há conversas intermináveis sobre o que isso pode fazer e quão perigoso pode ser. E então você se aprofunda e diz: “Ele realmente faz o que deveria fazer hoje?” Em alguns casos, a resposta é sim. Mas em muitos, muitos casos, a resposta é não.
Parece que isso se conecta à cultura do hype que você está descrevendo e também à sensação de que, bem, se você diz que vai fazer alguma coisa e não faz, e alguém se sente mal, tudo bem, porque estamos no próximo passo. Isso está no passado. E na IA em particular, Sam é muito bom em fazer grandes promessas.
Ainda esta semana, acho que no mesmo dia em que sua história foi publicada, a OpenAI divulgou um documento político que dizia que temos que repensar o contrato social e receber subsídios de eficiência de IA do governo. Esta é uma grande promessa sobre como alguma tecnologia pode moldar o futuro do mundo e como vivemos, e tudo isso depende de a tecnologia funcionar exatamente da maneira que talvez tenha sido prometida ou deveria funcionar.
Você já encontrou Sam duvidando que a IA se transformasse em AGI ou superinteligência ou em chegar à linha de chegada? Porque isso é o que mais me pergunto. Existe alguma reflexão sobre se esta tecnologia central pode fazer todas as coisas que dizem que pode fazer?
É exatamente o conjunto certo de perguntas. Existem tecnólogos credíveis com quem falámos neste conjunto de reportagens – e obviamente Sam Altman não é um deles; ele é um empresário – que diz que a maneira como Sam fala sobre o cronograma dessa tecnologia está errada. Há postagens de blogs de alguns anos atrás onde Sam diz: “Já alcançamos o horizonte de eventos. A AGI está basicamente aqui. A superinteligência está chegando. Estaremos em outros planetas. Estaremos curando todas as formas de câncer”. Na verdade, não estou embelezando.
O câncer é realmente interessante, que Sam está exaltando a pessoa que teoricamente curou o câncer de seu cachorro com ChatGPT, e isso simplesmente não aconteceu. Eles conversaram com o ChatGPT e isso os ajudou a orientar alguns pesquisadores que realmente fizeram o trabalho, mas, individualmente, essa ferramenta curou esse cachorro não é realmente a história.
Fico feliz que você tenha levantado esse ponto, porque quero abordar um ponto mais amplo sobre quando o potencial e o risco da tecnologia realmente serão adquiridos. Mas vale a pena mencionar esses pequenos detalhes que acontecem constantemente com Sam Altman, onde ele parece encarnar essa característica novamente.
Quero dizer, para usar o exemplo do relatório WilmerHale, onde tínhamos essas informações que foram mantidas fora do registro escrito e queríamos saber se o resumo oral ao longo do caminho foi entregue a alguém além dos dois membros do conselho que Sam ajudou a instalar para supervisioná-lo. E ele disse: “Sim, sim, não, acredito que foi dado a todos que ingressaram no conselho depois”. E temos uma pessoa com conhecimento direto da situação dizendo que é simplesmente mentira. E realmente parece ser esse o caso, que não é verdade. Se quisermos ser generosos, talvez ele estivesse mal informado.
Existem muitas dessas garantias casuais. E uso esse exemplo em parte porque é um ótimo exemplo de dissimulação, digamos assim, que pode ter consequências jurídicas reais. Não preciso lhe dizer que, de acordo com a legislação societária de Delaware, se esta empresa fizer IPO, os acionistas poderão, de acordo com a seção 220, reclamar sobre isso e exigir a documentação subjacente. Já existem membros do conselho dizendo coisas como: “Bem, espere um minuto, esse briefing deveria ter acontecido”.
Portanto, essas coisas que parecem sair da boca dele o tempo todo podem ter efeitos reais de movimentação do mercado, efeitos reais para o OpenAI. Trazendo de volta ao tipo de linguagem utópica e exagerada que ressurgiu, acho que não foi por coincidência no dia em que esta peça foi lançada, mas também afeta a todos nós, porque os perigos são muito agudos no que diz respeito à forma como ésendo utilizado em armamento, a forma como está a ser utilizado para identificar agentes de guerra química, o potencial de desinformação e devido à forma como a propaganda utópica parece estar a levar muitos economistas credíveis a dizer: “Isto tem todos os sinais de uma bolha”.
Até Sam Altman disse: “Alguém vai perder muito dinheiro aqui”. Isso poderia realmente prejudicar muito o crescimento económico americano e global, se houver um verdadeiro rompimento de uma bolha envolvendo todas estas empresas a fazerem acordos entre si, apostando tudo na IA enquanto contraem empréstimos tão pesados. Então, o que Sam Altman diz é importante, e acho que a preponderância de pessoas ao seu redor, você mencionou que conversamos com mais de cem, na verdade era bem mais de cem. Tivemos uma conversa na linha de chegada sobre: “Seria muito mesquinho dizer que é um número muito maior?” E nós pensamos: "Sim, vamos minimizar. Vamos jogar com calma." Mas havia tantas pessoas e uma maioria significativa delas dizendo: “Isso é uma preocupação”. E acho que é por isso.
Deixe-me perguntar sobre esse número. Como você mencionou, as pessoas ficaram cada vez mais abertas com as preocupações com o passar do tempo. Parece que a pressão em torno da bolha – a corrida para vencer, para pagar todo este investimento, para emergir como vencedor, para o IPO – mudou muitas atitudes. Certamente criou mais pressão sobre Sam e OpenAI.
Publicamos uma história esta semana apenas sobre as vibrações do OpenAI. Sua história faz parte disso, mas grandes mudanças de pessoal nas fileiras executivas da OpenAI – as pessoas estão indo e vindo. Os pesquisadores estão todos indo embora, principalmente para a Antrópica, o que acho muito interessante. Você pode ver que esta empresa está sentindo a pressão e respondendo a ela de alguma forma.
Mas então penso em Sam sendo demitido. Isso é simplesmente memorável para mim. Não é memorável para mais ninguém, mas recebi uma ligação no Zoológico do Bronx às 19h de uma sexta-feira, e era alguém dizendo que tentaria trazer Sam de volta. E então passamos o fim de semana perseguindo essa história. E eu pensei: "Estou no zoológico. O que você quer que eu faça aqui?" E a resposta foi: “Fique no telefone”. Bem, minha filha disse: “Desligue o telefone”. E foi isso que eu fiz.
Era cavalgar ou morrer para trazer Sam de volta. Essa empresa disse: “Não, não vamos deixar o conselho demitir Sam Altman”. Os investidores, eles são citados em seu artigo: “Fomos para a guerra”, eu acho, é a posição da Thrive Capital, “para recuperar Sam”. A Microsoft entrou em guerra para resgatar Sam. Já é mais tarde e agora todo mundo pensa: "Estamos indo para o IPO. Chegamos à linha de chegada. Recuperamos nosso cara e ele vai nos levar até a linha de chegada. Estamos preocupados que ele seja um mentiroso".
Por que foi uma guerra para recuperá-lo naquela época? Porque não parece que nada realmente mudou. Você fala sobre os memorandos que Ilya Sutskever e [CEO da Anthropic] Dario Amodei mantiveram enquanto eram contemporâneos de Sam Altman. A principal preocupação de Ilya era que Sam fosse um mentiroso.
Nada disso mudou. Então, por que foi a guerra para trazê-lo de volta? E agora que estamos na linha de chegada, parece que todas as preocupações estão abertas.
Bem, em primeiro lugar, peço desculpas à sua filha, ao meu parceiro e a todas as outras pessoas ao redor dos jornalistas.
[Risos] Foi um fim de semana e tanto para todos.
Sim, isso toma conta da vida de alguém, e essa história definitivamente tomou conta da minha, no último período de tempo. Na verdade, está relacionado com o tema do jornalismo e do acesso à informação, penso eu. Os investidores que entraram em guerra por Sam e todos desempenharam um papel para garantir que ele voltasse, e o conselho que foi projetado especificamente para proteger a missão de uma organização sem fins lucrativos de colocar a segurança acima do crescimento e demitir um executivo se não pudesse confiar nisso, eles foram embora. Isso tudo porque, sim, os incentivos de mercado existiam, certo?
Sam conseguiu convencer as pessoas: “Bem, a empresa vai desmoronar”. Mas o motivo pelo qual ele teve apoio foi a falta de informação. Esses investidores, em muitos casos, dizem agora: “Olho para trás e penso que deveria ter tido mais preocupações se soubesse plenamente quais eram as reivindicações e quais eram as preocupações”.
Nem todos eles;as opiniões variam e citamos uma série de opiniões, mas há algumas importantes que agiram com base em informações muito parciais. A prancha que demitiu Sam foi, nas palavras de uma pessoa que costumava estar na prancha, “muito JV”, e eles erraram muito na bola. E documentamos as reclamações subjacentes, e as pessoas podem decidir por si próprias se isso se acumula no tipo de preocupação urgente que sentiam que era, mas esse argumento e essa informação não estavam a ser apresentados.
Eles receberam o que alguns deles agora reconhecem como mau aconselhamento jurídico. Para descrevê-la, você se lembrará da citação e provavelmente muitos de seus ouvintes e espectadores se lembrarão da citação como uma falta de franqueza. Foi a isso que tudo foi reduzido, e então eles basicamente não atendiam ligações.
Eles não atenderiam ligações. Tenho certeza que você tentou. Todo mundo que conheço tentou, e cheguei ao ponto em que, como jornalista, você não deveria dar conselhos às suas fontes, mas eu pensei: “Isso vai passar se você não começar a se explicar”.
E foi isso que aconteceu. Esqueça os jornalistas. Você tinha Satya Nadella dizendo: "O que diabos aconteceu? Não consigo ninguém para me explicar." E esse é o principal financiador da empresa. E então você tem Satya ligando para [o cofundador do LinkedIn] Reid Hoffman e Reid ligando e dizendo: “Não sei o que diabos aconteceu”.
Eles estão compreensivelmente naquele vazio de informação, procurando os indicadores tradicionais não relacionados à IA que justificariam um disparo tão urgente e repentino. Tipo, ok, foram crimes sexuais? Foi desfalque? E todo o argumento subtil, mas creio significativo, de que esta tecnologia é diferente e de que este tipo de acumulação constante de traições menores poderia ter riscos significativos tanto para este negócio como talvez para o mundo, foi em grande parte perdido. Assim, os incentivos capitalistas venceram, mas também as pessoas que os criaram saíram e nem sempre operaram com informações completas.
Quero apenas perguntar sobre o aspecto “o que todos pensavam que era” por um momento, porque certamente vi a notícia e disse: “Ah, algo ruim deve ter acontecido”. Você fez muitas reportagens #MeToo, notoriamente. Você divulgou a história de Harvey Weinstein.
Você passou muito tempo relatando essas alegações que acho que decidiu serem infundadas: que Altman abusou sexualmente de menores ou contratou profissionais do sexo, ou até mesmo assassinou um denunciante da OpenAI. Quero dizer, você é a pessoa que pode denunciar essas coisas com mais rigor. Você decidiu que não deu em nada?
Bem, olhe, não estou no negócio de dizer que algo deu em nada. O que posso dizer é que passei meses analisando essas alegações e não encontrei corroboração para elas. E foi surpreendente para mim que estes rapazes, estas empresas que têm tanto poder sobre o nosso futuro, estejam realmente a gastar uma quantidade desproporcional do seu tempo e recursos numa luta infantil contra a lama.
Um executivo o descreve como “shakespeariano”. A quantidade de dinheiro dos investigadores privados e dos dossiês da oposição que estão a ser compilados é implacável. E o que é lamentável é que o tipo de coisa obscena, que é papagueada pelos concorrentes de Sam, é apenas um fato presumido, certo? Há uma alegação de que ele persegue meninos menores de idade e, em muitos coquetéis no Vale do Silício, você ouve isso. No circuito de conferências, ouvi isso ser repetido por executivos proeminentes e confiáveis: “Todo mundo sabe que isso é um fato”.
O triste é que falo de onde isso vem, dos diversos vetores pelos quais é transmitido. Elon Musk e seus associados estão aparentemente promovendo dossiês realmente pesados que não dão em nada. Eles são vagos quando você realmente começa a olhar para as afirmações subjacentes. O triste é que isso realmente obscurece as críticas mais baseadas em evidências que considero que realmente merecem supervisão e consideração urgentes.
O outro tema que realmente aparece na história é quase uma sensação de medo de que Sam tenha tantos amigos – ele investiu em tantas empresas desde sua função anterior como CEO da Y Combinator, até seus investimentos pessoais, alguns dos quais estão em conflito direto com seu papel como CEO da OpenAI – e há silêncio ao seu redor.
Isso me impressionou quando eu estava lendo uma linha em particular. Você descreve os memorandos de Ilya Sutskever, e eles acabaram de ser lançados no Vale do Silício. Todosos chama de memorandos de Ilya. Mas há até silêncio em torno disso. Eles são repassados, mas não são discutidos. De onde você acha que isso vem? É medo? É um desejo de obter investimento anjo? De onde vem isso?
Acho que é muita covardia, vou ser sincero. Tendo relatado histórias de segurança nacional em que as fontes são denunciantes que correm o risco de perder tudo e enfrentar processos judiciais, eles ainda fazem a coisa certa e falam sobre coisas para criar responsabilização. Trabalhei nas histórias relacionadas a crimes sexuais que você mencionou, onde as fontes estão profundamente traumatizadas e temem um tipo de retribuição muito pessoal.
Em muitos casos nessa área, você está lidando com pessoas com perfil e poder próprios. Eles próprios são pessoas famosas ou estão rodeados de pessoas famosas. Eles têm vidas empresariais robustas. Na minha opinião, é realmente uma exposição muito baixa para eles falarem sobre essas coisas. E, felizmente, a agulha está se movendo como falamos anteriormente, e agora as pessoas estão falando mais.
Mas, durante muito tempo, as pessoas simplesmente calaram a boca sobre isso porque acho que a cultura do Vale do Silício é tão implacavelmente egoísta e impiedosamente orientada para os negócios e o crescimento. Então, acho que isso aflige até mesmo algumas das pessoas que estiveram envolvidas na demissão de Sam, onde você viu nos dias seguintes, sim, um fator que o levou a voltar e à demissão de antigos membros do conselho foi que ele reuniu investidores que estavam confusos com sua causa.
Mas outra é que muitas outras pessoas à sua volta que tinham preocupações e as expressaram com urgência simplesmente dobraram-se como guardanapos e mudaram de tom no momento em que viram que o vento soprava na direção oposta e quiseram entrar no comboio do lucro.
É muito sombrio, honestamente, do meu ponto de vista como repórter.
Algumas dessas pessoas são Mira Murati, que, acredito, por 20 minutos foi a nova CEO da OpenAI. Ela foi então substituída. Foi uma dinâmica muito complicada e, obviamente, Sam voltou. A outra pessoa é Ilya Sutskever, que foi um dos votantes para destituir Sam, e então mudou de ideia, ou pelo menos disse que mudou de ideia, e então saiu para abrir sua própria empresa. Você sabe o que o fez mudar de ideia? Foi só dinheiro?
Bem, e para ser claro, não estou destacando esses dois. Há outros membros do conselho que estiveram envolvidos na demissão e que também ficaram em silêncio depois. Acho que é como um problema coletivo mais amplo. Trata-se, em alguns casos, de pessoas que tiveram a fibra moral para soar alarmes e tomar medidas radicais, e isso é de louvar. E é assim que você garante a responsabilidade. Isso poderia ter ajudado muitas pessoas afetadas por esta tecnologia. Poderia ter ajudado uma indústria a permanecer mais significativamente focada na segurança.
Mas lidar com denunciantes e pessoas que tentam muito incitar essa responsabilização, você também vê que é preciso ter coragem para resistir e defender suas convicções. E esta indústria está verdadeiramente cheia de pessoas que simplesmente não mantêm as suas convicções.
Mesmo que pensem que estão construindo um Deus digital que de alguma forma eliminará todo o trabalho ou criará mais trabalho, ou algo acontecerá.
Bem, é isso. Portanto, a cultura de não defender suas convicções e todas as preocupações éticas caindo no esquecimento no momento em que há qualquer calor ou qualquer coisa que possa ameaçar sua própria posição no negócio talvez seja muito boa, até certo ponto, para empresas que fazem negócios como sempre que estão fazendo qualquer tipo de widget.
Mas estas também são as mesmas pessoas que dizem: “Isto pode literalmente matar-nos a todos”. E, novamente, você não precisa ir ao extremo do Terminator Skynet. Há um conjunto de riscos que já estão se materializando. É real, e eles estão certos em alertar sobre isso, mas você teria que ter outra pessoa psicologizando como essas duas coisas podem viver nas mesmas pessoas onde estão soando os avisos urgentes, talvez estejam colocando o dedo do pé e tentando fazer alguma coisa, e então estão apenas dobrando e ficando em silêncio.
É precisamente por isso que você pode ter esses tipos de casos em que coisas são mantidas fora da escrita e varridas para debaixo do tapete, e ninguém fala sobre isso abertamente durante anos após o fato.
A parte natural e responsável aqui não seriam os CEOs dessas empresas; seriam os governos. Nos Estados Unidos, talvezsão os governos estaduais, talvez seja o governo federal.
Certamente, todas estas empresas querem ser globais. Há muitas implicações globais aqui. Observei OpenAI, Google e Anthropic incitarem a administração Biden a emitir uma ordem executiva de IA. No final, foi bastante desdentado. Apenas dizia que eles tinham que conversar sobre o que seus modelos eram capazes e lançar alguns testes de segurança. E então todos eles apoiaram Trump, e Trump entrou e eliminou tudo isso e disse: "Temos que ser competitivos. É um vale-tudo. Vá em frente."
Ao mesmo tempo, todos estão a tentar angariar fundos de países do Médio Oriente que têm muito dinheiro do petróleo e querem mudar as suas economias. Esses são políticos. Eu sinto que os políticos definitivamente deveriam entender que alguém está falando pelos dois lados da boca, e eles não ficarão muito chateados se alguém ficar desapontado no final, mas os políticos também estão sendo enganados. Por que você acha que isso acontece?
Acho que é realmente por isso que a peça é importante na minha opinião e por que valeu a pena gastar todo esse tempo e detalhes nela. Estamos num ambiente onde os sistemas que, como você diz, deveriam fornecer supervisão, estão simplesmente vazios. Esta é uma América pós-Cidadãos Unidos, onde o fluxo de dinheiro é tão irrestrito, e há uma concentração particular desse problema em torno da IA, onde existem estes PACs que estão a proliferar e a inundar dinheiro para anular uma regulamentação significativa tanto a nível estatal como a nível federal.
Você tem [cofundador da OpenAI] Greg Brockman, o segundo em comando de Sam, contribuindo diretamente de forma importante para alguns deles. Isso leva a uma situação em que há realmente uma captura de legisladores e potenciais reguladores, e é difícil sair dessa espiral. O que é triste é que penso que existem medidas políticas simples, algumas das quais estão a ser testadas noutras partes do mundo, que ajudariam a resolver alguns destes problemas de responsabilização.
Poderia haver mais testes de segurança pré-implantação obrigatórios, algo que já está a acontecer na Europa para modelos de fronteira. Você poderia ter requisitos de registros públicos escritos mais rigorosos para os tipos de investigações internas em que vimos coisas sendo mantidas em sigilo neste caso. Poderíamos ter um conjunto mais robusto de mecanismos de revisão da segurança nacional para os tipos de ambições infra-estruturais do Médio Oriente que Sam Altman estava a promover.
Como você disse, ele estava fazendo essa isca e trocando com a administração Biden, dizendo: “Regule-nos, regule-nos”, e ajudando-os a elaborar uma ordem executiva, e então, no momento em que Trump entra, realmente nos primeiros dias, sem limites, “Vamos acelerar e vamos construir um enorme campus de data center em Abu Dhabi”. Você poderia ter feito isso, é realmente simples, como proteções para denunciantes. Não existe nenhuma lei federal que proteja os funcionários de empresas de IA que divulgam esses tipos de preocupações de segurança que estão sendo divulgadas neste artigo.
Temos casos em que Jan Leike, que era segurança sênior da OpenAI, liderava o superalinhamento na empresa. Ele escreve ao conselho, essencialmente material de denúncia, dizendo que a empresa está saindo dos trilhos em sua missão de segurança. Esses são os tipos de pessoas que deveriam realmente ter um órgão de supervisão ao qual pudessem recorrer, e deveriam ter proteções legais explícitas do tipo que vemos em outros setores. É simples replicar um regime ao estilo Sarbanes-Oxley.
Penso que, apesar de quão grave é o problema de Silicon Valley assumir o controlo de todas as alavancas do poder, e apesar de quão vazias são algumas destas instituições que poderiam fornecer supervisão e barreiras de protecção, ainda acredito na matemática básica da democracia e dos políticos interessados. E há cada vez mais dados de pesquisas surgindo de que a maioria dos americanos pensa que as preocupações, dúvidas ou riscos da IA atualmente superam os benefícios.
Portanto, acho que a inundação de dinheiro proveniente da IA na política está ao nosso alcance fazer disso uma fonte de interrogação em relação aos políticos. Quando os americanos vão votar, devem examinar minuciosamente se as pessoas em quem votam, especialmente se forem acríticas e anti-regulamentação, dadas todas estas preocupações, são financiadas por interesses especiais das grandes empresas tecnológicas. Então, acho que se as pessoas puderem ler artigos como este, ouvir podcasts como este e se preocuparem o suficiente para pensar criticamente sobresuas decisões como eleitores, há uma oportunidade real de gerar um eleitorado em Washington de representantes que monitorem e forcem a supervisão.
Essa pode ser uma das coisas mais otimistas que já ouvi alguém dizer sobre a atual indústria de IA. Eu agradeço. Estou obcecado com as pesquisas de que você está falando. Há muito disso agora. É tudo bastante consistente e parece que quanto mais os jovens, em particular, são expostos à IA, mais desconfiados e irritados ficam com ela. Essa é a valência de todas as pesquisas. E eu olho para isso e penso, bem, sim, políticos inteligentes simplesmente concorreriam contra isso. Eles apenas diriam: “Vamos responsabilizar as grandes tecnologias”.
Então penso nos últimos 20 anos, um político dizendo que vai responsabilizar as grandes tecnologias, e estou lutando para encontrar pelo menos um momento em que as grandes tecnologias sejam responsabilizadas. A única coisa que me faz pensar que isso pode ser diferente é, bem, você realmente precisa construir os data centers e pode votar contra isso, pode fazer uma petição contra isso e protestar contra isso.
Acho que há um político que acabou de levar um tiro em sua casa porque votou em um data center. A tensão está atingindo, eu diria, um pico febril. Você descreveu a insularidade do Vale do Silício. Este é um ecossistema fechado. Parece que eles pensam que podem governar o mundo. Eles estão investindo muito dinheiro na política e esbarrando na realidade de que as pessoas não amam os produtos, o que não lhes dá muita cobertura. Quanto mais utilizam os produtos, mais perturbados ficam, e os políticos começam a ver que há consequências reais no apoio à indústria tecnológica em detrimento das pessoas que representam.
Você conversou com tantas pessoas. Você acha que é possível para a indústria de tecnologia aprender a lição que está bem diante dela?
Você diz que parece que eles pensam que podem governar o mundo sem responsabilidade. Eu nem acho que isso precise do qualificador “parece”. Quero dizer, você olha para a linguagem que Peter Thiel está usando, é explícita. Claro, esse é um exemplo extremo. E Sam Altman, embora até certo ponto seja próximo e informado pela ideologia de Thiel, é um tipo de pessoa muito diferente que pode parecer diferente e mais comedido até certo ponto.
Mas acho que a ideologia mais ampla que você recebe de Thiel, que é basicamente: a democracia acabou, não precisamos mais dela. Temos tanta coisa que só queremos construir nossos próprios bunkers. Não estamos mais lidando com os Carnegies ou com os Rockefellers, onde eles são bandidos, mas sentem que precisam participar de um contrato social e construir coisas para as pessoas. Há um verdadeiro niilismo instalado.
E penso que tem sido apenas uma espiral que se reforça mutuamente na história americana recente, de magnatas e empresas privadas que adquirem poder supergovernamental, enquanto as instituições democráticas que poderiam responsabilizá-los são esvaziadas. Não me sinto otimista com a ideia de que esses caras possam acordar um dia e pensar: “Huh, na verdade, talvez precisemos participar da sociedade e ajudar a construir coisas para as pessoas”.
Quero dizer, você olha para o exemplo microcósmico de The Giving Pledge, onde houve um momento em que parecia ser de caridade, e esse momento já passou e até foi ridicularizado. Este é um problema, o problema mais amplo da falta de responsabilização que penso que só pode ser resolvido extrinsecamente. Devem ser os eleitores mobilizando e ressuscitando o poder de supervisão do governo. E você está certo em dizer que o principal vetor através do qual as pessoas poderiam conseguir isso é local. Tem a ver com onde a infraestrutura está sendo construída.
Você mencionou um pouco da tensão intensa em torno disso que está levando à violência e às ameaças e, obviamente, ninguém deveria ser violento ou ameaçador. E também não estou aqui para fazer recomendações políticas específicas, a não ser apenas para apresentar algumas das medidas políticas que parecem básicas e que estão a funcionar noutras partes do mundo, certo? Ou aqueles que trabalharam em outros setores. Não estou aqui para dizer quais deles devem ser executados e como.
Acho que algo precisa acontecer, e precisa ser externo, e não apenas confiar nessas empresas. Porque certoagora temos uma situação em que as empresas que estão a desenvolver a tecnologia e estão melhor equipadas para compreender os riscos, e que de facto são as que nos alertam sobre os riscos, são também aquelas que só têm incentivos para agir rapidamente e ignorar esses riscos. E você simplesmente não tem nada para contrabalançar isso. Portanto, sejam quais forem as reformas que possam ser necessárias em termos de especificidades, algo terá de se chocar com isso. E ainda volto ao otimismo de que as pessoas ainda são importantes.
Eu geralmente acredito no seu argumento. Deixe-me apenas apresentar um pequeno contra-argumento que acho que posso articular. A outra coisa que pode acontecer fora das urnas é a bolha estourar, certo? Que nem todas essas empresas chegam à linha de chegada e que não existe um mercado de produtos adequado para aplicações de IA de consumo. E, novamente, ainda não consigo entender, mas sou um revisor de tecnologia de consumo e talvez tenha padrões mais elevados do que todos os outros.
Existe adequação ao mercado de produtos no mundo dos negócios, certo? Ter um monte de agentes de IA escrevendo um monte de software parece ser um mercado real para essas ferramentas. E você pode ler os argumentos dessas empresas dizendo: "Resolvemos a codificação, e isso significa que podemos resolver qualquer coisa. Se pudermos criar software, poderemos resolver quaisquer problemas".
Acho que existem limites reais para as coisas que o software pode fazer. Isso é ótimo no mundo dos negócios. Na realidade, o software não consegue resolver todos os problemas, mas tem de chegar lá. Eles precisam terminar o trabalho e talvez nem todos cheguem à linha de chegada. E há um crash, e esta bolha estoura, e talvez OpenAI ou Anthropic ou xAI, uma dessas empresas falir, e todo esse investimento vai embora.
Você acha que isso afetaria isso? Na verdade, deixe-me fazer a primeira pergunta primeiro. OpenAI está à beira de um IPO. Há muitas dúvidas sobre Sam como líder. Você acha que eles vão chegar à linha de chegada?
Não vou fazer um prognóstico, mas penso que levanta um ponto importante, que é que os incentivos de mercado são importantes internamente para Silicon Valley, e a precariedade da actual dinâmica da bolha pode interromper a, mais uma vez, potencialmente, segundo os críticos, a corrida para o fundo do poço em termos de segurança.
Eu também acrescentaria que, se olharmos para a precedência histórica onde existe um conjunto semelhante e aparentemente impenetrável de incentivos de mercado e efeitos potencialmente deletérios para o público, há litígios de impacto. E você vê isso como uma área de preocupação ultimamente. Sam Altman está lá esta semana endossando legislação que protegeria as empresas de IA de alguns dos tipos de responsabilidade a que a OpenAI foi exposta em processos por homicídio culposo, por exemplo. Claro, há um desejo de ter essa proteção contra responsabilidades.
Acho que os tribunais ainda podem ser um mecanismo significativo e será muito interessante ver como esses processos se desenvolvem. Você já viu, por exemplo, a ação coletiva, da qual eu e muitos outros autores que conheço somos membros, contra a Anthropic pelo uso de livros protegidos por direitos autorais. Se houver mentes jurídicas inteligentes e demandantes que se importem, como temos visto historicamente em casos que vão desde as grandes empresas do tabaco até as grandes empresas de energia, você também pode obter algumas barreiras de proteção e alguns incentivos para desacelerar, ter cuidado ou proteger as pessoas dessa forma.
Parece que toda a estrutura de custos da indústria de IA depende de uma interpretação muito, muito caridosa do uso justo. Não aparece o suficiente. A estrutura de custos destas empresas pode sair do controlo se tiverem de pagar a si e a todas as outras pessoas cujo trabalho assumiram, mas é inconveniente pensar nisso, por isso simplesmente não pensamos nisso. Bem ao lado disso, todos esses produtos agora estão com prejuízo. Como hoje, todos estão perdidos. Eles estão queimando mais dinheiro do que podem ganhar. Em algum momento, eles terão que apertar o botão.
Sam é um empresário. Como você mencionou várias vezes, ele não é um tecnólogo. Ele é um empresário. Você acha que ele está pronto para apertar o botão e dizer: “Vamos ganhar um dólar?” Porque quando eu pergunto: “Você acha que a OpenAI vai conseguir?” É quando eles precisam ganhar um dólar. E até agora, Sam ganhou todo o seu dinheiro pedindo dinheiro a outras pessoas, em vez de fazer com que suas empresas ganhassem dinheiro.
Bem, essa é uma grande questão persistente para Silicon Valley, para investidores, para o público.Você vê algumas declarações e movimentos fora do OpenAI que parecem evidenciar uma espécie de pânico sobre isso. Fechar o Sora, encerrar alguns projetos auxiliares, tentar se concentrar no produto principal. Mas, por outro lado, você ainda vê, ao mesmo tempo, toneladas de missões se arrastando, certo? Mesmo um pequeno exemplo – obviamente não é essencial para o seu negócio – é a aquisição da TBPN.
Aliás, no momento em que chegamos à linha de chegada e à verificação dos fatos, a empresa que enfrenta esse tipo de escrutínio jornalístico adquire uma plataforma onde pode ter um controle mais direto sobre a conversa. Penso que há muitos investidores preocupados, com base nas conversas que tive, que este problema de prometer tudo a todas as pessoas também se estende a esta falta de foco no modelo de negócio principal. E quero dizer, você está mais próximo do tipo de prognóstico e observação do mercado do que eu provavelmente. Vou deixar que você e os ouvintes julguem se eles acham que o OpenAI pode mudar a chave.
Bem, fiz a pergunta porque você tem uma citação de um executivo sênior da Microsoft no artigo, e é que “o legado de Sam pode acabar mais semelhante ao de Bernie Madoff ou Sam Bankman-Fried”, em vez de Steve Jobs. Isso é uma comparação e tanto. O que você achou dessa comparação?
Acho que isso é uma paráfrase. A parte de Steve Jobs não fazia parte da citação. Mas há um tipo interessante de sobriedade nisso porque é formulado como: “Acho que há uma chance pequena, mas real, de que ele acabe sendo um SBF ou um golpista do nível Madoff”. O que significa, na minha opinião, não que Sam esteja sendo acusado desses tipos específicos de fraude ou crimes, mas que o grau de dissimulação e engano de Sam pode ter uma chance de ser lembrado nessa escala.
Sim, acho que o que é mais impressionante nessa citação, honestamente, é que você liga para a Microsoft e não ouve: "Isso é loucura. Nunca ouvimos isso." Você ouve muito: “Sim, muitas pessoas aqui pensam isso”, o que é notável. E acho que isso se aplica a essas questões básicas de negócios.
Um investidor me disse, por exemplo, à luz da forma como essa característica persistiu nos anos após a demissão "- e ele também achou que era um pensamento sóbrio e interessante - que não é necessariamente que Sam deva estar no final da lista, como deveria ser o mais baixo dos mais baixos em termos de pessoas que absolutamente não devem construir esta tecnologia, pelo que vale a pena. Há várias pessoas que disseram que Elon Musk é essa pessoa. Mas essa característica o coloca talvez no final da lista de pessoas que deveriam construir AGI, e abaixo de várias outras figuras importantes neste campo.
Então achei que era uma avaliação interessante, e esse é o tipo de pensamento que acho que você recebe dos verdadeiros pragmáticos que talvez não estejam acreditando tanto nas preocupações de segurança. Eles estão apenas orientados para o crescimento e acham que a OpenAI agora tem um problema com Sam Altman.
A peça da Microsoft é realmente interessante. Aquela empresa pensava que estava no topo do mundo. Que eles haviam feito esse investimento e iriam ultrapassar todos, especialmente e mais importante, o Google, e voltar às boas graças dos consumidores. O nível em que eles se sentem queimados por esta aventura – esta é uma empresa administrada com muita sobriedade – não acho que possa ser exagerado.
Você mencionou os personagens e os traços de personalidade. Quero terminar aqui com uma pergunta dos nossos ouvintes. Eu disse em nosso outro programa, The Vergecast, que falaria com você e disse: “Se você tiver perguntas para Ronan sobre essa história, me avise”. Portanto, temos um aqui que acho que se encaixa perfeitamente com o que você está descrevendo. Vou apenas ler para você:
“Como as justificativas para o mau comportamento e as ações cruéis de Altman e de outros líderes de IA diferem das justificativas que Ronan ouviu de outros líderes de alto nível na política e na mídia? Todos eles não justificam as suas ações dizendo que é assim que o mundo muda? Se eu não fizer isso, alguém fará?”
Sim, há muito disso por aí. Eu diria que o que distingue a IA é que os riscos existenciais, sendo tão singularmente elevados, significam que ambas as declarações de risco são extremas, certo? Você tem Sam Altmandizendo: “Isso pode apagar as luzes para todos nós”. E também, poderão dizer os críticos, a mania a que o questionador se refere é extrema, certo?
O que Sam acusou Elon, oficialmente, foi que talvez ele queira salvar a humanidade, mas apenas se for ele. O tipo de componente do ego de querer vencer, que é um enquadramento que Sam usa o tempo todo, e que este é um dos livros de história, isso pode mudar tudo. Portanto, mesmo acima e para além da mentalidade “é preciso partir alguns ovos” da maioria das empresas de Silicon Valley, existe, na mente de algumas figuras que lideram a IA, penso eu, uma racionalização completa para toda e qualquer consequência.
E esqueça de quebrar ovos. Eu acho que muitos dos pesquisadores de segurança subjacentes diriam que existe o risco potencial de quebrar o país, quebrar o mundo e quebrar milhões de pessoas cujos empregos e segurança estão em jogo - isso é o que há de único nisso. É aí que encerro, refletindo sobre este conjunto de reportagens, acreditando realmente que se trata de mais do que Sam Altman. Trata-se de uma indústria que não tem restrições e de um problema crescente de a América ser incapaz de restringi-la.
Sim. Bem, tínhamos algum otimismo nisso, mas acho que é um bom lugar para deixar isso.
[Risos] Termine com um ritmo pessimista.
Claro. Essa é toda grande história, na verdade. O julgamento Musk-Altman está próximo. Acho que vamos aprender muito mais aqui. Suspeito que vou querer falar com você novamente. Ronan Farrow, muito obrigado por estar no Decoder.
Obrigado.
Perguntas ou comentários sobre este episódio? Contate-nos em [email protected]. Nós realmente lemos todos os e-mails!