Astăzi, la Decoder, vorbesc cu Ronan Farrow, una dintre cele mai mari vedete ale reportajelor de investigație care lucrează astăzi. El a spart povestea lui Harvey Weinstein, printre multe, multe altele. Și chiar săptămâna trecută, el și co-autorul Andrew Marantz au publicat în The New Yorker un articol incredibil despre CEO-ul OpenAI, Sam Altman, încrederea sa și ascensiunea OpenAI în sine.
O notă înainte de a merge mai departe aici — The New Yorker a publicat acea poveste, iar eu și Ronan am avut această conversație înainte de a cunoaște amploarea atacurilor asupra casei lui Altman, așa că nu ne veți auzi vorbind despre asta direct. Dar doar ca să spun, cred că violența de orice fel este inacceptabilă, aceste atacuri asupra lui Sam au fost inacceptabile și că tipul de neputință pe care îl simt oamenii, care duce la acest tip de violență, este în sine inacceptabil și merită mult mai mult controlat atât din partea industriei, cât și a liderilor noștri politici. Sper că este clar.
Abonați Verge, nu uitați că aveți acces exclusiv la Decoder fără anunțuri oriunde vă aflați podcasturile. Du-te aici. Nu sunteți abonat? Vă puteți înscrie aici.
Toate acestea fiind spuse, există multe învârtejuri în jurul lui Altman, care sunt un joc corect pentru raportarea riguroasă - genul de raportare pe care Ronan și Andrew și-au propus să o facă. Datorită popularității ChatGPT, Altman a devenit cea mai vizibilă figura de proiectare a industriei AI, transformând un laborator de cercetare nonprofit într-o companie privată de aproape un trilion de dolari în doar câțiva ani. Dar mitul lui Altman este profund conflictual, definit în mod egal atât prin capacitatea lui evidentă de a face afaceri, cât și prin tendința sa raportată de a... ei bine, să mintă pe toți cei din jurul lui.
Povestea are peste 17.000 de cuvinte și conține, probabil, relatarea definitivă a ceea ce s-a întâmplat în 2023, când consiliul de administrație al OpenAI l-a concediat foarte brusc pe Altman pentru presupusa sa minciună, doar pentru ca acesta să fie reangajat aproape instantaneu. Este, de asemenea, o scufundare profundă în viața personală a lui Altman, investițiile sale, curtarea banilor din Orientul Mijlociu și propriile sale reflecții asupra comportamentului său trecut și a trăsăturilor de caracter care au determinat o sursă să spună că nu a fost „constrâns de adevăr”. Chiar vă sugerez să citiți întreaga poveste; Bănuiesc că se va face referire pentru mulți ani de acum înainte.
Ronan a vorbit cu Altman de multe ori de-a lungul celor 18 luni pe care le-a petrecut raportând această piesă, așa că unul dintre principalele lucruri de care eram curios a fost dacă a simțit vreo schimbare în Altman în acel timp. La urma urmei, multe s-au întâmplat în AI, în tehnologie și în lume în ultimul an și jumătate.
Îl veți auzi pe Ronan vorbind despre asta foarte direct, precum și sentimentul lui că oamenii au devenit mult mai dispuși să vorbească despre capacitatea lui Altman de a întinde adevărul. Oamenii încep să se întrebe, cu voce tare și în evidență, dacă comportamentul unor oameni precum Altman este îngrijorător, nu doar pentru AI sau tehnologie, ci și pentru viitorul colectiv al societății.
Bine: Ronan Farrow despre Sam Altman, AI și adevărul. Începem.
Acest interviu a fost ușor editat pentru lungime și claritate.
Ronan Farrow, ești reporter de investigație și colaborator la The New Yorker. Bun venit la Decoder.
Mă bucur să fiu aici. Mulțumesc că m-ai primit.
Sunt foarte încântat să vorbesc cu tine. Tocmai ai scris un articol important pentru The New Yorker. Este un profil al lui Sam Altman și, odată cu el, OpenAI. Am citit despre aceasta că, așa cum fac toate caracteristicile grozave, ea, cu raportări riguroase, validează multe sentimente pe care oamenii le-au avut despre Sam Altman de foarte mult timp. Evident că l-ai publicat, ai primit reacții la el. Cum te simți acum?
Ei bine, am fost încurajat, de fapt, de măsura în care a fost spart într-o perioadă în care economia atenției este atât de schizofrenică și superficială. Aceasta este o poveste care, din punctul meu de vedere, ne afectează pe toți. Și când mi-am petrecut un an și jumătate din viața mea, iar coautorul meu, Andrew Marantz, și-a petrecut acel timp al lui, încercând cu adevărat să fac ceva criminalistic și meticulos, este întotdeauna pentru că simt că există probleme structurale mai mari care afectează oamenii dincolo de individ și companie în centrul poveștii.
Sam Altman, pe fundalul culturii hype-ului din Silicon Valley și al startup-urilor care cresc la evaluări masive bazate pe promisiuni care s-ar putea sau nu să se împlinească în viitor și o îmbrățișare tot mai mare a unei culturi fondatoare care crede că a spune diferitelor grupuri diferite lucruri conflictuale este o caracteristică, nu obug... Chiar și pe acest fundal, Sam Altman este un caz extraordinar în care toți cei din Silicon Valley care se așteaptă la acele lucruri nu se pot opri să vorbească despre această chestiune a credibilității și onestității sale.
Știam deja că a fost concediat din cauza unei versiuni de acuzații de necinste sau de presupuse minciuni în serie. Dar în mod extraordinar, în ciuda faptului că au existat reportaje minunate, Keach Hagey a făcut o muncă grozavă în acest sens. Karen Hao a făcut o muncă grozavă în acest sens. Nu a existat într-adevăr o înțelegere definitivă a presupuselor dovezi reale și a motivelor pentru care acestea au rămas în afara ochiului public.
Așa că punctul numărul unu este că mă simt încurajat de faptul că unele dintre acele lacune în cunoștințele noastre publice, și chiar în cunoștințele din interiorul Silicon Valley, au fost acum umplute puțin mai mult. Unele dintre motivele pentru care au existat lacune au fost completate puțin mai mult.
Raportăm cazuri în care oamenii din cadrul acestei companii au simțit într-adevăr că lucrurile au fost acoperite sau nu au fost documentate în mod deliberat. Unul dintre lucrurile noi din această poveste este o investigație esențială a unei firme de avocatură realizată de WilmerHale, care este evident o firmă de avocatură mare, credibilă și elegantă, care a făcut investigații asupra Enron și WorldCom, care, apropo, au fost toate voluminoase, ca sute de pagini publicate. WilmerHale a făcut această investigație care a fost cerută de membrii consiliului de administrație care l-au concediat pe Altman ca o condiție a plecării lor, când a scăpat de ei și s-a întors. Și în mod extraordinar – în ochii multor experți juridici cu care am vorbit și în mod șocant în ochii multor oameni din această companie – au ținut să nu scrie. Tot ceea ce a reieșit vreodată din asta a fost un comunicat de presă de 800 de cuvinte de la OpenAI, care a descris ceea ce s-a întâmplat ca o defecțiune a încrederii. Și am confirmat că acest lucru a fost păstrat pentru briefing-uri orale.
Există cazuri în care, de exemplu, un membru al consiliului aparent dorește să voteze împotriva conversiei din forma originală nonprofit a OpenAI într-o entitate cu scop lucrativ și este înregistrată ca o abținere. Există ca un avocat la întâlnire care spune: „Ei bine, asta ar putea declanșa prea mult control.” Iar persoana care dorește să voteze împotrivă este înregistrată ca abținere la toate aparițiile. Există o dispută de fapt. OpenAI susține altfel, așa cum vă puteți imagina. Toate acestea sunt cazuri în care aveți o companie care, prin cont propriu, ne ține viitorul în mâini.
Mizele siguranței sunt atât de acute încât nu au dispărut. Acesta este motivul pentru care această companie a fost înființată ca o organizație nonprofit axată pe siguranță și în cazul în care lucrurile erau ascunse într-un mod în care oamenii credibili din jurul acesteia o considerau mai puțin profesionistă. Și combinați asta cu un fundal în care există atât de puțin apetit politic pentru o reglementare semnificativă. Cred că este o situație foarte inflamabilă.
Ideea pentru mine nu este doar că Sam Altman merită atât de acut aceste întrebări. De asemenea, oricare dintre acești bărbați din acest domeniu, și multe dintre figurile cheie, prezintă, dacă nu această trăsătură particulară idiosincratică, presupusă minciună tot timpul, cu siguranță un anumit grad de mentalitate de cursă până la fund, în care oamenii care au fost siguriști au diluat acele angajamente și toată lumea este într-o poziție de cursă.
Cred că, în timp ce ne uităm la scurgerile recente din Anthropic, există o persoană care își pune întrebarea cine ar trebui să aibă degetul pe buton în această piesă. Răspunsul este că, dacă nu avem o supraveghere semnificativă, cred că trebuie să punem întrebări serioase și să încercăm să scoatem la suprafață cât mai multe informații despre toți acești tipi. Așa că am fost încurajat de ceea ce pare o conversație semnificativă despre asta sau de începuturile uneia.
Motivul pentru care am întrebat-o așa este că ai lucrat la asta timp de un an și jumătate. Cred că ai vorbit cu 100 de oameni cu coautorul tău, Andrew. Este mult timp pentru a găti o poveste. Mă gândesc la ultimul an și jumătate în AI în special, și băiete, atitudinile și valorile tuturor acestor personaje s-au schimbat foarte repede.
Poate nimeni mai mult decât Sam Altman, care a început ca câștigător implicit pentru că lansase ChatGPT și toată lumea credea că asta va prelua doar Google. Și apoi Google a răspuns, ceea ce părea să-i surprindă că Google va încerca să-și protejeze afacerea, poate una dintre cele mai bune afaceri din istoria tehnologiei, dacă nu istoria afacerilor. Anthropic a decis că se va concentra pe întreprindere. Se pare că preia o conducere dominantăacolo, deoarece utilizarea AI de către întreprindere este atât de mare.
Acum, OpenAI își reorientează produsul de la „vom lua pe Google” la Codex, iar ei vor prelua întreprinderea. Pur și simplu nu-mi dau seama dacă, pe parcursul reportajului tău din ultimul an și jumătate, simte că personajele cu care vorbeai s-au schimbat? La fel ca atitudinile și valorile lor, acestea s-au schimbat?
Da. Cred, în primul rând, că critica care este explorată în această piesă, venită de la mulți oameni din cadrul acestor companii în acest moment - că aceasta este o industrie care, în ciuda mizei existențiale, coboară într-o fel de cursă până la capăt în materie de siguranță și în care viteza depășește orice altceva - această îngrijorare a devenit mai acută. Și cred că acele preocupări au fost mai validate pe măsură ce a trecut un an și jumătate. Simultan, atitudinile față de Sam Altman s-au schimbat în mod specific. Când am început să vorbim cu surse pentru acest lucru, oamenii au fost cu adevărat, foarte sfioși să fie citați despre asta și să consemneze despre asta.
Până la sfârșitul raportării noastre, aveți un corp de rapoarte în care oamenii vorbesc despre asta în mod foarte deschis și explicit și aveți membri ai consiliului care spun lucruri de genul: „Este un mincinos patologic. Este un sociopat.” Există o gamă largă de perspective de la „Acest lucru este periculos având în vedere mizele de siguranță și avem nevoie de lideri ai acestei tehnologii care au o integritate ridicată”, până la „Uitați mizele de siguranță, acesta este un comportament insuportabil pentru orice director al oricărei companii importante, că pur și simplu creează prea multe disfuncții”.
Deci conversația a devenit mult mai explicită într-un mod care poate fi întârziat, dar este încurajatoare într-un sens. Și Sam Altman, spre creditul său... Piesa este foarte corectă și chiar generoasă, aș spune, pentru Sam. Acesta nu este genul de piesă în care erau multe chestii „te-am prins”. Am petrecut multe, multe ore la telefon cu el în timp ce terminam asta și l-am auzit cu adevărat.
După cum vă puteți imagina, într-o piesă ca aceasta, nu totul ajunge. Unele dintre acele cazuri din acesta au fost pentru că ascultam cu sinceritate. Și dacă Sam chiar argumenta că mă simțeam purtat de apă, că ceva, chiar dacă ar fi adevărat, ar putea fi senzaționalist, am greșit într-adevăr pe partea de a menține acest lucru criminalistic și măsurat. Așadar, cred că acest lucru este primit în mod corect și sper doar că această înregistrare faptică acumulată în această perioadă de timp poate declanșa o conversație mai încurajatoare despre necesitatea supravegherii.
Aceasta este de fapt următoarea mea întrebare. Cred că ai vorbit cu Sam de duzină de ori în timpul raportării acestei povești. Din nou, sunt multe conversații pe o perioadă lungă de timp. Credeai că Sam s-a schimbat pe parcursul raportării în ultimul an și jumătate?
Da. Cred că una dintre cele mai interesante subploturi din aceasta este că Sam Altman vorbește și despre această trăsătură mai explicit decât a făcut-o în trecut. Poziția lui Sam în această piesă nu este de genul „Nu e nimic acolo, nu este adevărat; nu știu despre ce vorbești.” Poziția pe care o are este că spune că acest lucru este atribuit unei tendințe plăcute oamenilor și unui fel de aversiune la conflict. El recunoaște că i-a cauzat probleme, mai ales la începutul carierei sale.
El spune: „Ei bine, trec de asta sau, într-o oarecare măsură, am trecut de asta.” Cred că ceea ce este cu adevărat interesant pentru mine este contingentul de oameni cu care am vorbit, care nu erau doar un fel de susținători ai siguranței, nu doar cercetătorii tehnici de bază, care de multe ori tind să aibă aceste preocupări acute privind siguranța, ci și investitori pragmatici, mari. Ei sunt susținători ai lui Sam, care, în unele cazuri, se uită la această întrebare și vorbesc chiar că a jucat un rol cheie în revenirea lui după concediere. Acum, la această întrebare dacă a fost reformat și în ce măsură este acea schimbare semnificativă, ei spun: „Ei bine, i-am oferit beneficiul îndoielii la momentul respectiv”.
Mă gândesc în special la un investitor proeminent care a spus: „Dar de atunci, pare clar că nu a fost scos în spatele magaziei de lemne”, care a fost expresia pe care a folosit-o acesta, în măsura în care era necesar. Drept urmare, se pare că aceasta este acum o trăsătură stabilă. Vedem asta într-un mod continuu. Puteți privi unele dintre cele mai mari afaceri ale OpenAIrelațiile și felul în care ele poartă greutatea acelei neîncrederi într-un mod continuu.
Ca și în cazul Microsoft, vorbești cu directori de acolo și aceștia au îngrijorări foarte acute și catalizate recent. Există acest caz în care, în aceeași zi, OpenAI își reafirmă exclusivitatea cu Microsoft în ceea ce privește modelele de AI fără stat subiacente, anunță, de asemenea, un nou acord cu Amazon, care are legătură cu vânzarea de soluții de întreprindere pentru construirea de agenți AI care au stat, adică au memorie.
Vorbești cu oamenii Microsoft și ei spun: „Nu se poate face fără a interacționa cu lucrurile de bază pentru care avem un acord de exclusivitate”. Așadar, acesta este doar unul dintre numeroasele exemple mici în care această trăsătură are tendințe în activitatea comercială continuă tot timpul și este un subiect de îngrijorare activă în cadrul consiliului OpenAI, în suita sa executivă și în comunitatea tehnologică mai largă.
Continui să spui acea „trăsătură”. Există o linie în poveste care pentru mine pare ca teza și este o descriere a trăsăturii pe care o descrii. Este că „Sam Altman nu este constrâns de adevăr” și că are „două trăsături care nu se văd aproape niciodată la aceeași persoană: prima este o dorință puternică de a fi pe placul oamenilor, de a fi plăcut în orice interacțiune dată, iar a doua este o lipsă de preocupare aproape sociopată pentru consecințele care ar putea veni din înșelarea pe cineva”.
Trebuie să vă spun că am citit acea propoziție de 500 de ori și am încercat să-mi imaginez spunând mereu ceea ce vor să-i placă oamenii și apoi să nu mă supăr când se simt mințiți. Și nu mi-am putut face starea emoțională să înțeleagă cum acele lucruri pot exista la aceeași persoană. Ai vorbit mult cu Sam și ai vorbit cu oameni care au experimentat aceste trăsături. Cum o face?
Da. Este interesant la nivel uman, deoarece abordez astfel de organisme de raportare cu un accent real pe umanizarea pe oricine se află în centrul ei și căutând înțelegere profundă și empatie. Când am încercat să abordez asta dintr-un punct de vedere mai uman și să spun: "Hei, ar fi devastator pentru mine dacă atât de mulți oameni cu care am lucrat ar spune că sunt un mincinos patologic. Cum iei această greutate? Cum vorbești despre asta în terapie? Care este povestea pe care ți-o spui despre asta?"
Am un fel de, din punctul meu de vedere, poate platitudini pe Coasta de Vest despre asta, cum ar fi „Da, îmi place munca de respirație”. Dar nu prea mult sentimentul încurajator de auto-confruntare profundă pe care cred că l-am avea probabil mulți dintre noi dacă am vedea acest tip de feedback despre comportamentul nostru și despre tratamentul nostru față de oameni.
Cred că asta se referă și la răspunsul mai larg la întrebare. Sam afirmă că această trăsătură a cauzat probleme, dar și că face parte din ceea ce l-a împuternicit să accelereze creșterea OpenAI atât de mult încât este capabil să se unească și să mulțumească diferite grupuri de oameni. El convinge constant toate aceste circumscripții aflate în conflict că ceea ce le pasă este ceea ce îi pasă lui. Și aceasta poate fi o abilitate cu adevărat utilă pentru un fondator. Am vorbit cu investitori care apoi spun: „Ei bine, poate că este o abilitate mai puțin utilă pentru a conduce efectiv o companie, deoarece seamănă atât de multă discordie”.
Dar, din partea personală a lui Sam, cred că lucrul pe care îl înțeleg atunci când încerc să mă conectez la nivel uman este lipsa aparentă a unei confruntări mai profunde, reflecție și responsabilitate personală, care informează și această superputere sau răspundere pentru o companie care se pregătește pentru o IPO.
El este cineva care, în cuvintele unui fost membru al consiliului de administrație, pe nume Sue Yoon, care figurează în lucrare, spunând că până la punctul de „neperformanță” este expresia pe care o folosește, este capabil să creadă cu adevărat realitatea schimbătoare a argumentelor sale de vânzări sau este capabil să se convingă de ele. Sau, cel puțin, dacă nu le crede, este capabil să le răsfoiască fără a se îndoi de sine.
Cred că lucrul despre care vorbești, unde tu sau eu am putea, în timp ce spunem acest lucru și realizăm că este în conflict cu cealaltă asigurare pe care am făcut-o, avem un moment de înghețare sau de verificare. Cred că nu se întâmplă cu el. Și există o cultură mai largă a hype-ului din Silicon Valley și o cultură a fondatorului care îmbrățișează acest lucru.
Este amuzant. The Verge se bazează pe ceea ce înseamnă recenzii ale unui produsprogram. Este inima a ceea ce facem aici. Dețin un trilion de dolari din cercetare și dezvoltare Apple o dată pe an și spun: „Acest telefon este un șapte”. Și într-un fel legitimează toate rapoartele noastre și opiniile noastre în altă parte. Avem o funcție de evaluare și petrecem atât de mult timp doar privind produsele AI și spunând: „Funcționează?”
Se pare că lipsește din multe dintre conversațiile despre AI așa cum este astăzi. Există o conversație nesfârșită despre ceea ce ar putea face, cât de periculos ar putea fi. Și apoi te detaliezi și spui: „Într-adevăr face ceea ce ar trebui să facă astăzi?” În unele cazuri, răspunsul este da. Dar în multe, multe cazuri, răspunsul este nu.
Se pare că se leagă de cultura hype pe care o descrii și, de asemenea, de sentimentul că, ei bine, dacă spui că va face ceva și nu, și cineva se simte rău, este în regulă pentru că suntem la următorul lucru. Asta e în trecut. Și în AI în special, Sam este atât de bun în a face marile promisiuni.
Chiar săptămâna aceasta, cred că în aceeași zi în care a fost publicată povestea ta, OpenAI a lansat un document de politică care spunea că trebuie să regândim contractul social și să avem burse pentru eficiența AI de la guvern. Aceasta este o mare promisiune despre modul în care unele tehnologii ar putea modela viitorul lumii și modul în care trăim, și toate acestea se bazează pe tehnologia care funcționează exact în modul în care poate s-a promis că va funcționa sau ar trebui să funcționeze.
L-ai găsit vreodată pe Sam care se îndoiește de AI care se transformă în AGI sau superinteligență sau ajunge la linia de sosire? Pentru că acesta este lucrul despre care mă întreb cel mai mult. Există vreo reflecție despre dacă această tehnologie de bază poate face toate lucrurile pe care ei spun că le poate face?
Este exact setul potrivit de întrebări. Există tehnologi credibili cu care am vorbit în acest corp de raportare - și, evident, Sam Altman nu este unul; este un om de afaceri – care spune că modul în care Sam vorbește despre cronologia acestei tehnologii este departe. Există postări pe blog de câțiva ani în care Sam spune: "Am ajuns deja la orizontul evenimentului. AGI este, practic, aici. Superinteligența este la colț. Vom fi pe alte planete. Vom vindeca toate formele de cancer." Într-adevăr, nu înfrumusețez.
Cel de cancer este de fapt interesant, că Sam îl încurajează pe persoana care teoretic a vindecat cancerul câinelui său cu ChatGPT și pur și simplu nu s-a întâmplat. Ei au discutat cu ChatGPT și asta i-a ajutat să îndrume unii cercetători care chiar au făcut munca, dar unul la unu, acest instrument a vindecat acest câine nu este de fapt povestea.
Mă bucur că ai ridicat acest aspect, deoarece vreau să trec la acest punct mai important despre momentul în care atât potențialul, cât și riscul tehnologiei vor fi într-adevăr conferite. Dar merită menționate aceste mici dezavantaje care se întâmplă constant de la Sam Altman, unde pare să întruchipeze această trăsătură din nou.
Adică, să folosesc exemplul raportului WilmerHale, unde aveam aceste informații care nu fuseseră scrise și doream să știm dacă brieful oral de-a lungul drumului a fost dat altcuiva decât cei doi membri ai consiliului de administrație, Sam, care a ajutat la instalarea acestuia pentru a-l supraveghea. Și a spus: „Da, da, nu, cred că a fost dat tuturor celor care s-au alăturat consiliului după aceea.” Și avem o persoană care cunoaște direct situația care spune că este pur și simplu o minciună. Și chiar pare să fie cazul, că este neadevărat. Dacă vrem să fim generoși, poate că a fost dezinformat.
Există multe dintre aceste asigurări întâmplătoare. Și folosesc acest exemplu în parte pentru că acesta este un exemplu grozav de disimulare, să-i spunem, care poate avea consecințe reale din punct de vedere legal. Nu trebuie să vă spun, în conformitate cu legea corporativă din Delaware, dacă această companie IPO, acționarii ar putea, în conformitate cu secțiunea 220, să se plângă de acest lucru și să solicite documentația subiacentă. Există deja membri ai consiliului de administrație care spun lucruri de genul „Ei bine, așteaptă puțin, acel briefing ar fi trebuit să aibă loc”.
Așa că aceste lucruri care par să-i sară din gură tot timpul, pot avea efecte reale de mișcare a pieței, efecte reale pentru OpenAI. Readucându-l la genul de limbaj de hype utopic care a reapărut, cred că nu întâmplător în ziua în care această piesă a apărut, ci ne afectează pe toți, pentru că pericolele sunt atât de acute în ceea ce privește modul în care este.fiind desfășurat în armament, felul în care este folosit pentru a identifica agenții de război chimic, potențialul de dezinformare și din cauza modului în care hype-ul utopic pare să determine mulți economiști credibili să spună: „Aceasta are toate semnele unei bule”.
Chiar și Sam Altman a spus: „Cineva va pierde mulți bani aici”. Acest lucru ar putea afecta o mare parte a creșterii economice americane și globale, dacă ar exista o adevărată perforare a unei bule care implică toate aceste companii care fac afaceri între ele, mergând all-in pe IA în timp ce împrumută atât de mult. Deci, ceea ce spune Sam Altman contează și cred că preponderența oamenilor din jurul lui, ai menționat că am vorbit cu mai mult de o sută, de fapt a fost cu mult peste o sută. Am avut o conversație la linia de sosire în care ne-a spus: „Ar fi prea meschin să spun că este un număr mult mai mare?” Și ne-am spus: „Da, hai să minimizăm. O să o jucăm cool.” Dar erau atât de mulți oameni și o majoritate atât de semnificativă dintre ei care spuneau: „Aceasta este o îngrijorare”. Și cred că tocmai de aceea.
Lasă-mă să te întreb despre acel număr. După cum ați menționat, oamenii au devenit din ce în ce mai deschiși cu preocupările pe măsură ce trecea timpul. Se simte ca presiunea din jurul bulei - cursa pentru a câștiga, pentru a plăti toată această investiție, pentru a deveni câștigător, la IPO - a schimbat o mulțime de atitudini. Cu siguranță a creat mai multă presiune asupra lui Sam și OpenAI.
Am publicat o poveste săptămâna aceasta despre vibrațiile OpenAI. Povestea ta face parte din ea, dar schimbări masive de personal în rândurile executive la OpenAI - oamenii vin și pleacă. Cercetătorii se îndreaptă cu toții, în mare parte către Anthropic, ceea ce cred că este cu adevărat interesant. Puteți vedea doar că această companie simte presiunea și răspunde la acea presiune într-un fel.
Dar apoi mă gândesc la concedierea lui Sam. Acest lucru este doar memorabil pentru mine. Nu este memorabil pentru nimeni altcineva, dar am primit un apel la Grădina Zoologică din Bronx la 19:00 într-o vineri și cineva spunea că vor încerca să-l aducă înapoi pe Sam. Și apoi ne-am petrecut weekendul urmărind acea poveste. Și am zis: „Sunt la grădina zoologică. Ce vrei să fac aici?” Și răspunsul a fost: „Rămâneți la telefon”. Ei bine, fiica mea a spus: „Începe la telefon”. Și asta am făcut.
A fost plimbare sau moarte să-l aducă pe Sam înapoi. Compania a spus: „Nu, nu lăsăm consiliul să-l concedieze pe Sam Altman”. Investitorii, ei sunt citați în articolul tău, „Am plecat la război”, cred că este poziția Thrive Capital, „pentru a-l aduce pe Sam înapoi”. Microsoft a intrat în război pentru a-l recupera pe Sam. Este mai târziu, iar acum toată lumea spune: "Vom merge la IPO. Am ajuns la linia de sosire. Ne-am recuperat tipul și ne va duce la linia de sosire. Ne îngrijorează că este un mincinos."
De ce a fost un război pentru a-l aduce înapoi atunci? Pentru că nu pare că nimic s-a schimbat cu adevărat. Vorbești despre memoriile pe care Ilya Sutskever și [CEO-ul antropic] Dario Amodei le-au păstrat în timp ce erau contemporani cu Sam Altman. Preocuparea numărul unu a lui Ilya a fost că Sam este un mincinos.
Nimic din toate acestea nu s-a schimbat. Atunci de ce a fost război să-l aducă înapoi? Și acum că suntem la linia de sosire, se pare că toate preocupările sunt la vedere.
Ei bine, în primul rând, îmi pare rău pentru fiica ta și partenerul meu și tuturor celorlalți oameni din jurul jurnaliștilor.
[Râde] A fost un weekend pentru toată lumea.
Da, preia viața cuiva, iar această poveste o are cu siguranță pe a mea, în ultima perioadă de timp. De fapt, se referă la această temă a jurnalismului și accesului la informație, cred. Investitorii care s-au dus la război pentru Sam și toți au jucat un rol în a se asigura că acesta se întoarce, iar consiliul de administrație care fusese special conceput pentru a proteja misiunea unei organizații nonprofit de a pune siguranța peste creștere și de a concedia un director dacă nu li se putea avea încredere în asta, au plecat. Asta a fost tot pentru că, da, stimulentele pieței au existat, nu?
Sam a reușit să convingă oamenii: „Ei bine, compania se va prăbuși”. Dar motivul pentru care a avut sprijin a fost lipsa de informații. Acei investitori, în multe cazuri, spun acum: „Mă uit în urmă și cred că ar fi trebuit să am mai multe preocupări dacă aș fi știut pe deplin care sunt pretențiile și care sunt preocupările.”
Nu toate;opiniile variază și cităm o serie de opinii, dar există unele semnificative care acționau pe baza unor informații foarte parțiale. Placa care l-a concediat pe Sam a fost, în cuvintele unei persoane care obișnuia să fie pe tablă, „foarte JV”, și au zbătut mingea din greu. Și documentăm plângerile subiacente, iar oamenii pot decide singuri dacă se acumulează în genul de îngrijorare urgentă pe care au simțit-o că este, dar acel argument și acele informații nu au fost prezentate.
Au primit ceea ce unii dintre ei recunosc acum ca fiind sfaturi juridice proaste. Pentru a-l descrie, vă veți aminti citatul și, probabil, mulți dintre ascultătorii și spectatorii dvs. își vor aminti citatul ca pe o lipsă de candoare. La asta s-a redus, iar apoi, în esență, nu au primit apeluri.
Nu acceptau apeluri. Sunt sigur că ai încercat. Toți cei pe care îi cunosc au încercat și s-a ajuns la punctul în care, ca jurnalist, nu ar trebui să dai sfaturi surselor tale, dar am spus: „Acest lucru va dispărea dacă nu începi să-ți explici.”
Și asta s-a întâmplat. Uitați de jurnaliști. Ai spus-o pe Satya Nadella: „Ce naiba s-a întâmplat? Nu pot convinge pe nimeni să-mi explice.” Și acesta este principalul susținător financiar al companiei. Și apoi, Satya îl sună pe [cofondatorul LinkedIn], Reid Hoffman, iar Reid îl sună și îi spune: „Nu știu ce naiba s-a întâmplat”.
Ei sunt de înțeles în acel vid de informații, căutând indicatorii tradiționali non-AI care ar justifica o concediere atât de urgentă și bruscă. Cum ar fi, bine, au fost crime sexuale? A fost delapidare? Și întregul argument subtil, dar cred că semnificativ, că această tehnologie este diferită și că acest tip de acumulare constantă de trădări mai mici ar putea avea mize semnificative atât pentru această afacere, cât și poate pentru lume, a fost în mare parte pierdut. Deci stimulentele capitaliste au câștigat, dar și oamenii care au făcut-o au ieșit și nu au funcționat întotdeauna cu informații complete.
Vreau să întreb doar despre aspectul „ce crede toată lumea că este” pentru o clipă, pentru că cu siguranță am văzut știrile și am spus: „Oh, trebuie să se fi întâmplat ceva rău.” Ați făcut o mulțime de rapoarte #MeToo, celebru. Ai spart povestea lui Harvey Weinstein.
Ați petrecut mult timp raportând aceste afirmații despre care cred că ați decis că în cele din urmă sunt nefondate: că Altman a agresat sexual minori sau a angajat lucrători sexuali sau chiar a ucis un denunțător OpenAI. Adică, tu ești persoana care poate raporta aceste lucruri cel mai riguros. Te-ai hotărât că nu a ajuns la nimic?
Ei bine, uite, nu sunt în treaba să spun că ceva a ajuns în nimic. Ceea ce pot spune este că am petrecut luni de zile uitându-mă la aceste afirmații și nu am găsit o coroborare pentru ele. Și mi-a fost surprinzător faptul că acești tipi, aceste companii care au atât de multă putere asupra viitorului nostru, își petrec cu adevărat o cantitate disproporționată din timpul și resursele lor într-o luptă copilărească cu noroi.
Un director executiv o descrie drept „Shakespearian”. Suma de bani a investigatorilor particulari și a dosarelor de opoziție întocmite este necruțătoare. Iar nefericitul este că genul de lucruri salate, care sunt repetate de concurenții lui Sam, sunt doar un fapt presupus, nu? Există această acuzație că urmărește băieți minori și, la multe cocktail-uri din Silicon Valley, auzi asta. Pe circuitul conferinței, am auzit-o doar repetată de directori credibili și proeminenți: „Toată lumea știe că acesta este un fapt”.
Lucrul trist este că vorbesc despre de unde vine acest lucru, despre diferiții vectori prin care este transmis. Elon Musk și asociații săi se pare că promovează dosare cu adevărat hardcore atât de mult. Sunt vaporoase atunci când începi să te uiți la afirmațiile subiacente. Lucrul trist este că într-adevăr ascunde criticile bazate mai mult pe dovezi de aici, despre care cred că merită cu adevărat supraveghere și considerație urgentă.
Cealaltă temă care apare cu adevărat în poveste este aproape un sentiment de teamă că Sam are atât de mulți prieteni - a investit în atât de multe companii, de la rolul său anterior de CEO al Y Combinator, până la investițiile personale, dintre care unele sunt în conflict direct cu rolul său de CEO al OpenAI - și este liniște în jurul lui.
M-a frapat când citeam un rând în special. Descrii notele lui Ilya Sutskever și tocmai sunt în Silicon Valley. Toată lumeale numește memoriile Ilya. Dar este chiar liniște în jurul asta. Sunt transmise, dar nu sunt discutate. De unde crezi că vine asta? Este frica? Este o dorință de a obține investiții de înger? De unde vine asta?
Cred că este multă lașitate, voi fi sincer. După ce au raportat despre poveștile de securitate națională în care sursele sunt avertizori care sunt în stare să piardă totul și să fie urmăriți penal, ei încă fac ceea ce trebuie și vorbesc despre lucruri pentru a crea responsabilitate. Am lucrat la poveștile legate de crime sexuale pe care le-ați menționat, în care sursele sunt profund traumatizate și se tem de un tip foarte personal de răzbunare.
În multe cazuri, în jurul acestui ritm, ai de-a face cu oameni cu propriul profil și putere. Fie sunt oameni celebri, fie sunt înconjurați de oameni celebri. Au vieți de afaceri robuste. Din punctul meu de vedere, este de fapt o expunere foarte scăzută pentru ei să vorbească despre aceste lucruri. Și, din fericire, acul se mișcă așa cum am vorbit mai devreme, iar oamenii vorbesc acum mai mult.
Dar pentru o perioadă atât de lungă, oamenii chiar au tăcut în privința asta, pentru că cred că cultura din Silicon Valley este atât de nemilos de autointeresată și nemiloasă de afaceri și de creștere. Așadar, cred că acest lucru îi afectează chiar și pe unii dintre oamenii care au fost implicați în concedierea lui Sam, unde ați văzut în zilele următoare, da, un factor care l-a determinat să se întoarcă și să concedieze vechii membri ai consiliului de administrație a fost că a adunat investitori care erau confuzi cu cauza lui.
Dar o alta este că atât de mulți alți oameni din jurul ei, care au avut preocupări și le-au exprimat urgent, s-au împăturit ca niște șervețele și și-au schimbat tonul în momentul în care au văzut că vântul bate în sens invers și au vrut să intre în trenul profitului.
Este destul de întuneric, sincer, din punctul meu de vedere ca reporter.
Unii dintre acești oameni sunt Mira Murati, care, cred, timp de 20 de minute a fost noul CEO al OpenAI. Ea a fost apoi înlocuită. A fost o dinamică foarte complicată și, evident, Sam a revenit. Cealaltă persoană este Ilya Sutskever, care a fost unul dintre voturile pentru a-l înlătura pe Sam, și apoi s-a răzgândit, sau cel puțin a spus că s-a răzgândit, apoi a plecat să-și înființeze propria companie. Știi ce l-a făcut să se răzgândească? Erau doar bani?
Ei bine, și pentru a fi clar, nu îi evidențiez pe cei doi. Mai sunt și alți membri ai consiliului de administrație care au fost implicați în concediere care au tăcut și după aceea. Cred că este ca o problemă colectivă mai largă. Aceștia sunt, în unele cazuri, oameni care au avut fibra morală să tragă alarme și să ia măsuri radicale, iar acest lucru este de lăudat. Și așa vă asigurați responsabilitatea. Acest lucru ar fi putut ajuta o mulțime de oameni care sunt afectați de această tehnologie. Ar fi putut ajuta o industrie să rămână concentrată mai mult pe siguranță.
Dar, având de-a face cu avertizori și oameni care încearcă să declare mult această responsabilitate, vezi, de asemenea, că este nevoie de fibra de a-l scoate și de a-ți respecta convingerile. Și această industrie este cu adevărat plină de oameni care pur și simplu nu își susțin convingerile.
Chiar dacă ei cred că construiesc un Dumnezeu digital care, într-un fel, fie va elimina toată munca, fie va crea mai multă muncă, sau se va întâmpla ceva.
Ei bine, asta e treaba. Așadar, cultura de a nu vă susține convingerile și toate preocupările etice care scad pe margine în momentul în care există căldură sau orice ar putea amenința propria poziție în afacere este poate bine și bună într-o oarecare măsură pentru companiile care fac de obicei orice fel de obiect.
Dar aceștia sunt și aceiași oameni care spun: „Acest lucru ne-ar putea ucide pe toți”. Și din nou, nu trebuie să mergeți la extrema Terminator Skynet. Există un set de riscuri care se materializează deja. Este real și au dreptate să avertizeze despre asta, dar ar trebui să ai pe altcineva un fotoliu să psihologie cum acele două lucruri pot trăi în aceiași oameni în care ei emit avertismente urgente, poate că pun un deget de la picior și încearcă să facă ceva, apoi doar se pliază și tăc.
Tocmai de aceea, puteți avea astfel de cazuri în care lucruri nu sunt scrise și lucruri care sunt măturate sub covor, și nimeni nu vorbește despre asta în mod deschis ani de zile după fapte.
Partea naturală și responsabilă de aici nu ar fi directorii executivi ai acestor companii; ar fi guverne. În Statele Unite, poatesunt guvernele de stat, poate este guvernul federal.
Cu siguranță, toate aceste companii vor să fie globale. Există o mulțime de implicații globale aici. Am urmărit ca OpenAI, Google și Anthropic să determine administrația Biden să elibereze un ordin executiv al AI. A fost destul de fără dinți până la urmă. S-a spus doar că trebuie să vorbească despre ce sunt capabile modelele lor și să lanseze câteva teste de siguranță. Și apoi toți l-au susținut pe Trump, iar Trump a intrat și a șters toate astea și a spus: "Trebuie să fim competitivi. Este un liber pentru toți. Mergeți la asta".
În același timp, toți încearcă să strângă fonduri din țările din Orientul Mijlociu care au mulți bani din petrol și doresc să-și schimbe economiile. Aceștia sunt politicieni. Simt că politicienii ar trebui să înțeleagă cu siguranță că cineva vorbește din ambele părți ale gurii și nu vor fi prea supărați dacă cineva este dezamăgit în cele din urmă, dar și politicienii sunt duși la plimbare. De ce crezi că este?
Acesta este, cred, motivul pentru care piesa contează din punctul meu de vedere și de ce a meritat să petrec tot acest timp și detalii. Ne aflăm într-un mediu în care sistemele care, după cum spuneți, ar trebui să ofere supraveghere sunt pur și simplu golite. Aceasta este o America post-Citizens United, în care fluxul de bani este atât de neîngrădit și este o concentrare specială a acestei probleme în jurul AI, unde există aceste PAC-uri care proliferează și inundă bani pentru a anula reglementările semnificative atât la nivel statal, cât și la nivel federal.
Îl aveți pe [cofondatorul OpenAI] Greg Brockman, al doilea comandant al lui Sam, care contribuie direct într-un mod major la câteva dintre acestea. Aceasta duce la o situație în care există într-adevăr o captare a legiuitorilor și potențialilor autorități de reglementare, iar aceasta este o spirală greu de ieșit. Lucrul trist este că cred că există mișcări de politică simple, dintre care unele sunt testate în altă parte în lume, care ar ajuta la unele dintre aceste probleme de responsabilitate.
Ai putea avea mai multe teste obligatorii de siguranță înainte de implementare, ceea ce se întâmplă deja în Europa pentru modelele de frontieră. Ați putea avea cerințe mai stricte de înregistrare publică scrisă pentru tipurile de investigații interne în care am văzut că lucrurile nu sunt scrise în acest caz. Ai putea avea un set mai robust de mecanisme de revizuire a securității naționale pentru tipurile de ambiții de infrastructură din Orientul Mijlociu pe care le împingea Sam Altman.
După cum spuneți, el făcea această momeală și schimba cu administrația Biden, spunând: „Reglementați-ne, reglementați-ne” și ajutându-i să elaboreze un ordin executiv, iar apoi în momentul în care Trump intră, cu adevărat în primele zile, pur și simplu nu se blochează, „Să accelerăm și să construim un campus masiv de centru de date în Abu Dhabi”. Ai putea avea, acesta este unul foarte simplu, cum ar fi protecțiile avertizorilor. Nu există nicio lege federală care să îi protejeze pe angajații companiei AI care dezvăluie aceste tipuri de preocupări legate de siguranță care sunt difuzate în acest articol.
Avem cazuri în care Jan Leike, care era un tip senior de securitate la OpenAI, conducea super-alinierea la companie. El scrie consiliului de administrație, în esență material de avertizare, spunând că compania ia de la sine misiunea de siguranță. Acestea sunt genurile de oameni care ar trebui să aibă de fapt un organism de supraveghere la care să se adreseze și ar trebui să aibă protecții statutare explicite de tipul pe care îl vedem în alte sectoare. Este simplu de replicat un regim în stil Sarbanes-Oxley.
Cred că, în ciuda cât de acută este problema ca Silicon Valley să preia controlul asupra tuturor pârghiilor puterii și în ciuda cât de golite sunt unele dintre aceste instituții care ar putea oferi supraveghere și balustrade, încă cred în matematica de bază a democrației și a politicienilor interesați. Și apar din ce în ce mai multe date de sondaj, conform cărora majoritatea americanilor cred că preocupările, întrebările sau riscurile AI depășesc în prezent beneficiile.
Așadar, cred că fluxul de bani în politică din AI este în toată puterea noastră să facem din asta o sursă de semn de întrebare în ceea ce privește politicienii. Când americanii merg la vot, ar trebui să verifice dacă oamenii pe care îi votează, mai ales dacă sunt necritici și anti-reglementare, având în vedere toate aceste preocupări, sunt finanțați de interesele speciale ale marilor tehnologie. Așa că cred că dacă oamenii pot citi astfel de articole, pot asculta podcasturi ca acesta și le pasă suficient de mult încât să se gândească critic ladeciziile lor în calitate de alegători, există o oportunitate reală de a genera o circumscripție electorală la Washington de reprezentanți care să țină ochii și să forțeze supravegherea.
Acesta ar putea fi unul dintre cele mai optimiste lucruri pe care le-am auzit vreodată pe cineva spunând despre industria actuală AI. Apreciez asta. Sunt obsedat de sondajul despre care vorbești. Sunt multe acum. Totul este destul de consistent și se pare că, cu cât tinerii, în special, sunt expuși la AI, cu atât sunt mai neîncrezători și mai furioși în legătură cu asta. Aceasta este valența tuturor sondajelor. Și mă uit la asta și cred că, ei bine, da, politicienii inteligenți ar lupta împotriva asta. Ei ar spune doar: „Vom trage la răspundere marele tehnologie”.
Apoi mă gândesc la ultimii 20 de ani, un politician care spune că vor trage la răspundere marile tehnologii și mă chinui să găsesc măcar un moment în care tehnologia marilor să fie trasă la răspundere. Singurul lucru care mă face să cred că acest lucru ar putea fi diferit este că, de fapt, trebuie să construiți centrele de date și puteți vota împotrivă și puteți face o petiție împotriva asta și puteți protesta împotriva asta.
Cred că există un politician căruia tocmai i s-a lovit casa pentru că a votat pentru un centru de date. Tensiunea ajunge, aș numi-o, un vârf de febră. Ați descris insularitatea Silicon Valley. Acesta este un ecosistem închis. Se simte de parcă ei cred că pot conduce lumea. Ei pun o mulțime de bani în politică și se confruntă cu realitatea că oamenii nu iubesc produsele, ceea ce nu le oferă multă acoperire. Cu cât folosesc mai mult produsele, cu atât sunt mai supărați, iar politicienii încep să vadă că susținerea industriei tehnologice are consecințe reale asupra oamenilor pe care îi reprezintă.
Ai vorbit cu atât de mulți oameni. Crezi că este posibil ca industria tehnologică să învețe lecția care se află chiar în fața lor?
Spui că simt că ei cred că pot conduce lumea fără a răspunde. Nici măcar nu cred că are nevoie de calificativul „simt ca”. Adică, te uiți la limbajul pe care îl folosește Peter Thiel, este explicit. Desigur, acesta este un exemplu extrem. Și Sam Altman, deși este apropiat și informat de ideologia lui Thiel într-o oarecare măsură, este un tip foarte diferit de persoană care ar putea suna diferit și mai măsurat până la un punct.
Dar cred că ideologia mai largă pe care o obțineți de la Thiel, care este practic: am terminat cu democrația, nu mai avem nevoie de ea. Avem atât de multe încât vrem doar să ne construim propriile noastre mici buncăre. Nu mai avem de-a face cu Carnegie sau Rockefeller, unde sunt băieți răi, dar simt că trebuie să participe la un contract social și să construiască lucruri pentru oameni. Există un adevărat nihilism care se instalează.
Și cred că a fost doar o spirală care se întărește reciproc în istoria recentă a Americii, în care moguli și companiile private au dobândit putere superguvernamentală, în timp ce instituțiile democratice care ar putea să-i tragă la răspundere sunt golite. Nu mă simt optimist cu privire la ideea că acei băieți s-ar putea trezi într-o zi și să se gândească: „Huh, de fapt, poate că trebuie să participăm în societate și să contribuim la construirea de lucruri pentru oameni.”
Adică, te uiți la exemplul microcosmic din The Giving Pledge, în care a existat un moment în care se pare să fie caritabil, iar acel moment a trecut și chiar ridiculizat. Aceasta este o problemă, problema mai largă a lipsei de răspundere care cred că poate fi rezolvată doar extrinsec. Aceasta trebuie să fie alegătorii care mobilizează și reînvie puterea de supraveghere guvernamentală. Și ai dreptate să spui că principalul vector prin care oamenii ar putea realiza asta este local. Are legătură cu locul în care se construiește infrastructura.
Ați menționat unele dintre tensiunile fierbinți din jurul acestui lucru care duce la violență și amenințări și, evident, nimeni nu ar trebui să fie violent sau amenințător. Și nici nu sunt aici pentru a face recomandări de politică specifice, în afară de a prezenta doar câțiva dintre pașii politicii care par de bază și funcționează în altă parte a lumii, nu? Sau cei care au lucrat în alte sectoare. Nu sunt aici să spun care dintre acestea ar trebui executate și cum.
Cred că trebuie să se întâmple ceva și trebuie să fie extern, nu doar să avem încredere în aceste companii. Pentru că corectacum avem o situație în care companiile care dezvoltă tehnologia și sunt echipate cel mai bine pentru a înțelege riscurile și, de fapt, sunt cele care ne avertizează asupra riscurilor, sunt și cele care nu au decât un stimulent să meargă repede și să ignore aceste riscuri. Și pur și simplu nu aveți nimic care să contrabalanseze asta. Deci, orice reformă ar putea lua în termeni specifici, ceva trebuie să se confrunte cu asta. Și încă revin la acel optimism că oamenii încă contează.
În general, cumpăr argumentul tău. Permiteți-mi să fac un singur contraargument minuscul pe care cred că îl pot articula. Celălalt lucru care s-ar putea întâmpla în afara urnei de vot este că bula să iasă, nu? Că nu toate aceste companii ajung la linia de sosire și că nu există o piață potrivită pentru aplicațiile AI pentru consumatori. Și din nou, nu prea văd încă, dar sunt un recenzor de tehnologie pentru consumatori și poate doar am standarde mai înalte decât toți ceilalți.
Există o piață potrivită în lumea afacerilor, nu? A avea o grămadă de agenți AI care scriu o grămadă de software pare a fi o adevărată piață pentru aceste instrumente. Și puteți citi argumentele acestor companii spunând: "Am rezolvat codificarea și asta înseamnă că putem rezolva orice. Dacă putem face software, putem rezolva orice problemă."
Cred că există limite reale pentru lucrurile pe care software-ul le poate face. Este grozav în lumea afacerilor. Software-ul nu poate rezolva orice problemă în realitate, dar trebuie să ajungă acolo. Au trebuit să termine treaba și poate nu toată lumea ajunge la linia de sosire. Și are loc o prăbușire, și această bulă iese, și poate OpenAI sau Anthropic sau xAI, una dintre aceste companii eșuează și toată această investiție dispare.
Crezi că asta ar afecta asta? De fapt, lasă-mă să pun prima întrebare. OpenAI este chiar în pragul unei IPO. Există multe îndoieli cu privire la Sam ca lider. Crezi că vor ajunge la linia de sosire?
Nu voi face pronostic, dar cred că ridicați un aspect important, și anume că stimulentele de piață contează la nivel intern pentru Silicon Valley, iar precaritatea dinamicii actuale a bulelor ar putea întrerupe, din nou, potențial, potrivit criticilor, cursa până la capăt în materie de siguranță.
Aș adăuga, de asemenea, că, dacă te uiți la precedența istorică în care există un set similar și aparent impenetrabil de stimulente de piață și efecte potențial dăunătoare pentru public, există litigii de impact. Și vedeți asta ca un domeniu de îngrijorare în ultima vreme. Sam Altman este acolo săptămâna aceasta, aprobând legislația care ar proteja companiile AI de unele dintre tipurile de răspundere la care OpenAI a fost expus în procesele de moarte din culpă, de exemplu. Desigur, există dorința de a avea acel scut împotriva răspunderii.
Cred că instanțele pot fi încă un mecanism semnificativ și va fi foarte interesant să vedem cum se formează aceste costume. Ați văzut deja, de exemplu, acțiunea colectivă, din care sunt membri eu și mulți, mulți alți autori pe care îi cunosc, împotriva lui Anthropic pentru utilizarea cărților care erau protejate prin drepturi de autor. Dacă există minți juridice inteligente și reclamanți cărora le pasă, așa cum am văzut istoric în cazuri de la tutun mare la energie mare, puteți obține, de asemenea, niște balustrade și unele stimulente pentru a încetini, a fi atent sau a proteja oamenii în acest fel.
Se pare că întreaga structură a costurilor industriei AI depinde de o interpretare foarte, foarte caritabilă a utilizării loiale. Nu apare suficient. Structura costurilor acestor companii ar putea scăpa de sub control dacă ar trebui să vă plătească pe dumneavoastră și pe toți ceilalți a căror muncă au luat-o, dar este incomod să ne gândim, așa că pur și simplu nu ne gândim la asta. Chiar lângă asta, toate aceste produse funcționează acum în pierdere. Ca și astăzi, toți merg în pierdere. Ard mai mulți bani decât pot câștiga. La un moment dat, trebuie să declanșeze comutatorul.
Sam este un om de afaceri. După cum ați menționat de mai multe ori, el nu este un tehnolog. Este un om de afaceri. Crezi că este gata să dea comutatorul și să spună: „Vom câștiga un dolar?” Pentru că atunci când întreb: „Crezi că OpenAI va reuși?” Este atunci când trebuie să câștige un dolar. Și până acum, Sam și-a câștigat toți dolarii cerând altor oameni banii lor, în loc să-și pună companiile să facă bani.
Ei bine, aceasta este o mare întrebare persistentă pentru Silicon Valley, pentru investitori, pentru public.Vedeți câteva declarații și mutari din OpenAI care par să evidențieze un fel de panică în acest sens. Închiderea Sorei, închiderea unor proiecte auxiliare, încercarea de a se concentra asupra produsului de bază. Dar, pe de altă parte, încă vezi, în același timp, tone de misiuni care se strecoară, nu? Chiar și un mic exemplu - evident că nu este esențial pentru afacerea lor - este achiziția TBPN.
Apropo, chiar când ajungeam la linia de sosire și verificăm faptele, compania care se confruntă cu acest tip de control jurnalistic dobândește o platformă de unde pot avea un control mai direct asupra conversației. Cred că există o mulțime de investitori care sunt îngrijorați, pe baza conversațiilor pe care le-am avut, că această problemă de a promite toate lucrurile tuturor oamenilor se extinde și la această lipsă de concentrare în modelul de business de bază. Și vreau să spun, ești mai aproape de genul de a prognoza și de a urmări piața decât probabil sunt eu. Îți voi lăsa pe tine și pe ascultători să judeci dacă ei cred că OpenAI poate schimba comutatorul.
Ei bine, am pus întrebarea pentru că ai un citat în articol de la un director senior Microsoft și este că „moștenirea lui Sam ar putea ajunge mai asemănătoare cu Bernie Madoff sau Sam Bankman-Fried”, mai degrabă decât cu Steve Jobs. Este o comparație destul de mare. Ce ai zis din acea comparație?
Cred că este o parafrază. Partea Steve Jobs nu a făcut parte din citat. Dar există un fel de sobrietate interesant pentru că este formulat astfel: „Cred că există o șansă mică, dar reală, ca el să ajungă să fie un SBF sau un escroc de nivel Madoff”. Înseamnând, după părerea mea, nu că Sam este acuzat de acele tipuri specifice de fraudă sau crime, ci că gradul de disimulare și înșelăciune de la Sam ar putea avea șanse să fie în cele din urmă amintit la acea scară.
Da, cred că ceea ce este cel mai frapant la acest citat, sincer, este că suni la Microsoft și nu primești un like, „Este o nebunie. Nu am auzit niciodată asta.” Primiți o mulțime de genul „Da, mulți oameni de aici cred asta”, ceea ce este remarcabil. Și cred că se îndreaptă la aceste întrebări legate de afaceri.
Un investitor mi-a spus, de exemplu, în lumina modului în care această trăsătură a persistat în anii de după concediere” – și acesta a crezut, de asemenea, că acesta a fost un gând interesant și sobru – că nu este neapărat că Sam ar trebui să fie la capătul absolut al listei, ca ar trebui să fie cel mai mic dintre cei mai mici în ceea ce privește oamenii care nu trebuie să construiască această tehnologie, pentru ceea ce merită El Musk. poate în partea de jos a listei de oameni care ar trebui să construiască AGI, și sub câteva alte figuri de frunte în acest domeniu.
Așa că am crezut că a fost o evaluare interesantă, și acesta este genul de gândire pe care cred că îl primiți de la adevărații pragmați care poate nu sunt la fel de mult implicați în problemele de siguranță. Sunt doar orientați spre creștere și cred că OpenAI are acum o problemă cu Sam Altman.
Piesa Microsoft este cu adevărat interesantă. Compania aceea credea că sunt în vârful lumii. Că făcuseră această investiție și aveau de gând să depășească toată lumea, mai ales și cel mai important, Google, și să revină în bunăvoința consumatorilor. Nivelul la care se simt arși de această aventură - aceasta este o companie condusă foarte sobru - nu cred că poate fi exagerat.
Ai menționat personajele și trăsăturile de personalitate. Vreau să închei aici cu o întrebare din partea ascultătorilor noștri. Am spus în celălalt show al nostru, The Vergecast, că voi vorbi cu tine și i-am spus: „Dacă ai întrebări pentru Ronan despre această poveste, anunțați-mă.” Deci avem unul aici care cred că se leagă perfect cu ceea ce descrii. Am de gând să ți-l citesc:
„Cum diferă justificările pentru comportamentul rău, acțiunile tăioase ale lui Altman și ale altor lideri AI de justificările pe care Ronan le-a auzit de la alți lideri de profil înalt din politică și mass-media? Nu își justifică toți acțiunile spunând că așa se schimbă lumea? Dacă nu fac asta, va face altcineva?”
Da, sunt multe din astea. Aș spune că ceea ce este distinctiv pentru AI este că miza existențială fiind atât de mare înseamnă că ambele declarații de risc sunt extreme, nu? Îl ai pe Sam Altmanspunând: „Acesta ar putea fi lumini stinse pentru noi toți”. Și, de asemenea, ar putea spune criticii, mania la care se referă cel care pune întrebări este extremă, nu?
Lucrul de care Sam l-a acuzat pe Elon a fost că poate vrea să salveze omenirea, dar numai dacă este el. Genul de componentă a ego-ului a dorinței de a câștiga, care este o încadrare pe care Sam o folosește tot timpul și că aceasta este una pentru cărțile de istorie, asta ar putea schimba totul. Prin urmare, chiar și dincolo de mentalitatea „trebuie să spargi câteva ouă” a majorității întreprinderilor din Silicon Valley, există, în mintea unor figuri care conduc AI, cred, o raționalizare completă pentru orice consecință.
Și uită de spargerea ouălor. Cred că mulți dintre cercetătorii în domeniul siguranței ar spune că riscul să distrugă țara, să distrugă lumea și să distrugă milioane de oameni ale căror locuri de muncă și siguranță sunt în echilibru - asta este unicitatea. Acolo închei, reflectând asupra acestui corp de reportaje, crezând cu adevărat că este mai mult decât Sam Altman. Este vorba despre o industrie care nu este constrânsă și despre o problemă în spirală a Americii care nu poate să o constrângă.
Da. Ei bine, am avut ceva optimism acolo, dar cred că este un loc bun pentru a renunța.
[Râde] Sfârșit pe un ritm negativ.
Desigur. Asta e fiecare poveste grozavă, într-adevăr. Procesul Musk-Altman urmează. Cred că vom învăța mult mai multe aici. Bănuiesc că voi vrea să vorbesc din nou cu tine. Ronan Farrow, vă mulțumesc foarte mult pentru că sunteți pe Decoder.
Multumesc.
Întrebări sau comentarii despre acest episod? Adresați-ne la [email protected]. Chiar citim fiecare e-mail!