Danas na Decoderu razgovaram s Ronanom Farrowom, jednom od najvećih zvijezda istraživačkog novinarstva danas. On je razotkrio priču o Harveyju Weinsteinu, između mnogih, mnogih drugih. A upravo prošli tjedan, on i koautor Andrew Marantz objavili su nevjerojatan detaljan članak u The New Yorkeru o izvršnom direktoru OpenAI-ja Samu Altmanu, njegovoj pouzdanosti i usponu samog OpenAI-ja.
Jedna napomena prije nego što nastavimo ovdje — The New Yorker je objavio tu priču i Ronan i ja smo razgovarali prije nego što smo saznali puni opseg napada na Altmanov dom, tako da nas nećete čuti da razgovaramo o tome izravno. Ali samo da kažem, mislim da je nasilje bilo koje vrste neprihvatljivo, da su ovi napadi na Sama bili neprihvatljivi i da je vrsta bespomoćnosti koju ljudi osjećaju, a koja dovodi do ove vrste nasilja, sama po sebi neprihvatljiva, te je vrijedna puno više pažnje od strane industrije i naših političkih vođa. Nadam se da je to jasno.
Verge pretplatnici, ne zaboravite da dobivate ekskluzivni pristup dekoderu bez oglasa gdje god dobijete svoje podcaste. Kreni ovamo. Niste pretplatnik? Možete se prijaviti ovdje.
Sve to rečeno, puno se toga vrti oko Altmana što je poštena igra za rigorozno izvješćivanje - onakvo izvješćivanje kakvo su Ronan i Andrew namjeravali raditi. Zahvaljujući popularnosti ChatGPT-a, Altman se pojavio kao najvidljivija figura u industriji umjetne inteligencije, pretvorivši nekoć neprofitni istraživački laboratorij u privatnu tvrtku vrijednu gotovo trilijun dolara u samo nekoliko godina. Ali mit o Altmanu duboko je proturječan, podjednako definiran njegovom očitom sposobnošću sklapanja posla i njegovom navodnom sklonošću da... pa, laže svima oko sebe.
Priča je dugačka preko 17 000 riječi i vjerojatno sadrži konačan prikaz onoga što se dogodilo 2023. godine kada je Upravni odbor OpenAI-ja iznenada otpustio Altmana zbog njegovog navodnog laganja, samo da bi on bio gotovo odmah ponovno zaposlen. To je također duboko zaranjanje u Altmanov osobni život, njegova ulaganja, njegovo udvaranje bliskoistočnom novcu i njegova vlastita razmišljanja o njegovom ponašanju iz prošlosti i karakternim osobinama koje su navele jedan izvor da kaže da je "neograničen istinom". Zaista predlažem da pročitate cijelu priču; Pretpostavljam da će se spominjati još mnogo godina.
Ronan je mnogo puta razgovarao s Altmanom tijekom 18 mjeseci koliko je proveo izvještavajući o ovom prilogu, pa je jedna od glavnih stvari koja me zanimala bila da li je osjetio ikakvu promjenu u Altmanu tijekom tog vremena. Uostalom, puno se toga dogodilo u umjetnoj inteligenciji, u tehnici iu svijetu u proteklih godinu i pol.
Čut ćete kako Ronan govori o tome vrlo izravno, kao i njegov osjećaj da su ljudi postali puno spremniji govoriti o Altmanovoj sposobnosti da rasteže istinu. Ljudi se počinju pitati, glasno i službeno, je li ponašanje ljudi poput Altmana zabrinjavajuće, ne samo za AI ili tehnologiju, već i za kolektivnu budućnost društva.
U redu: Ronan Farrow o Samu Altmanu, umjetnoj inteligenciji i istini. Idemo.
Ovaj intervju je malo uređen radi duljine i jasnoće.
Ronane Farrow, vi ste istraživački novinar i suradnik The New Yorkera. Dobrodošli u Decoder.
Drago mi je što sam ovdje. Hvala što ste me primili.
Jako sam uzbuđen što mogu razgovarati s vama. Upravo ste napisali veliki članak za The New Yorker. To je profil Sama Altmana i, na neki način s njim, OpenAI. Moje tumačenje je da, kao i sve velike značajke, to, uz rigorozno izvješćivanje, potvrđuje puno osjećaja koje su ljudi gajili o Samu Altmanu jako dugo vremena. Očito ste to objavili, dobili ste reakcije na to. Kako se sada osjećate zbog toga?
Pa, zapravo sam bio ohrabren mjerom u kojoj se to probilo u vremenu u kojem je ekonomija pažnje tako nekako šizofrena i plitka. Ovo je priča koja se, po mom mišljenju, tiče svih nas. I kad sam proveo godinu i pol svog života, a moj suautor, Andrew Marantz, također je proveo to vrijeme, stvarno pokušavajući napraviti nešto forenzički i pedantno, to je uvijek zato što osjećam da postoje veći strukturalni problemi koji utječu na ljude izvan pojedinca i tvrtke u središtu priče.
Sam Altman, u pozadini kulture reklama u Silicijskoj dolini i startupa koji se dižu do golemih procjena na temelju obećanja koja se mogu, ali i ne moraju ostvariti u budućnosti, i sve većeg prihvaćanja kulture osnivača koji misli da je pričanje različitim grupama o različitim proturječnim stvarima značajka, a ne stvarbug... Čak i u toj pozadini, Sam Altman je izvanredan slučaj u kojem svi u Silicijskoj dolini koji očekuju takve stvari ne mogu prestati govoriti o pitanju njegove pouzdanosti i poštenja.
Već smo znali da je otpušten zbog neke verzije optužbi za nepoštenje ili serijskih navodnih laži. No izvanredno, unatoč činjenici da je bilo izvrsno izvještavanje, Keach Hagey je napravio sjajan posao na ovome. Karen Hao je napravila veliki posao na ovome. Zaista nije bilo konačnog razumijevanja stvarnih navodnih dokaza i razloga zašto su oni ostali podalje od očiju javnosti.
Dakle, točka broj jedan je da sam ohrabren činjenicom da su neke od tih praznina u našem javnom znanju, pa čak i u znanju insajdera iz Silicijske doline, sada još malo popunjene. Još malo popunjeni su neki od razloga zbog kojih je bilo praznina.
Izvještavamo o slučajevima u kojima su se ljudi unutar ove tvrtke stvarno osjećali kao da su stvari zataškane ili namjerno nedokumentirane. Jedna od novih stvari u ovoj priči je ključna istraga odvjetničke tvrtke WilmerHale, koja je očito otmjena, vjerodostojna, velika odvjetnička tvrtka koja je vodila istrage Enrona i WorldComa, koje su, usput rečeno, bile opsežne, poput stotina objavljenih stranica. WilmerHale je proveo ovu istragu koju su zahtijevali članovi odbora koji su otpustili Altmana kao uvjet za njihov odlazak kada ih se riješio, a on se vratio. I što je neobično - u očima mnogih pravnih stručnjaka s kojima sam razgovarao, i šokantno u očima mnogih ljudi u ovoj tvrtki - oni to nisu pisali. Sve što je proizašlo iz toga bilo je priopćenje za tisak od 800 riječi od OpenAI-ja koje opisuje ono što se dogodilo kao slom povjerenja. I potvrdili smo da je to ostalo na usmenim brifinzima.
Postoje slučajevi u kojima, na primjer, član odbora naizgled želi glasati protiv pretvorbe iz izvornog neprofitnog oblika OpenAI-ja u profitni subjekt, a to se bilježi kao suzdržano. Kao da odvjetnik na sastanku kaže: "Pa, to bi moglo izazvati previše ispitivanja." A onaj tko želi glasati protiv biva evidentiran kao suzdržan od svih nastupa. Postoji činjenični spor. OpenAI tvrdi drugačije, kao što možete zamisliti. Sve su to slučajevi kada imate tvrtku koja sama po sebi drži našu budućnost u svojim rukama.
Sigurnosni ulozi su toliko akutni da nisu nestali. To je razlog zašto je ova tvrtka osnovana kao neprofitna organizacija usmjerena na sigurnost, a gdje su stvari bile zamagljene na način da su vjerodostojni ljudi oko nje smatrali manje profesionalnim. I to spojite s pozadinom u kojoj postoji tako malo političkog apetita za smislenom regulacijom. Mislim da je to vrlo zapaljiva situacija.
Poanta za mene nije samo to što Sam Altman zaslužuje ova pitanja tako akutno. Također je da bilo koji od ovih tipova na ovom polju, kao i mnoge od ključnih figura, pokazuju, ako ne ovu posebnu idiosinkratičnu, navodnu osobinu laganja cijelo vrijeme, svakako određeni stupanj mentaliteta utrke do dna, gdje su ljudi koji su bili sigurnosni zastupnici razvodnili te obveze i držanje "svi su u utrci".
Mislim da, dok gledamo nedavna curenja iz Anthropica, postoji osoba koja postavlja pitanje tko bi trebao imati prst na gumbu u ovom članku. Odgovor je, ako nemamo značajan nadzor, mislim da moramo postavljati ozbiljna pitanja i pokušati izvući što više informacija o svim tim tipovima. Stoga sam bio ohrabren onim što se čini kao smislen razgovor o tome, ili počeci takvog razgovora.
Razlog zašto sam to tako pitao je taj što ste radili na ovome godinu i pol. Razgovarali ste sa, vjerujem, 100 ljudi sa svojim koautorom, Andrewom. To je dugo vremena za kuhanje priče. Osobito razmišljam o zadnjih godinu i pol dana u AI, i čovječe, jesu li se stavovi i vrijednosti svih ovih likova vrlo brzo promijenili.
Možda nitko više nego Sam Altman, koji je započeo kao zadani pobjednik jer su izdali ChatGPT i svi su mislili da će to samo preuzeti Google. A onda je Google odgovorio, što ih je izgleda iznenadilo da će Google pokušati zaštititi svoj posao, možda jedan od najboljih biznisa u povijesti tehnologije, ako ne i poslovne povijesti. Anthropic je odlučio da će se usredotočiti na poduzetništvo. Čini se da preuzima vodeću ulogujer je upotreba umjetne inteligencije u poduzećima tako velika.
Sada OpenAI preusmjerava svoj proizvod s "mi ćemo se obračunati s Googleom" na Codex, a oni će se uhvatiti u koštac s poduzećem. Samo ne mogu točno reći jesu li se, tijekom vašeg izvještavanja u posljednjih godinu i pol dana, činili da su se likovi s kojima ste razgovarali promijenili? Poput njihovih stavova i vrijednosti, jesu li se oni promijenili?
Da. Prije svega, mislim da je kritika koja se istražuje u ovom članku, a koja u ovom trenutku dolazi od mnogih ljudi unutar ovih kompanija - da je ovo industrija koja, usprkos egzistencijalnim ulozima, tone u neku vrstu utrke prema dnu po pitanju sigurnosti i gdje brzina nadmašuje sve ostalo - ta zabrinutost je postala akutnija. I mislim da su se te zabrinutosti više potvrdile kako je prošlo godinu i pol dana. Istovremeno, posebno su se promijenili stavovi o Samu Altmanu. Kad smo počeli razgovarati s izvorima o ovome, ljudi su stvarno, jako sumnjali da ih se citira o ovome i da se o tome javno govori.
Do kraja našeg izvješćivanja, imate izvješćivanje u kojem ljudi govore o ovome vrlo otvoreno i eksplicitno, a imate članove odbora koji govore stvari poput: "On je patološki lažac. On je sociopat." Postoji niz perspektiva od: "Ovo je opasno s obzirom na sigurnosne uloge i trebaju nam vođe ove tehnologije koji imaju povišeni integritet", pa sve do poput: "Zaboravite na sigurnosne uloge, ovo je ponašanje koje je neodrživo za bilo kojeg rukovoditelja bilo koje velike tvrtke, da samo stvara previše disfunkcije."
Dakle, razgovor je postao mnogo eksplicitniji na način koji se možda čini zakašnjelim, ali je u jednom smislu ohrabrujući. I Sam Altman, svaka mu čast... Djelo je vrlo pošteno i čak velikodušno, rekao bih, prema Samu. Ovo nije komad u kojem je bilo puno stvari koje te "imaju". Proveo sam mnogo, mnogo sati na telefonu s njim dok smo ovo završavali i stvarno sam ga saslušao.
Kao što možete zamisliti, u ovakvom djelu ne uspijeva sve. Neki od tih slučajeva u ovom su bili zato što sam iskreno slušao. I ako je Sam zapravo iznosio argument za koji sam osjećao da ga nosi voda, da bi nešto, čak i ako je istina, moglo biti senzacionalističko, stvarno sam pogriješio što sam ovo forenzički izmjerio. Stoga mislim da je to s pravom prihvaćeno i samo se nadam da ovaj činjenični zapis koji se nakupio tijekom ovog vremenskog razdoblja može pokrenuti hrabriji razgovor o potrebi za nadzorom.
To je zapravo moje sljedeće pitanje. Mislim da ste razgovarali sa Samom desetak puta tijekom izvještavanja o ovoj priči. Opet, to je mnogo razgovora tijekom dugog vremenskog razdoblja. Mislite li da se Sam promijenio tijekom izvještavanja u zadnjih godinu i pol dana?
Da. Mislim da je jedan od najzanimljivijih podzapleta u ovome to što Sam Altman također govori o ovoj osobini eksplicitnije nego što je to činio u prošlosti. Samovo držanje u ovom djelu nije kao: "Nema tu ničega, to nije istina; ne znam o čemu govoriš." Držanje koje ima je da kaže da se to može pripisati sklonosti ugađanja ljudima i nekoj vrsti averzije sukoba. Priznaje da mu je to stvaralo probleme, osobito na početku karijere.
On kaže: "Pa, ja to prevazilazim, ili sam u određenoj mjeri to prešao." Mislim da je ono što mi je stvarno zanimljivo kontingent ljudi s kojima smo razgovarali, a koji nisu bili samo neka vrsta zagovornika sigurnosti, ne samo temeljni tehnički istraživači koji vrlo često imaju te akutne brige za sigurnost, već i pragmatični, veliki investitori. Oni su Samovi podupiratelji, koji, u nekim slučajevima, gledaju na ovo pitanje i govore o tome da su čak odigrali ključnu ulogu u njegovom povratku nakon otkaza. Sada, na pitanje je li se popravio i u kojoj je mjeri ta promjena značajna, oni kažu: "Pa, u to smo vrijeme sumnjali u njega."
Posebno mislim na jednog istaknutog investitora koji je rekao: "Ali od tada je jasno da nije odveden iza drvarnice", što je bila fraza koju je ovaj upotrijebio, u mjeri u kojoj je to bilo potrebno. Kao rezultat toga, čini se da je to sada stabilna osobina. Vidimo to na kontinuirani način. Možete pogledati neke od najvećih poslova OpenAI-jaodnosima i načinu na koji na neki način trajno nose težinu tog nepovjerenja.
Kao i s Microsoftom, tamo razgovarate s rukovoditeljima i oni imaju zaista akutne i nedavno katalizirane brige. Postoji ovaj primjer kada, na isti dan kada OpenAI ponovno potvrđuje svoju ekskluzivnost s Microsoftom u odnosu na temeljne modele umjetne inteligencije bez statusa, također najavljuje novi ugovor s Amazonom koji se odnosi na prodaju poslovnih rješenja za izgradnju AI agenata koji imaju status, što znači da imaju memoriju.
Razgovarate s ljudima iz Microsofta, a oni kažu: "To nije moguće učiniti bez interakcije s temeljnim stvarima za koje imamo ugovor o ekskluzivnosti." Dakle, to je samo jedan od mnogih malih primjera u kojima ova osobina ima vitice u tekućoj poslovnoj aktivnosti cijelo vrijeme i predmet je aktivne brige unutar OpenAI-jevog odbora, unutar njegovog izvršnog paketa i u široj tehnološkoj zajednici.
Stalno govoriš tu "osobinu". Postoji rečenica u priči koja mi se čini kao teza, a to je opis osobine koju opisujete. To je da "Sam Altman nije sputan istinom" i da ima "dvije osobine koje se gotovo nikada ne vide kod iste osobe: prva je snažna želja da se ugodi ljudima, da mu se sviđa u bilo kojoj interakciji, a druga je gotovo sociopatski nedostatak brige za posljedice koje mogu proizaći iz prevare nekoga."
Moram vam reći, pročitao sam tu rečenicu 500 puta i pokušao sam zamisliti kako uvijek govorim ono što ljudi žele da im se sviđa, a zatim se ne uzrujavam kad osjete da su slagani. I nisam mogao natjerati svoje emocionalno stanje da shvati kako te stvari mogu postojati u istoj osobi. Puno ste razgovarali sa Samom i razgovarali ste s ljudima koji su iskusili te osobine. Kako mu to uspijeva?
Da. Zanimljivo je na ljudskoj razini jer ovakvim tijelima izvještavanja pristupam sa pravim fokusom na humaniziranje onoga tko je u srcu toga i tražeći duboko razumijevanje i empatiju. Kad sam na neki način pokušao pristupiti ovome s više ljudskog stajališta i reći: "Hej, ovo bi bilo poražavajuće za mene kad bi toliko ljudi s kojima sam radio rekao da sam patološki lažac. Kako nosiš tu težinu? Kako pričaš o tome na terapiji? Koju si priču o tome pričaš?"
Dobio sam neke, po mom mišljenju, možda floskule Zapadne obale o tome, poput: "Da, volim rad s disanjem." Ali ne puno ohrabrujućeg osjećaja dubokog suočavanja sa samim sobom za koji mislim da bi mnogi od nas vjerojatno imali da smo vidjeli ovakvu povratnu informaciju o našem ponašanju i našem tretmanu ljudi.
Mislim da se to zapravo odnosi i na širi odgovor na pitanje. Sam tvrdi da je ta osobina uzrokovala probleme, ali i da je to dio onoga što ga je osnažilo da toliko ubrza rast OpenAI-ja da je u stanju ujediniti i zadovoljiti različite skupine ljudi. On stalno uvjerava sve te sukobljene izborne jedinice da je ono do čega je njima stalo ono do čega je i on. A to može biti jako korisna vještina za osnivača. Razgovarao sam s investitorima koji su onda rekli: "Pa, možda je to manje korisna vještina za stvarno vođenje tvrtke jer sije toliko razdora."
Ali sa Samove osobne strane, mislim da je stvar koju primjećujem kada se pokušavam povezati na ljudskoj razini očiti nedostatak dublje konfrontacije, promišljanja i samoodgovornosti, što također govori o toj supermoći ili odgovornosti za tvrtku koja se priprema za IPO.
On je netko tko je, prema riječima jedne bivše članice odbora po imenu Sue Yoon, koja je u zapisniku u članku rekla da je do točke "bezobzirnost" izraz koji koristi, sposoban doista vjerovati u promjenjivu stvarnost njegovih prodajnih prijedloga ili je sposoban uvjeriti sebe u njih. Ili barem ako im ne vjeruje, u stanju je brbljati kroz njih bez značajne sumnje u sebe.
Mislim da stvar o kojoj govorite, gdje bismo vi ili ja mogli, dok govorimo tu stvar i shvaćamo da je to u suprotnosti s drugim jamstvima koja smo dali, možemo na trenutak zamrznuti ili provjeriti sami sebe. Mislim da se to s njim ne događa. A postoji šira hype kultura Silicijske doline i kultura osnivača koja to na neki način prihvaća.
smiješno je The Verge je izgrađen na onome što se svodi na recenzije proizvodaprogram. To je srž onoga što ovdje radimo. Držim trilijun dolara Appleovog istraživanja i razvoja jednom godišnje i kažem: "Ovaj telefon je sedam." I to na neki način legitimizira sva naša izvještavanja i naša mišljenja drugdje. Imamo funkciju evaluacije i provodimo toliko vremena samo gledajući proizvode umjetne inteligencije i pitajući se: "Rade li?"
Čini se da to nedostaje u mnogim razgovorima o umjetnoj inteligenciji kakva je danas. Vode se beskonačni razgovori o tome što bi mogao učiniti, koliko bi mogao biti opasan. A onda istražite i kažete: "Radi li doista ono što bi danas trebao?" U nekim slučajevima odgovor je da. Ali u mnogim, mnogim slučajevima, odgovor je ne.
Čini se da je to povezano s hype kulturom koju opisujete i također sa osjećajem da, dobro, ako kažete da će nešto učiniti, a neće, a netko se osjeća loše, to je u redu jer smo na sljedećoj stvari. To je prošlost. A posebno u umjetnoj inteligenciji, Sam je tako dobar u davanju velikih obećanja.
Upravo ovaj tjedan, mislim da je isti dan kad je vaša priča objavljena, OpenAI je objavio dokument o politici koji kaže da moramo ponovno razmisliti o društvenom ugovoru i dobiti stipendije za učinkovitost AI-ja od vlade. Ovo je veliko obećanje o tome kako bi neka tehnologija mogla oblikovati budućnost svijeta i kako živimo, a sve se to oslanja na tehnologiju koja radi točno onako kako je obećano da će funkcionirati ili bi trebala funkcionirati.
Jeste li ikada vidjeli da Sam sumnja u pretvaranje umjetne inteligencije u AGI ili superinteligenciju ili u dolazak do cilja? Jer to je ono što se najviše pitam. Ima li razmišljanja o tome može li ova ključna tehnologija učiniti sve ono što kažu da može učiniti?
To je točno pravi skup pitanja. Postoje vjerodostojni tehnolozi s kojima smo razgovarali u ovom izvješću – a Sam Altman očito nije jedan od njih; on je poslovna osoba - koja kaže da je način na koji Sam govori o vremenskoj liniji za ovu tehnologiju daleko odmakao. Postoje postovi na blogu unazad nekoliko godina u kojima Sam kaže: "Već smo dosegli horizont događaja. AGI je zapravo ovdje. Superinteligencija je iza ugla. Bit ćemo na drugim planetima. Liječit ćemo sve oblike raka." Zaista, ne uljepšavam.
Ona rak je zapravo zanimljiva, da Sam hype osobu koja je teoretski izliječila rak svog psa ChatGPT-om, a to se jednostavno nije dogodilo. Razgovarali su s ChatGPT-om i to im je pomoglo da usmjere neke istraživače koji su doista obavili posao, ali priča jedan na jedan, ovaj alat izliječio je ovog psa, zapravo nije priča.
Drago mi je da ste spomenuli tu točku jer želim prijeći na ovu veću točku o tome kada će se i potencijal i rizik tehnologije doista ostvariti. Ali vrijedi spomenuti ove male odstupanja koja se stalno događaju od Sama Altmana, gdje se čini da iznova utjelovljuje tu osobinu.
Mislim, da upotrijebim primjer izvješća WilmerHalea, gdje smo imali ove informacije koje su bile skrivene u pisanju, i željeli smo znati je li usmeni sažetak usput dan bilo kome osim dvojici članova odbora koje je Sam pomogao postaviti da ga nadgledaju. A on je rekao: "Da, da, ne, vjerujem da je dano svima koji su se kasnije pridružili odboru." A imamo i osobu koja je neposredno upoznata sa situacijom i kaže da je to jednostavno laž. I čini se da je to stvarno tako, da je neistina. Ako želimo biti velikodušni, možda je bio pogrešno informiran.
Mnogo je tih usputnih uvjeravanja. I koristim taj primjer djelomično jer je to sjajan primjer prikrivanja, nazovimo to, koje može imati stvarne pravne posljedice. Ne moram vam reći, prema korporativnom zakonu Delawarea, ako ova tvrtka bude IPO-a, dioničari se mogu, prema odjeljku 220, žaliti na to i zahtijevati prateću dokumentaciju. Već postoje članovi odbora koji govore stvari poput: "Pa, čekaj malo, taj brifing se trebao održati."
Dakle, ove stvari koje mu se čini da iskaču iz usta cijelo vrijeme, mogu imati stvarne učinke na tržište, stvarne učinke za OpenAI. Vraćajući se na vrstu utopijskog hype jezika koji se ponovno pojavio, mislim da nije slučajno na dan kada je ovo djelo izašlo, također utječe na sve nas, jer su opasnosti tako akutne s obzirom na način na koji jeraspoređen u oružju, način na koji se koristi za identifikaciju kemijskih bojnih agenasa, potencijal dezinformiranja i zbog načina na koji utopijska pompa čini se da potiče mnoge vjerodostojne ekonomiste da kažu: "Ovo ima sve znakove mjehura."
Čak je i Sam Altman rekao: "Netko će ovdje izgubiti mnogo novca." To bi stvarno moglo srušiti velik dio američkog i globalnog gospodarskog rasta, ako dođe do istinskog bušenja mjehura koji uključuje sve te tvrtke koje sklapaju poslove jedna s drugom, idući all-in na AI dok se toliko zadužuju. Dakle, ono što Sam Altman kaže je važno, i mislim da je većina ljudi oko njega, spomenuli ste da smo razgovarali s više od stotinu, zapravo bilo više od stotinu. Imali smo razgovor na ciljnoj crti gdje je bilo kao: "Bi li bilo previše beznačajno reći da je ovoliko veći broj?" A mi smo rekli: "Da, hajdemo umanjiti značaj. Igrat ćemo cool." Ali bilo je toliko ljudi i tako značajna većina njih koja je rekla: "Ovo je zabrinjavajuće." I mislim da je to sve zašto.
Da te pitam za taj broj. Kao što ste spomenuli, ljudi su postajali sve otvoreniji u pogledu zabrinutosti kako je vrijeme prolazilo. Čini se da je pritisak oko mjehura - utrka za pobjedu, za isplatu svih ovih ulaganja, za izlazak kao pobjednik, za IPO - promijenio mnogo stavova. To je svakako stvorilo veći pritisak na Sama i OpenAI.
Ovaj smo tjedan objavili priču samo o vibracijama OpenAI-ja. Vaša je priča dio toga, ali velike promjene osoblja u izvršnim redovima OpenAI-ja — ljudi dolaze i odlaze. Svi su se istraživači uputili, većinom u Anthropic, za koji mislim da je jako zanimljiv. Možete samo vidjeti da ova tvrtka osjeća pritisak i na neki način odgovara na taj pritisak.
Ali onda se sjetim Samovog otkaza. Ovo mi je jednostavno za pamćenje. Nitko drugi to nije za pamćenje, ali u petak u 19 sati nazvao sam izvor u Zoološkom vrtu u Bronxu i netko je rekao da će pokušati vratiti Sama. A onda smo proveli vikend jureći tu priču. A ja sam rekao: "U zoološkom sam vrtu. Što želiš da radim ovdje?" A odgovor je bio: "Ostani na telefonu." Pa, moja kći je rekla: "Skini se s telefona." I to je ono što sam učinio.
Bilo je "jaši ili umri" da se Sam vrati. Ta je tvrtka rekla: "Ne, nećemo dopustiti da odbor otpusti Sama Altmana." Investitori, citirani su u vašem članku, "Otišli smo u rat", mislim da je pozicija Thrive Capitala, "da vratimo Sama." Microsoft je krenuo u rat kako bi vratio Sama. Kasnije je, a sada svi kažu: "Idemo na IPO. Stigli smo do cilja. Vratili smo našeg čovjeka i on će nas dovesti do cilja. Zabrinuti smo da je lažac."
Zašto je tada bio rat da se on vrati? Jer ne čini se da se zapravo išta promijenilo. Govorite o dopisima koje su Ilya Sutskever i [izvršni direktor Anthropica] Dario Amodei vodili dok su bili suvremenici Sama Altmana. Ilyina briga broj jedan bila je da je Sam lažac.
Ništa se od toga nije promijenilo. Pa zašto je onda bio rat da ga se vrati? I sada kada smo na cilju, čini se da su sve brige izašle na vidjelo.
Pa, prije svega, oprostite vašoj kćeri i mom partneru i svim ostalim ljudima oko novinara.
[Smijeh] Bio je to pravi vikend za sve.
Da, preuzima nečiji život, a ova priča definitivno ima i moj, u posljednjem vremenskom razdoblju. Mislim da se to zapravo odnosi na ovu temu novinarstva i pristupa informacijama. Ulagači koji su krenuli u rat za Sama i svi su igrali ulogu u osiguravanju njegova povratka, kao i odbor koji je bio posebno osmišljen kako bi zaštitio misiju neprofitne organizacije da stavi sigurnost ispred rasta i da otpusti izvršnog direktora ako im se to ne može vjerovati, otišli su. To je sve jer, da, tržišni poticaji su bili prisutni, zar ne?
Sam je uspio uvjeriti ljude: "Pa, tvrtka će se jednostavno raspasti." No, razlog zašto je imao podršku bio je nedostatak informacija. Ti investitori, u mnogim slučajevima, sada kažu: "Gledam unatrag i mislim da sam trebao imati više zabrinutosti da sam u potpunosti znao koja su bila potraživanja i koja je bila zabrinutost."
Ne svi;mišljenja su različita, a mi citiramo niz mišljenja, ali postoje značajna koja su postupala na temelju vrlo djelomičnih informacija. Ploča koja je otpustila Sama bila je, prema riječima jedne osobe koja je nekada bila na ploči, "vrlo JV", i oni su jako petljali po loptici. Dokumentiramo temeljne pritužbe i ljudi mogu sami odlučiti hoće li se to akumulirati u onu vrstu hitne brige koju su smatrali, ali taj argument i te informacije nisu predstavljeni.
Dobili su ono što neki od njih sada priznaju kao loš pravni savjet. Da biste to opisali, zapamtit ćete citat, a vjerojatno će se mnogi vaši slušatelji i gledatelji sjećati citata kao nedostatka iskrenosti. Na to se svelo, a onda u biti ne bi odgovarali na pozive.
Nisu odgovarali na pozive. Siguran sam da ste pokušali. Svi koje znam pokušali su i došlo je do točke u kojoj, kao novinar, ne biste trebali davati savjete svojim izvorima, ali ja sam rekao: "Ovo će nestati ako ne počnete objašnjavati."
I to se dogodilo. Zaboravite novinare. Satya Nadella je rekao: "Što se dovraga dogodilo? Ne mogu natjerati nikoga da mi objasni." A to je glavni financijski oslonac tvrtke. A onda imate Satyu koji zove [suosnivača LinkedIna] Reida Hoffmana i Reida koji zove okolo i govori: "Ne znam što se, dovraga, dogodilo."
Razumljivo je da su u toj praznini informacija, tražeći tradicionalne pokazatelje koji nisu AI koji bi opravdali tako hitno, iznenadno otpuštanje. Kao, dobro, jesu li to bili seksualni zločini? Je li to bila pronevjera? I čitav suptilan, ali mislim smislen argument da je ova tehnologija drugačija i da bi ova vrsta stalne akumulacije manjih izdaja mogla imati značajne uloge i za ovaj posao, a možda i za svijet, uvelike je izgubljen. Tako su kapitalistički poticaji pobijedili, ali su i ljudi koji su to uspjeli otišli van i nisu uvijek imali potpune informacije.
Samo želim na trenutak pitati o aspektu "ono što su svi mislili da jest", jer sam sigurno vidio vijesti i rekao sam, "Oh, mora da se dogodilo nešto loše." Puno ste izvještavali o #MeToo, poznato. Provalio si priču o Harveyu Weinsteinu.
Proveli ste puno vremena izvještavajući o ovim tvrdnjama za koje mislim da ste zaključili da su u konačnici neutemeljene: da je Altman seksualno napastvovao maloljetnice ili unajmio seksualne radnice, ili čak ubio zviždača OpenAI-ja. Mislim, ti si osoba koja može najrigoroznije prijaviti ove stvari. Jeste li zaključili da nije ništa?
Pa, gledajte, ne bavim se time da govorim da nešto nije ispalo. Ono što mogu reći je da sam proveo mjesece gledajući ove tvrdnje i nisam našao potvrdu za njih. I bilo mi je zapanjujuće da ti momci, te tvrtke koje imaju toliku moć nad našom budućnošću, doista troše nesrazmjernu količinu svog vremena i resursa u djetinjastoj borbi u blatu.
Jedan rukovoditelj opisuje ga kao "Shakespeareovskog". Količina novca privatnih istražitelja i dosjea opozicije koji se sastavljaju je nemilosrdna. A nesreća je u tome što su takve pogrdne stvari, koje Samovi konkurenti ponavljaju, samo pretpostavljena činjenica, zar ne? Postoji ta tvrdnja da progoni maloljetne dječake, a na mnogim koktel zabavama u Silicijskoj dolini možete to čuti. Na konferencijskom krugu čuo sam kako to ponavljaju vjerodostojni, istaknuti rukovoditelji: "Svi znaju da je ovo činjenica."
Tužna stvar je što govorim o tome odakle to dolazi, različitim vektorima kojima se prenosi. Elon Musk i njegovi suradnici naizgled guraju doista teške dosjee koji ne vode ništa. Isparljive su kad zapravo počnete promatrati temeljne tvrdnje. Tužna stvar je da to stvarno zamagljuje kritike koje se ovdje više temelje na dokazima za koje mislim da stvarno zaslužuju hitan nadzor i razmatranje.
Druga tema koja se stvarno pojavljuje u priči je gotovo osjećaj straha da Sam ima toliko prijatelja - uložio je u toliko mnogo tvrtki od svoje prethodne uloge izvršnog direktora Y Combinatora, pa do njegovog osobnog ulaganja, od kojih su neka u izravnom sukobu s njegovom ulogom izvršnog direktora OpenAI-ja - a oko njega vlada tišina.
Palo mi je na pamet dok sam čitao jedan red posebno. Opisujete bilješke Ilye Sutskevera, a oni su upravo izašli u Silicijskoj dolini. svinaziva ih Ilyjinim dopisima. Ali čak i oko toga vlada tišina. Prenose se okolo, ali se o njima ne raspravlja. Što misliš odakle to dolazi? Je li to strah? Je li to želja za ulaganjem anđela? Odakle to dolazi?
Mislim da je to veliki kukavičluk, bit ću iskren. Nakon što su izvijestili o pričama o nacionalnoj sigurnosti u kojima su izvori zviždači koji mogu izgubiti sve i suočiti se s kaznenim progonom, oni i dalje čine pravu stvar i govore o stvarima kako bi stvorili odgovornost. Radio sam na pričama vezanim uz seksualne zločine koje ste spomenuli, gdje su izvori duboko traumatizirani i boje se vrlo osobne vrste odmazde.
U mnogim slučajevima u ovom ritmu imate posla s ljudima s vlastitim profilom i moći. Ili su sami poznati ljudi ili su okruženi slavnim ljudima. Imaju robustan poslovni život. Po mom mišljenju, za njih je zapravo vrlo malo izloženo govoriti o ovim stvarima. I srećom, igla se pomiče kao što smo ranije govorili, i ljudi sada govore više.
Ali tako dugo vremena ljudi su samo šutjeli o tome jer mislim da je kultura Silicijske doline nemilosrdno samointeresna i nemilosrdno orijentirana na posao i rast. Dakle, mislim da ovo pogađa čak i neke od ljudi koji su bili uključeni u otpuštanje Sama, gdje ste vidjeli u danima nakon toga, da, jedan od faktora koji je doveo do njegovog povratka i otpuštanja starih članova uprave bio je taj što je okupio investitore koji su bili zbunjeni njegovom stvari.
Ali drugo je da su se mnogi drugi ljudi oko toga koji su imali zabrinutosti i koji su ih hitno izrazili jednostavno presavili kao salvete i promijenili melodiju u trenutku kada su vidjeli da vjetar puše u suprotnom smjeru, i željeli su ući u vlak profita.
Prilično je mračno, iskreno, iz mog stajališta kao reportera.
Neki od tih ljudi su Mira Murati, koji je, vjerujem, 20 minuta bio novi izvršni direktor OpenAI-ja. Zatim je zamijenjena. Bila je to vrlo komplicirana dinamika i očito se Sam vratio. Druga osoba je Ilya Sutskever, koji je bio jedan od glasova za uklanjanje Sama, a onda se predomislio, ili je barem rekao da se predomislio, a onda je otišao i osnovao vlastitu tvrtku. Znate li što ga je natjeralo da se predomisli? Je li to bio samo novac?
Pa, i da budemo jasni, ne izdvajam to dvoje. Postoje i drugi članovi odbora koji su bili uključeni u otpuštanje, a koji su nakon toga također ušutjeli. Mislim da je to kao širi kolektivni problem. To su, u nekim slučajevima, ljudi koji su imali moralnu snagu da uzbune i poduzmu radikalne mjere, i to je za svaku pohvalu. I tako osiguravate odgovornost. To je moglo pomoći mnogim ljudima koji su pogođeni ovom tehnologijom. To je moglo pomoći industriji da ostane značajnije usredotočena na sigurnost.
Ali radeći sa zviždačima i ljudima koji često pokušavaju potaknuti tu odgovornost, također vidite da je potrebno striktno istaknuti i stajati iza svojih uvjerenja. A ova industrija je uistinu puna ljudi koji jednostavno ne stoje iza svojih uvjerenja.
Iako misle da grade digitalnog Boga koji će nekako ili eliminirati sav rad ili stvoriti više rada, ili će se nešto dogoditi.
Pa, u tome je stvar. Dakle, kultura nepoštivanja svojih uvjerenja i svih etičkih pitanja koja padaju u stranu u trenutku kada dođe do bilo kakve vrućine ili bilo čega što bi moglo ugroziti vaš vlastiti položaj u poslu možda je sasvim dobro i dobro u određenoj mjeri za tvrtke koje rade kao i obično i izrađuju bilo koju vrstu widgeta.
Ali to su također isti ljudi koji govore: "Ovo bi nas doslovno sve moglo ubiti." I opet, ne morate ići u ekstrem Terminator Skynet. Postoji niz rizika koji se već materijaliziraju. Istina je, i oni su u pravu što upozoravaju na to, ali morao bi netko drugi iz fotelje psihologizirati kako te dvije stvari mogu živjeti u istim ljudima u kojima hitno upozoravaju, možda se zabadaju i pokušavaju nešto učiniti, a onda se samo povuku i ušute.
Upravo zato možete imati takve primjere da se stvari prešućuju i da se stvari guraju pod tepih, a da nitko o tome ne govori ovako otvoreno godinama nakon činjenice.
Prirodna, odgovorna strana ovdje ne bi bili izvršni direktori tih tvrtki; bile bi vlade. U Sjedinjenim Državama, moždato su državne vlade, možda je savezna vlada.
Svakako, sve ove tvrtke žele biti globalne. Ovdje ima puno globalnih implikacija. Gledao sam kako OpenAI, Google i Anthropic navode Bidenovu administraciju da izda izvršnu naredbu o umjetnoj inteligenciji. Na kraju je bilo prilično bezubo. Samo je rečeno da moraju razgovarati o tome za što su njihovi modeli sposobni i objaviti neka sigurnosna testiranja. A onda su svi podržali Trumpa, a Trump je ušao i sve to izbrisao i rekao: "Moramo biti konkurentni. To je besplatno za sve. Samo napred."
U isto vrijeme, svi oni pokušavaju prikupiti sredstva iz zemalja Bliskog istoka koje imaju mnogo novca od nafte i žele promijeniti svoja gospodarstva. To su političari. Osjećam da bi političari svakako trebali razumjeti da netko govori na obje strane i neće biti previše uzrujani ako netko na kraju bude razočaran, ali i političare se zabavlja. Što mislite zašto je to tako?
Ovo je stvarno, mislim, zašto je djelo važno po mom mišljenju i zašto je bilo vrijedno potrošiti toliko vremena i detalja na njega. Nalazimo se u okruženju u kojem su sustavi koji bi, kako kažete, trebali obavljati nadzor, jednostavno ispražnjeni. To je post-građanska Ujedinjena Amerika, gdje je protok novca tako nesputan, a posebna je koncentracija tog problema oko umjetne inteligencije, gdje postoje ti PAC-ovi koji se razmnožavaju i preplavljuju novac u poništavanje značajne regulative i na državnoj i na federalnoj razini.
Imate [suosnivača OpenAI-ja] Grega Brockmana, Samovog drugog zapovjednika, koji izravno značajno doprinosi nekoliko njih. To dovodi do situacije u kojoj stvarno postoji zarobljenost zakonodavaca i potencijalnih regulatora, a to je spirala iz koje se teško izvući. Tužno je to što mislim da postoje jednostavni politički potezi, od kojih se neki isprobavaju drugdje u svijetu, koji bi pomogli u nekim od ovih problema odgovornosti.
Mogli biste imati više obveznih sigurnosnih testiranja prije postavljanja, što je nešto što se već događa u Europi za granične modele. Mogli biste imati strože pisane zahtjeve za javnu evidenciju za vrste internih istraga u kojima smo vidjeli da se stvari skrivaju od pisanja u ovom slučaju. Mogli biste imati robusniji skup mehanizama za reviziju nacionalne sigurnosti za one vrste bliskoistočnih infrastrukturnih ambicija koje je gurao Sam Altman.
Kao što kažete, on je radio taj mamac i mijenjao se s Bidenovom administracijom, govoreći: "Regulirajte nas, regulirajte nas," i pomagao im u izradi izvršne naredbe, a onda u trenutku kad je Trump ušao, uistinu u prvim danima, jednostavno bez ograničenja, "Ubrzajmo i izgradimo ogroman kampus podatkovnog centra u Abu Dhabiju." Mogli ste, ovo je vrlo jednostavno, poput zaštite zviždača. Ne postoji savezni zakon koji štiti zaposlenike AI tvrtki koji otkrivaju takve sigurnosne probleme koji se emitiraju u ovom prilogu.
Imamo slučajeve u kojima je Jan Leike, koji je bio viši čovjek za sigurnost u OpenAI-ju, vodio super usklađivanje u tvrtki. On piše upravi, u biti je to materijal za zviždače, govoreći da tvrtka skreće s tračnica u svojoj sigurnosnoj misiji. To su ljudi koji bi zapravo trebali imati nadzorno tijelo kojemu se mogu obratiti i trebali bi imati izričitu zakonsku zaštitu kakvu vidimo u drugim sektorima. Ovo je jednostavno repliciranje režima u stilu Sarbanes-Oxley.
Mislim da unatoč tome koliko je akutan problem preuzimanja kontrole nad svim polugama moći u Silicijskoj dolini i unatoč tome koliko su ispražnjene neke od ovih institucija koje bi mogle osigurati nadzor i zaštitne ograde, ja još uvijek vjerujem u osnovnu matematiku demokracije i sebičnih političara. I pojavljuje se sve više anketnih podataka prema kojima većina Amerikanaca misli da zabrinutosti, pitanja ili rizici AI-a trenutno nadmašuju prednosti.
Dakle, mislim da je poplava novca u politiku od umjetne inteligencije unutar svih naših moći da to postane izvor upitnika u odnosu na političare. Kada Amerikanci izađu na izbore, trebali bi pomno provjeriti jesu li ljudi za koje glasaju, osobito ako su nekritični i protiv propisa, s obzirom na sve ove brige, financirani velikim tehnološkim interesima. Stoga mislim da ljudi mogu čitati ovakve komade, slušati ovakve podcaste i biti im dovoljno stalo da o njima kritički razmišljajunjihove odluke kao birača, postoji stvarna prilika da se u Washingtonu stvori biračko tijelo predstavnika koji drže na oku i prisiljavaju ih na nadzor.
To bi mogla biti jedna od najoptimističnijih stvari koje sam ikad čuo da je netko rekao o trenutnoj industriji umjetne inteligencije. Cijenim to. Opsjednut sam anketama o kojima govorite. Sada ga ima puno. Sve je prilično dosljedno i čini se da što su mladi ljudi, posebice, više izloženi umjetnoj inteligenciji, to su nepovjerljiviji i ljutiji zbog toga. To je vrijednost svih anketa. I gledam to, i mislim, pa, da, pametni političari bi se samo tome protivili. Samo bi rekli: "Mi ćemo veliku tehnologiju smatrati odgovornom."
Zatim razmišljam o proteklih 20 godina, političaru koji govori da će veliku tehnologiju smatrati odgovornom, a ja se mučim pronaći ijedan trenutak da se velika tehnologija smatra odgovornom. Jedina stvar zbog koje mislim da bi ovo moglo biti drugačije je, pa, zapravo morate izgraditi podatkovne centre, i možete glasati protiv toga, možete podnijeti peticiju protiv toga, i možete protestirati protiv toga.
Mislim da postoji političar kojemu je upravo pucano u kuću jer su glasali za podatkovni centar. Napetost doseže, rekao bih, groznicu. Opisali ste otočnu udaljenost Silicijske doline. Ovo je zatvoreni ekosustav. Čini se kao da misle da mogu upravljati svijetom. Ulažu gomilu novca u politiku i suočavaju se s realnošću da ljudi ne vole proizvode, što im ne daje puno pokrića. Što više koriste proizvode, to su uzrujaniji, a političari počinju uviđati da postoje stvarne posljedice podržavanja tehnološke industrije na ljude koje predstavljaju.
Razgovarali ste s toliko ljudi. Mislite li da je moguće da tehnološka industrija nauči lekciju koja je pred njima?
Kažete da se čini kao da misle da mogu upravljati svijetom bez odgovornosti. Čak ne mislim da tome treba kvalifikator "osjeća se". Mislim, pogledate jezik kojim se Peter Thiel služi, eksplicitan je. Naravno, to je ekstreman primjer. A Sam Altman, iako je donekle blizak s Thielovom ideologijom i upućen u nju, vrlo je drugačija vrsta osobe koja bi mogla zvučati drugačije i odmjerenije do neke točke.
Ali mislim da šira ideologija koju ste dobili od Thiela, a koja je u osnovi: Završili smo s demokracijom, više nam ne treba. Imamo toliko toga da samo želimo izgraditi vlastite male bunkere. Ne bavimo se više Carnegijima ili Rockefellerima, jer su loši dečki, ali osjećaju da trebaju sudjelovati u društvenom ugovoru i graditi stvari za ljude. Zavladao je pravi nihilizam.
I doista mislim da je to samo spirala koja se uzajamno osnažuje u novijoj američkoj povijesti mogula i privatnih kompanija koje su stjecale moć nadvlade dok su demokratske institucije koje bi ih mogle smatrati odgovornima ispražnjene. Ne osjećam se optimistično u vezi s idejom da bi se ti dečki jednog dana mogli probuditi i pomisliti: "Huh, možda zapravo trebamo sudjelovati u društvu i pomoći u izgradnji stvari za ljude."
Mislim, gledate na mikrokozmički primjer The Giving Pledge, gdje je postojao trenutak u kojem se činilo da je dobročinstvo, a taj je trenutak sada prošlost, pa čak i ismijan. To je problem, širi problem nedostatka odgovornosti za koji mislim da se može riješiti samo ekstrinzično. To mora biti mobilizacija birača i ponovno uspostavljanje moći vladinog nadzora. I potpuno ste u pravu kada kažete da je glavni vektor putem kojeg bi ljudi to možda mogli postići lokalni. To ima veze s time gdje se gradi infrastruktura.
Spomenuli ste neke užarene napetosti oko ovoga koje vode do nasilja i prijetnji, a očito je da nitko ne bi trebao biti nasilan ili prijetiti. Također nisam ovdje da dajem konkretne političke preporuke osim da samo predstavim neke od političkih koraka koji se čine osnovnima i funkcioniraju drugdje u svijetu, zar ne? Ili oni koji su radili u drugim sektorima. Nisam ovdje da kažem što od toga treba izvršiti i kako.
Mislim da se nešto mora dogoditi, i to mora biti vanjsko, a ne samo vjerovati tim tvrtkama. Jer pravoSada imamo situaciju u kojoj tvrtke koje razvijaju tehnologiju i koje su najbolje opremljene za razumijevanje rizika, a zapravo su one koje nas upozoravaju na rizike, također su one koje nemaju ništa osim poticaja da rade brzo i ignoriraju te rizike. I jednostavno nemate ništa za protutežu tome. Dakle, kakve god reforme mogle poduzeti u smislu specifičnosti, nešto se mora suprotstaviti tome. I još uvijek se vraćam onom optimizmu da su ljudi još važni.
Općenito prihvaćam vaš argument. Dopustite mi da iznesem samo jedan mali protuargument za koji mislim da ga mogu artikulirati. Druga stvar koja bi se mogla dogoditi izvan glasačke kutije je da balon pukne, zar ne? Da ne stignu sve te tvrtke do cilja i da ne postoji tržište proizvoda prikladno za potrošačke AI aplikacije. I opet, ne vidim to još sasvim, ali ja sam recenzent potrošačke tehnologije i možda samo imam više standarde od svih ostalih.
U poslovnom svijetu postoji tržišna usklađenost proizvoda, zar ne? Čini se da je hrpa agenata umjetne inteligencije koji pišu hrpu softvera pravo tržište za te alate. I možete pročitati argumente ovih tvrtki koji govore: "Riješili smo kodiranje, a to znači da možemo riješiti bilo što. Ako možemo napraviti softver, možemo riješiti sve probleme."
Mislim da postoje stvarna ograničenja stvari koje softver može učiniti. To je sjajno u poslovnom svijetu. Softver ne može riješiti svaki problem u stvarnosti, ali mora doći do toga. Moraju završiti posao, a možda ne stignu svi do cilja. I dođe do pada, i ovaj mjehurić pukne, i možda OpenAI ili Anthropic ili xAI, jedna od ovih kompanija propadne, i sve ove investicije nestanu.
Mislite li da bi to utjecalo na ovo? Zapravo, prvo ću postaviti prvo pitanje. OpenAI je na samom pragu IPO-a. Mnogo je nedoumica oko Sama kao vođe. Mislite li da će stići do cilja?
Neću prognozirati, ali mislim da ističete važnu točku, a to je da su tržišni poticaji interno važni za Silicijsku dolinu, a nesigurnost trenutne dinamike mjehurića može prekinuti, opet, potencijalno, prema kritičarima, utrku prema dnu u pogledu sigurnosti.
Tome bih također dodao, ako pogledate povijesni prethodnik u kojem postoji sličan i naizgled neprobojan skup tržišnih poticaja i potencijalno štetnih učinaka za javnost, postoji sudski spor zbog utjecaja. I to vidite kao područje zabrinutosti u posljednje vrijeme. Sam Altman ovaj tjedan podržava zakone koji bi zaštitili AI tvrtke od nekih vrsta odgovornosti kojima je OpenAI bio izložen u nezakonitim smrtnim tužbama, na primjer. Naravno, postoji želja da se taj štit zaštiti od odgovornosti.
Mislim da sudovi i dalje mogu biti značajan mehanizam i bit će jako zanimljivo vidjeti kako će se ove tužbe oblikovati. Već ste vidjeli, na primjer, kolektivnu tužbu, čiji smo članovi ja i mnogi, mnogi drugi autori koje poznajem, protiv Anthropica zbog korištenja knjiga koje su bile zaštićene autorskim pravima. Ako postoje pametni pravni umovi i tužitelji kojima je stalo, kao što smo kroz povijest vidjeli u slučajevima od velikih duhanskih do velikih energetskih, također možete dobiti neke zaštitne ograde i neke poticaje da usporite, budete oprezni ili na taj način zaštitite ljude.
Čini se da cijela struktura troškova AI industrije ovisi o vrlo, vrlo dobrotvornoj interpretaciji poštene upotrebe. Ne pojavljuje se dovoljno. Struktura troškova ovih tvrtki mogla bi izmaknuti kontroli ako budu morali platiti vama i svima ostalima čiji su rad uzeli, ali nezgodno je razmišljati o tome, pa jednostavno ne razmišljamo o tome. Odmah pored toga, svi ovi proizvodi sada rade s gubitkom. Kao i danas, svi rade s gubitkom. Troše više novca nego što mogu zaraditi. U nekom trenutku moraju pritisnuti prekidač.
Sam je poslovni čovjek. Kao što ste već nekoliko puta spomenuli, on nije tehnolog. On je poslovna osoba. Mislite li da je spreman okrenuti prekidač i reći: "Zaradit ćemo dolar?" Jer kad pitam: "Mislite li da će OpenAI uspjeti?" To je kada moraju zaraditi dolar. I do sada je Sam zaradio sve svoje dolare tražeći novac od drugih ljudi umjesto da njegove tvrtke zarađuju.
Pa, to je veliko dugotrajno pitanje za Silicijsku dolinu, za investitore, za javnost.Vidite neke izjave i poteze iz OpenAI-ja koji izgledaju kao panika u vezi s tim. Gašenje Sore, gašenje nekih pratećih projekata, pokušaj fokusiranja na osnovni proizvod. Ali s druge strane, još uvijek vidite, u isto vrijeme, tone gmizanja misije, zar ne? Čak i mali primjer - koji očito nije srž njihovog poslovanja - je akvizicija TBPN-a.
Usput, upravo kad smo stigli do cilja i provjere činjenica, tvrtka koja se suočava s ovom vrstom novinarskog nadzora dobiva platformu na kojoj može imati izravniju kontrolu nad razgovorom. Mislim da postoji mnogo investitora koji su zabrinuti, na temelju razgovora koje sam vodio, da se ovaj problem obećanja svih stvari svim ljudima također proteže na ovaj nedostatak fokusa na osnovni poslovni model. I mislim, ti si vjerojatno bliži vrsti predviđanja i promatranja tržišta nego ja. Prepustit ću vama i slušateljima da prosudite misle li oni da OpenAI može okrenuti prekidač.
Pa, postavio sam pitanje jer u članku imate citat višeg rukovoditelja Microsofta, a to je da bi "Samovo naslijeđe moglo završiti sličnije Bernieju Madoffu ili Samu Bankman-Friedu", a ne Steveu Jobsu. To je prava usporedba. Što mislite o toj usporedbi?
Mislim da je to parafraza. Dio o Steveu Jobsu nije bio dio citata. Ali tu postoji zanimljiva vrsta trezvenosti jer je formulirana kao: "Mislim da postoji mala, ali stvarna šansa da završi kao SBF ili prevarant na razini Madoffa." To znači, po mom mišljenju, ne da je Sam optužen za te specifične vrste prijevare ili zločina, već da bi stupanj lažiranja i obmane Sama mogao imati šanse da na kraju bude zapamćen u toj mjeri.
Da, mislim da je ono što je najupečatljivije u tom citatu, iskreno, to što nazovete okolo u Microsoftu i ne dobijete lajk: "To je ludo. To nikad nismo čuli." Dobivate mnogo poput: "Da, mnogi ljudi ovdje to misle", što je nevjerojatno. I mislim da se to odnosi na ova poslovna pitanja.
Jedan mi je investitor rekao, na primjer, u svjetlu načina na koji se ta osobina zadržala u godinama nakon otpuštanja" — i on je također mislio da je to zanimljiva trezvena misao — da nije nužno da bi Sam trebao biti na apsolutnom dnu popisa, kao da bi trebao biti najniži od niskih u smislu ljudi koji apsolutno ne smiju graditi ovu tehnologiju, koliko god ona vrijedila. Postoji nekoliko ljudi koji su rekli da je Elon Musk ta osoba. Ali da je ovo osobina ga stavlja možda na dno popisa ljudi koji bi trebali izgraditi AGI, a ispod nekoliko drugih vodećih osoba u ovom području.
Pa sam mislio da je to zanimljiva procjena, a mislim da takvo razmišljanje dobivate od pravih pragmatičara koji možda ne vjeruju toliko zabrinutosti za sigurnost. Oni su samo orijentirani na rast i misle da OpenAI sada ima problem sa Samom Altmanom.
Microsoftovo djelo je stvarno zanimljivo. Ta je tvrtka mislila da su na vrhu svijeta. Da su napravili ovu investiciju i da će preskočiti sve, posebno i što je najvažnije, Google, i vratiti se na milost potrošača. Razina do koje se osjećaju opečeni ovom avanturom - ovo je vrlo trezveno vođena tvrtka - mislim da se ne može precijeniti.
Spomenuli ste karaktere i osobine ličnosti. Ovdje želim završiti pitanjem naših slušatelja. Rekao sam u našoj drugoj emisiji, The Vergecast, da ću razgovarati s vama, i rekao sam, "Ako imate pitanja za Ronana o ovoj priči, javite mi." Dakle, ovdje imamo jednu za koju mislim da je uredno povezana s onim što opisujete. Samo ću vam pročitati:
“Kako se opravdanja za loše ponašanje, odvratne akcije Altmana i drugih čelnika umjetne inteligencije razlikuju od opravdanja koja je Ronan čuo od drugih čelnika visokog profila u politici i medijima? Ne opravdavaju li svi oni svoje postupke govoreći kako se svijet mijenja na ovaj način? Ako ja to ne učinim, netko drugi hoće?"
Da, ima puno toga okolo. Rekao bih da je ono što je karakteristično za umjetnu inteligenciju to što su egzistencijalni ulozi tako jedinstveno visoki znači da su obje izjave o riziku ekstremne, zar ne? Imate Sama Altmanagovoreći: "Ovo bi moglo biti svjetlo za sve nas." A također, kritičari bi mogli reći, manija na koju postavlja pitanje je ekstremna, zar ne?
Ono za što je Sam optužio Elona, zvanično, je da možda želi spasiti čovječanstvo, ali samo ako je to on. Komponenta ega želje za pobjedom, koju Sam stalno koristi, a ovo je za povijesne knjige, ovo bi moglo sve promijeniti. Dakle, čak i iznad i izvan mentalnog sklopa "moraš razbiti nekoliko jaja" većine poduzeća iz Silicijske doline, u glavama nekih osoba koje vode umjetnu inteligenciju, mislim, postoji potpuna racionalizacija za sve posljedice.
I zaboravite razbijanje jaja. Mislim da bi mnogi istraživači koji se bave sigurnošću rekli da potencijalno riskiraju slom zemlje, slom svijeta i milijune ljudi čiji posao i sigurnost vise o koncu - to je ono što je tu jedinstveno. Tu završavam, razmišljajući o ovoj skupini izvješća, stvarno vjerujući da se radi o više od Sam Altmana. Ovdje se radi o industriji koja je nesputana i rastućem problemu Amerike koja je ne može ograničiti.
Da. Pa, tu smo imali nešto optimizma, ali mislim da je to dobro mjesto da ga ostavimo.
[Smijeh] Završi u tihom ritmu.
Naravno. To je svaka velika priča, zaista. Predstoji suđenje Musk-Altmanu. Mislim da ćemo ovdje naučiti puno više. Sumnjam da ću htjeti ponovno razgovarati s tobom. Ronan Farrow, puno ti hvala što si na Decoderu.
Hvala.
Pitanja ili komentari o ovoj epizodi? Javite nam se na [email protected]. Zaista čitamo svaki e-mail!