Danas na Decoderu razgovaram s Ronanom Farrowom, jednom od najvećih zvijezda istraživačkog novinarstva koji danas radi. Razbio je priču o Harveyu Weinsteinu, među mnogim, mnogim drugima. I upravo prošle sedmice, on i koautor Andrew Marantz objavili su u The New Yorkeru nevjerovatnu detaljnu priču o izvršnom direktoru OpenAI, Samu Altmanu, njegovoj pouzdanosti i usponu samog OpenAI-a.
Još jednu napomenu prije nego što nastavimo dalje — The New Yorker je objavio tu priču i Ronan i ja smo vodili ovaj razgovor prije nego što smo saznali za punu razmjeru napada na Altmanov dom, tako da nas nećete čuti direktno o tome. Ali samo da kažem, mislim da je nasilje bilo koje vrste neprihvatljivo, ovi napadi na Sama su bili neprihvatljivi, i da je vrsta bespomoćnosti koju ljudi osjećaju, a koja dovodi do ove vrste nasilja, sama po sebi neprihvatljiva, i vrijedi mnogo više pažnje i industrije i naših političkih lidera. Nadam se da je to jasno.
Pretplatnici Verge, ne zaboravite da imate ekskluzivni pristup dekoderu bez oglasa gdje god da dobijete svoje podcaste. Idi ovamo. Niste pretplatnik? Možete se prijaviti ovdje.
Sve što je rečeno, puno se vrti oko Altmana i to je poštena igra za rigorozno izvještavanje - vrstu izvještavanja koju su Ronan i Andrew namjeravali učiniti. Zahvaljujući popularnosti ChatGPT-a, Altman se pojavio kao najvidljivija figura u industriji umjetne inteligencije, pretvorivši nekada neprofitnu istraživačku laboratoriju u privatnu kompaniju vrijednu gotovo trilijun dolara u samo nekoliko godina. Ali mit o Altmanu je duboko konfliktan, podjednako definisan i njegovom očiglednom sposobnošću sklapanja dogovora i njegovom prijavljenom tendencijom da… pa, laže sve oko sebe.
Priča je duga preko 17.000 riječi i sadrži nedvojbeno konačan prikaz onoga što se dogodilo 2023. godine kada je upravni odbor OpenAI-a vrlo iznenada otpustio Altmana zbog njegove navodne laži, da bi on bio skoro trenutno ponovo zaposlen. To je također duboko uranjanje u Altmanov lični život, njegova ulaganja, njegovo udvaranje bliskoistočnom novcu i njegova vlastita razmišljanja o njegovom prošlom ponašanju i karakternim osobinama koje su navele jedan izvor da kaže da nije bio "sputan istinom". Zaista predlažem da pročitate cijelu priču; Pretpostavljam da će se spominjati još mnogo godina.
Ronan je razgovarao sa Altmanom mnogo puta tokom 18 mjeseci koje je proveo u izvještavanju o ovom članku, tako da je jedna od glavnih stvari koja me zanimala bila da li je osjetio bilo kakvu promjenu u Altmanu tokom tog vremena. Na kraju krajeva, mnogo se toga dogodilo u AI, tehnologiji i svijetu u proteklih godinu i po dana.
Čut ćete kako Ronan govori o tome vrlo direktno, kao i njegov osjećaj da su ljudi postali mnogo spremniji da govore o Altmanovoj sposobnosti da rastegne istinu. Ljudi počinju da se pitaju, naglas i na zapisnik, da li je ponašanje ljudi poput Altmana zabrinjavajuće, ne samo za veštačku inteligenciju ili tehnologiju, već i za kolektivnu budućnost društva.
U redu: Ronan Farrow o Samu Altmanu, AI i istini. Idemo.
Ovaj intervju je lagano uređen radi dužine i jasnoće.
Ronan Farrow, vi ste istraživački novinar i saradnik The New Yorker-a. Dobrodošli u Decoder.
Drago mi je što sam ovdje. Hvala što ste me primili.
Veoma sam uzbuđena što ću razgovarati s vama. Upravo ste napisali veliki članak za The New Yorker. To je profil Sama Altmana i, na neki način, OpenAI. Pročitao sam da, kao i sve odlične karakteristike, on, uz rigorozno izvještavanje, potvrđuje mnoga osjećanja koja ljudi imaju o Samu Altmanu već dugo vremena. Očigledno ste to objavili, dobili ste reakcije na to. Kako se trenutno osjećate u vezi s tim?
Pa, ohrabrila me je, zapravo, mjera do koje je probijena u vremenu u kojem je ekonomija pažnje tako nekako šizofrena i plitka. Ovo je priča koja, po mom mišljenju, pogađa sve nas. I kada sam proveo godinu i po svog života, a moj koautor, Andrew Marantz, je takođe proveo to svoje vrijeme, zaista pokušavajući učiniti nešto forenzički i pedantno, to je uvijek zato što osjećam da postoje veći strukturalni problemi koji utiču na ljude izvan pojedinca i kompanije u srcu priče.
Sam Altman, na pozadini hype kulture u Silicijumskoj dolini i startupa koji se razvijaju do masivnih vrednovanja zasnovanih na obećanjima koja se mogu, ali ne moraju ispuniti u budućnosti, i sve veće prihvatanje kulture osnivača koja misli da je pričanje različitim grupama različitih konfliktnih stvari karakteristika, a nebug… Čak i u tom kontekstu, Sam Altman je izuzetan slučaj u kojem svi u Silikonskoj dolini koji očekuju te stvari ne mogu prestati pričati o ovom pitanju njegove pouzdanosti i njegovog poštenja.
Već smo znali da je dobio otkaz zbog neke verzije navoda o nepoštenju ili serijskog navodnog laganja. Ali izvanredno, uprkos činjenici da je bilo divnih izvještavanja, Keach Hagey je uradio sjajan posao na ovome. Karen Hao je uradila odličan posao na ovome. Zaista nije bilo definitivnog razumijevanja stvarnih navodnih dokaza i razloga zašto su one ostale podalje od očiju javnosti.
Dakle, tačka broj jedan je da se osjećam ohrabreno činjenicom da su neke od tih praznina u našem javnom znanju, pa čak i u znanju insajdera iz Silicijumske doline, sada malo više popunjene. Neki od razloga zbog kojih je bilo praznina su još malo popunjeni.
Izvještavamo o slučajevima kada su se ljudi u ovoj kompaniji zaista osjećali kao da su stvari zataškane ili namjerno nisu dokumentovane. Jedna od novih stvari u ovoj priči je ključna istraga advokatske firme WilmerHale, koja je očito fensi, kredibilna, velika advokatska firma koja je radila istrage Enrona i WorldComa, koje su, inače, bile obimne, poput stotina objavljenih stranica. WilmerHale je izvršio ovu istragu koju su zahtijevali članovi odbora koji su otpustili Altmana kao uslov za njihov odlazak kada ih se riješio, a on se vratio. I izvanredno - u očima mnogih pravnih stručnjaka s kojima sam razgovarao, i šokantno u očima mnogih ljudi u ovoj kompaniji - to su prešutjeli. Sve što je ikada proizašlo iz toga je saopštenje za javnost OpenAI od 800 riječi koje opisuje ono što se dogodilo kao slom povjerenja. I mi smo potvrdili da je to držano na usmenim brifinzima.
Postoje slučajevi u kojima, na primjer, član odbora naizgled želi da glasa protiv konverzije iz originalne neprofitne forme OpenAI-a u profitni entitet, a to se bilježi kao uzdržan. Na sastanku je kao advokat koji kaže: "Pa, to bi moglo izazvati previše preispitivanja." A osoba koja želi glasati protiv biva zabilježena kao uzdržana. Postoji činjenični spor. OpenAI tvrdi drugačije, kao što možete zamisliti. Sve su to slučajevi kada imate kompaniju koja po sopstvenom nahođenju drži našu budućnost u svojim rukama.
Sigurnosni ulozi su toliko akutni da nisu nestali. To je razlog zašto je ova kompanija osnovana kao neprofitna organizacija fokusirana na sigurnost, i gdje su stvari bile zamagljene na način da su kredibilni ljudi oko toga smatrali da je to manje nego profesionalno. I to uparite s pozadinom u kojoj je tako malo političkog apetita za smislenom regulacijom. Mislim da je to veoma zapaljiva situacija.
Poenta za mene nije samo da Sam Altman zaslužuje ova pitanja tako oštro. Isto tako, bilo koji od ovih momaka na ovom polju, i mnoge ključne ličnosti, pokazuju, ako ne ovu posebnu idiosinkratičnu, navodnu osobinu da lažu sve vrijeme, svakako određeni stupanj mentaliteta trke do dna, gdje su ljudi koji su bili bezbednjaci razvodnili te obaveze i svi su u trci.
Mislim da, dok gledamo nedavna curenja iz Anthropic-a, postoji osoba koja postavlja pitanje ko bi trebao imati prst na dugmetu u ovom komadu. Odgovor je, ako nemamo smislen nadzor, mislim da moramo postavljati ozbiljna pitanja i pokušati izvući što više informacija o svim ovim tipovima. Tako da me je ohrabrilo ono što se čini kao smislen razgovor o tome, ili početak razgovora.
Razlog zašto sam to tako pitao je taj što ste na tome radili godinu i po dana. Razgovarali ste sa, vjerujem, 100 ljudi sa svojim koautorom, Andrewom. To je dugo vremena za pripremu priče. Razmišljam o poslednjih godinu i po dana u AI posebno, i dečače, veoma brzo su se promenili stavovi i vrednosti svih ovih likova.
Možda ništa više od Sama Altmana, koji je počeo kao standardni pobjednik jer su pustili ChatGPT i svi su mislili da će to samo preuzeti za Google. A onda je Google odgovorio, što ih je iznenadilo da će Google pokušati da zaštiti svoje poslovanje, možda jedno od najboljih preduzeća u istoriji tehnologije, ako ne i poslovnu istoriju. Anthropic je odlučio da će se fokusirati na preduzeće. Čini se da preuzima vodeću ulogupostoji jer je upotreba AI u preduzećima tako visoka.
Sada, OpenAI preusmjerava svoj proizvod sa "mi ćemo preuzeti Google" na Codex, a oni će preuzeti posao. Samo ne mogu tačno reći da li su se tokom vašeg izvještavanja u posljednjih godinu i po dana promijenili likovi sa kojima ste razgovarali? Kao i njihovi stavovi i njihove vrijednosti, da li su se oni promijenili?
Da. Mislim prije svega, da je kritika koja se istražuje u ovom članku, a dolazi od mnogih ljudi unutar ovih kompanija u ovom trenutku – da je ovo industrija koja se, uprkos egzistencijalnim ulozima, spušta u nešto poput utrke do dna po pitanju sigurnosti i gdje brzina nadmašuje sve ostalo – ta zabrinutost je postala još akutnija. I mislim da su te zabrinutosti više potvrđene kako je prošlo godinu i po dana. Istovremeno, stavovi o Samu Altmanu su se posebno promijenili. Kada smo počeli da razgovaramo sa izvorima o ovome, ljudi su bili zaista, zaista mrski što ih citiraju o ovome i puštaju u zapisnik o tome.
Do kraja našeg izvještavanja, imate tijelo izvještaja u kojima ljudi govore o tome vrlo otvoreno i eksplicitno, a članovi odbora govore stvari poput: "On je patološki lažov. On je sociopata." Postoji niz perspektiva od: „Ovo je opasno s obzirom na sigurnosne uloge, i potrebni su nam lideri ove tehnologije koji imaju povišen integritet“, pa sve do „Zaboravite na sigurnosne uloge, ovo je ponašanje koje je neodrživo za bilo kojeg rukovodioca bilo koje velike kompanije, da samo stvara previše disfunkcije.“
Dakle, razgovor je postao mnogo eksplicitniji na način koji se čini zakašnjelim, ali je u jednom smislu ohrabrujući. I Sam Altman, svaka mu čast... Komad je vrlo pošten i čak velikodušan, rekao bih, prema Samu. Ovo nije vrsta djela u kojoj je bilo puno stvari koje su “dobili te”. Proveo sam mnogo, mnogo sati na telefonu s njim dok smo ovo završavali i zaista ga čuo.
Kao što možete zamisliti, u ovakvom komadu ne uspijeva sve. Neki od tih slučajeva u ovom su bili zato što sam iskreno slušao. I ako je Sam zapravo iznosio argument da sam osjećao da nosi vodu, da bi nešto, čak i da je istina, moglo biti senzacionalističko, zaista sam pogriješio što sam zadržao ovu forenzičku i odmjerenu. Tako da mislim da je to ispravno prihvaćeno, i samo se nadam da će ova činjenična evidencija koja se nakupila tokom ovog vremenskog perioda može pokrenuti snažniji razgovor o potrebi za nadzorom.
To je zapravo moje sljedeće pitanje. Mislim da ste razgovarali sa Samom desetak puta tokom izvještavanja o ovoj priči. Opet, to je mnogo razgovora tokom dužeg vremenskog perioda. Da li ste mislili da se Sam promijenio tokom izvještavanja u proteklih godinu i po dana?
Da. Mislim da je jedan od najzanimljivijih podzapleta u tome da Sam Altman takođe govori o ovoj osobini eksplicitnije nego što je to govorio u prošlosti. Stav Sama u ovom komadu nije kao: "Nema ničega, ovo nije istina; ne znam o čemu pričate." Njegov stav je da kaže da se to može pripisati sklonosti ugađanju ljudima i svojevrsnoj averziji sukoba. Priznaje da mu je to stvaralo probleme, posebno ranije u karijeri.
On kaže: „Pa, prolazim kroz to, ili sam u određenoj mjeri prešao preko toga“. Mislim da je ono što mi je zaista zanimljivo kontingent ljudi s kojima smo razgovarali, a koji nisu bili samo neka vrsta zagovornika sigurnosti, ne samo temeljni tehnički istraživači koji vrlo često imaju te akutne zabrinutosti za sigurnost, već i pragmatični, veliki investitori. Oni podržavaju Sam's, koji, u nekim slučajevima, gledaju na ovo pitanje i govore o tome da su čak odigrali ključnu ulogu u njegovom povratku nakon otpuštanja. Sada, na ovo pitanje da li je reformisan i u kojoj meri je ta promena smislena, oni kažu: "Pa, mi smo mu dali prednost sumnje u to vreme."
Posebno mislim na jednog istaknutog investitora koji je rekao: „Ali od tada je jasno da nije iznesen iza drvarnice“, što je fraza koju je ovaj koristio, u mjeri u kojoj je to bilo potrebno. Kao rezultat toga, čini se da je to sada stabilna osobina. Ovo vidimo na kontinuiran način. Možete pogledati neke od najvećih poslova OpenAI-aodnose i način na koji na neki način nose težinu tog nepovjerenja na trajni način.
Kao i sa Microsoftom, tamo razgovarate sa rukovodiocima i oni imaju zaista akutne i nedavno pokrenute brige. Postoji slučaj u kojem, istog dana, OpenAI potvrđuje svoju ekskluzivnost s Microsoftom u odnosu na osnovne modele umjetne inteligencije bez državljanstva, također najavljuje novi ugovor s Amazonom koji se odnosi na prodaju korporativnih rješenja za izgradnju AI agenata koji imaju status, što znači da imaju memoriju.
Razgovarate s ljudima iz Microsofta, a oni kažu: „To nije moguće bez interakcije s osnovnim stvarima o kojima imamo ekskluzivni ugovor.“ Dakle, to je samo jedan od mnogih malih primjera u kojima se ova osobina stalno uvlači u tekuće poslovne aktivnosti i predmet je aktivne brige unutar odbora OpenAI-a, unutar njegovog izvršnog paketa i u široj tehnološkoj zajednici.
Stalno govorite tu "osobinu". Postoji red u priči koji mi se čini kao teza, a to je opis osobine koju opisujete. Radi se o tome da “Sam Altman nije sputan istinom” i da ima “dvije osobine koje se gotovo nikada ne vide kod iste osobe: prva je snažna želja da se ugodi ljudima, da se dopadne u bilo kojoj interakciji, a druga je gotovo sociopatski nedostatak brige za posljedice koje mogu proizaći iz obmane nekoga.”
Moram da vam kažem, pročitao sam tu rečenicu 500 puta, i pokušao sam da zamislim da uvek govorim ono što ljudi žele da im se dopadnu, a zatim da se ne ljutim kada se osećaju da ih lažu. I nisam mogao natjerati svoje emocionalno stanje da shvati kako te stvari mogu postojati u istoj osobi. Mnogo ste razgovarali sa Semom i razgovarali ste sa ljudima koji su iskusili ove osobine. Kako to radi?
Da. Zanimljivo je na ljudskom nivou jer ja pristupam ovakvim izvještajima sa stvarnim fokusom na humaniziranje onoga ko je u srcu i traženje dubokog razumijevanja i empatije. Kada sam na neki način pokušao da pristupim ovome sa više humanog stanovišta i rekao: "Hej, ovo bi bilo poražavajuće za mene kada bi toliko ljudi s kojima sam radio reklo da sam patološki lažov. Kako nosite tu težinu? Kako o tome govorite na terapiji? Kakvu je priču koju sebi pričate o tome?"
Imam neku vrstu, po mom mišljenju, možda floskule sa Zapadne obale o tome poput: „Da, volim rad na disanje.“ Ali ne mnogo onog snažnog osjećaja dubokog suočavanja sa sobom za koji mislim da bi mnogi od nas vjerovatno imali da smo vidjeli ovakvu vrstu povratnih informacija o našem ponašanju i ophođenju prema ljudima.
Mislim da se to zapravo odnosi i na širi odgovor na pitanje. Sam tvrdi da je ova osobina izazvala probleme, ali i da je dio onoga što ga je osnažilo da toliko ubrza rast OpenAI-a da je u stanju ujediniti i zadovoljiti različite grupe ljudi. On stalno uvjerava sve ove sukobljene biračke jedinice da je njima stalo ono do čega je njemu stalo. A to može biti zaista korisna vještina za osnivača. Razgovarao sam s investitorima koji tada kažu: „Pa, možda je to manje korisna vještina za stvarno vođenje kompanije jer seje toliko razdora.“
Ali što se tiče Semove lične strane, mislim da je stvar na koju shvatim kada pokušavam da se povežem na ljudskom nivou očigledan nedostatak dublje konfrontacije, refleksije i samoodgovornosti, što takođe ukazuje na tu supermoć ili odgovornost za kompaniju koja se priprema za IPO.
On je neko ko je, prema riječima jednog bivšeg člana odbora po imenu Sue Yoon, koji je u zapisniku u tekstu koji kaže da je fraza koju ona koristi do "bezobraznosti", u stanju stvarno vjerovati u promjenjivu stvarnost svojih prodajnih ponuda ili je u stanju da se uvjeri u njih. Ili barem ako im ne vjeruje, u stanju je da ih prođe bez značajne sumnje u sebe.
Mislim da je stvar o kojoj govorite, gdje bismo vi ili ja mogli, dok govorimo stvar i shvaćamo da je u suprotnosti s drugim uvjeravanjima koja smo dali, na neki trenutak da se zamrznemo ili provjerimo. Mislim da se to kod njega ne dešava. A tu je i šira hype kultura Silikonske doline i kultura osnivača koja to na neki način prihvaća.
smiješno je. The Verge je izgrađen na osnovu onoga što predstavlja recenzije proizvodaprogram. To je srce onoga što radimo ovdje. Držim trilion dolara Apple R&D jednom godišnje i kažem: "Ovaj telefon je sedam." I to nekako legitimira sva naša izvještavanja i naša mišljenja na drugim mjestima. Imamo funkciju evaluacije i provodimo toliko vremena samo gledajući proizvode umjetne inteligencije i govoreći: "Da li rade?"
Čini se da nedostaje mnogim razgovorima o umjetnoj inteligenciji kakva je danas. Postoji beskonačan razgovor o tome šta bi to moglo učiniti, koliko bi moglo biti opasno. A onda probušite i kažete: „Da li zaista radi ono što bi danas trebalo da radi?“ U nekim slučajevima, odgovor je da. Ali u mnogim, mnogim slučajevima, odgovor je ne.
To se čini kao da je povezano s kulturom hype-a koju opisujete, kao i sa osjećajem da, pa, ako kažete da će nešto učiniti, a neće, a neko se osjeća loše, to je u redu jer smo na sljedećoj stvari. To je prošlost. A posebno u AI, Sam je tako dobar u davanju velikih obećanja.
Upravo ove sedmice, mislim da je istog dana kada je vaša priča objavljena, OpenAI objavio dokument o politici u kojem se kaže da moramo ponovo razmisliti o društvenom ugovoru i dobiti stipendije za AI efikasnost od vlade. Ovo je veliko obećanje o tome kako bi neka tehnologija mogla oblikovati budućnost svijeta i način na koji živimo, a sve se to oslanja na tehnologiju koja radi upravo na način na koji je možda obećana ili bi trebala funkcionirati.
Da li ste ikada otkrili da Sam sumnja da će se AI pretvoriti u AGI ili superinteligenciju ili doći do cilja? Jer to je ono čemu se najviše pitam. Ima li razmišljanja o tome može li ova osnovna tehnologija učiniti sve ono što kažu da može?
To je upravo pravi skup pitanja. Postoje kredibilni tehnolozi sa kojima smo razgovarali u ovom korpusu izvještavanja — a očigledno Sam Altman nije takav; on je poslovna osoba – koja kaže da je način na koji Sam govori o vremenskoj liniji za ovu tehnologiju jednostavno nedostupan. Postoje postovi na blogu koji sežu unazad nekoliko godina u kojima Sam kaže: "Već smo stigli do horizonta događaja. AGI je u osnovi ovdje. Superinteligencija je iza ugla. Bićemo na drugim planetama. Izliječićemo sve oblike raka." Zaista, ne uljepšavam.
Ono protiv raka je zapravo zanimljivo, da Sam navija osobu koja je teoretski izliječila rak svog psa ChatGPT-om, a to se jednostavno nije dogodilo. Razgovarali su sa ChatGPT-om i to im je pomoglo da usmjere neke istraživače koji su zapravo obavili posao, ali jedan na jedan, ovaj alat koji je izliječio ovog psa zapravo nije priča.
Drago mi je da ste pokrenuli tu tačku jer želim da pređem na ovu veću tačku o tome kada će i potencijal i rizik tehnologije zaista doći do izražaja. Ali vrijedno je spomenuti ove male smetnje koje se konstantno događaju od Sama Altmana, gdje on kao da utjelovljuje ovu osobinu iznova.
Mislim, da se poslužim primjerom izvještaja WilmerHalea, gdje smo imali ove informacije koje su bile skrivene od pisanja, i htjeli smo znati da li je usmeni podnesak usput dat nekom drugom osim dvojici članova odbora kojima je Sam pomogao u instalaciji kako bi ga nadgledali. A on je rekao: "Da, da, ne, vjerujem da je to dato svima koji su se kasnije pridružili odboru." A imamo osobu koja direktno poznaje situaciju i kaže da je to jednostavno laž. I izgleda da je to zaista tako, da je neistina. Ako želimo da budemo velikodušni, možda je bio pogrešno informisan.
Mnogo je tih usputnih uvjeravanja. I koristim taj primjer dijelom zato što je to sjajan primjer prikrivanja, nazovimo ga, koji može imati stvarne pravne posljedice. Ne moram da vam kažem, prema korporativnom zakonu Delavera, ako ova kompanija izvrši IPO, akcionari mogu, prema članu 220, da se žale na ovo i zahtevaju osnovnu dokumentaciju. Već postoje članovi odbora koji govore stvari poput: „Pa, čekaj malo, taj brifing je trebao da se desi.“
Dakle, ove stvari za koje se čini da mu stalno iskaču iz usta, mogu imati stvarne efekte pokretanja tržišta, stvarne efekte za OpenAI. Vraćajući ga na onu vrstu utopijskog hype jezika koji se ponovo pojavio, mislim da nije slučajno na dan kada je ovaj komad izašao, da utiče i na sve nas, jer su opasnosti tako akutne u odnosu na način na koji jekada se koristi u oružju, način na koji se koristi za identifikaciju hemijskih ratnih agenasa, potencijal dezinformacija i zbog načina na koji se čini da utopistička pompa podstiče mnoge kredibilne ekonomiste da kažu: "Ovo ima sve znakove balona."
Čak je i Sam Altman rekao: "Neko će ovde izgubiti mnogo novca." To bi zaista moglo uništiti veliki američki i globalni ekonomski rast, ako dođe do istinskog probijanja balona koji uključuje sve ove kompanije koje sklapaju poslove jedna s drugom, ulažući all-in na AI dok se toliko zadužuju. Dakle, ono što Sam Altman kaže je važno, i mislim da je prevlast ljudi oko njega, spomenuli ste da smo razgovarali sa više od stotinu, zapravo bila preko stotinu. Imali smo razgovor na ciljnoj liniji u kojem je bilo: "Da li bi bilo previše sitno reći da je ovo mnogo veći broj?" A mi smo bili kao: "Da, hajde da umanjimo značaj. Igraćemo kul." Ali bilo je toliko ljudi i tako značajna većina njih je rekla: "Ovo je zabrinutost." I mislim da je sve zbog toga.
Da vas pitam za taj broj. Kao što ste spomenuli, kako je vrijeme odmicalo, ljudi su postajali sve otvoreniji prema zabrinutostima. Čini se kao da je pritisak oko balona – trka za pobjedom, otplatom svih ovih investicija, izlazak kao pobjednik, IPO – promijenio mnogo stavova. To je sigurno stvorilo veći pritisak na Sama i OpenAI.
Ove sedmice smo objavili priču samo o vibracijama OpenAI-a. Vaša priča je dio toga, ali velike kadrovske promjene u izvršnim činovima u OpenAI-ju – ljudi dolaze i odlaze. Svi istraživači su krenuli, uglavnom u Anthropic, što mislim da je zaista zanimljivo. Možete samo vidjeti da ova kompanija osjeća pritisak i na neki način reaguje na taj pritisak.
Ali onda se sjetim kako je Sam dobio otkaz. Ovo mi je jednostavno za pamćenje. Nikome drugom to nije nezaboravno, ali sam u petak u 19 sati u Zoološkom vrtu u Bronxu pozvao izvor, i neko je rekao da će pokušati vratiti Sama. A onda smo proveli vikend jureći tu priču. A ja sam samo rekao: "U zoološkom sam vrtu. Šta želiš da radim ovdje?" A odgovor je bio: "Ostani na telefonu." Pa, moja ćerka je rekla: "Skini sa telefona." I to sam uradio.
Bilo je voziti ili umrijeti da vratim Sama. Ta kompanija je rekla: "Ne, ne dozvoljavamo odboru da otpusti Sama Altmana." Investitori, citirani su u vašem tekstu, „Otišli smo u rat“, mislim, pozicija je Thrive Capitala, „da vratimo Sama“. Microsoft je krenuo u rat da vrati Sama. Kasnije je, a sada svi kažu: "Idemo na IPO. Stigli smo do cilja. Vratili smo našeg tipa i on će nas odvesti do cilja. Brinemo se da je lažov."
Zašto je tada bio rat da ga se vrati? Jer izgleda da se ništa nije promenilo. Govorite o dopisima koje su Ilya Sutskever i [izvršni direktor Anthropica] Dario Amodei vodili dok su bili suvremenici Sama Altmana. Ilyina briga broj jedan bila je da je Sam lažov.
Ništa od toga se nije promijenilo. Zašto je onda bio rat da ga se vrati? A sada kada smo na cilju, čini se da su sve brige na otvorenom.
Pa, pre svega, izvinite vašu ćerku i mog partnera i sve ostale ljude oko novinara.
[Smijeh] Bio je to pravi vikend za sve.
Da, preuzima nečiji život, a ova priča definitivno ima i moj, u poslednjem vremenskom periodu. To se zapravo odnosi na ovu temu novinarstva i pristupa informacijama, mislim. Investitori koji su krenuli u rat za Sama i svi su igrali ulogu u osiguravanju njegovog povratka, a odbor koji je bio posebno dizajniran da zaštiti misiju neprofitne organizacije da stavi sigurnost ispred rasta i da otpusti izvršnog direktora ako im se to ne može povjeriti, otišli su. To je bilo sve zato što su, da, tržišni podsticaji bili tu, zar ne?
Sem je uspeo da ubedi ljude: "Pa, kompanija će se jednostavno raspasti." Ali razlog zašto je imao podršku bio je nedostatak informacija. Ti investitori, u mnogim slučajevima, sada kažu: „Gledam unazad i mislim da bih trebao imati više zabrinutosti da sam znao u potpunosti koja su potraživanja i šta je zabrinutost.”
Ne svi;mišljenja se razlikuju, a mi citiramo niz mišljenja, ali ima značajnih koji su djelovali na osnovu vrlo djelomičnih informacija. Tabla koja je otpustila Sama bila je, prema riječima jedne osobe koja je nekada bila u odboru, "veoma JV", i oni su snažno petljali po lopti. I mi dokumentujemo osnovne pritužbe i ljudi mogu sami odlučiti da li se to akumulira u vrstu hitne zabrinutosti koju su smatrali da jeste, ali taj argument i te informacije nisu iznesene.
Dobili su ono što neki od njih sada priznaju kao loš pravni savjet. Da biste ga opisali, zapamtit ćete citat, a vjerovatno će mnogi vaši slušaoci i gledaoci zapamtiti citat kao nedostatak iskrenosti. To je bilo na šta se svelo, a onda u suštini nisu hteli da primaju pozive.
Ne bi primali pozive. Siguran sam da si pokušao. Svi koje poznajem su pokušali, i došlo je do tačke u kojoj, kao novinar, ne biste trebali da date savjete svojim izvorima, ali ja sam rekao: “Ovo će nestati ako ne počnete da objašnjavate sami sebe.”
I to se dogodilo. Zaboravite novinare. Imali ste Satyu Nadellu da kaže: "Šta se dođavola dogodilo? Ne mogu nikoga natjerati da mi objasni." A to je glavni finansijski pokrovitelj kompanije. A onda imate Satya koji zove [suosnivača LinkedIn-a] Reida Hoffmana, a Reid zove okolo i govori: "Ne znam šta se jebote dogodilo."
Razumljivo je da su u toj praznini informacija, tražeći tradicionalne ne-AI indikatore koji bi opravdali tako hitnu, iznenadnu paljbu. Kao, u redu, jesu li to bili seksualni zločini? Je li to bila pronevjera? I cijeli suptilni, ali mislim smislen argument da je ova tehnologija drugačija i da bi ova vrsta stalne akumulacije manjih izdaja mogla imati značajne uloge i za ovaj posao, a možda i za svijet, u velikoj mjeri je izgubljen. Tako su kapitalistički poticaji pobijedili, ali i ljudi koji su to stvarali izašli su i nisu uvijek operirali sa potpunim informacijama.
Želim samo na trenutak da pitam o aspektu „šta su svi mislili da je bilo“, jer sam sigurno vidio vijesti i rekao: „Oh, mora da se dogodilo nešto loše“. Dosta ste #MeToo izvještavali, slavno. Slomio si priču o Harveyu Weinsteinu.
Proveli ste dosta vremena izvještavajući o ovim tvrdnjama za koje smatram da su u konačnici neosnovane: da je Altman seksualno napao maloljetnike ili unajmio seksualne radnike, ili čak ubio OpenAI zviždača. Mislim, vi ste osoba koja ovo može najrigoroznije prijaviti. Jeste li odlučili da od toga nije ništa?
Pa, gledajte, ja se ne bavim time da kažem da je nešto propalo. Ono što mogu da kažem je da sam proveo mesece gledajući ove tvrdnje i nisam našao potvrdu za njih. I bilo mi je upečatljivo da ovi momci, te kompanije koje imaju toliku moć nad našom budućnošću, zaista troše nesrazmjerno mnogo svog vremena i resursa u dječjoj borbi protiv blata.
Jedan rukovodilac ga opisuje kao "Šekspirovskog". Količina novca privatnih istražitelja i dosijea opozicije koji se sastavljaju su nemilosrdni. A nesrećna stvar je da je vrsta salašnih stvari, koju Semovi konkurenti ponavljaju, samo pretpostavljena činjenica, zar ne? Postoji ta tvrdnja da on proganja maloljetne dječake, a na mnogim koktel zabavama u Silikonskoj dolini, čujete ovo. U krugu konferencije čuo sam da su to upravo ponavljali kredibilni, istaknuti rukovodioci: „Svi znaju da je to činjenica“.
Tužna stvar je što govorim o tome odakle to dolazi, raznim vektorima kojima se prenosi. Elon Musk i njegovi saradnici naizgled guraju zaista tvrdokorne dosijee koji su bez veze. Oni su ispareni kada zapravo počnete da sagledavate osnovne tvrdnje. Tužna stvar je što to zaista zamagljuje kritike zasnovane na dokazima za koje mislim da zaista zaslužuju hitan nadzor i razmatranje.
Druga tema koja se zaista pojavljuje u priči je gotovo osjećaj straha da Sam ima toliko prijatelja – uložio je u toliko kompanija od svoje prethodne uloge izvršnog direktora Y Combinatora, samo do svog ličnog ulaganja, od kojih su neke u direktnom sukobu s njegovom ulogom izvršnog direktora OpenAI – i oko njega vlada tišina.
Pogodilo mi se jer sam čitao jedan red posebno. Opisujete beleške Ilje Sutskevera, a oni su upravo u Silicijumskoj dolini. Svizove ih Ilya memos. Ali oko toga vlada čak i tišina. Oni su prosleđeni, ali se o njima ne raspravlja. Šta mislite odakle to dolazi? Je li to strah? Da li je to želja za ulaganjem anđela? Odakle to dolazi?
Mislim da je to mnogo kukavičluka, bit ću iskren. Nakon što su izvještavali o pričama o nacionalnoj sigurnosti u kojima su izvori uzbunjivači koji će izgubiti sve i suočiti se s krivičnim gonjenjem, oni i dalje čine pravu stvar i govore o stvarima kako bi stvorili odgovornost. Radio sam na pričama vezanim za seksualne zločine koje ste spomenuli, gdje su izvori duboko traumatizirani i strahuju od vrlo lične vrste odmazde.
U mnogim slučajevima oko ovog ritma imate posla s ljudima sa svojim profilom i moći. Oni su ili sami poznati ljudi ili su okruženi poznatim ljudima. Imaju snažan poslovni život. Po mom mišljenju, za njih je zapravo vrlo mala izloženost da pričaju o ovim stvarima. I srećom, igla se kreće kao što smo ranije govorili, a ljudi sada više pričaju.
Ali tako dugo vremena ljudi su jednostavno šutjeli o tome jer mislim da je kultura Silikonske doline tako nemilosrdno sebična i nemilosrdno orijentirana na poslovanje i rast. Tako da mislim da ovo pogađa čak i neke od ljudi koji su bili uključeni u otpuštanje Sama, gdje ste vidjeli danima poslije, da, jedan faktor koji je doveo do njegovog povratka i otpuštanja starih članova odbora bio je to što je okupio investitore koji su bili zbunjeni njegovim ciljem.
Ali drugo je to što su se mnogi drugi ljudi oko njega koji su imali zabrinutosti i hitno ih izrazili, samo presavijali kao salvete i promijenili melodiju u trenutku kada su vidjeli da vjetar duva u suprotnom smjeru, i željeli su ući u voz profita.
Prilično je mračno, iskreno, sa mog stanovišta kao novinara.
Neki od tih ljudi su Mira Murati, koja je, vjerujem, 20 minuta bila nova izvršna direktorica OpenAI-a. Tada je zamijenjena. Bila je to vrlo komplikovana dinamika, i očito se Sam vratio. Druga osoba je Ilja Sutskever, koji je bio jedan od glasova za uklanjanje Sama, a onda se predomislio, ili barem rekao da se predomislio, a onda je otišao da pokrene svoju kompaniju. Znate li šta ga je natjeralo da se predomisli? Je li to bio samo novac?
Pa, da budemo jasni, ne izdvajam to dvoje. Ima i drugih članova odbora koji su učestvovali u otpuštanju, koji su nakon toga vrlo utihnuli. Mislim da je to kao širi kolektivni problem. To su, u nekim slučajevima, ljudi koji su imali moralne snage da alarmiraju i poduzmu radikalne mjere, i to je za svaku pohvalu. I tako osiguravate odgovornost. To je moglo pomoći mnogim ljudima koji su pogođeni ovom tehnologijom. To je moglo pomoći industriji da ostane značajnije fokusirana na sigurnost.
Ali ako imate posla sa zviždačima i ljudima koji pokušavaju mnogo da podstaknu tu odgovornost, takođe vidite da je potrebna volja da to istaknete i ostanete pri svojim uverenjima. A ova industrija je zaista puna ljudi koji jednostavno ne stoje iza svojih uvjerenja.
Iako misle da grade digitalnog Boga koji će nekako ili eliminirati sav rad ili stvoriti još radne snage, ili će se nešto dogoditi.
Pa, u tome je stvar. Dakle, kultura da ne stojite pri svojim uvjerenjima i da sve etičke brige padaju po strani u trenutku kada dođe do vrućine ili bilo čega što bi moglo ugroziti vaš vlastiti položaj u poslu je možda u određenoj mjeri dobro i dobro za kompanije koje rade kao i obično koje prave bilo koju vrstu widgeta.
Ali to su takođe isti ljudi koji kažu: “Ovo bi nas bukvalno sve moglo ubiti.” I opet, ne morate ići u Terminator Skynet ekstrem. Postoji niz rizika koji se već materijalizuju. Stvarno je, i u pravu su što upozoravaju na to, ali morate imati nekog drugog da psihologizira kako te dvije stvari mogu živjeti u istim ljudima gdje zovu hitna upozorenja, možda ubacuju prst i pokušavaju nešto učiniti, a onda se samo sklope i zašute.
Upravo zbog toga možete imati ovakve slučajeve da se stvari ne pišu i stvari gurnu pod tepih, a da niko o tome otvoreno ne govori godinama nakon toga.
Prirodna, odgovorna strana ovde ne bi bili izvršni direktori ovih kompanija; to bi bile vlade. U Sjedinjenim Državama, moždato su državne vlade, možda je to federalna vlada.
Svakako, sve ove kompanije žele da budu globalne. Ovdje ima mnogo globalnih implikacija. Gledao sam kako OpenAI, Google i Anthropic potiču Bajdenovu administraciju da izda izvršnu naredbu AI. Na kraju je bilo prilično bezubo. Samo je rečeno da moraju razgovarati o tome za što su njihovi modeli sposobni i objaviti neka sigurnosna testiranja. A onda su svi podržali Trumpa, a Trump je ušao i sve to izbrisao i rekao: "Moramo biti konkurentni. To je besplatno za sve. Samo napred."
U isto vrijeme, svi oni pokušavaju prikupiti sredstva iz zemalja Bliskog istoka koje imaju mnogo novca od nafte i žele promijeniti svoje ekonomije. To su političari. Osećam da političari definitivno treba da razumeju da neko priča na obe strane, i neće biti previše uznemireni ako je neko na kraju razočaran, ali i političari će biti uhvaćeni u jahanje. Zašto misliš da je tako?
Ovo je zaista, mislim, zašto je komad bitan po mom mišljenju i zašto je vrijedilo potrošiti svo ovo vrijeme i detalje. Nalazimo se u okruženju u kojem su sistemi koji bi, kako kažete, trebali da obezbjeđuju nadzor, jednostavno izdubljeni. To je Ujedinjena Amerika nakon građanskog statusa, gdje je protok novca tako nesputan, i posebna je koncentracija tog problema oko AI, gdje postoje ovi PAC-ovi koji se razmnožavaju i preplavljuju novac u ukidanje smislenih propisa i na državnom i na saveznom nivou.
Imate [suosnivača OpenAI-a] Grega Brockmana, Semovog drugog komandanta, koji direktno doprinosi nekoliko njih. To dovodi do situacije u kojoj zaista dolazi do zarobljavanja zakonodavaca i potencijalnih regulatora, iz koje je teško izaći. Tužna stvar je što mislim da postoje jednostavni politički potezi, od kojih se neki testiraju i drugdje u svijetu, koji bi pomogli u rješavanju nekih od ovih problema odgovornosti.
Mogli biste imati više obaveznog testiranja sigurnosti prije implementacije, što je nešto što se već događa u Europi za granične modele. Mogli biste imati strožije zahtjeve za pisanu javnu evidenciju za vrste internih istraga u kojima smo vidjeli da se stvari u ovom slučaju ne pišu. Mogli biste imati robusniji skup mehanizama za reviziju nacionalne sigurnosti za vrste bliskoistočnih infrastrukturnih ambicija koje je Sam Altman forsirao.
Kao što kažete, on je radio ovaj mamac i menjao se sa Bajdenovom administracijom, govoreći: „Upravljajte nas, regulišite nas“, i pomagao im da izrade izvršnu naredbu, a onda u trenutku kada Tramp uđe, zaista u prvim danima, jednostavno bez ograničenja, „Hajde da ubrzamo i napravimo masivni kampus data centra u Abu Dhabi“. Mogli ste, ovo je zaista jednostavno, poput zaštite zviždača. Ne postoji savezni statut koji štiti zaposlenike AI kompanije koji otkrivaju ove vrste sigurnosnih zabrinutosti koje se emituju u ovom članku.
Imamo slučajeve u kojima je Jan Leike, koji je bio viši tip za sigurnost u OpenAI-u, vodio super usklađivanje u kompaniji. On piše odboru, u suštini materijal za uzbunjivanje, rekavši da kompanija izlazi iz kolosijeka u svojoj sigurnosnoj misiji. To su ljudi koji bi zapravo trebali imati nadzorno tijelo kojem mogu ići, i trebali bi imati eksplicitnu zakonsku zaštitu kakvu vidimo u drugim sektorima. Ovo je jednostavno replicirati režim u stilu Sarbanes-Oxleya.
Mislim da uprkos tome koliko je akutan problem Silicijumske doline koja preuzima kontrolu nad svim polugama moći, i uprkos tome koliko su neke od ovih institucija koje bi mogle da obezbede nadzor i zaštitne ograde izdubljene, ja i dalje verujem u osnovnu matematiku demokratije i sebičnih političara. I sve je više podataka iz anketa koje se pojavljuju prema kojima većina Amerikanaca misli da zabrinutosti, pitanja ili rizici AI trenutno nadmašuju prednosti.
Tako da mislim da je poplava novca u politiku od AI-a u našoj moći da to učinimo izvorom znaka pitanja u odnosu na političare. Kada Amerikanci izađu na glasanje, trebali bi ispitati da li su ljudi za koje glasaju, posebno ako su nekritični i ako su protiv regulacije, s obzirom na sve ove brige, financirani velikim tehnološkim specijalnim interesima. Tako da mislim da ako ljudi mogu čitati ovakve komade, slušati ovakve podcaste i dovoljno brinuti da o njima kritički razmišljajunjihovim odlukama kao glasačima, postoji prava prilika da se u Washingtonu stvori izborna jedinica predstavnika koji drže na oku i prisiljavaju na nadzor.
To bi mogla biti jedna od najoptimističnijih stvari koje sam ikada čuo da neko kaže o trenutnoj AI industriji. Cijenim to. Opsjednut sam anketama o kojima govorite. Sada ga ima mnogo. Sve je to prilično konzistentno i izgleda da što su mladi ljudi više izloženi AI, to su više nepovjerljivi i ljuti zbog toga. To je valencija svih anketa. I gledam na to, i mislim, pa, da, pametni političari bi se jednostavno suprotstavili tome. Oni bi samo rekli: "Mi ćemo veliku tehnologiju smatrati odgovornom."
Onda pomislim na proteklih 20 godina, političara koji kaže da će veliku tehnologiju smatrati odgovornom, a ja se borim da pronađem čak i jedan trenutak kada se velika tehnologija smatra odgovornom. Jedina stvar zbog koje mislim da bi ovo moglo biti drugačije je, pa, vi zapravo morate izgraditi centre podataka, i možete glasati protiv toga, možete podnijeti peticiju protiv toga, i možete protestirati protiv toga.
Mislim da postoji političar na koga su pucali u kuću jer su glasali za data centar. Napetost dostiže, ja bih to nazvao, groznicu. Opisali ste otočnost Silicijumske doline. Ovo je zatvoreni ekosistem. Čini se kao da misle da mogu upravljati svijetom. Ulažu gomilu novca u politiku i suočavaju se sa realnošću da ljudi ne vole proizvode, što im ne daje puno pokrića. Što više koriste proizvode, to su više uznemireni, a političari počinju uviđati da postoje stvarne posljedice podrške tehnološkoj industriji u odnosu na ljude koje predstavljaju.
Razgovarali ste sa toliko ljudi. Mislite li da je moguće da tehnološka industrija nauči lekciju koja je pred njima?
Kažete da im se čini da misle da mogu upravljati svijetom bez odgovornosti. Mislim da čak i ne treba kvalifikator „osjećaj kao“. Mislim, ako pogledate jezik koji koristi Peter Thiel, on je eksplicitan. Naravno, to je ekstreman primjer. A Sam Altman, iako je u određenoj mjeri blizak i upućen u Thielovu ideologiju, vrlo je drugačija vrsta osobe koja bi mogla zvučati drugačije i odmjerenije do određene točke.
Ali mislim da je šira ideologija koju dobijate od Thiela, a koja je u osnovi: završili smo s demokratijom, ne treba nam više. Imamo toliko toga da samo želimo da izgradimo svoje male bunkere. Više se ne bavimo Carnegijevima ili Rockefellerima, gdje su oni loši momci, ali osjećaju da trebaju učestvovati u društvenom ugovoru i graditi stvari za ljude. Postoji pravi nihilizam koji je postavljen.
I zaista mislim da je to bila spirala koja se uzajamno pojačava u novijoj američkoj istoriji u kojoj moguli i privatne kompanije stiču supervladinu moć, dok su demokratske institucije koje bi ih mogle smatrati odgovornima izdubljene. Ne osjećam se optimistično u vezi sa idejom da bi se ti momci mogli jednostavno probuditi jednog dana i pomisliti: “Ha, zapravo možda trebamo učestvovati u društvu i pomoći da se grade stvari za ljude.”
Mislim, gledate na mikrokosmički primjer The Giving Pledge, gdje je postojao trenutak u kojem je izgledalo da je dobrotvorno, a taj trenutak je sada prošao, pa čak i ismijavan. To je problem, širi problem nedostatka odgovornosti za koji mislim da se može riješiti samo spolja. To mora biti birači koji mobiliziraju i oživljavaju moć vladinog nadzora. I potpuno ste u pravu kada kažete da je glavni vektor kroz koji bi ljudi to mogli postići lokalni. To se odnosi na to gdje se gradi infrastruktura.
Spomenuli ste neke od usijanih tenzija oko ovoga koje vode do nasilja i prijetnji, i očito, niko ne bi trebao biti nasilan ili prijeti. I također nisam ovdje da dajem konkretne preporuke za politiku, osim da samo predstavim neke od političkih koraka koji se čine osnovnim i koji djeluju drugdje u svijetu, zar ne? Ili oni koji su radili u drugim sektorima. Nisam ovdje da govorim koje od njih treba izvršiti i kako.
Mislim da se nešto mora dogoditi, i to mora biti eksterno, a ne samo vjerovati ovim kompanijama. Jer u pravusada imamo situaciju u kojoj kompanije koje razvijaju tehnologiju i koje su najbolje opremljene da razumiju rizike, a zapravo su one koje nas upozoravaju na rizike, također nemaju ništa osim poticaja da idu brzo i ignorišu te rizike. A vi jednostavno nemate čime da to uravnotežite. Dakle, koje god reforme mogle da poduzmu u smislu specifičnosti, nešto se mora suočiti s tim. I još uvijek se vraćam tom optimizmu da su ljudi i dalje bitni.
Generalno prihvatam tvoj argument. Dozvolite mi da iznesem samo jedan mali protuargument za koji mislim da mogu artikulirati. Druga stvar koja bi se mogla dogoditi izvan glasačke kutije je da balon iskoči, zar ne? Da sve ove kompanije ne stignu do cilja i da ne postoji tržište proizvoda pogodno za AI aplikacije za potrošače. I opet, ja to još ne vidim sasvim, ali ja sam recenzent potrošačke tehnologije i možda jednostavno imam više standarde od svih ostalih.
U poslovnom svijetu postoji tržište proizvoda, zar ne? Čini se da je gomila AI agenata napisana hrpa softvera pravo tržište za ove alate. I možete pročitati argumente ovih kompanija koje govore: "Mi smo riješili kodiranje, a to znači da možemo riješiti bilo šta. Ako možemo napraviti softver, možemo riješiti sve probleme."
Mislim da postoje stvarna ograničenja za stvari koje softver može učiniti. To je odlično u poslovnom svijetu. Softver ne može riješiti svaki problem u stvarnosti, ali mora doći do toga. Moraju da završe posao, a možda neće svi stići do cilja. I dođe do sloma, i ovaj balon pukne, i možda OpenAI ili Anthropic ili xAI, jedna od ovih kompanija propadne i sva ova investicija nestane.
Mislite li da bi to uticalo na ovo? Zapravo, dozvolite mi da prvo postavim prvo pitanje. OpenAI je na samom pragu IPO-a. Mnogo je nedoumica oko Sama kao vođe. Mislite li da će stići do cilja?
Neću prognozirati, ali mislim da ističete važnu stvar, a to je da su tržišni poticaji interno važni za Silikonsku dolinu, a nesigurnost trenutne dinamike balona može prekinuti, opet, potencijalno, prema kritičarima, trku do dna u pogledu sigurnosti.
Tome bih također dodao, ako pogledate historijski prioritet gdje postoji sličan i naizgled neprobojan skup tržišnih poticaja i potencijalno štetnih učinaka za javnost, postoji sudski spor o utjecaju. I vi to vidite kao oblast zabrinutosti u poslednje vreme. Sam Altman je ove sedmice vani i podržava zakon koji bi zaštitio AI kompanije od nekih vrsta odgovornosti kojima je OpenAI bio izložen u krivičnim tužbama za smrt, na primjer. Naravno, postoji želja da se taj štit zaštiti od odgovornosti.
Mislim da sudovi još uvijek mogu biti smislen mehanizam i bit će zaista zanimljivo vidjeti kako će se ova odijela oblikovati. Već ste vidjeli, na primjer, grupnu tužbu, čiji smo članovi i ja i mnogi, mnogi drugi autori za koje znam, protiv Anthropic-a zbog njihovog korištenja knjiga koje su bile pod autorskim pravima. Ako postoje pametni pravni umovi i tužitelji kojima je stalo, kao što smo istorijski vidjeli u slučajevima od velikog duhana do velike energije, također možete dobiti neke zaštitne ograde i neke poticaje da na taj način usporite, budete oprezni ili zaštitite ljude.
Čini se kao da cjelokupna struktura troškova AI industrije ovisi o vrlo, vrlo dobrotvornoj interpretaciji poštene upotrebe. Ne izlazi dovoljno. Struktura troškova ovih kompanija mogla bi izmaći kontroli ako moraju platiti vama i svima ostalima čiji su posao preuzeli, ali o tome je nezgodno razmišljati, tako da jednostavno ne razmišljamo o tome. Odmah pored toga, svi ovi proizvodi sada rade s gubitkom. Kao i danas, svi su u gubitku. Troše više novca nego što mogu zaraditi. U nekom trenutku moraju okrenuti prekidač.
Sem je biznismen. Kao što ste već nekoliko puta spomenuli, on nije tehnolog. On je poslovna osoba. Mislite li da je spreman da okrene prekidač i kaže: "Zaradit ćemo dolar?" Jer kada pitam: "Mislite li da će OpenAI uspjeti?" To je kada moraju da zarade dolar. I do sada, Sam je sve svoje dolare zaradio tražeći novac od drugih ljudi umjesto da njegove kompanije zarađuju.
Pa, to je veliko dugotrajno pitanje za Silicijumsku dolinu, za investitore, za javnost.Vidite neke izjave i poteze iz OpenAI-a koji izgledaju kao da pokazuju neku vrstu panike oko toga. Gašenje Sore, zatvaranje nekih pomoćnih projekata, pokušaj fokusiranja na osnovni proizvod. Ali, s druge strane, još uvijek vidite, u isto vrijeme, tone propadanja misije, zar ne? Čak i mali primjer - to očito nije suština njihovog poslovanja - je akvizicija TBPN-a.
Inače, upravo kada smo stigli na cilj i proveravali činjenice, kompanija koja se suočava sa ovakvom novinarskom kontrolom stiče platformu na kojoj može imati direktniju kontrolu nad razgovorom. Mislim da ima dosta investitora koji su zabrinuti, na osnovu razgovora koje sam vodio, da se ovaj problem obećanja svega svim ljudima proteže i na nedostatak fokusa u osnovnom poslovnom modelu. I mislim, vi ste bliži vrsti predviđanja i praćenja tržišta nego ja vjerovatno. Ostavljam vas i slušaoce da prosudite da li misle da OpenAI može da okrene prekidač.
Pa, postavio sam pitanje jer u članku imate citat visokog izvršnog direktora Microsofta, a to je da bi „Samovo naslijeđe moglo biti sličnije Bernieju Madoffu ili Samu Bankman-Friedu“, a ne Steveu Jobsu. To je pravo poređenje. Šta ste rekli o tom poređenju?
Mislim da je to parafraza. Dio Stevea Jobsa nije bio dio citata. Ali postoji zanimljiva vrsta trezvenosti u tome jer je formulisana kao: „Mislim da postoji mala, ali realna šansa da on završi kao SBF ili prevarant na nivou Madoffa“. Što, po mom mišljenju, ne znači da je Sam optužen za te specifične vrste prijevare ili zločina, već da stepen prikrivanja i obmane od Sama može imati šanse da na kraju bude zapamćen u tom obimu.
Da, mislim da je ono što je najupečatljivije u vezi s tim citatom, iskreno, to što nazovete Microsoft i ne dobijete lajk: "To je ludo. Nikad to nismo čuli." Često dobijete poput: „Da, mnogi ljudi ovdje to misle“, što je izvanredno. I mislim da se to odnosi na ova poslovna pitanja.
Jedan investitor mi je rekao, na primjer, u svjetlu načina na koji je ova osobina opstajala u godinama nakon otpuštanja” – i ovo je također mislilo da je ovo zanimljiva trezvena misao – da nije nužno da Sam treba biti na apsolutnom dnu liste, kao da bi trebao biti najniži od niskih u smislu ljudi koji apsolutno ne smiju graditi ovu tehnologiju, za šta je Musk rekao da je ova osoba vrijedna. osobina ga stavlja možda na dno liste ljudi koji bi trebalo da grade AGI, i ispod nekoliko drugih vodećih ličnosti u ovoj oblasti.
Tako da sam mislio da je to zanimljiva procjena, a takvo razmišljanje mislim da imate od pravih pragmatičara koji se možda i ne upuštaju toliko u brige o sigurnosti. Oni su samo orijentisani na rast i misle da OpenAI sada ima problem sa Samom Altmanom.
Microsoftov rad je zaista zanimljiv. Ta kompanija je mislila da su na vrhu svijeta. Da su napravili ovu investiciju i da će preskočiti sve, posebno i najvažnije, Google, i vratiti se u dobrotu potrošača. Nivo do kojeg se osjećaju spaljeni ovom avanturom - ovo je kompanija koja se vodi vrlo trezveno - mislim da se ne može precijeniti.
Spomenuli ste karaktere i osobine ličnosti. Ovdje želim da završim pitanjem naših slušalaca. Rekao sam u našoj drugoj emisiji, The Vergecast, da ću razgovarati s vama, i rekao sam: „Ako imate pitanja za Ronana o ovoj priči, javite mi. Dakle, ovdje imamo jednu za koju mislim da je uredno povezana s onim što opisujete. Samo ću ti to pročitati:
“Po čemu se opravdanja za loše ponašanje, ubojite postupke Altmana i drugih vođa umjetne inteligencije, razlikuju od opravdanja koje je Ronan čuo od drugih visokoprofiliranih lidera u politici i medijima? Zar svi oni ne opravdavaju svoje postupke govoreći da se tako svijet mijenja? Ako ja to ne uradim, neko drugi će?”
Da, ima dosta toga okolo. Rekao bih da je ono što je karakteristično za AI to što su egzistencijalni ulozi tako jedinstveno visoki znači da su obje izjave o riziku ekstremne, zar ne? Imate Sama Altmanagovoreći: "Ovo bi moglo biti ugašeno svjetlo za sve nas." A takođe, kritičari bi mogli reći, manija na koju postavlja pitanje je ekstremna, zar ne?
Ono za što je Sam optužio Elona u zapisniku je da možda želi spasiti čovječanstvo, ali samo ako je to on. Komponenta ega u želji za pobjedom, što je okvir koji Sam koristi cijelo vrijeme, i to što je ovo za udžbenike istorije, ovo bi moglo promijeniti sve. Stoga, čak i iznad i mimo načina razmišljanja „moraš razbiti nekoliko jaja“ većine preduzeća u Silicijumskoj dolini, mislim da postoji, u glavama nekih ličnosti koje vode AI, potpuna racionalizacija za sve posledice.
I zaboravi razbijanje jaja. Mislim da bi mnogi istraživači sigurnosti rekli da potencijalno rizikuje razbijanje zemlje, slamanje svijeta i slamanje miliona ljudi čiji posao i sigurnost visi na koncu – to je ono što je jedinstveno. Tu završavam, razmišljajući o ovom korpusu izvještavanja, stvarno vjerujući da je ovo nešto više od Sama Altmana. Radi se o industriji koja je neograničena i rastućem problemu Amerike koji je ne može ograničiti.
Da. Pa, tu smo imali malo optimizma, ali mislim da je to dobro mjesto da ga ostavimo.
[Smijeh] Završite na nižem ritmu.
Naravno. To je svaka sjajna priča, zaista. Predstoji suđenje Musk-Altmanu. Mislim da ćemo ovdje naučiti mnogo više. Pretpostavljam da ću htjeti ponovo razgovarati s tobom. Ronan Farrow, hvala ti puno što si na Dekoderu.
Hvala.
Pitanja ili komentari o ovoj epizodi? Javite nam se na [email protected]. Zaista čitamo svaki email!