Danes se na Decoderju pogovarjam z Ronanom Farrowom, eno največjih zvezd preiskovalnega poročanja, ki dela danes. Razkril je zgodbo Harveyja Weinsteina, med mnogimi, mnogimi drugimi. In ravno prejšnji teden sta on in soavtor Andrew Marantz v The New Yorkerju objavila neverjetno podrobno prispevek o generalnem direktorju OpenAI Samu Altmanu, njegovi zanesljivosti in vzponu samega OpenAI. 

Še ena opomba, preden gremo naprej – The New Yorker je objavil to zgodbo in z Ronanom sva imela ta pogovor, preden sva izvedela celoten obseg napadov na Altmanov dom, tako da naju ne boš slišal neposredno govoriti o tem. Ampak samo povem, mislim, da je kakršno koli nasilje nesprejemljivo, ti napadi na Sama so bili nesprejemljivi in ​​da je vrsta nemoči, ki jo čutijo ljudje in vodi do te vrste nasilja, sama po sebi nesprejemljiva in je vredno veliko več nadzora s strani industrije in naših političnih voditeljev. Upam, da je to jasno.

Naročniki na Verge, ne pozabite, da dobite ekskluziven dostop do dekoderja brez oglasov, kjer koli dobite poddaje. Pojdite sem. Niste naročnik? Prijavite se lahko tukaj.

Vse to pove, da se okoli Altmana vrti marsikaj, kar je poštena igra za strogo poročanje – takšno poročanje, kot sta si ga zadala Ronan in Andrew. Zahvaljujoč priljubljenosti ChatGPT je Altman postal najvidnejša figura v industriji umetne inteligence, saj je nekoč neprofitni raziskovalni laboratorij v samo nekaj letih spremenil v skoraj trilijon dolarjev vredno zasebno podjetje. Toda mit o Altmanu je globoko nasprotujoč, enako ga opredeljujeta njegova očitna sposobnost sklepanja kupčij in njegova nagnjenost k ... no, laganju vsem okoli sebe.

Zgodba je dolga več kot 17.000 besed in verjetno vsebuje dokončno poročilo o tem, kaj se je zgodilo leta 2023, ko je upravni odbor OpenAI zelo nenadoma odpustil Altmana zaradi njegovega domnevnega laganja, da bi ga skoraj takoj ponovno zaposlili. To je tudi globok potop v Altmanovo osebno življenje, njegove naložbe, njegovo dvorjenje z denarjem Bližnjega vzhoda in njegove lastne refleksije o njegovem preteklem vedenju in značajskih lastnostih, zaradi katerih je en vir rekel, da ga »ne omejuje resnica«. Resnično predlagam, da preberete celotno zgodbo; Sumim, da se bo nanj sklicevalo še mnogo let. 

Ronan se je z Altmanom velikokrat pogovarjal v 18 mesecih, ki jih je porabil za poročanje o tem prispevku, in zato je bila ena glavnih stvari, ki me je zanimala, ali je v tem času zaznal kakšno spremembo pri Altmanu. Navsezadnje se je v zadnjem letu in pol v AI, tehnologiji in v svetu zgodilo veliko.

Slišali boste, kako Ronan govori o tem zelo neposredno, pa tudi njegov občutek, da so ljudje postali veliko bolj pripravljeni govoriti o Altmanovi sposobnosti, da raztegne resnico. Ljudje se začenjajo glasno in uradno spraševati, ali je vedenje ljudi, kot je Altman, zaskrbljujoče, ne samo za AI ali tehnologijo, ampak tudi za skupno prihodnost družbe.

V redu: Ronan Farrow o Samu Altmanu, AI in resnici. Izvolite. 

Ta intervju je bil rahlo urejen zaradi dolžine in jasnosti. 

Ronan Farrow, ste raziskovalni novinar in sodelavec The New Yorkerja. Dobrodošli v Dekoderju.

Vesel sem, da sem tukaj. Hvala, da si me sprejel.

Zelo se veselim pogovora s teboj. Pravkar ste napisali velik članek za The New Yorker. To je profil Sama Altmana in, nekako z njim, OpenAI. Moje mnenje o njem je, da, tako kot vse odlične funkcije, s strogim poročanjem potrjuje veliko občutkov, ki jih imajo ljudje o Samu Altmanu že zelo dolgo. Očitno ste to objavili, na to ste dobili odzive. Kako se trenutno počutite glede tega?

No, pravzaprav me je razveselilo, v kolikšni meri se je prebilo v času, ko je ekonomija pozornosti tako nekako shizofrena in plitva. To je zgodba, ki po mojem mnenju vpliva na vse nas. In ko sem porabil leto in pol svojega življenja in moj soavtor, Andrew Marantz, je prav tako porabil svoj čas, da bi res poskušal narediti nekaj forenzičnega in natančnega, je to vedno zato, ker se mi zdi, da obstajajo večja strukturna vprašanja, ki vplivajo na ljudi, ki presegajo posameznika in podjetje v središču zgodbe. 

Sam Altman, v ozadju kulture navdušenja v Silicijevi dolini in startupov, ki se dvigujejo do ogromnih vrednotenj, ki temeljijo na obljubah, ki se lahko ali pa tudi ne uresničijo v prihodnosti, in čedalje večjega sprejemanja kulture ustanoviteljev, ki misli, da je različnim skupinam pripovedovanje različnih nasprotujočih si stvari značilnost, ne panapaka ... Tudi v tem ozadju je Sam Altman izjemen primer, ko vsi v Silicijevi dolini, ki pričakujejo te stvari, ne morejo nehati govoriti o tem vprašanju njegove zanesljivosti in poštenosti. 

Vedeli smo že, da je bil odpuščen zaradi neke različice obtožb o nepoštenosti ali serijskega domnevnega laganja. Toda nenavadno, kljub dejstvu, da je bilo poročanje čudovito, je Keach Hagey pri tem opravil odlično delo. Karen Hao je pri tem opravila odlično delo. Pravzaprav ni bilo dokončnega razumevanja dejanskih domnevnih dokazov in razlogov, zakaj so ostali izven oči javnosti. 

Prva točka je torej, da me veseli dejstvo, da so nekatere od teh vrzeli v našem javnem znanju in celo v znanju insajderjev iz Silicijeve doline zdaj nekoliko bolj zapolnjene. Nekateri razlogi za vrzeli so bili nekoliko zapolnjeni.

Poročamo o primerih, ko so se ljudje v tem podjetju res počutili, kot da so bile stvari prikrite ali namerno nedokumentirane. Ena od novosti v tej zgodbi je ključna preiskava odvetniške družbe WilmerHale, ki je očitno modna, verodostojna, velika odvetniška pisarna, ki je izvajala preiskave Enrona in WorldComa, ki so bile, mimogrede, vse obsežne, kot na stotine objavljenih strani. WilmerHale je opravil to preiskavo, ki so jo zahtevali člani upravnega odbora, ki so Altmana odpustili kot pogoj za njihov odhod, ko se jih je znebil, in se je vrnil. In kar je nenavadno – v očeh mnogih pravnih strokovnjakov, s katerimi sem govoril, in šokantno v očeh mnogih ljudi v tem podjetju – niso pisali o tem. Vse, kar je kdaj nastalo iz tega, je bilo 800-besedno sporočilo za javnost OpenAI, ki je to, kar se je zgodilo, opisalo kot zlom zaupanja. In potrdili smo, da je to ostalo pri ustnih sestankih.

Obstajajo primeri, ko na primer član upravnega odbora navidezno želi glasovati proti pretvorbi iz prvotne neprofitne oblike OpenAI v profitno organizacijo, in se zabeleži kot vzdržan glas. Na sestanku je kot odvetnik, ki pravi: "No, to bi lahko sprožilo preveč nadzora." In oseba, ki želi glasovati proti, se zabeleži kot vzdržana pri vseh nastopih. Obstaja dejanski spor. OpenAI trdi drugače, kot si lahko predstavljate. Vse to so primeri, ko imate podjetje, ki samo po sebi drži našo prihodnost v svojih rokah. 

Varnostni vložki so tako veliki, da še niso izginili. To je razlog, zakaj je bilo to podjetje ustanovljeno kot neprofitna organizacija, osredotočena na varnost, in kjer so bile stvari prikrite na način, da se je verodostojnim ljudem okoli tega zdelo manj kot profesionalno. In to združite z ozadjem, kjer je tako malo političnega apetita po smiselni ureditvi. Mislim, da je to zelo vnetljiva situacija. 

Zame ni bistvo le v tem, da si Sam Altman ta vprašanja tako zelo zasluži. Prav tako je, da kateri koli od teh fantov na tem področju in veliko ključnih osebnosti kaže, če ne to posebno idiosinkratično lastnost, da ves čas lažejo, zagotovo določeno stopnjo mentalitete dirkanja do dna, kjer so ljudje, ki so bili varnostniki, razvodenili te zaveze in držo, da so vsi v tekmi.

Mislim, da ko gledamo nedavna uhajanja iz Anthropica, obstaja oseba, ki postavlja vprašanje, kdo bi moral imeti prst na gumbu v tem delu. Odgovor je, da če nimamo pomembnega nadzora, mislim, da moramo postavljati resna vprašanja in poskušati pridobiti čim več informacij o vseh teh tipih. Zato me je spodbudilo, kar se mi zdi smiseln pogovor o tem ali začetki le-tega.

Razlog, zakaj sem tako vprašal, je, da ste na tem delali leto in pol. S svojim soavtorjem, Andrewom, ste se pogovarjali s, mislim, 100 ljudmi. To je dolgo časa za pripravo zgodbe. Zlasti razmišljam o zadnjem letu in pol v AI, in fant, ali so se stališča in vrednote vseh teh likov zelo hitro spremenili. 

Morda nihče drug kot Sam Altman, ki je začel kot privzeti zmagovalec, ker so izdali ChatGPT in vsi so mislili, da bo to preprosto prevzelo Google. In potem se je Google odzval, kar jih je zdelo presenetilo, da bo Google poskušal zaščititi svoje poslovanje, morda eno najboljših podjetij v zgodovini tehnologije, če ne kar zgodovini poslovanja. Anthropic se je odločil, da se bo osredotočil na podjetja. Zdi se, da prevzema vodilno vlogozato, ker je uporaba umetne inteligence v podjetjih tako visoka.

Zdaj OpenAI preusmerja svoj izdelek stran od »pomerili se bomo z Googlom« na Codex, oni pa bodo prevzeli podjetje. Samo ne morem natančno povedati, ali se med vašim poročanjem v zadnjem letu in pol zdi, da so se liki, s katerimi ste govorili, spremenili? Ali so se spremenili njihovi odnosi in vrednote?

ja Najprej mislim, da je kritika, ki je raziskana v tem delu in prihaja od mnogih ljudi v teh podjetjih na tej točki - da je to industrija, ki se kljub eksistencialnim vložkom spušča v nekakšno tekmo proti dnu glede varnosti in kjer hitrost prevlada nad vsem drugim - ta zaskrbljenost postaja vse bolj pereča. In mislim, da so bili ti pomisleki bolj potrjeni v zadnjem letu in pol. Hkrati se je odnos do Sama Altmana posebej spremenil. Ko smo se o tem začeli pogovarjati z viri, so bili ljudje res, zelo nezaupljivi, da bi jih citirali o tem in da bi o tem poročali.

Ob koncu našega poročanja imate telo poročil, kjer ljudje o tem govorijo zelo odkrito in eksplicitno, in imate člane odbora, ki pravijo stvari, kot so: "On je patološki lažnivec. On je sociopat." Obstaja vrsta perspektiv, od: "Glede na varnostne vložke je to nevarno in potrebujemo vodje te tehnologije, ki imajo visoko integriteto," vse do "Pozabite na varnostne vložke, to je vedenje, ki je nevzdržno za katerega koli vodstvenega delavca katerega koli večjega podjetja, da samo ustvarja preveč disfunkcije."

Tako je pogovor postal veliko bolj ekspliciten na način, ki se morda zdi pozen, vendar je v nekem smislu spodbuden. In Sam Altman, po njegovi zaslugi ... Delo je zelo pošteno in celo velikodušno, rekel bi, do Sama. To ni komad, v katerem je bilo veliko stvari, ki te "dobijo". Z njim sem preživel veliko, veliko ur po telefonu, ko sva to dokončevala, in ga res slišala. 

Kot si lahko predstavljate, v komadu, kot je ta, ne uspe vse. Nekateri od teh primerov v tem so bili zato, ker sem iskreno poslušal. In če je Sam dejansko trdil, da se mi je zdelo, da ga nosi voda, da je nekaj, tudi če je res, lahko senzacionalistično, sem res naredil napako, ko sem ohranil to forenzično in izmerjeno. Zato menim, da je bilo to pravilno sprejeto, in samo upam, da bo ta dejanski zapis, ki se je nabral v tem časovnem obdobju, lahko sprožil bolj spodbuden pogovor o potrebi po nadzoru.

To je pravzaprav moje naslednje vprašanje. Mislim, da ste med poročanjem o tej zgodbi ducatkrat govorili s Samom. Še enkrat, to je veliko pogovorov v daljšem časovnem obdobju. Ali mislite, da se je Sam med poročanjem v zadnjem letu in pol spremenil?

ja Mislim, da je eden najzanimivejših podzapletov v tem, da tudi Sam Altman o tej lastnosti govori bolj eksplicitno kot v preteklosti. Samova drža v tem delu ni podobna: "Tam ni ničesar, to ni res; ne vem, o čem govoriš." Drža, ki jo ima, pravi, da je to mogoče pripisati nagnjenosti k ugajanju ljudi in nekakšnemu odporu do konfliktov. Priznava, da mu je to povzročalo težave, zlasti na začetku kariere.

On pravi: "No, to presegam ali pa sem do neke mere presegel to." Mislim, da je zame res zanimiv kontingent ljudi, s katerimi smo se pogovarjali, ki niso bili le nekakšni zagovorniki varnosti, ne le temeljni tehnični raziskovalci, ki imajo zelo pogosto te akutne varnostne pomisleke, ampak tudi pragmatični, veliki vlagatelji. So Samovi podporniki, ki v nekaterih primerih pogledajo to vprašanje in govorijo o tem, da so celo odigrali ključno vlogo pri njegovi vrnitvi po odpustitvi. Zdaj pa na vprašanje, ali se je preoblikoval in v kolikšni meri je ta sprememba smiselna, pravijo: "No, takrat smo mu dali prednost."

Zlasti mislim na enega uglednega vlagatelja, ki je rekel: "Toda od takrat se zdi jasno, da ga niso odpeljali za drvarnico," kar je bil izraz, ki ga je ta uporabil, kolikor je bilo potrebno. Posledično se zdi, da je to zdaj stabilna lastnost. To vidimo na nenehen način. Ogledate si lahko nekaj največjih podjetij OpenAIodnosov in načina, kako nekako nenehno prenašajo težo tega nezaupanja. 

Tako kot pri Microsoftu se tam pogovarjate z vodstvenimi delavci in imajo zelo akutne in pred kratkim katalizirane pomisleke. Obstaja ta primer, ko na isti dan, ko OpenAI ponovno potrjuje svojo ekskluzivnost pri Microsoftu v zvezi z osnovnimi modeli umetne inteligence brez stanja, prav tako napoveduje nov posel z Amazonom, ki je povezan s prodajo poslovnih rešitev za izdelavo agentov umetne inteligence, ki imajo status, kar pomeni, da imajo pomnilnik.

Pogovarjate se z Microsoftovimi ljudmi in ti pravijo: "Tega ni mogoče storiti, ne da bi sodelovali z osnovnimi stvarmi, za katere imamo dogovor o ekskluzivnosti." To je torej samo eden od mnogih majhnih primerov, ko ima ta lastnost ves čas vpetje v tekočo poslovno dejavnost in je predmet dejavne skrbi v upravnem odboru OpenAI, v njegovem izvršnem paketu in v širši tehnološki skupnosti.

Kar naprej ponavljate to "lastnost". V zgodbi je vrstica, ki se mi zdi kot teza, in je opis lastnosti, ki jo opisujete. To je, da "Sam Altman ni oviran z resnico" in da ima "dve lastnosti, ki ju skoraj nikoli ne opazimo pri isti osebi: prva je močna želja ugajati ljudem, biti všečen v kateri koli interakciji, druga pa je skoraj sociopatsko pomanjkanje skrbi za posledice, ki jih lahko izhaja iz prevare nekoga."

Moram vam povedati, da sem ta stavek prebral 500-krat in poskušal sem si predstavljati, da vedno govorim, kar si ljudje želijo, da bi bili všeč, in potem ne bi bil razburjen, ko bi čutili laži. In nisem mogel doseči, da bi moje čustveno stanje razumelo, kako lahko te stvari obstajajo v isti osebi. Veliko ste se pogovarjali s Samom in pogovarjali ste se z ljudmi, ki so izkusili te lastnosti. Kako mu to uspe?

ja Na človeški ravni je zanimivo, ker se takšnih poročevalskih teles lotevam z resničnim poudarkom na človečenju tistega, ki je v središču tega, ter iščem globoko razumevanje in empatijo. Ko sem nekako poskušal pristopiti k temu z bolj človeškega stališča in rekel: "Hej, to bi bilo zame uničujoče, če bi toliko ljudi, s katerimi sem delal, reklo, da sem patološki lažnivec. Kako nosiš to težo? Kako o tem govoriš na terapiji? Kakšna je zgodba, ki si jo pripoveduješ o tem?"

Po mojem mnenju sem dobil nekakšne floskule na Zahodni obali, kot je, "Ja, rad imam delo z dihanjem." Vendar ne veliko okrepčevalnega občutka globokega soočenja s samim seboj, ki bi ga po mojem mnenju verjetno imeli mnogi od nas, če bi videli tovrstne povratne informacije o našem vedenju in našem ravnanju z ljudmi.

Mislim, da gre tudi za širši odgovor na vprašanje. Sam trdi, da je ta lastnost povzročila težave, a tudi, da je del tega, kar mu je omogočilo, da je tako pospešil rast OpenAI, da je sposoben združiti in zadovoljiti različne skupine ljudi. Nenehno prepričuje vse te nasprotujoče volilne enote, da je tisto, kar njih skrbi, tisto, kar skrbi njega. In to je lahko zelo koristna veščina za ustanovitelja. Pogovarjal sem se z vlagatelji, ki so potem rekli: "No, morda je to manj uporabna veščina za dejansko vodenje podjetja, ker seje toliko razdora."

Toda kar zadeva Sam osebno, mislim, da je stvar, ki jo opazim, ko se poskušam povezati na človeški ravni, očitno pomanjkanje globljega soočenja, razmišljanja in samoodgovornosti, kar tudi pove o tej supermoči ali odgovornosti za podjetje, ki se pripravlja na IPO.

On je nekdo, ki je po besedah ​​ene nekdanje članice upravnega odbora po imenu Sue Yoon, ki je v zapisu v prispevku povedala, da je besedna zveza, ki jo uporablja, do te mere, da je »nemogoče«, resnično sposoben verjeti spreminjajoči se resničnosti njegovih prodajnih predlogov ali pa se je sposoben o njih prepričati. Ali pa vsaj, če jim ne verjame, je sposoben hlastati po njih brez pomembnega dvoma vase.

Mislim, da stvar, o kateri govorite, kjer lahko vi ali jaz, ko to stvar izgovarjamo in se zavedamo, da je v nasprotju z drugimi zagotovili, ki smo jih dali, na trenutek zamrznemo ali se preverimo. Mislim, da se to z njim ne zgodi. In obstaja širša kultura navdušenja v Silicijevi dolini in kultura ustanoviteljev, ki to nekako sprejema.

Smešno je. The Verge je zgrajen na tem, kar pomeni ocene izdelkovprogram. To je srce tega, kar počnemo tukaj. Enkrat letno imam bilijon dolarjev Apple R&D in rečem: "Ta telefon je sedmica." In nekako legitimizira vsa naša poročanja in naša mnenja drugje. Imamo ocenjevalno funkcijo in toliko časa porabimo samo za ogledovanje izdelkov umetne inteligence in vprašanje: "Ali delujejo?"

Zdi se, kot da manjka v številnih pogovorih o AI, kot je danes. Obstajajo neskončni pogovori o tem, kaj bi lahko naredil, kako nevaren bi lahko bil. In potem poglobite dol in rečete: "Ali dejansko počne to, kar bi moral narediti danes?" V nekaterih primerih je odgovor pritrdilen. Toda v mnogih, mnogih primerih je odgovor ne.

Zdi se, kot da je povezano s kulturo navdušenja, ki jo opisujete, in tudi z občutkom, da če rečete, da bo nekaj naredilo, pa ne, in se nekdo počuti slabo, je to v redu, ker smo na naslednji stvari. To je v preteklosti. Zlasti pri AI je Sam tako dober v velikih obljubah.

Ravno ta teden, mislim, da je na isti dan, ko je bila objavljena vaša zgodba, je OpenAI izdal politični dokument, ki pravi, da moramo ponovno razmisliti o družbeni pogodbi in pridobiti vladne štipendije za učinkovitost AI. To je velika obljuba o tem, kako bi lahko neka tehnologija oblikovala prihodnost sveta in kako živimo, vse to pa je odvisno od tehnologije, ki deluje točno tako, kot je morda obljubljeno, da bo delovalo ali bi moralo delovati. 

Ste kdaj ugotovili, da Sam dvomi, da bi se umetna inteligenca spremenila v AGI ali superinteligenco ali da bi prišel do cilja? Ker to je tisto, kar se najbolj sprašujem. Ali obstaja kakršen koli razmislek o tem, ali ta osnovna tehnologija zmore vse stvari, za katere pravijo, da zmore?

To je točno pravi sklop vprašanj. Obstajajo verodostojni tehnologi, s katerimi smo govorili v tem telesu poročanja - in očitno Sam Altman ni eden od njih; on je poslovna oseba - ki pravi, da način, na katerega Sam govori o časovnici za to tehnologijo, je čisto zanemarjen. Nekaj ​​let nazaj so objave v blogih, kjer Sam pravi: "Dosegli smo že obzorje dogodkov. AGI je v bistvu tukaj. Superinteligenca je za vogalom. Bili bomo na drugih planetih. Ozdravili bomo vse oblike raka." Resnično, ne olepšujem. 

Pravzaprav je zanimivo tisto o raku, da Sam navija za osebo, ki je teoretično pozdravila raka svojega psa s ChatGPT, pa se to preprosto ni zgodilo. Pogovarjali so se s ChatGPT in to jim je pomagalo usmeriti nekatere raziskovalce, ki so dejansko opravili delo, toda ena na ena, to orodje je ozdravilo tega psa, pravzaprav ni zgodba.

Veseli me, da ste izpostavili to točko, ker bi rad nadaljeval s to pomembnejšo točko o tem, kdaj se bosta potencial in tveganje tehnologije resnično izkazala. Vendar je vredno omeniti te male stranske strani, ki se nenehno dogajajo Samu Altmanu, kjer se zdi, da znova uteleša to lastnost. 

Mislim, če uporabim primer poročila WilmerHale, kjer smo imeli te informacije, ki niso bile napisane, in smo želeli vedeti, ali je bil ustni povzetek med potjo dan komu drugemu razen članoma odbora, ki ju je Sam pomagal namestiti, da ga nadzirata. In rekel je: "Ja, ja, ne, verjamem, da je bil dan vsem, ki so se kasneje pridružili odboru." In imamo osebo, ki neposredno pozna situacijo, in pravi, da je to preprosto laž. In zdi se, da je res tako, da ni res. Če želimo biti radodarni, je bil morda napačno obveščen. 

Teh priložnostnih zagotovil je veliko. In ta primer deloma uporabljam zato, ker je to odličen primer prikrivanja, recimo temu, ki ima lahko resnične pravne posledice. Ni mi treba povedati, da se lahko v skladu z zakonodajo podjetij Delaware, če to podjetje izvede IPO, delničarji v skladu z oddelkom 220 pritožijo glede tega in zahtevajo ustrezno dokumentacijo. Člani upravnega odbora že pravijo stvari, kot so: "No, počakaj malo, ta sestanek bi moral biti."

Torej te stvari, za katere se zdi, da ves čas skačejo iz njegovih ust, imajo lahko resnične učinke na premikanje trga, resnične učinke za OpenAI. Če se vrnemo k vrsti utopičnega hype jezika, ki se je ponovno pojavil, menim, da ne naključno na dan, ko je ta del izšel, vpliva tudi na vse nas, ker so nevarnosti tako velike glede na to, kako jeuporaba v orožju, način uporabe za identifikacijo kemičnih bojnih agentov, potencial dezinformacij in način, na katerega se zdi, da utopični hype spodbuja veliko verodostojnih ekonomistov, da rečejo: "To ima vse znake balona."

Celo Sam Altman je rekel: "Nekdo bo tukaj izgubil veliko denarja." To bi res lahko povzročilo velik del ameriške in svetovne gospodarske rasti, če bi prišlo do resničnega predrtja balona, ​​ki bi vključeval vsa ta podjetja, ki sklepajo medsebojne posle in se zavzemajo za AI, medtem ko se tako močno zadolžujejo. Torej je pomembno, kar pravi Sam Altman, in mislim, da je večina ljudi okoli njega, omenili ste, da smo se pogovarjali z več kot sto, dejansko jih je bilo precej več kot sto. Imeli smo pogovor na ciljni črti, kjer je bilo tako: "Ali bi bilo preveč malenkostno reči, da je tako veliko večja številka?" In rekli smo si: "Ja, zmanjšajmo pomen. Igrali bomo kul." Vendar je bilo toliko ljudi in velika večina jih je rekla: "To je zaskrbljujoče." In mislim, da je to razlog.

Naj vas vprašam o tej številki. Kot ste omenili, so ljudje s časom postajali vse bolj odprti glede pomislekov. Zdi se, kot da je pritisk okoli balona - tekma za zmago, poplačilo vseh teh naložb, izstop kot zmagovalec, IPO - spremenil veliko stališč. Zagotovo je ustvaril večji pritisk na Sama in OpenAI.

Ta teden smo objavili zgodbo o vibracijah OpenAI. Vaša zgodba je del tega, toda množične kadrovske spremembe v vodilnih vrstah OpenAI - ljudje prihajajo in odhajajo. Vsi raziskovalci so se odpravili stran, večinoma k Anthropicu, kar se mi zdi res zanimivo. Vidite lahko, da to podjetje čuti pritisk in se na nek način odziva na ta pritisk.

Ampak potem se spomnim Sama, ki je bil odpuščen. To je zame nepozabno. Nikomur drugemu ni nepozabno, vendar sem v petek ob 19. uri poklical vir v živalskem vrtu v Bronxu in nekdo je rekel, da bo poskušal vrniti Sama. In potem smo preživeli vikend, ko smo lovili to zgodbo. In rekel sem si: "V živalskem vrtu sem. Kaj hočeš, da počnem tukaj?" In odgovor je bil: "Ostani na telefonu." No, moja hčerka je rekla: "Pojdi s telefona." In to sem naredil. 

Bilo je treba voziti ali umreti, da dobim Sama nazaj. To podjetje je bilo kot: "Ne, ne dovolimo, da upravni odbor odpusti Sama Altmana." Vlagatelji, ki so citirani v vašem prispevku, "Šli smo v vojno," mislim, je stališče Thrive Capital, "da bi dobili Sama nazaj." Microsoft je šel v vojno, da bi vrnil Sama. Kasneje je in zdaj si vsi mislijo: "Gremo na IPO. Prišli smo do ciljne črte. Našega fanta smo dobili nazaj in on nas bo pripeljal do ciljne črte. Skrbi nas, da je lažnivec." 

Zakaj je bila takrat vojna, da bi ga dobili nazaj? Ker se ne zdi, da se je dejansko kaj spremenilo. Govorite o beležkah, ki sta jih hranila Ilya Sutskever in [izvršni direktor Anthropic] Dario Amodei, ko sta bila sodobnika Sama Altmana. Ilyina prva skrb je bila, da je Sam lažnivec.

Nič od tega se ni spremenilo. Zakaj je bila potem vojna, da bi ga vrnili? In zdaj, ko smo na cilju, se zdi, da so vsi pomisleki odkriti.

No, najprej se opravičujem vaši hčerki in mojemu partnerju ter vsem ostalim okoli novinarjev. 

[Smeh] To je bil pravi vikend za vse.

Ja, prevzame človekovo življenje in ta zgodba zagotovo ima moje v zadnjem obdobju. Mislim, da se dejansko nanaša na temo novinarstva in dostopa do informacij. Vlagatelji, ki so šli v vojno za Sama in vsi so igrali vlogo pri zagotavljanju njegove vrnitve, in upravni odbor, ki je bil posebej zasnovan za zaščito poslanstva neprofitne organizacije, da bi varnost postavila pred rast in odpustila direktorja, če jim tega ni bilo mogoče zaupati, so odšli. To je bilo vse zato, ker so bile tržne spodbude, kajne?

Sam je ljudi lahko prepričal: "No, podjetje bo preprosto razpadlo." A razlog za podporo je bilo pomanjkanje informacij. Ti vlagatelji v mnogih primerih zdaj pravijo: "Gledam nazaj in mislim, da bi me moralo skrbeti več, če bi v celoti vedel, kakšne so bile terjatve in kakšni so bili pomisleki."

Ne vsi;mnenja so različna in citiramo vrsto mnenj, vendar so pomembna tista, ki so delovala na podlagi zelo delnih informacij. Deska, ki je odpustila Sama, je bila, po besedah ​​ene osebe, ki je nekoč bila v deski, "zelo JV," in močno so udarili po žogici. Dokumentiramo temeljne pritožbe in ljudje se lahko sami odločijo, ali se to nakopiči v vrsto nujne skrbi, za katero so menili, da je, vendar ta argument in te informacije niso bili predstavljeni.

Prejeli so, kar nekateri zdaj priznavajo kot slab pravni nasvet. Če ga opišete, se boste spomnili citata in verjetno se bo veliko vaših poslušalcev in gledalcev spomnilo citata kot pomanjkanja odkritosti. Na to se je zmanjšalo, potem pa v bistvu ne bi sprejemali klicev.

Niso hoteli sprejemati klicev. Prepričan sem, da ste poskusili. Vsi, ki jih poznam, so poskušali in prišlo je do točke, ko kot novinar ne bi smel svetovati svojim virom, vendar sem si rekel: "To bo izginilo, če ne začneš razlagati."

In to se je zgodilo. Pozabite na novinarje. Imeli ste Satya Nadello, ki je rekel: "Kaj za vraga se je zgodilo? Ne morem dobiti nikogar, da bi mi razložil." In to je glavna finančna podpora podjetja. In potem imate Satya, ki kliče [soustanovitelja LinkedIna] Reida Hoffmana, Reid pa kliče naokoli in pravi: "Ne vem, kaj za vraga se je zgodilo." 

Razumljivo so v tej praznini informacij in iščejo tradicionalne indikatorje, ki niso povezani z umetno inteligenco, ki bi upravičili tako nujno, nenadno odpuščanje. Kot, v redu, so bili spolni zločini? Je šlo za poneverbo? In celoten subtilen, a mislim, da je smiseln argument, da je ta tehnologija drugačna in da bi lahko imela ta vrsta stalnega kopičenja manjših izdaj pomembne deleže tako za ta posel kot morda za svet, je bil v veliki meri izgubljen. Kapitalistične spodbude so torej zmagale, a tudi ljudje, ki jim je uspelo, so šli ven in niso vedno delovali s popolnimi informacijami.

Samo za trenutek želim vprašati o vidiku "kaj so vsi mislili, da je", ker sem zagotovo videl novice in sem rekel: "Oh, nekaj slabega se je moralo zgoditi." Veliko ste poročali o #MeToo, slavno. Razkrili ste zgodbo o Harveyju Weinsteinu. 

Veliko časa ste porabili za poročanje o teh trditvah, za katere mislim, da ste se odločili, da so na koncu neutemeljene: da je Altman spolno napadel mladoletnike ali najel spolne delavce ali celo umoril žvižgača OpenAI. Mislim, ti si oseba, ki lahko najbolj dosledno prijavi te stvari. Ste se odločili, da ni nič?

No, poglejte, jaz se ne ukvarjam s tem, da bi govoril, da se nekaj ni izšlo. Kar lahko rečem je, da sem mesece pregledoval te trditve in nisem našel potrditve zanje. In presenetljivo me je bilo, da ti fantje, ta podjetja, ki imajo tako veliko moč nad našo prihodnostjo, resnično porabijo nesorazmerno veliko svojega časa in sredstev za otročji boj v blatu.

En izvršni direktor ga opisuje kot "Shakespearskega". Količina denarja zasebnih preiskovalcev in dosjejev opozicije, ki se zbirajo, je neizprosna. In žalostna stvar je, da so te ponižne stvari, ki jih ponavljajo Samovi konkurenti, le domnevna dejstva, kajne? Obstaja ta obtožba, da zasleduje mladoletne fante, in to slišite na številnih zabavah s koktajli v Silicijevi dolini. Na konferenčnem krogu sem slišal, kako so verodostojni, ugledni vodstveni delavci pravkar ponavljali: "Vsi vedo, da je to dejstvo."

Žalostno je, da govorim o tem, od kod prihaja, o različnih vektorjih, po katerih se prenaša. Elon Musk in njegovi sodelavci navidezno potiskajo res trde dosjeje, ki ne pomenijo nič. Hlapne so, ko dejansko začnete gledati na osnovne trditve. Žalostno je, da resnično zakriva kritike, ki temeljijo na dokazih, in za katere menim, da si resnično zaslužijo nujen nadzor in obravnavo.

Druga tema, ki se resnično pojavi v zgodbi, je skoraj občutek strahu, da ima Sam toliko prijateljev – investiral je v toliko podjetij od svoje prejšnje vloge izvršnega direktorja Y Combinatorja do osebnih naložb, od katerih so nekatera v neposrednem nasprotju z njegovo vlogo izvršnega direktorja OpenAI – in okoli njega vlada tišina.

Presenetilo me je, ko sem bral eno vrstico posebej. Opisujete zapiske Ilye Sutskeverja in pravkar so izšli v Silicijevi dolini. Vsijih imenuje Ilya memos. Ampak okoli tega je celo tišina. Prenašajo se naokoli, vendar se o njih ne razpravlja. Od kod misliš, da to prihaja? Je strah? Ali je to želja po angelski naložbi? Od kod to prihaja?

Mislim, da je to velika strahopetnost, bom iskren. Potem ko so poročali o zgodbah o nacionalni varnosti, kjer so viri žvižgači, ki bodo izgubili vse in se soočili s pregonom, še vedno ravnajo pravilno in govorijo o stvareh, da ustvarijo odgovornost. Delal sem na zgodbah, povezanih s spolnimi zločini, ki ste jih omenili, kjer so viri globoko travmatizirani in se bojijo zelo osebnega maščevanja. 

V mnogih primerih okoli tega utripa imate opravka z ljudmi z lastnim profilom in močjo. Ali so sami slavni ljudje ali pa so obkroženi s slavnimi ljudmi. Imajo robustno poslovno življenje. Po mojem mnenju je dejansko zelo nizka izpostavljenost, da govorijo o teh stvareh. In na srečo se igla premika, kot smo prej govorili, in ljudje zdaj več govorijo.

Toda tako dolgo časa so ljudje o tem res samo utihnili, ker menim, da je kultura Silicijeve doline tako neusmiljeno sebična ter neusmiljeno poslovna in usmerjena v rast. Zato menim, da to prizadene celo nekatere ljudi, ki so bili vpleteni v odpuščanje Sama, kjer ste videli v dneh po tem, da, eden od dejavnikov, ki je pripeljal do njegove vrnitve in odpustitve starih članov upravnega odbora, je bil ta, da je zbral vlagatelje, ki so bili zmedeni za njegovo stvar. 

Druga pa je ta, da se je toliko drugih ljudi okoli tega, ki so imeli pomisleke in so jih nujno izrazili, samo zložili kot prtičke in spremenili svojo melodijo v trenutku, ko so videli, da veter piha v drugo smer, in so želeli na vlak dobička. 

Z mojega novinarskega stališča je precej temno.

Nekateri od teh ljudi so Mira Murati, ki je bila po mojem mnenju 20 minut nova izvršna direktorica OpenAI. Nato so jo zamenjali. Bila je zelo zapletena dinamika in očitno se je Sam vrnil. Druga oseba je Ilya Sutskever, ki je bil eden od glasov za odstranitev Sama, nato pa si je premislil ali vsaj rekel, da si je premislil, nato pa je odšel in ustanovil svoje podjetje. Veste, zakaj si je premislil? Je bil samo denar?

No, in da bo jasno, teh dveh ne izpostavljam. Obstajajo tudi drugi člani upravnega odbora, ki so bili vpleteni v odpuščanje in so prav tako postali tiho. Mislim, da je to kot širši kolektivni problem. To so v nekaterih primerih ljudje, ki so imeli moralno moč, da so alarmirali in sprejeli radikalne ukrepe, in to je treba pohvaliti. In tako zagotovite odgovornost. To bi lahko pomagalo mnogim ljudem, ki jih ta tehnologija prizadene. Lahko bi pomagalo industriji, da bi ostala bolj smiselno osredotočena na varnost.

Toda ko imate opravka z žvižgači in ljudmi, ki poskušajo veliko spodbujati k odgovornosti, vidite tudi, da je treba vztrajati in stati za svojimi prepričanji. In ta industrija je res polna ljudi, ki preprosto ne stojijo za svojimi prepričanji.

Čeprav mislijo, da gradijo digitalnega boga, ki bo nekako ali odstranil vse delo ali ustvaril več dela ali pa se bo nekaj zgodilo.

No, to je stvar. Torej je kultura, da ne stojite za svojimi prepričanji in da vsi etični pomisleki odpadejo v trenutku, ko pride do vročine ali karkoli, kar bi lahko ogrozilo vaš lasten položaj v podjetju, morda do neke mere v redu in dobro za podjetja, ki poslujejo kot običajno in izdelujejo kakršne koli pripomočke.

Toda to so tudi isti ljudje, ki pravijo: "To bi nas lahko dobesedno vse ubilo." In spet vam ni treba iti v skrajnost Terminator Skynet. Obstaja vrsta tveganj, ki se že uresničujejo. Resnično je in prav je, da opozarjajo na to, vendar bi morali imeti nekoga drugega v fotelju, ki psihologizira, kako lahko ti dve stvari živita v istih ljudeh, kjer oglašajo nujna opozorila, morda vtaknejo prst in poskušajo nekaj narediti, potem pa se samo zleknejo in utihnejo. 

Ravno zato lahko doživite tovrstne primere, ko se stvari zamolčijo in se stvari pometejo pod preprogo, o tem pa nihče več let ne govori tako odkrito.

Naravna, odgovorna stran tukaj ne bi bili izvršni direktorji teh podjetij; to bi bile vlade. V Združenih državah, mordato so državne vlade, morda zvezna vlada. 

Vsekakor si vsa ta podjetja želijo biti globalna. Tukaj je veliko globalnih implikacij. Gledal sem, kako so OpenAI, Google in Anthropic spodbudili Bidnovo administracijo, da je izdala izvršni ukaz o umetni inteligenci. Na koncu je bilo precej brezzobo. Povedalo je le, da se morajo pogovoriti o tem, česa so zmožni njihovi modeli, in objaviti nekaj varnostnih testov. In potem so vsi podprli Trumpa in Trump je vstopil, vse to izbrisal in rekel: "Moramo biti konkurenčni. To je brezplačno za vse. Kar naprej."

Istočasno vsi poskušajo zbrati sredstva iz držav Bližnjega vzhoda, ki imajo veliko naftnega denarja in želijo spremeniti svoja gospodarstva. To so politiki. Zdi se mi, da bi morali politiki zagotovo razumeti, da nekdo govori na obe strani, in ne bodo preveč razburjeni, če bo nekdo na koncu razočaran, vendar se tudi politiki zavajajo. Zakaj misliš, da je tako?

Mislim, da je to res razlog, zakaj je ta del po mojem mnenju pomemben in zakaj je bilo vredno porabiti ves ta čas in podrobnosti. Smo v okolju, kjer so sistemi, ki bi morali, kot pravite, zagotavljati nadzor, preprosto izvotljeni. To je postdržavljanska Združena Amerika, kjer je pretok denarja tako neomejen, in to je posebna koncentracija tega problema okoli AI, kjer obstajajo ti PAC, ki se množijo in preplavljajo denar v razveljavitev smiselne ureditve tako na državni kot na zvezni ravni.

Imate [soustanovitelja OpenAI] Grega Brockmana, Samovega drugega poveljnika, ki neposredno pomembno prispeva k nekaterim od teh. To vodi v situacijo, ko zakonodajalci in morebitni regulatorji resnično zajamejo in iz te spirale je težko priti. Žalostno je, da mislim, da obstajajo preproste politične poteze, od katerih se nekatere preizkušajo drugod po svetu, ki bi pomagale pri nekaterih od teh težav z odgovornostjo.

Lahko bi imeli več obveznih varnostnih testiranj pred uvedbo, kar se v Evropi že dogaja za mejne modele. Lahko bi imeli strožje pisne zahteve za javno evidenco za vrste notranjih preiskav, kjer smo opazili, da so bile stvari v tem primeru zamolčane. Lahko bi imeli močnejši nabor mehanizmov za pregled nacionalne varnosti za vrste bližnjevzhodnih infrastrukturnih ambicij, ki si jih je prizadeval Sam Altman. 

Kot pravite, je delal to vabo in zamenjal z Bidnovo administracijo, rekoč: "Regulirajte nas, regulirajte nas," in jim pomagal oblikovati izvršni ukaz, nato pa v trenutku, ko je Trump vstopil, resnično v prvih dneh, preprosto brez prepovedi, "Pospešimo in zgradimo ogromen kampus podatkovnega centra v Abu Dabiju." Lahko bi, to je zelo preprosto, kot je zaščita žvižgačev. Noben zvezni zakon ne ščiti zaposlenih v podjetju AI, ki razkrijejo tovrstne pomisleke glede varnosti, ki se predvajajo v tem delu.

Imamo primere, ko je Jan Leike, ki je bil višji varnostnik pri OpenAI, vodil super usklajevanje v podjetju. Piše upravnemu odboru, v bistvu gradivo za žvižgače, in pravi, da podjetje pri svoji varnostni misiji zahaja iz tira. To so ljudje, ki bi dejansko morali imeti nadzorni organ, h kateremu se lahko obrnejo, in bi morali imeti izrecno zakonsko zaščito, kakršno vidimo v drugih sektorjih. To je preprosto posnemanje Sarbanes-Oxleyjevega režima.

Mislim, da kljub temu, kako pereč je problem Silicijeve doline, ki prevzema nadzor nad vsemi vzvodi moči, in kljub temu, kako izpraznjene so nekatere od teh institucij, ki bi lahko zagotavljale nadzor in varovalne ograje, še vedno verjamem v osnovno matematiko demokracije in sebičnih politikov. Pojavlja se vse več anketnih podatkov, da večina Američanov meni, da pomisleki, vprašanja ali tveganja umetne inteligence trenutno prevladajo nad koristmi.

Zato menim, da je poplava denarja v politiko iz umetne inteligence v naši moči, da to postane vir vprašaja v zvezi s politiki. Ko gredo Američani na volitve, bi morali skrbno preučiti, ali so ljudje, za katere volijo, zlasti če so nekritični in nasprotniki predpisov, glede na vse te pomisleke financirani s posebnimi interesi velikih tehnologij. Zato mislim, da lahko ljudje berejo takšne komade, poslušajo takšne podcaste in jim je dovolj mar, da o njih kritično razmišljajonjihovih odločitev kot volivcev, obstaja resnična priložnost, da v Washingtonu ustvarijo volilno enoto predstavnikov, ki pazijo in vsiljujejo nadzor.

To je morda ena najbolj optimističnih stvari, kar sem jih kdaj slišal o trenutni industriji umetne inteligence. Cenim to. Obseden sem z volitvami, o katerih govorite. Zdaj ga je veliko. Vse je precej dosledno in zdi se, da bolj ko so predvsem mladi izpostavljeni AI, bolj nezaupljivi in ​​jezni so zaradi tega. To je valenca vseh volitev. Gledam to in si mislim, no, ja, pametni politiki bi se temu kar zoperstavili. Rekli bi le: "Veliko tehnologijo bomo odgovarjali." 

Nato pomislim na zadnjih 20 let, na politika, ki pravi, da bodo veliko tehnologijo povabili na odgovornost, in težko najdem vsaj trenutek, da bi velika tehnologija klicala na odgovornost. Edina stvar, zaradi katere mislim, da bi lahko bilo drugače, je, da dejansko morate zgraditi podatkovne centre in lahko glasujete proti temu, lahko vložite peticijo proti temu in lahko protestirate proti temu.

Mislim, da obstaja politik, ki so mu pravkar ustrelili hišo, ker je glasoval za podatkovni center. Napetost doseže, rekel bi, vročino. Opisali ste otoško lego Silicijeve doline. To je zaprt ekosistem. Zdi se, kot da mislijo, da lahko vodijo svet. V politiko vlagajo ogromno denarja in se soočajo z realnostjo, da ljudje ne marajo izdelkov, kar jim ne daje veliko pokritja. Bolj ko uporabljajo izdelke, bolj so razburjeni in politiki začenjajo opažati, da ima podpiranje tehnološke industrije resnične posledice za ljudi, ki jih zastopajo. 

Pogovarjali ste se s toliko ljudmi. Ali menite, da je možno, da se tehnološka industrija nauči lekcije, ki je tik pred njimi?

Pravite, da se zdi, kot da mislijo, da lahko vodijo svet brez odgovornosti. Mislim, da to sploh ne potrebuje kvalifikatorja »občutek kot«. Mislim, če pogledate jezik, ki ga uporablja Peter Thiel, je ekspliciten. Seveda, to je skrajni primer. In Sam Altman, čeprav je blizu in do neke mere obveščen o Thielovi ideologiji, je zelo drugačna oseba, ki bi lahko zvenela drugače in do neke mere bolj odmerjeno. 

Mislim pa, da širša ideologija, ki jo dobite od Thiela, ki je v bistvu: Končali smo z demokracijo, je ne potrebujemo več. Toliko imamo, da si samo želimo zgraditi lastne majhne bunkerje. Ne ukvarjamo se več s Carnegiji ali Rockefellerji, saj so slabi fantje, ampak čutijo, da morajo sodelovati v družbeni pogodbi in graditi stvari za ljudi. Nastopil je pravi nihilizem.

In mislim, da je šlo samo za medsebojno krepilno spiralo v novejši ameriški zgodovini mogotcev in zasebnih podjetij, ki so pridobili super vladno moč, medtem ko so demokratične institucije, ki bi jih lahko imeli za odgovorne, izpraznjene. Nisem optimističen glede ideje, da bi se ti fantje nekega dne lahko zbudili in pomislili: "Ha, morda pa res moramo sodelovati v družbi in pomagati graditi stvari za ljudi."

Mislim, gledate na mikrokozmični primer The Giving Pledge, kjer je bil trenutek, ko je bilo videti dobrodelno, ta trenutek pa je zdaj mimo in celo zasmehovan. To je problem, širši problem pomanjkanja odgovornosti, za katerega menim, da ga je mogoče rešiti le navzven. To mora biti mobilizacija volivcev in obujanje moči vladnega nadzora. In popolnoma prav imate, če rečete, da je glavni vektor, prek katerega bi ljudje morda to dosegli, lokalni. To je povezano s tem, kje se gradi infrastruktura. 

Omenili ste nekaj vročih napetosti okoli tega, ki vodijo v nasilje in grožnje, in očitno nihče ne bi smel biti nasilen ali groziti. Prav tako nisem tukaj, da bi dajal konkretna priporočila glede politike, razen da bi samo predstavil nekatere korake politike, ki se zdijo osnovni in delujejo drugod po svetu, kajne? Ali tisti, ki so delali v drugih sektorjih. Nisem tukaj, da bi rekel, kaj od tega je treba izvesti in kako.

Mislim, da se mora nekaj zgoditi, in to mora biti zunanje, ne le zaupati tem podjetjem. Ker pravzdaj imamo situacijo, ko so podjetja, ki razvijajo tehnologijo in so najbolje opremljena za razumevanje tveganj in so dejansko tista, ki nas opozarjajo na tveganja, tudi tista, ki nimajo nič drugega kot spodbudo, da gredo hitro in ignorirajo ta tveganja. In preprosto nimate ničesar za protiutež temu. Torej, ne glede na to, katere reforme bi lahko zahtevale v smislu posebnosti, mora nekaj nasprotovati temu. In še vedno se vračam k tistemu optimizmu, da so ljudje še vedno pomembni.

Na splošno verjamem v vaš argument. Naj navedem en majhen protiargument, za katerega mislim, da ga lahko artikuliram. Druga stvar, ki bi se lahko zgodila zunaj volilne skrinjice, je, da mehurček poči, kajne? Da vsa ta podjetja ne pridejo do ciljne črte in da ni trga izdelkov, primernega za potrošniške aplikacije AI. In še enkrat, tega še ne vidim povsem, vendar sem ocenjevalec potrošniške tehnologije in morda imam samo višje standarde kot vsi ostali.

V poslovnem svetu obstaja primernost na trgu izdelkov, kajne? Imeti kup agentov AI, ki napišejo kup programske opreme, se zdi pravi trg za ta orodja. In lahko preberete argumente teh podjetij, ki pravijo: "Rešili smo kodiranje, kar pomeni, da lahko rešimo karkoli. Če lahko naredimo programsko opremo, lahko rešimo vse težave."

Mislim, da obstajajo resnične omejitve glede stvari, ki jih lahko počne programska oprema. To je super v poslovnem svetu. Programska oprema v resnici ne more rešiti vseh težav, vendar morajo priti tja. Delo morajo dokončati in morda vsi ne pridejo do cilja. In pride do zloma in ta mehurček poči, in morda OpenAI ali Anthropic ali xAI, eno od teh podjetij propade in vsa ta naložba izgine.

Mislite, da bi to vplivalo na to? Pravzaprav naj najprej postavim prvo vprašanje. OpenAI je tik pred IPO. O Samu kot voditelju je veliko dvomov. Mislite, da bodo prišli do cilja?

Ne bom napovedoval, vendar mislim, da ste opozorili na pomembno točko, in sicer, da so tržne spodbude notranje pomembne za Silicijevo dolino in da negotovost trenutne dinamike balona res prekinja, po mnenju kritikov, spet potencialno tekmo proti dnu glede varnosti.

K temu bi dodal tudi, če pogledate zgodovinsko precedens, kjer obstaja podoben in na videz neprepusten nabor tržnih spodbud in potencialno škodljivih učinkov za javnost, obstaja sodni spor zaradi vpliva. In to v zadnjem času vidite kot področje, ki skrbi. Sam Altman je ta teden tam zunaj in podpira zakonodajo, ki bi podjetja AI zaščitila pred nekaterimi vrstami odgovornosti, ki jim je bil OpenAI izpostavljen na primer v neupravičenih smrtnih tožbah. Seveda obstaja želja, da bi imeli ta ščit pred odgovornostjo.

Mislim, da so sodišča še vedno lahko pomemben mehanizem in res bo zanimivo videti, kako se bodo te tožbe oblikovale. Videli ste že, na primer, skupinsko tožbo, katere člani smo jaz in mnogi, številni drugi avtorji, ki jih poznam, proti Anthropicu zaradi njihove uporabe knjig, ki so bile avtorsko zaščitene. Če obstajajo pametni pravniki in tožniki, ki jim je mar, kot smo v zgodovini lahko videli v primerih od velikega tobaka do velike energije, lahko dobite tudi nekaj zaščitnih ograj in nekaj spodbud, da upočasnite, ste previdni ali na ta način zaščitite ljudi.

Zdi se, kot da celotna struktura stroškov industrije umetne inteligence temelji na zelo, zelo dobrodelni razlagi poštene uporabe. Ne pride dovolj. Stroškovna struktura teh podjetij bi lahko ušla izpod nadzora, če bi morala plačati vas in vse druge, katerih delo so prevzela, vendar je o tem neprijetno razmišljati, zato o tem preprosto ne razmišljamo. Poleg tega vsi ti izdelki zdaj delajo z izgubo. Kot danes, vsi delajo z izgubo. Pokurijo več denarja, kot ga lahko zaslužijo. Na neki točki morajo preklopiti stikalo.

Sam je poslovnež. Kot ste že večkrat omenili, ni tehnolog. Je poslovna oseba. Mislite, da je pripravljen pritisniti na stikalo in reči: "Zaslužili bomo dolar?" Ker ko vprašam: "Ali mislite, da bo OpenAI uspel?" Takrat morajo zaslužiti dolar. In do zdaj je Sam vse svoje dolarje zaslužil tako, da je od drugih ljudi zahteval denar, namesto da bi njegova podjetja služila denar.

No, to je veliko dolgotrajno vprašanje za Silicijevo dolino, za vlagatelje, za javnost.Vidite nekaj izjav in premikov iz OpenAI, za katere se zdi, da izžarevajo nekakšno paniko glede tega. Zapiranje Sore, zapiranje nekaterih pomožnih projektov, poskušanje osrednjega produkta. Toda po drugi strani še vedno vidite, hkrati, na tone misije, kajne? Tudi majhen primer - očitno ni bistvenega pomena za njihovo poslovanje - je nakup TBPN.

Mimogrede, tik ko smo prišli do cilja in preverjanja dejstev, podjetje, ki se sooči s tovrstnim novinarskim nadzorom, pridobi platformo, kjer ima lahko bolj neposreden nadzor nad pogovorom. Mislim, da je veliko vlagateljev zaskrbljenih glede na pogovore, ki sem jih imel, da se ta problem obljubljanja vseh stvari vsem ljudem razširi tudi na to pomanjkanje osredotočenosti na osnovni poslovni model. In mislim, ti si bližje vrsti napovedovanja in opazovanja trga kot jaz. Vam in poslušalcem bom prepustil presojo, ali mislijo, da lahko OpenAI preklopi stikalo. 

No, vprašanje sem postavil, ker imate v prispevku citat višjega direktorja Microsofta, in ta je, da bo "Samova zapuščina morda bolj podobna Bernieju Madoffu ali Samu Bankman-Friedu," kot pa Stevu Jobsu. To je prava primerjava. Kaj si rekel o tej primerjavi?

Mislim, da je to parafraza. Del o Stevu Jobsu ni bil del citata. Toda v tem je zanimiva vrsta treznosti, ker je izraženo kot: "Mislim, da obstaja majhna, a resnična možnost, da postane SBF ali prevarant na ravni Madoffa." Po mojem mnenju to ne pomeni, da je Sam obtožen teh posebnih vrst goljufij ali kaznivih dejanj, ampak da ima stopnja pretvarjanja in prevare s strani Sama možnost, da si ga na koncu zapomnijo v tem obsegu.

Ja, mislim, da je najbolj presenetljivo pri tem citatu, iskreno, to, da pokličete v Microsoft in ne dobite všečka: "To je noro. Tega še nismo slišali." Dobiš veliko podobnih, "Ja, veliko ljudi tukaj misli tako", kar je izjemno. In mislim, da gre za ta poslovna vprašanja. 

En investitor mi je na primer rekel, glede na to, kako se je ta lastnost ohranila v letih po odpustitvi" - in ta je tudi mislil, da je to zanimiva trezna misel - da ni nujno, da bi moral biti Sam na absolutnem dnu seznama, kot da bi moral biti najnižji med nizkimi v smislu ljudi, ki absolutno ne smejo graditi te tehnologije, kolikor je vredno. Obstaja več ljudi, ki so rekli, da je Elon Musk ta oseba. Ampak to je Ta lastnost ga postavlja morda na dno seznama ljudi, ki bi morali zgraditi AGI, in pod več drugimi vodilnimi osebnostmi na tem področju.

Zato sem mislil, da je to zanimiva ocena, in mislim, da takšno razmišljanje dobiš od pravih pragmatikov, ki morda ne kupujejo toliko skrbi glede varnosti. Usmerjeni so le v rast in mislijo, da ima OpenAI zdaj težave s Samom Altmanom.

Microsoftov del je res zanimiv. To podjetje je mislilo, da je na vrhu sveta. Da so izvedli to naložbo in da bodo preskočili vse, še posebej in kar je najpomembneje, Google, in se vrnili v dobro voljo potrošnikov. Raven, do katere se počutijo opečene zaradi te avanture - to je zelo trezno vodeno podjetje - mislim, da ni mogoče preceniti.

Omenili ste značaje in osebnostne lastnosti. Tukaj želim končati z vprašanjem naših poslušalcev. V naši drugi oddaji, The Vergecast, sem rekel, da se nameravam pogovarjati s teboj, in sem rekel: "Če imate vprašanja za Ronana o tej zgodbi, mi sporočite." Tukaj imamo torej enega, za katerega mislim, da se lepo ujema s tem, kar opisujete. Samo prebral vam bom:

»Kako se utemeljitve za slabo vedenje, brezglava dejanja Altmana in drugih vodij AI razlikujejo od utemeljitev, ki jih je Ronan slišal od drugih visoko profiliranih voditeljev v politiki in medijih? Ali ne vsi opravičujejo svojih dejanj s tem, da se svet spreminja? Če tega ne bom naredil jaz, bo nekdo drug?"

Ja, veliko tega se dogaja. Rekel bi, da je tisto, kar je značilno za AI, to, da eksistencialni vložki tako edinstveno visoki pomenijo, da sta obe izjavi o tveganju ekstremni, kajne? Imate Sama Altmanarekel: "To bi lahko pomenilo ugasnitev luči za vse nas." Kritiki bi lahko rekli tudi, da je manija, o kateri govori spraševalec, ekstremna, kajne? 

Stvar, ki jo je Sam uradno obtožil Elona, ​​je bila, da morda želi rešiti človeštvo, vendar le, če je to on. Nekakšna komponenta ega, ki je želja po zmagi, ki je okvir, ki ga Sam uporablja ves čas, in da je to ena za zgodovinske knjige, to bi lahko spremenilo vse. Torej, celo poleg miselnosti večine podjetij v Silicijevi dolini, da "moraš razbiti nekaj jajc", je v glavah nekaterih osebnosti, ki vodijo AI, po mojem mnenju popolna racionalizacija vseh in vseh posledic.

In pozabite na razbijanje jajc. Mislim/mislim, da bi veliko temeljnih raziskovalcev varnosti reklo, da bi potencialno tvegali zlom države, sveta in milijone ljudi, katerih službe in varnost visijo na nitki – to je edinstveno pri tem. Tu zaključujem, razmišljam o tem telesu poročanja, resnično verjamem, da gre za več kot o Samu Altmanu. Gre za industrijo, ki je neomejena, in spiralni problem Amerike, ki je ne more omejiti.

ja No, tam smo imeli nekaj optimizma, vendar mislim, da je to dobro mesto, da ga pustimo.

[Smeh] Konec v tihem ritmu.

seveda To je res vsaka odlična zgodba. Prihaja sojenje Musk-Altman. Mislim, da se bomo tukaj naučili veliko več. Sumim, da bom želel znova govoriti s teboj. Ronan Farrow, najlepša hvala, da ste na Decoderju.

Hvala.

Imate vprašanja ali komentarje o tej epizodi? Pišite nam na [email protected]. Res preberemo vsako elektronsko pošto!

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free