Sot në Dekoder, po flas me Ronan Farrow, një nga yjet më të mëdhenj të reportazhit investigativ që punon sot. Ai theu historinë e Harvey Weinstein, mes shumë e shumë të tjerëve. Dhe vetëm javën e kaluar, ai dhe bashkëautori Andrew Marantz publikuan një artikull të jashtëzakonshëm të thellë në The New Yorker në lidhje me CEO të OpenAI Sam Altman, besueshmërinë e tij dhe ngritjen e vetë OpenAI. 

Një shënim para se të shkojmë më tej këtu - The New Yorker publikoi atë histori dhe Ronan dhe unë e patëm këtë bisedë përpara se të dinim shtrirjen e plotë të sulmeve në shtëpinë e Altman, kështu që nuk do të na dëgjoni të flasim drejtpërdrejt për këtë. Por vetëm për ta thënë, mendoj se dhuna e çdo lloji është e papranueshme, këto sulme ndaj Sam ishin të papranueshme dhe se lloji i pafuqisë që njerëzit ndiejnë, që çon në këtë lloj dhune, është në vetvete i papranueshëm dhe ia vlen të shqyrtohet shumë më tepër si nga industria ashtu edhe nga udhëheqësit tanë politikë. Shpresoj se kjo është e qartë.

Abonentë të afërt, mos harroni se keni akses ekskluziv në Dekoderin pa reklama kudo që merrni podkastet tuaja. Drejtohuni këtu. Nuk jeni abonent? Ju mund të regjistroheni këtu.

Gjithçka që tha, ka shumë gjëra që rrotullohen rreth Altman që është një lojë e drejtë për raportim rigoroz – lloji i raportimit që Ronan dhe Andrew synuan të bënin. Falë popullaritetit të ChatGPT, Altman është shfaqur si figura më e dukshme e industrisë së AI, duke e kthyer një laborator kërkimor dikur jofitimprurës në një kompani private pothuajse trilion dollarësh në vetëm pak vite. Por miti i Altmanit është thellësisht i konfliktuar, i përcaktuar në mënyrë të barabartë si nga aftësia e tij e dukshme për të bërë marrëveshje, ashtu edhe nga tendenca e raportuar për të… epo, të gënjejë të gjithë rreth tij.

Historia është e gjatë mbi 17,000 fjalë dhe përmban pa dyshim rrëfimin përfundimtar të asaj që ndodhi në vitin 2023 kur bordi i drejtorëve të OpenAI e pushoi papritur Altman për gënjeshtrën e tij të supozuar, vetëm që ai të ripunësohej pothuajse menjëherë. Është gjithashtu një zhytje e thellë në jetën personale të Altman-it, investimet e tij, lidhjet e tij me paratë e Lindjes së Mesme dhe reflektimet e tij mbi sjelljen e tij të kaluar dhe tiparet e karakterit që e shtynë një burim të thoshte se ai ishte "i pakufizuar nga e vërteta". Unë vërtet ju sugjeroj të lexoni të gjithë historinë; Unë dyshoj se do të referohet për shumë vite në vijim. 

Ronan foli me Altman shumë herë gjatë 18 muajve që kaloi duke raportuar këtë artikull, dhe kështu një nga gjërat kryesore për të cilat isha kurioz ishte nëse ai ndjeu ndonjë ndryshim në Altman gjatë asaj kohe. Në fund të fundit, ka ndodhur shumë në AI, në teknologji dhe në botë gjatë një viti e gjysmë të kaluar.

Ju do të dëgjoni Ronan të flasë për këtë shumë drejtpërdrejt, si dhe ndjenjën e tij se njerëzit janë bërë shumë më të gatshëm të flasin për aftësinë e Altman për të përhapur të vërtetën. Njerëzit kanë filluar të pyesin, me zë të lartë dhe në procesverbal, nëse sjellja e njerëzve si Altman është shqetësuese, jo vetëm për AI apo teknologjinë, por edhe për të ardhmen kolektive të shoqërisë.

Në rregull: Ronan Farrow për Sam Altman, AI dhe të vërtetën. Ja ku po shkojmë. 

Kjo intervistë është redaktuar lehtë për gjatësi dhe qartësi. 

Ronan Farrow, ju jeni një reporter investigativ dhe kontribues në The New Yorker. Mirë se vini në Dekoder.

Gëzohem që jam këtu. Faleminderit që më keni.

Jam shumë i emocionuar të flas me ju. Ju sapo keni shkruar një pjesë të madhe për The New Yorker. Është një profil i Sam Altman-it dhe, disi me të, OpenAI. Leximi im për të është se, siç bëjnë të gjitha tiparet e shkëlqyera, ai, me raportim rigoroz, vërteton shumë ndjenja që njerëzit kanë pasur për Sam Altman për një kohë shumë të gjatë. Padyshim që e keni publikuar, keni marrë reagime për të. Si ndiheni për këtë tani?

Epo, në fakt, jam zemëruar nga shkalla në të cilën është thyer në një kohë ku ekonomia e vëmendjes është kaq skizofrenike dhe e cekët. Kjo është një histori që, sipas meje, na prek të gjithëve. Dhe kur kalova një vit e gjysmë të jetës sime, dhe bashkëautori im, Andrew Marantz, gjithashtu e kaloi atë kohë, duke u përpjekur vërtet të bënte diçka mjeko-ligjore dhe të përpiktë, është gjithmonë sepse ndihem sikur ka çështje më të mëdha strukturore që prekin njerëzit përtej individit dhe shoqërisë në zemër të tregimit. 

Sam Altman, në sfondin e kulturës së zhurmës së Silicon Valley dhe startup-eve që drejtohen drejt vlerësimeve masive bazuar në premtimet që mund ose nuk mund të realizohen në të ardhmen, dhe një përqafim në rritje i një kulture themeluesi që mendon se t'u tregosh grupeve të ndryshme gjëra të ndryshme konfliktuale është një veçori, jo njëbug…Edhe në atë sfond, Sam Altman është një rast i jashtëzakonshëm ku të gjithë në Silicon Valley që i presin ato gjëra nuk mund të ndalojnë së foluri për këtë çështje të besueshmërisë dhe ndershmërisë së tij. 

Ne e dinim tashmë se ai u pushua nga puna për disa versione të akuzave për pandershmëri ose gënjeshtra të supozuara seriale. Por jashtëzakonisht, përkundër faktit se ka pasur raportime të mrekullueshme, Keach Hagey ka bërë punë të shkëlqyer për këtë. Karen Hao ka bërë punë të madhe për këtë. Në të vërtetë nuk kishte një kuptim përfundimtar të pikave aktuale të pretenduara të provës dhe arsyeve pse ato kanë qëndruar larg syrit të publikut. 

Pra, pika numër një është se unë ndihem i zemëruar nga fakti që disa nga ato boshllëqe në njohuritë tona publike, madje edhe në njohuritë e të brendshëmve të Silicon Valley, tani janë plotësuar pak më shumë. Disa nga arsyet që ka pasur boshllëqe janë plotësuar pak më shumë.

Ne raportojmë për raste kur njerëzit brenda kësaj kompanie ndiheshin vërtet sikur gjërat ishin të mbuluara ose qëllimisht të pa dokumentuara. Një nga gjërat e reja në këtë histori është një hetim i rëndësishëm i një firme ligjore nga WilmerHale, e cila është padyshim një firmë ligjore fantastike, e besueshme, e madhe që bëri hetime të Enron dhe WorldCom, të cilat, meqë ra fjala, ishin të gjitha voluminoze, si qindra faqe të botuara. WilmerHale bëri këtë hetim që u kërkua nga anëtarët e bordit të cilët kishin shkarkuar Altman si kusht për largimin e tyre kur ai u hoq prej tyre, dhe ai u kthye. Dhe në mënyrë të jashtëzakonshme – në sytë e shumë ekspertëve ligjorë me të cilët fola, dhe në mënyrë tronditëse në sytë e shumë njerëzve në këtë kompani – ata e mbajtën atë jashtë shkrimit. Gjithçka që doli ndonjëherë nga kjo ishte një njoftim për shtyp me 800 fjalë nga OpenAI që përshkruante atë që ndodhi si një ndarje në besim. Dhe ne konfirmuam se kjo u mbajt në konferencat gojore.

Ka raste kur, për shembull, një anëtar bordi me sa duket dëshiron të votojë kundër konvertimit nga forma origjinale jofitimprurëse e OpenAI në një entitet fitimprurës, dhe ai regjistrohet si abstenim. Është si një avokat në mbledhje duke thënë: "Epo, kjo mund të shkaktojë shumë shqyrtim." Dhe personi që dëshiron të votojë kundër, regjistrohet si abstenim në të gjitha paraqitjet. Ka një mosmarrëveshje faktike. OpenAI pretendon të kundërtën, siç mund ta imagjinoni. Këto janë të gjitha rastet kur ju keni një kompani që, për llogari të saj, mban të ardhmen tonë në duart e saj. 

Aksionet e sigurisë janë aq të mprehta sa nuk janë larguar. Kjo është arsyeja pse kjo kompani u themelua si një organizatë jofitimprurëse e përqendruar në sigurinë dhe ku gjërat po errësoheshin në një mënyrë që njerëzit e besueshëm rreth kësaj e konsideronin atë më pak se profesionale. Dhe ju e bashkoni këtë me një sfond ku ka kaq pak oreks politik për rregullim kuptimplotë. Unë mendoj se është një situatë shumë e djegshme. 

Çështja për mua nuk është vetëm se Sam Altman i meriton këto pyetje kaq akute. Është gjithashtu se ndonjë prej këtyre djemve në këtë fushë, dhe shumë nga figurat kyçe, shfaqin, nëse jo këtë tipar të veçantë idiosinkratik, të supozuar të gënjeshtrës gjatë gjithë kohës, sigurisht në një farë mase të një mentaliteti garë deri në fund, ku njerëzit që ishin mbrojtës të sigurisë i kanë zbutur ato angazhime dhe qëndrimin e të gjithëve në garë.

Unë mendoj se, ndërsa shikojmë rrjedhjet e fundit nga Anthropic, është një person që shtron pyetjen se kush duhet të ketë gishtin mbi butonin në këtë pjesë. Përgjigja është, nëse nuk kemi mbikëqyrje domethënëse, mendoj se duhet të bëjmë pyetje serioze dhe të përpiqemi të nxjerrim në sipërfaqe sa më shumë informacion që mundemi për të gjithë këta djem. Kështu që unë jam inkurajuar nga ajo që duket si një bisedë kuptimplotë për këtë, ose fillimet e një të tillë.

Arsyeja që e pyeta në këtë mënyrë është se ju keni punuar për këtë për një vit e gjysmë. Ti fole, besoj, me 100 persona me bashkautorin tënd, Andrew. Kjo është një kohë e gjatë për të gatuar një histori. Unë mendoj për një vit e gjysmë të fundit në AI në veçanti, dhe djali, qëndrimet dhe vlerat e të gjithë këtyre personazheve u zhvendosën shumë shpejt. 

Ndoshta askush më shumë se Sam Altman, i cili filloi si fituesi i paracaktuar sepse ata kishin lëshuar ChatGPT dhe të gjithë menduan se kjo thjesht do të merrte përsipër Google. Dhe më pas Google u përgjigj, e cila dukej se i befasoi ata që Google do të përpiqej të mbronte biznesin e tij, ndoshta një nga bizneset më të mira në historinë e teknologjisë, nëse jo historinë e biznesit. Anthropic vendosi që do të fokusohej në ndërmarrje. Duket se po merr një drejtim komanduesatje për shkak se përdorimi i ndërmarrjeve të AI është shumë i lartë.

Tani, OpenAI është duke e rifokusuar produktin e saj larg nga "ne do të përballemi me Google" në Codex, dhe ata do të marrin përsipër sipërmarrjen. Unë thjesht nuk mund të them plotësisht nëse, gjatë raportimit tuaj gjatë një viti e gjysmë të fundit, nëse duket sikur personazhet me të cilët po flisnit ndryshuan? Ashtu si qëndrimet dhe vlerat e tyre, a ndryshuan ato?

po. Para së gjithash, mendoj se kritika që është eksploruar në këtë pjesë, që vjen nga shumë njerëz brenda këtyre kompanive në këtë pikë - që kjo është një industri që, pavarësisht nga rreziqet ekzistenciale, po zbret në diçka si një garë deri në fund për sigurinë dhe ku shpejtësia po kalon gjithçka tjetër - ky shqetësim është bërë më i mprehtë. Dhe unë mendoj se këto shqetësime janë vërtetuar më shumë pasi ka kaluar një vit e gjysmë që ka kaluar. Në të njëjtën kohë, qëndrimet për Sam Altman kanë ndryshuar në mënyrë specifike. Kur filluam të bisedonim me burime për këtë, njerëzit ishin me të vërtetë, me të vërtetë të dyshimtë për t'u cituar në lidhje me këtë dhe për të mbajtur shënime për këtë.

Në fund të raportimit tonë, ju keni një grup raportimesh ku njerëzit flasin për këtë shumë hapur dhe në mënyrë eksplicite, dhe keni anëtarë të bordit që thonë gjëra të tilla si: "Ai është një gënjeshtar patologjik. Ai është një sociopat." Ka një sërë këndvështrimesh nga: "Kjo është e rrezikshme duke pasur parasysh aksionet e sigurisë dhe ne kemi nevojë për drejtues të kësaj teknologjie që kanë integritet të lartë", nga e gjithë kjo deri në pëlqimin, "Harrojini aksionet e sigurisë, kjo është sjellje që është e paqëndrueshme për çdo ekzekutiv të çdo kompanie të madhe, që thjesht krijon shumë mosfunksionim".

Pra, biseda është bërë shumë më e qartë në një mënyrë që ndihet ndoshta e vonuar, por është inkurajuese në një kuptim. Dhe Sam Altman, për meritë të tij… Pjesa është shumë e drejtë dhe madje bujare, do të thosha, për Semin. Ky nuk është lloji i pjesës ku kishte shumë gjëra "të kuptova". Kalova shumë, shumë orë në telefon me të ndërsa po e përfundonim këtë dhe vërtet e dëgjova. 

Siç mund ta imagjinoni, në një pjesë si kjo, jo çdo gjë e bën atë. Disa nga ato raste në këtë ishin sepse po dëgjoja sinqerisht. Dhe nëse Sam në të vërtetë po bënte një argument që unë e ndjeja se kishte ujë, se diçka, edhe nëse ishte e vërtetë, mund të ishte sensacionaliste, unë vërtet gabova në anën e mbajtjes së kësaj forenzike dhe të matur. Kështu që unë mendoj se po pranohet me të drejtë, dhe thjesht shpresoj se ky procesverbal faktik që është grumbulluar gjatë kësaj periudhe kohore mund të shkaktojë një bisedë më të fortë rreth nevojës për mbikëqyrje.

Kjo është në fakt pyetja ime e radhës. Mendoj se ke folur me Sam dhjetëra herë gjatë raportimit të kësaj historie. Përsëri, këto janë shumë biseda për një periudhë të gjatë kohore. A menduat se Sam ndryshoi gjatë rrjedhës së raportimit gjatë një viti e gjysmë të kaluar?

Po. Mendoj se një nga nënkomplotet më interesante në këtë është se Sam Altman po flet gjithashtu për këtë tipar më qartë se sa në të kaluarën. Qëndrimi i Semit në këtë pjesë nuk është si: "Nuk ka asgjë atje, kjo nuk është e vërtetë; nuk e di se për çfarë po flisni". Qëndrimi që ai ka është se ai thotë se kjo i atribuohet një tendence pëlqyese të njerëzve dhe një lloj neverie ndaj konfliktit. Ai po e pranon se kjo i shkaktoi probleme, veçanërisht në fillim të karrierës së tij.

Ai po thotë, "Epo, unë po e kaloj atë, ose në një farë mase e kam kaluar atë." Mendoj se ajo që është me të vërtetë interesante për mua është kontigjenti i njerëzve me të cilët biseduam, të cilët nuk ishin thjesht një lloj avokati sigurie, jo vetëm studiuesit teknikë themelorë që shumë shpesh priren të kenë këto shqetësime akute të sigurisë, por edhe investitorë pragmatikë dhe të mëdhenj. Ata janë mbështetës të Sam-it, të cilët, në disa raste, e shikojnë këtë pyetje dhe flasin se madje kanë luajtur një rol kyç në rikthimin e tij pas pushkatimit. Tani, në këtë pyetje nëse ai është reformuar dhe deri në çfarë mase është kuptimplotë ky ndryshim, ata thonë: "Epo, ne i dhamë atij përfitimin e dyshimit në atë kohë."

Po mendoj veçanërisht për një investitor të shquar, i cili tha: "Por që atëherë, duket qartë se ai nuk u nxor pas pylltarisë", që ishte fraza që përdori ky, në masën që ishte e nevojshme. Si rezultat, duket sikur kjo tani është një tipar i qëndrueshëm. Ne po e shohim këtë në mënyrë të vazhdueshme. Ju mund të shikoni disa nga bizneset më të mëdha të OpenAImarrëdhëniet dhe mënyra se si ato mbajnë peshën e atij mosbesimi në mënyrë të vazhdueshme. 

Ashtu si me Microsoft-in, ju flisni me drejtuesit atje dhe ata kanë vërtet shqetësime të mprehta dhe të katalizuara së fundmi. Është ky rast kur, në të njëjtën ditë që OpenAI po rikonfirmon ekskluzivitetin e tij me Microsoft-in në lidhje me modelet themelore të AI pa shtetësi, po njofton gjithashtu një marrëveshje të re me Amazon që ka të bëjë me shitjen e zgjidhjeve të ndërmarrjeve për ndërtimin e agjentëve të AI që janë të gjendjes, që do të thotë se ata kanë memorie.

Ju flisni me njerëzit e Microsoft-it dhe ata thonë: "Kjo nuk është e mundur të bëhet pa ndërvepruar me gjërat themelore për të cilat kemi një marrëveshje ekskluziviteti." Pra, ky është vetëm një nga shembujt e shumtë të vegjël ku ky tipar ka tendencë në aktivitetin e vazhdueshëm të biznesit gjatë gjithë kohës dhe është subjekt i shqetësimit aktiv brenda bordit të OpenAI, brenda paketës së tij ekzekutive dhe në komunitetin e gjerë të teknologjisë.

Ju vazhdoni ta thoni atë "tipar". Ka një rresht në histori që për mua duket si tezë dhe është një përshkrim i tiparit që po përshkruani. Është se "Sam Altman nuk është i kufizuar nga e vërteta" dhe se ai ka "dy tipare që pothuajse nuk shihen kurrë tek i njëjti person: e para është një dëshirë e fortë për t'i kënaqur njerëzit, për t'u pëlqyer në çdo ndërveprim të caktuar dhe e dyta është një mungesë pothuajse sociopatike e shqetësimit për pasojat që mund të vijnë nga mashtrimi i dikujt".

Më duhet t'ju them se e lexova atë fjali 500 herë dhe u përpoqa të imagjinoja gjithmonë të thosha atë që njerëzit donin të pëlqeheshin dhe më pas të mos mërzitesha kur ndjeheshin të gënjyer. Dhe nuk mund ta bëja gjendjen time emocionale të kuptojë se si mund të ekzistojnë ato gjëra tek i njëjti person. Ju keni folur shumë me Semin dhe keni folur me njerëz që i kanë përjetuar këto tipare. Si e bën ai?

Po. Është interesante në një nivel njerëzor, sepse i qasem organeve të raportimit si ky me një fokus të vërtetë në humanizimin e kujtdo që është në zemër të tij dhe duke kërkuar mirëkuptim dhe ndjeshmëri të thellë. Kur u përpoqa t'i qasja kësaj nga një këndvështrim më njerëzor dhe të them: "Hej, kjo do të ishte shkatërruese për mua nëse kaq shumë njerëz me të cilët kam punuar do të thoshin se jam një gënjeshtar patologjik. Si e mbani atë peshë? Si e flisni për këtë në terapi? Cila është historia që i tregon vetes për këtë?"

Kam marrë një lloj, sipas mendimit tim, ndoshta paqartësitë e Bregut Perëndimor për këtë si, "Po, më pëlqen puna me frymëmarrje". Por jo shumë nga lloji i ndjenjës forcuese të vetëkonfrontimit të thellë që mendoj se shumë prej nesh ndoshta do të kishin nëse do të shihnim këtë lloj reagimi për sjelljen tonë dhe trajtimin tonë ndaj njerëzve.

Unë mendoj se kjo në fakt shkon edhe në përgjigjen më të gjerë të pyetjes. Sam pohon se kjo veçori ka shkaktuar probleme, por edhe se është pjesë e asaj që e ka fuqizuar atë të përshpejtojë rritjen e OpenAI aq shumë sa të jetë në gjendje të bashkojë dhe të kënaqë grupe të ndryshme njerëzish. Ai vazhdimisht po i bind të gjitha këto grupe kontradiktore se ajo për të cilën interesohet është ajo për të cilën ai interesohet. Dhe kjo mund të jetë një aftësi vërtet e dobishme për një themelues. Unë kam biseduar me investitorët të cilët më pas thonë: "Epo, ndoshta është një aftësi më pak e dobishme për të drejtuar një kompani, sepse ajo mbjell kaq shumë mosmarrëveshje."

Por nga ana personale e Sam-it, mendoj se gjëja që marr parasysh kur përpiqem të lidhem në një nivel njerëzor është mungesa e dukshme e një konfrontimi më të thellë, reflektimi dhe vetë-përgjegjësia, e cila gjithashtu informon atë superfuqi ose përgjegjësi për një kompani që përgatitet për një IPO.

Ai është dikush që, sipas fjalëve të një ish-anëtari të bordit të quajtur Sue Yoon, i cili është i regjistruar në artikull duke thënë se deri në pikën e "pamendësisë" është fraza që ajo përdor, është në gjendje të besojë vërtet ndryshimin e realitetit të pikave të tij të shitjeve ose është në gjendje të bindë veten për to. Ose të paktën nëse ai nuk i beson, ai është në gjendje t'i kalojë ato pa dyshime kuptimplota për veten.

Unë mendoj se gjëja për të cilën po flisni, ku ju ose unë mundemi, ndërsa po e themi atë dhe e kuptojmë se ajo bie ndesh me sigurinë tjetër që kemi dhënë, kemi një moment ngrirjeje ose kontrolli. Unë mendoj se kjo nuk ndodh me të. Dhe ka një kulturë më të gjerë të reklamimit të Silicon Valley dhe kulturë themeluesi që e përqafon atë.

eshte qesharake. The Verge është ndërtuar mbi atë që përbën vlerësimet e një produktiprogram. Është thelbi i asaj që ne bëjmë këtu. Unë mbaj një trilion dollarë të Apple R&D një herë në vit dhe them, "Ky telefon është një shtatë." Dhe kjo disi legjitimon të gjitha raportimet tona dhe opinionet tona gjetkë. Ne kemi një funksion vlerësues dhe kalojmë kaq shumë kohë vetëm duke parë produktet e AI dhe duke thënë: "A funksionojnë ato?"

Kjo duket sikur mungon nga shumë biseda rreth AI siç është sot. Ka një bisedë të pafund se çfarë mund të jetë në gjendje të bëjë, sa e rrezikshme mund të jetë. Dhe më pas ju stërviteni dhe thoni: "A e bën në të vërtetë gjënë që supozohet të bëjë sot?" Në disa raste, përgjigja është po. Por në shumë e shumë raste, përgjigja është jo.

Kjo ndjehet sikur lidhet me kulturën e reklamave që po përshkruani dhe gjithashtu me ndjenjën që, mirë, nëse thoni se do të bëjë diçka dhe nuk e bën, dhe dikush ndihet keq, kjo është mirë sepse ne jemi në gjënë tjetër. Kjo është në të kaluarën. Dhe në veçanti në AI, Sam është aq i mirë në bërjen e premtimeve madhështore.

Vetëm këtë javë, mendoj se në të njëjtën ditë kur u publikua historia juaj, OpenAI publikoi një dokument politikash që thoshte se duhet të rimendojmë kontratën sociale dhe të kemi rrogë për efikasitetin e AI nga qeveria. Ky është një premtim madhështor se si disa teknologji mund të formësojnë të ardhmen e botës dhe mënyrën se si jetojmë, dhe e gjithë kjo mbështetet në teknologjinë që funksionon pikërisht në mënyrën që ndoshta është premtuar të funksionojë ose duhet të funksionojë. 

A e keni gjetur ndonjëherë Samin të dyshojë se AI shndërrohet në AGI ose superinteligjencë ose arrin në vijën e finishit? Sepse kjo është gjëja për të cilën pyes më shumë. A ka ndonjë reflektim nëse kjo teknologji thelbësore mund të bëjë të gjitha gjërat që ata thonë se mund të bëjë?

Është pikërisht grupi i duhur i pyetjeve. Ka teknologë të besueshëm me të cilët folëm në këtë raport - dhe padyshim që Sam Altman nuk është i tillë; ai është një person biznesi – i cili thotë se mënyra se si Sam flet për afatin kohor për këtë teknologji është shumë larg. Ka postime në blog që kthehen disa vite më parë, ku Sam thotë: "Ne kemi arritur tashmë në horizontin e ngjarjeve. AGI është në thelb këtu. Superinteligjenca është afër. Ne do të jemi në planetë të tjerë. Ne do të shërojmë të gjitha format e kancerit." Vërtet, nuk po zbukuroj. 

Ai i kancerit është në të vërtetë interesant, se Sam po kërcënon personin që shëroi teorikisht kancerin e qenit të tyre me ChatGPT, dhe kjo thjesht nuk ndodhi. Ata folën me ChatGPT dhe kjo i ndihmoi ata të udhëzonin disa studiues që në fakt e bënë punën, por një për një, ky mjet që shëroi këtë qen nuk është në fakt historia.

Më vjen mirë që e ngritët këtë pikë, sepse dua të kaloj në këtë pikë më të madhe se kur potenciali dhe rreziku i teknologjisë do të mbulohen me të vërtetë. Por ia vlen të përmenden këto anash të vogla që ndodhin vazhdimisht nga Sam Altman, ku ai duket se e mishëron këtë tipar përsëri. 

Dua të them, për të përdorur shembullin e raportit të WilmerHale, ku ne kishim këtë informacion që ishte mbajtur jashtë shkrimit dhe donim të dinim nëse përmbledhja gojore gjatë rrugës iu dha dikujt tjetër përveç dy anëtarëve të bordit që Sam ndihmoi në instalimin për ta mbikëqyrur atë. Dhe ai tha: "Po, po, jo, besoj se iu dha të gjithëve që iu bashkuan bordit më pas." Dhe ne kemi një person me njohuri të drejtpërdrejtë të situatës që thotë se është thjesht një gënjeshtër. Dhe me të vërtetë duket se është kështu, se është e pavërtetë. Nëse duam të jemi bujarë, ndoshta ai është keqinformuar. 

Ka shumë nga këto garanci të rastësishme. Dhe unë e përdor atë shembull pjesërisht sepse ky është një shembull i shkëlqyer i shpërbërjes, le ta quajmë atë, që mund të ketë pasoja reale ligjërisht. Nuk kam nevojë t'ju them, sipas ligjit të korporatave të Delaware, nëse kjo kompani bën IPO, aksionarët, sipas seksionit 220, mund të ankohen për këtë dhe të kërkojnë dokumentacionin themelor. Tashmë ka anëtarë të bordit që thonë gjëra të tilla si, "Epo, prit një minutë, ai informim duhet të kishte ndodhur."

Pra, këto gjëra që duket se i dalin nga goja gjatë gjithë kohës, ato mund të kenë efekte reale në lëvizjen e tregut, efekte reale për OpenAI. Duke e rikthyer atë në llojin e gjuhës utopike të reklamave që është rishfaqur, mendoj se jo rastësisht në ditën kur doli kjo pjesë, kjo ndikon gjithashtu të gjithë ne, sepse rreziqet janë kaq të mprehta në lidhje me mënyrën se si ështëvendosja në armatim, mënyra se si po përdoret për të identifikuar agjentët e luftës kimike, potenciali i dezinformimit dhe për shkak të mënyrës në të cilën zhurma utopike duket se po shtyn shumë ekonomistë të besueshëm të thonë: "Kjo ka të gjitha shenjat e një flluskë".

Edhe Sam Altman ka thënë, "Dikush do të humbasë shumë para këtu". Kjo me të vërtetë mund të krijojë shumë rritje ekonomike amerikane dhe globale, nëse është si një shpim i vërtetë i një flluskë që përfshin të gjitha këto kompani që bëjnë marrëveshje me njëra-tjetrën, duke u futur në AI ndërsa marrin hua kaq shumë. Pra, ajo që thotë Sam Altman ka rëndësi, dhe unë mendoj se mbizotërimi i njerëzve përreth tij, ju përmendët se kemi biseduar me më shumë se njëqind, në fakt ishte mbi njëqind. Ne patëm një bisedë në vijën e finishit ku ishte si, "A do të ishte shumë e vogël të thuash se është si një numër shumë më i lartë?" Dhe ne ishim sikur, "Po, le ta minimizojmë. Do ta luajmë mirë." Por kishte kaq shumë njerëz dhe një shumicë kaq e konsiderueshme prej tyre thoshin, "Ky është një shqetësim". Dhe unë mendoj se kjo është e gjitha arsyeja.

Më lejoni t'ju pyes për atë numër. Siç e përmendët, njerëzit u hapën gjithnjë e më shumë me shqetësimet me kalimin e kohës. Ndjehet sikur presioni rreth flluskës – gara për të fituar, për të shlyer gjithë këtë investim, për të dalë si fitues, në IPO – ka ndryshuar shumë qëndrime. Sigurisht që krijoi më shumë presion mbi Sam dhe OpenAI.

Ne publikuam një histori këtë javë vetëm në lidhje me atmosferat e OpenAI. Historia juaj është pjesë e saj, por ndryshime masive të personelit në radhët e ekzekutivit në OpenAI – njerëzit po vijnë e shkojnë. Studiuesit janë larguar të gjithë, kryesisht në Anthropic, që mendoj se është vërtet interesante. Ju thjesht mund të shihni se kjo kompani po ndjen presionin dhe po i përgjigjet atij presioni në një farë mënyre.

Por më pas mendoj se Sam e pushojnë nga puna. Kjo është thjesht e paharrueshme për mua. Nuk është e paharrueshme për askënd tjetër, por unë mora një telefonatë nga burimi në kopshtin zoologjik të Bronx-it në orën 19:00 të premten, dhe ishte dikush që tha se do të përpiqeshin të kthenin Samin. Dhe më pas e kaluam fundjavën duke e ndjekur atë histori. Dhe unë thashë: "Unë jam në kopshtin zoologjik. Çfarë doni të bëj këtu?" Dhe përgjigja ishte: "Qëndroni në telefon". Epo, vajza ime tha: "Hiq telefonin". Dhe kjo është ajo që bëra. 

Ishte udhëtim ose vdis për të rikthyer Sam. Ajo kompani thoshte: "Jo, ne nuk do ta lejojmë bordin të pushojë nga puna Sam Altman." Investitorët, ata citohen në artikullin tuaj, "Ne shkuam në luftë", mendoj unë, është pozicioni i Thrive Capital, "për të rikthyer Sam". Microsoft shkoi në luftë për të rikthyer Sam. Është më vonë, dhe tani të gjithë thonë: "Ne do të shkojmë në IPO. Arritëm në vijën e finishit. Kemi kthyer djalin tonë dhe ai do të na çojë në vijën e finishit. Ne jemi të shqetësuar se ai është një gënjeshtar." 

Pse ishte një luftë për ta kthyer atë në atë kohë? Sepse nuk duket sikur asgjë ka ndryshuar në të vërtetë. Ju flisni për memorandumet që mbajtën Ilya Sutskever dhe [CEO i Anthropic] Dario Amodei ndërsa ishin bashkëkohës të Sam Altman. Shqetësimi numër një i Ilya ishte se Sam ishte një gënjeshtar.

Asnjë nga këto nuk ka ndryshuar. Pra, pse ishte lufta për ta kthyer atë në atë kohë? Dhe tani që jemi në vijën e finishit, duket sikur të gjitha shqetësimet janë hapur.

Epo, së pari, më vjen keq për vajzën tuaj dhe partnerin tim dhe të gjithë njerëzit e tjerë rreth gazetarëve. 

[Qesh] Ishte një fundjavë mjaft për të gjithë.

Po, ajo merr përsipër jetën e dikujt, dhe kjo histori ka padyshim timen, gjatë periudhës së fundit kohore. Në fakt lidhet me këtë temë të gazetarisë dhe aksesit në informacion, mendoj. Investitorët që shkuan në luftë për Sam dhe të gjithë luajtën role për t'u siguruar që ai të kthehej, dhe bordi që ishte krijuar posaçërisht për të mbrojtur misionin e një jofitimprurëse për të vënë sigurinë mbi rritjen dhe për të shkarkuar një ekzekutiv nëse nuk mund t'i besohej kjo, ata u larguan. Kjo ishte e gjitha sepse, po, stimujt e tregut ishin aty, apo jo?

Sam ishte në gjendje t'i bindte njerëzit: "Epo, kompania thjesht do të shpërbëhet". Por arsyeja pse ai kishte mbështetje ishte mungesa e informacionit. Ata investitorë, në shumë raste, tani thonë: "Unë shikoj prapa dhe mendoj se duhet të kisha pasur më shumë shqetësime nëse do të kisha ditur plotësisht se cilat ishin pretendimet dhe cilat ishin shqetësimet."

Jo të gjithë;opinionet ndryshojnë, dhe ne citojmë një sërë mendimesh, por ka nga ato të rëndësishme që kanë vepruar në bazë të informacionit shumë të pjesshëm. Bordi që shkarkoi Sam ishte, sipas fjalëve të një personi që dikur ishte në tabelë, "shumë JV" dhe ata e gjuajtën topin fort. Dhe ne dokumentojmë ankesat themelore, dhe njerëzit mund të vendosin vetë nëse ajo grumbullohet në llojin e shqetësimit urgjent që ata mendonin se ishte, por ai argument dhe ai informacion nuk po paraqiteshin.

Ata morën atë që disa prej tyre tani e pranojnë si këshilla të këqija ligjore. Për ta përshkruar atë, do ta mbani mend citimin dhe ndoshta shumë nga dëgjuesit dhe shikuesit tuaj do ta kujtojnë citimin si mungesë sinqeriteti. Kjo ishte ajo që u reduktua, dhe më pas ata në thelb nuk do të pranonin telefonata.

Ata nuk pranonin telefonata. Jam i sigurt se keni provuar. Të gjithë ata që njoh u përpoqën dhe arritën në pikën ku, si gazetar, nuk duhet t'i jepni këshilla burimeve tuaja, por unë thashë: "Kjo do të largohet nëse nuk filloni të shpjegoni veten".

Dhe kjo është ajo që ndodhi. Harrojini gazetarët. Ju kishit Satya Nadella duke thënë: "Çfarë dreqin ndodhi? Nuk mund të bëj që dikush të më shpjegojë." Dhe ky është mbështetësi kryesor financiar i kompanisë. Dhe pastaj ju keni Satya duke telefonuar [bashkëthemeluesin e LinkedIn] Reid Hoffman dhe Reid duke thirrur përreth dhe duke thënë, "Unë nuk e di se çfarë dreqin ndodhi." 

Ata janë të kuptueshëm në atë boshllëk informacioni, duke kërkuar për treguesit tradicionalë jo-AI që do të justifikonin një shkrepje kaq urgjente dhe të papritur. Si, në rregull, a ishin krime seksuale? Ishte përvetësim? Dhe i gjithë argumenti delikat, por unë mendoj se kuptimplotë, se kjo teknologji është e ndryshme dhe se ky lloj grumbullimi i vazhdueshëm i tradhtive më të vogla mund të ketë aksione domethënëse si për këtë biznes dhe ndoshta për botën, humbi kryesisht. Kështu fituan stimujt kapitalistë, por edhe njerëzit që e bënë atë dolën jashtë dhe nuk funksiononin gjithmonë me informacion të plotë.

Dua të pyes vetëm për aspektin "ai që të gjithë menduan se ishte" për një moment, sepse sigurisht e pashë lajmin dhe thashë: "Oh, diçka e keqe duhet të ketë ndodhur". Ju keni bërë shumë raportime të #MeToo, në mënyrë të famshme. Ju theu historinë e Harvey Weinstein. 

Keni shpenzuar shumë kohë duke raportuar mbi këto pretendime që mendoj se vendosët se ishin përfundimisht të pabaza: që Altman sulmoi seksualisht të mitur ose punësoi punonjës seksi, apo edhe vrau një sinjalizues të OpenAI. Dua të them, ju jeni personi që mund t'i raportoni këto gjëra më rigorozisht. A keni vendosur që nuk ka ardhur në asgjë?

Epo, shikoni, nuk jam në biznes të them se diçka nuk ka asgjësuar. Ajo që mund të them është se kalova muaj duke i parë këto pretendime dhe nuk gjeta vërtetim për to. Dhe ishte befasuese për mua që këta njerëz, këto kompani që kanë kaq shumë pushtet mbi të ardhmen tonë, me të vërtetë po shpenzojnë një sasi joproporcionale të kohës dhe burimeve të tyre në një luftë fëminore balte.

Një ekzekutiv e përshkruan atë si "shekspirian". Shuma e parave të hetuesit privat dhe dosjeve të opozitës që po përpilohen është e pamëshirshme. Dhe gjëja për të ardhur keq është se lloji i gjërave të shijshme, të cilat papagallëzohen nga konkurrentët e Sam-it, supozohet thjesht fakt, apo jo? Ekziston një pretendim se ai ndjek djem të mitur, dhe në shumë koktejle në Silicon Valley, ju e dëgjoni këtë. Në qarkun e konferencës, e kam dëgjuar të përsëritet nga drejtues të besueshëm dhe të shquar: "Të gjithë e dinë se ky është një fakt."

Gjëja e trishtueshme është se unë flas se nga vjen kjo, vektorët e ndryshëm me të cilët transmetohet. Elon Musk dhe bashkëpunëtorët e tij në dukje po i shtyjnë dosjet vërtet të forta që nuk arrijnë asgjë. Ato janë të avulluara kur në të vërtetë filloni të shikoni pretendimet themelore. Gjëja e trishtueshme është se me të vërtetë errëson kritikat më të bazuara në prova këtu që mendoj se meritojnë vërtet mbikëqyrje dhe konsideratë urgjente.

Tema tjetër që shfaqet me të vërtetë në histori është pothuajse një ndjenjë frike se Sam ka kaq shumë miq - ai ka investuar në kaq shumë kompani që nga roli i tij i mëparshëm si CEO i Y Combinator, vetëm tek investimi i tij personal, disa prej të cilave janë në konflikt të drejtpërdrejtë me rolin e tij si CEO i OpenAI - dhe ka heshtje rreth tij.

Më bëri përshtypje teksa po lexoja një rresht në veçanti. Ju përshkruani memorandumet e Ilya Sutskever, dhe ato sapo kanë dalë në Silicon Valley. Të gjithëi quan ato memorandume Ilya. Por ka edhe heshtje rreth kësaj. Kanë kaluar, por nuk diskutohen. Nga vjen sipas jush? Është frikë? A është një dëshirë për të marrë investim engjëll? Nga vjen kjo?

Mendoj se është shumë frikacak, do të jem i sinqertë. Pasi kanë raportuar për historitë e sigurisë kombëtare ku burimet janë sinjalizues që humbasin gjithçka dhe përballen me ndjekjen penale, ata ende bëjnë gjënë e duhur dhe flasin për gjëra për të krijuar llogaridhënie. Unë kam punuar në historitë e lidhura me krimet seksuale që përmendët, ku burimet janë thellësisht të traumatizuara dhe kanë frikë nga një lloj ndëshkimi shumë personal. 

Në shumë raste rreth këtij ritmi, ju keni të bëni me njerëz me profilin dhe fuqinë e tyre. Ata janë ose vetë njerëz të famshëm ose janë të rrethuar nga njerëz të famshëm. Ata kanë jetë të fuqishme biznesi. Sipas mendimit tim, është në të vërtetë ekspozim shumë i ulët që ata të flasin për këto gjëra. Dhe fatmirësisht, gjilpëra po lëviz siç folëm më parë, dhe njerëzit tani po flasin më shumë.

Por për një kohë kaq të gjatë, njerëzit me të vërtetë thjesht heshtin për këtë, sepse unë mendoj se kultura e Silicon Valley është kaq e pamëshirshme egoiste dhe e pamëshirshme e orientuar drejt biznesit dhe rritjes. Kështu që unë mendoj se kjo prek edhe disa nga njerëzit që ishin të përfshirë në shkarkimin e Sam, ku patë në ditët pas, po, një faktor që çoi në kthimin e tij dhe shkarkimin e anëtarëve të vjetër të bordit ishte se ai mblodhi investitorët që ishin të hutuar për kauzën e tij. 

Por një tjetër është se shumë njerëz të tjerë përreth, që kishin shqetësimet dhe i shprehnin ato urgjentisht, u palosën si peceta dhe ndryshuan melodinë e tyre në momentin që panë se era po frynte nga ana tjetër dhe donin të hynin në trenin e fitimit. 

Është shumë e errët, sinqerisht, nga këndvështrimi im si reporter.

Disa prej tyre janë Mira Murati, e cila, besoj, për 20 minuta ishte CEO e re e OpenAI. Më pas ajo u zëvendësua. Ishte një dinamikë shumë e ndërlikuar, dhe padyshim, Sam u kthye. Personi tjetër është Ilya Sutskever, i cili ishte një nga votat për të hequr Sam, dhe më pas ai ndryshoi mendje, ose të paktën tha se ndryshoi mendje dhe më pas u largua për të krijuar kompaninë e tij. A e dini se çfarë e bëri atë të ndryshojë mendje? A ishin vetëm para?

Epo, dhe për të qenë i qartë, nuk po i veçoj ato të dyja. Ka edhe anëtarë të tjerë të bordit që janë përfshirë në të shtënat, të cilët gjithashtu kanë heshtur shumë më pas. Mendoj se është si një problem më i gjerë kolektiv. Këta janë, në disa raste, njerëz që kishin fibër morale për të dhënë alarm dhe për të ndërmarrë veprime radikale, dhe kjo është për t'u lavdëruar. Dhe kjo është mënyra se si ju siguroni përgjegjësinë. Kjo mund të kishte ndihmuar shumë njerëz që janë të prekur nga kjo teknologji. Mund të kishte ndihmuar një industri që të mbetet më kuptimplotë e fokusuar te siguria.

Por, duke u marrë me sinjalizuesit dhe njerëzit që përpiqen të nxisin shumë atë përgjegjësi, ju gjithashtu shihni se duhet fibra për ta mbajtur atë jashtë dhe për të qëndruar në bindjet tuaja. Dhe kjo industri është vërtet plot me njerëz që thjesht nuk i qëndrojnë bindjeve të tyre.

Edhe pse ata mendojnë se po ndërtojnë një Zot dixhital që ose do të eliminojë të gjithë punën ose do të krijojë më shumë punë, ose diçka do të ndodhë.

Epo, kjo është gjëja. Pra, kultura e të mos qëndruarit pas bindjeve tuaja dhe të gjitha shqetësimet etike që bien anash në momentin që ka ndonjë nxehtësi ose ndonjë gjë që mund të kërcënojë pozitën tuaj në biznes është ndoshta e gjitha mirë dhe e mirë deri në një farë mase për kompanitë e zakonshme që prodhojnë çdo lloj miniaplikacioni.

Por këta janë gjithashtu të njëjtët njerëz që thonë: "Kjo fjalë për fjalë mund të na vrasë të gjithëve." Dhe përsëri, nuk keni pse të shkoni në ekstremin e Terminator Skynet. Ka një sërë rreziqesh që tashmë po materializohen. Është e vërtetë, dhe ata kanë të drejtë të paralajmërojnë për këtë, por duhet të kesh dikë tjetër në kolltuk të psikologjisë se si ato dy gjëra mund të jetojnë në të njëjtët njerëz ku po japin paralajmërime urgjente, ata ndoshta po vënë gishtin e këmbës dhe po përpiqen të bëjnë diçka, dhe më pas ata thjesht palosen dhe heshtin. 

Kjo është pikërisht arsyeja pse mund të keni raste të tilla që gjërat të mbahen jashtë shkrimit dhe gjërat të fshihen nën qilim, dhe askush të mos flasë për këtë hapur për vite pas faktit.

Pala e natyrshme, përgjegjëse këtu nuk do të ishin CEO-t e këtyre kompanive; do të ishin qeveritë. Në Shtetet e Bashkuara, ndoshtajanë qeveritë e shteteve, ndoshta është qeveria federale. 

Sigurisht, të gjitha këto kompani duan të jenë globale. Këtu ka shumë implikime globale. Pashë OpenAI, Google dhe Anthropic që të gjithë nxitën administratën e Biden të lëshonte një urdhër ekzekutiv të AI. Në fund ishte goxha pa dhëmbë. Thjesht tha se ata duhej të flisnin për atë që modelet e tyre ishin të afta dhe të lëshonin disa teste sigurie. Dhe më pas ata të gjithë e mbështetën Trumpin, dhe Trump hyri dhe i fshiu të gjitha këto dhe tha: "Ne duhet të jemi konkurrues. Është një lojë falas për të gjithë. Vazhdo".

Në të njëjtën kohë, ata të gjithë po përpiqen të mbledhin fonde nga vendet e Lindjes së Mesme që kanë shumë para nga nafta dhe duan të ndryshojnë ekonomitë e tyre. Ata janë politikanë. Mendoj se politikanët duhet patjetër të kuptojnë se dikush po flet nga të dyja anët e gojës së tyre, dhe ata nuk do të mërziten shumë nëse dikush zhgënjehet në fund, por edhe politikanët po merren për një xhiro. Pse mendoni se është kështu?

Kjo është me të vërtetë, mendoj unë, arsyeja pse pjesa ka rëndësi për mua dhe pse ia vlente të shpenzoja gjithë këtë kohë dhe detaje. Jemi në një mjedis ku sistemet që, siç thoni ju, duhet të ofrojnë mbikëqyrje, thjesht janë zbrazur. Kjo është një Amerikë e Bashkuar pas Qytetarëve, ku fluksi i parave është kaq i pakufizuar dhe është një përqendrim i veçantë i këtij problemi rreth AI, ku ka këto PAC që po shumohen dhe po derdhin para për të shfuqizuar rregulloret kuptimplota si në nivel shtetëror ashtu edhe në atë federal.

Ju keni [bashkëthemeluesin e OpenAI] Greg Brockman, i dyti në komandë të Sam, duke kontribuar drejtpërdrejt në një mënyrë të madhe në disa prej tyre. Ajo çon në një situatë ku me të vërtetë ka kapje të ligjvënësve dhe rregullatorëve të mundshëm, dhe kjo është një spirale e vështirë për t'u dalë. Gjëja e trishtueshme është se unë mendoj se ka lëvizje të thjeshta politikash, disa prej të cilave po gjykohen diku tjetër në botë, që do të ndihmonin me disa nga këto probleme të llogaridhënies.

Ju mund të keni më shumë testime të detyrueshme të sigurisë para vendosjes, që është diçka që po ndodh tashmë në Evropë për modelet kufitare. Ju mund të keni kërkesa më të rrepta për të dhënat publike të shkruara për llojet e hetimeve të brendshme ku ne pamë që gjërat të mos shkruheshin në këtë rast. Ju mund të keni një grup më të fuqishëm të mekanizmave të rishikimit të sigurisë kombëtare për llojet e ambicieve të infrastrukturës së Lindjes së Mesme që Sam Altman po shtynte. 

Siç thoni ju, ai po e bënte këtë karrem dhe po kalonte me administratën Biden, duke thënë: "Na rregulloni, na rregulloni," dhe duke i ndihmuar ata të krijonin një urdhër ekzekutiv, dhe më pas në momentin që Trump hyn, me të vërtetë në ditët e para, thjesht duke mos ndalur, "Le të përshpejtojmë dhe le të ndërtojmë një kampus masiv të qendrës së të dhënave në Abu Dhabi". Mund ta kesh, kjo është shumë e thjeshtë, si mbrojtja e sinjalizuesve. Nuk ka asnjë statut federal që mbron punonjësit e kompanisë së AI që zbulojnë këto lloj shqetësimesh sigurie që po transmetohen në këtë pjesë.

Ne kemi raste kur Jan Leike, i cili ishte një person i lartë i sigurisë në OpenAI, ishte duke udhëhequr super linjën në kompani. Ai i shkruan bordit, në thelb material sinjalizues, duke thënë se kompania po largohet nga binarët në misionin e saj të sigurisë. Këta janë llojet e njerëzve që në fakt duhet të kenë një organ mbikëqyrës tek i cili mund të shkojnë, dhe ata duhet të kenë mbrojtje të qartë statutore të llojeve që shohim në sektorë të tjerë. Kjo është e thjeshtë për të përsëritur një regjim të stilit Sarbanes-Oxley.

Mendoj se pavarësisht se sa i mprehtë është problemi i Silicon Valley që merr kontrollin e të gjitha levave të pushtetit, dhe pavarësisht se sa të zbrazura janë disa prej këtyre institucioneve që mund të ofrojnë mbikëqyrje dhe parmakë, unë ende besoj në matematikën bazë të demokracisë dhe të politikanëve me interesa vetjake. Dhe ka gjithnjë e më shumë të dhëna nga sondazhet që dalin që shumica e amerikanëve mendojnë se shqetësimet, pyetjet ose rreziqet e AI aktualisht tejkalojnë përfitimet.

Kështu që unë mendoj se vërshimi i parave në politikë nga AI, është në të gjithë fuqinë tonë ta bëjmë atë një burim pikëpyetjeje në lidhje me politikanët. Kur amerikanët shkojnë të votojnë, ata duhet të shqyrtojnë nëse njerëzit për të cilët votojnë, veçanërisht nëse ata janë jokritikë dhe kundër rregulloreve, duke pasur parasysh të gjitha këto shqetësime, financohen nga interesa të mëdha të teknologjisë. Kështu që unë mendoj se nëse njerëzit mund të lexojnë pjesë si kjo, të dëgjojnë podkaste të tilla dhe të kujdesen mjaftueshëm për të menduar në mënyrë kritikevendimet e tyre si votues, ekziston një mundësi reale për të gjeneruar një zonë elektorale në Uashington të përfaqësuesve që monitorojnë dhe detyrojnë mbikëqyrjen.

Kjo mund të jetë një nga gjërat më optimiste që kam dëgjuar ndonjëherë të thotë dikush për industrinë aktuale të AI. Unë e vlerësoj atë. Unë jam i fiksuar pas sondazhit për të cilin po flisni. Ka shumë prej saj tani. Gjithçka është mjaft konsistente dhe duket se sa më shumë të rinj, në veçanti, të ekspozohen ndaj AI, aq më mosbesues dhe të zemëruar janë për të. Kjo është valenca e të gjitha sondazheve. Dhe unë e shikoj këtë dhe mendoj, po, politikanët e zgjuar thjesht do të kundërshtonin këtë. Ata thjesht do të thoshin, "Ne do të mbajmë përgjegjës teknologjinë e madhe". 

Pastaj mendoj për 20 vitet e fundit, një politikan që thotë se do të mbajnë përgjegjësi teknologjinë e madhe, dhe unë po përpiqem të gjej qoftë edhe një moment të teknologjisë së madhe duke u mbajtur përgjegjës. E vetmja gjë që më bën të mendoj se kjo mund të jetë ndryshe është, mirë, në fakt ju duhet të ndërtoni qendrat e të dhënave dhe mund të votoni kundër kësaj, dhe mund të bëni një peticion kundër kësaj, dhe mund të protestoni kundër kësaj.

Unë mendoj se ka një politikan të cilit sapo iu qëllua shtëpia e tij sepse votuan për një qendër të dhënash. Tensioni po arrin, unë do ta quaja, një shkallë ethe. Ju keni përshkruar izolimin e Silicon Valley. Ky është një ekosistem i mbyllur. Ndjehet sikur mendojnë se mund të drejtojnë botën. Ata po investojnë një ton parash në politikë dhe po përballen me realitetin që njerëzit nuk i duan produktet, gjë që nuk u jep atyre shumë mbulim. Sa më shumë që përdorin produktet, aq më shumë janë të mërzitur dhe politikanët kanë filluar të shohin se ka pasoja reale për të mbështetur industrinë e teknologjisë mbi njerëzit që përfaqësojnë. 

Ju keni folur me kaq shumë njerëz. A mendoni se është e mundur që industria e teknologjisë të mësojë mësimin që është para tyre?

Ju thoni se duket sikur mendojnë se mund ta drejtojnë botën pa përgjegjësi. Unë as nuk mendoj se kjo ka nevojë për kualifikimin "ndjehet si". Dua të them, ju shikoni gjuhën që përdor Peter Thiel, është e qartë. Sigurisht, ky është një shembull ekstrem. Dhe Sam Altman, megjithëse është i afërt dhe i informuar nga ideologjia e Thiel në një farë mase, është një lloj personi shumë i ndryshëm që mund të tingëllojë ndryshe dhe më i matur deri në një pikë. 

Por unë mendoj se ideologjia më e gjerë që merrni nga Thiel, e cila në thelb është: Ne kemi mbaruar me demokracinë, nuk kemi më nevojë për të. Ne kemi aq shumë sa duam të ndërtojmë bunkerët tanë të vegjël. Ne nuk kemi të bëjmë më me Carnegies ose me Rockefellers, ku ata janë njerëz të këqij, por ata mendojnë se duhet të marrin pjesë në një kontratë sociale dhe të ndërtojnë gjëra për njerëzit. Ekziston një nihilizëm i vërtetë.

Dhe unë mendoj se ka qenë thjesht një spirale përforcuese reciproke në historinë e fundit amerikane të manjatëve dhe kompanive private që fitojnë pushtet super qeveritar, ndërkohë që institucionet demokratike që mund t'i mbajnë ata përgjegjës janë zbrazur. Unë nuk ndihem optimist për idenë që ata djem thjesht mund të zgjohen një ditë dhe të mendojnë, "Hë, në fakt ndoshta ne kemi nevojë të marrim pjesë në shoqëri dhe të ndihmojmë të ndërtojmë gjëra për njerëzit."

Dua të them, ju dukeni si shembulli mikrokozmik i The Giving Pledge, ku ishte një moment ku dukej se ishte bamirësi, dhe ai moment tani ka kaluar dhe madje është tallur. Ky është një problem, problemi më i gjerë i mungesës së llogaridhënies që mendoj se mund të zgjidhet vetëm në mënyrë të jashtme. Kjo duhet të jetë votuesit që mobilizojnë dhe ringjallin fuqinë e mbikëqyrjes së qeverisë. Dhe ke të drejtë të thuash se vektori kryesor përmes të cilit njerëzit mund ta arrijnë këtë është lokal. Ka të bëjë me atë se ku po ndërtohet infrastruktura. 

Ju përmendët disa nga tensioni i nxehtë rreth kësaj që po çon në dhunë dhe kërcënime, dhe padyshim, askush nuk duhet të jetë i dhunshëm ose kërcënues. Dhe unë gjithashtu nuk jam këtu për të bërë rekomandime specifike politikash, përveçse thjesht për të paraqitur disa nga hapat e politikave që duken bazë dhe që funksionojnë diku tjetër në botë, apo jo? Ose ata që kanë punuar në sektorë të tjerë. Unë nuk jam këtu për të thënë se cilat prej tyre duhet të ekzekutohen dhe si.

Unë mendoj se diçka duhet të ndodhë, dhe duhet të jetë e jashtme, jo vetëm t'u besohet këtyre kompanive. Sepse e drejtëtani kemi një situatë ku kompanitë që po zhvillojnë teknologjinë dhe janë të pajisura më së miri për të kuptuar rreziqet, dhe në fakt janë ato që na paralajmërojnë për rreziqet, janë gjithashtu ato që nuk kanë asgjë tjetër veçse nxitje për të ecur shpejt dhe për t'i injoruar ato rreziqe. Dhe thjesht nuk keni asgjë për ta kundërpeshuar atë. Pra, çfarëdo reformash që mund të marrin për sa i përket specifikave, diçka duhet të ndeshet me këtë. Dhe unë ende i kthehem atij optimizmi se njerëzit kanë ende rëndësi.

Në përgjithësi e blej argumentin tuaj. Më lejoni të bëj vetëm një kundërargument të vogël që mendoj se mund ta artikuloj. Gjëja tjetër që mund të ndodhë jashtë kutisë së votimit është që flluska të shfaqet, apo jo? Që jo të gjitha këto kompani të arrijnë në vijën e finishit dhe se tregu i produktit nuk është i përshtatshëm për aplikacionet e inteligjencës artificiale të konsumatorit. Dhe përsëri, unë nuk e shoh ende atë, por unë jam një recensues i teknologjisë së konsumatorit dhe ndoshta kam standarde më të larta se të gjithë të tjerët.

Ekziston një përshtatje e tregut të produkteve në botën e biznesit, apo jo? Të kesh një grup agjentësh të AI të shkruajnë një mori softuerësh duket se është një treg i vërtetë për këto mjete. Dhe mund të lexoni argumentet nga këto kompani që thonë: "Ne kemi zgjidhur kodimin dhe kjo do të thotë se ne mund të zgjidhim çdo gjë. Nëse mund të bëjmë softuer, ne mund të zgjidhim çdo problem."

Unë mendoj se ka kufizime reale për gjërat që mund të bëjë softueri. Kjo është e mrekullueshme në botën e biznesit. Softueri nuk mund të zgjidhë çdo problem në realitet, por ata duhet të arrijnë atje. Ata duhet të përfundojnë punën, dhe ndoshta jo të gjithë arrijnë në vijën e finishit. Dhe ka një përplasje, dhe kjo flluskë shfaqet, dhe ndoshta OpenAI ose Anthropic ose xAI, një nga këto kompani dështon, dhe i gjithë ky investim largohet.

Mendoni se do të ndikonte kjo? Në fakt, më lejoni të bëj fillimisht pyetjen e parë. OpenAI është pikërisht në prag të një IPO. Ka shumë dyshime për Semin si lider. Mendoni se ata do të arrijnë në vijën e finishit?

Nuk do të prognostikoj, por mendoj se ju ngrini një pikë të rëndësishme, e cila është se stimujt e tregut kanë rëndësi të brendshme për Silicon Valley dhe pasiguria e dinamikës aktuale të flluskave qëndron të ndërpresë, përsëri, potencialisht, sipas kritikëve, garën deri në fund për sigurinë.

Unë gjithashtu do t'i shtoja kësaj, nëse shikoni përparësinë historike ku ka një grup të ngjashëm dhe në dukje të padepërtueshëm të stimujve të tregut dhe efekteve potencialisht të dëmshme për publikun, ka një ndikim gjyqësor. Dhe ju e shihni këtë si një fushë shqetësuese kohët e fundit. Sam Altman është atje këtë javë duke miratuar legjislacionin që do të mbronte kompanitë e AI nga disa nga llojet e përgjegjësive ndaj të cilave OpenAI është ekspozuar në paditë e gabuara për vdekje, për shembull. Sigurisht, ekziston një dëshirë për ta pasur atë mburojë nga përgjegjësia.

Unë mendoj se gjykatat mund të jenë ende një mekanizëm kuptimplotë dhe do të jetë vërtet interesante të shihet se si do të formohen këto padi. Ju tashmë e keni parë, për shembull, padinë e grupit, të cilit unë dhe shumë e shumë autorë të tjerë që njoh se jemi anëtarë, kundër Anthropic për përdorimin e tyre të librave që ishin nën të drejtën e autorit. Nëse ka mendje të zgjuara ligjore dhe paditës që kujdesen, siç e kemi parë historikisht në rastet nga duhani i madh te energjia e madhe, mund të merrni edhe disa parmakë dhe disa stimuj për të ngadalësuar, të jeni të kujdesshëm ose të mbroni njerëzit në këtë mënyrë.

Ndjehet sikur e gjithë struktura e kostos së industrisë së AI varet nga një interpretim shumë, shumë bamirës i përdorimit të drejtë. Nuk del sa duhet. Struktura e kostos së këtyre kompanive mund të dalë jashtë kontrollit nëse ato duhet të paguajnë ty dhe të gjithë të tjerët, punën e të cilëve kanë marrë, por është e papërshtatshme të mendosh, kështu që ne thjesht nuk mendojmë për këtë. Pikërisht pranë kësaj, të gjitha këto produkte tani po funksionojnë me humbje. Si sot, të gjithë po vrapojnë me humbje. Ata djegin më shumë para sesa mund të bëjnë. Në një moment, ata duhet të kthejnë çelësin.

Sam është një biznesmen. Siç e keni përmendur disa herë, ai nuk është teknolog. Ai është një person biznesi. A mendoni se ai është gati të kthejë çelësin dhe të thotë: "Ne do të bëjmë një dollar?" Sepse kur pyes: "A mendoni se OpenAI do t'ia dalë?" Është kur ata duhet të bëjnë një dollar. Dhe deri më tani, Sam i ka bërë të gjitha dollarët e tij duke u kërkuar njerëzve të tjerë paratë e tyre në vend që kompanitë e tij të bëjnë para.

Epo, kjo është një pyetje e madhe e vazhdueshme për Silicon Valley, për investitorët, për publikun.Ju shihni disa deklarata dhe lëvizje jashtë OpenAI që duket se shfaqin një lloj paniku për këtë. Mbyllja e Sorës, mbyllja e disa projekteve ndihmëse, duke u përpjekur të zero produktin bazë. Por nga ana tjetër, ju ende shihni, në të njëjtën kohë, tonelata të zvarritjes së misionit, apo jo? Edhe një shembull i vogël – padyshim që nuk është thelbësor për biznesin e tyre – është blerja e TBPN.

Meqë ra fjala, pikërisht kur po arrinim në vijën e finishit dhe po kontrollonim faktet, kompania që përballet me këtë lloj shqyrtimi gazetaresk fiton një platformë ku ata mund të kenë më shumë kontroll të drejtpërdrejtë mbi bisedën. Mendoj se ka shumë investitorë që janë të shqetësuar, bazuar në bisedat që kam pasur, se ky problem i premtimit të të gjitha gjërave për të gjithë njerëzit shtrihet edhe në këtë mungesë fokusi në modelin kryesor të biznesit. Dhe dua të them, ju jeni më afër llojit të parashikimit dhe shikimit të tregut sesa unë ndoshta. Unë do t'ju lë ju dhe dëgjuesit të gjykoni nëse ata mendojnë se OpenAI mund ta kthejë çelësin. 

Epo, e bëra pyetjen sepse ju keni një citat në artikull nga një ekzekutiv i lartë i Microsoft-it, dhe ai është se, "Trashëgimia e Sam mund të përfundojë më shumë e ngjashme me Bernie Madoff ose Sam Bankman-Fried", në vend të Steve Jobs. Ky është një krahasim mjaft. Çfarë e keni bërë këtë krahasim?

Unë mendoj se kjo është një parafrazë. Pjesa e Steve Jobs nuk ishte pjesë e kuotimit. Por ka një lloj maturie interesante në të, sepse shprehet si: "Unë mendoj se ka një shans të vogël por real që ai të përfundojë të jetë një SBF ose një mashtrues i nivelit Madoff". Do të thotë, për mendjen time, jo se Sam po akuzohet për ato lloje specifike mashtrimesh ose krimesh, por se shkalla e shpërfytyrimit dhe mashtrimit nga Sam mund të ketë një shans për t'u kujtuar përfundimisht në atë shkallë.

Po, unë mendoj se ajo që është më e habitshme në lidhje me atë citim, sinqerisht, është se ju telefononi në Microsoft dhe nuk merrni një pëlqim, "Kjo është e çmendur. Ne kurrë nuk e kemi dëgjuar këtë." Ju merrni shumë pëlqime, "Po, shumë njerëz këtu mendojnë këtë", gjë që është e jashtëzakonshme. Dhe unë mendoj se kjo shkon te këto pyetje të biznesit. 

Një investitor më tha, për shembull, në dritën e mënyrës se si ky tipar ka vazhduar në vitet pas pushkatimit” - dhe ky gjithashtu mendoi se ishte një mendim interesant i matur - se nuk është domosdoshmërisht që Sam duhet të jetë në fund të fundit absolut të listës, sikurse duhet të jetë më i ulëti nga më të ulëtit për sa i përket njerëzve që absolutisht nuk duhet ta ndërtojnë këtë teknologji, për atë që ia vlen të thonë El. e vendos atë ndoshta në fund të listës së njerëzve që duhet të ndërtojnë AGI, dhe poshtë disa figurave të tjera kryesore në këtë fushë.

Kështu që mendova se ishte një vlerësim interesant, dhe ky është lloji i të menduarit që unë mendoj se ju merrni nga pragmatistët e vërtetë, të cilët ndoshta nuk po merren me shqetësimet e sigurisë aq shumë. Ata janë thjesht të orientuar drejt rritjes dhe mendojnë se OpenAI tani ka një problem me Sam Altman.

Pjesa e Microsoft-it është vërtet interesante. Ajo kompani mendonte se ishin në krye të botës. Se ata e kishin bërë këtë investim dhe do të kalonin të gjithë, veçanërisht dhe më e rëndësishmja, Google, dhe do të riktheheshin në hiret e mira të konsumatorëve. Niveli në të cilin ata ndjehen të djegur nga kjo aventurë - kjo është një kompani e drejtuar shumë e matur - nuk mendoj se mund të mbivlerësohet.

Ju përmendët personazhet dhe tiparet e personalitetit. Dua ta mbyll këtu me një pyetje nga dëgjuesit tanë. Unë thashë në emisionin tonë tjetër, The Vergecast, se do të flisja me ju dhe i thashë: "Nëse keni pyetje për Ronan në lidhje me këtë histori, më njoftoni." Pra, ne kemi një këtu që mendoj se lidhet mirë me atë që po përshkruani. Unë thjesht do t'ju lexoj:

“Si ndryshojnë justifikimet për sjelljen e keqe, veprimet fyese të Altman dhe drejtuesve të tjerë të AI, nga justifikimet që Ronan ka dëgjuar nga udhëheqës të tjerë të profilit të lartë në politikë dhe media? A nuk i justifikojnë të gjithë veprimet e tyre duke thënë se kështu ndryshon bota? Nëse nuk e bëj unë këtë, dikush tjetër do ta bëjë?”

Po, ka shumë gjëra që ndodhin. Unë do të thosha se ajo që është e dallueshme për AI është se aksionet ekzistenciale duke qenë kaq unike të larta do të thotë që të dyja deklaratat e rrezikut janë ekstreme, apo jo? Ju keni Sam Altmanduke thënë: "Kjo mund të jetë drita e fikur për të gjithë ne." Dhe gjithashtu, mund të thonë kritikët, mania të cilës i referohet pyetësi është ekstreme, apo jo? 

Gjëja për të cilën Sam e akuzoi Elon, në procesverbal, ishte se ndoshta ai dëshiron të shpëtojë njerëzimin, por vetëm nëse është ai. Lloji i komponentit të egos së dëshirës për të fituar, i cili është një inkuadrim që Sam përdor gjatë gjithë kohës, dhe që ky është një për librat e historisë, kjo mund të ndryshojë gjithçka. Prandaj, edhe mbi dhe përtej mentalitetit "duhet të thyesh disa vezë" të shumicës së ndërmarrjeve të Silicon Valley, në mendjet e disa figurave që udhëheqin AI, mendoj, ekziston një racionalizim i plotë për çdo dhe të gjitha pasojat.

Dhe harroni thyerjen e vezëve. Unë/mendoj se shumë nga studiuesit themelorë të sigurisë do të thoshin se mund të rrezikojnë të thyejnë vendin, të thyejnë botën dhe të thyejnë miliona njerëz, puna dhe siguria e të cilëve varen në balancë - kjo është ajo që është unike për të. Këtu e mbyll, duke reflektuar mbi këtë trup raportimi, duke besuar vërtet se kjo ka të bëjë më shumë se Sam Altman. Bëhet fjalë për një industri që është e pakufizuar dhe një problem spirale që Amerika nuk është në gjendje ta kufizojë atë.

Po. Epo, ne kishim njëfarë optimizmi atje, por mendoj se është një vend i mirë për ta lënë atë.

[Qesh] Përfundoni me një ritëm negativ.

sigurisht. Kjo është çdo histori e mrekullueshme, me të vërtetë. Gjyqi Musk-Altman po vjen. Mendoj se këtu do të mësojmë shumë më tepër. Unë dyshoj se do të dëshiroj të flas përsëri me ju. Ronan Farrow, faleminderit shumë që jeni në Dekoder.

faleminderit.

Pyetje apo komente për këtë episod? Na kontaktoni në [email protected]. Ne vërtet lexojmë çdo email!

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free