Dziś w Decoderze rozmawiam z Ronanem Farrowem, jedną z największych współczesnych gwiazd reportażu śledczego. Przełamał historię Harveya Weinsteina i wiele, wiele innych. Zaledwie w zeszłym tygodniu on i współautor Andrew Marantz opublikowali w „The New Yorker” niesamowity, szczegółowy artykuł na temat dyrektora generalnego OpenAI Sama Altmana, jego wiarygodności i rozwoju samego OpenAI.
Jedna uwaga, zanim przejdziemy dalej – „The New Yorker” opublikował tę historię, a Ronan i ja odbyliśmy tę rozmowę, zanim poznaliśmy pełny zakres ataków na dom Altmana, więc nie usłyszycie, jak rozmawiamy o tym bezpośrednio. Ale mówiąc to, uważam, że jakakolwiek przemoc jest niedopuszczalna, te ataki na Sama były nie do przyjęcia, a rodzaj bezradności, jaki odczuwają ludzie, który prowadzi do tego rodzaju przemocy, jest sam w sobie niedopuszczalny i wart znacznie większej analizy zarówno ze strony branży, jak i naszych przywódców politycznych. Mam nadzieję, że to jasne.
Abonenci Verge, nie zapomnijcie, że macie wyłączny dostęp do dekodera bez reklam, gdziekolwiek odbieracie swoje podcasty. Kieruj się tutaj. Nie jesteś subskrybentem? Możesz zarejestrować się tutaj.
To powiedziawszy, wokół Altmana narosło wiele zamieszania, co jest uczciwą grą w przypadku rygorystycznego raportowania — takiego rodzaju raportowania, jaki postanowili zrobić Ronan i Andrew. Dzięki popularności ChatGPT firma Altman stała się najbardziej widoczną figurantką branży sztucznej inteligencji, przekształcając niegdyś laboratorium badawcze non-profit w prywatną firmę wartą prawie bilion dolarów w ciągu zaledwie kilku lat. Jednak mit o Altmanie jest głęboko sprzeczny, definiowany zarówno przez jego oczywistą zdolność do zawierania transakcji, jak i jego zgłaszaną tendencję do… cóż, okłamywania wszystkich wokół niego.
Ta historia liczy ponad 17 000 słów i zawiera prawdopodobnie ostateczną relację z tego, co wydarzyło się w 2023 roku, kiedy zarząd OpenAI nagle zwolnił Altmana z powodu jego rzekomych kłamstw, tylko po to, by niemal natychmiast został ponownie zatrudniony. To także głębokie zgłębienie życia osobistego Altmana, jego inwestycji, zalotów do pieniędzy z Bliskiego Wschodu oraz jego własnych refleksji na temat jego przeszłych zachowań i cech charakteru, które doprowadziły jedno ze źródeł do stwierdzenia, że „nie ogranicza go prawda”. Naprawdę sugeruję przeczytanie całej historii; Podejrzewam, że będzie o nim mowa przez wiele lat.
Ronan rozmawiał z Altmanem wiele razy w ciągu 18 miesięcy, które spędził na publikowaniu tego artykułu, dlatego jedną z głównych rzeczy, które mnie ciekawiło, było to, czy wyczuł jakąkolwiek zmianę w Altmanie przez ten czas. W końcu wiele wydarzyło się w sztucznej inteligencji, technologii i na świecie przez ostatnie półtora roku.
Usłyszycie, jak Ronan mówi o tym bardzo bezpośrednio, a także jego poczucie, że ludzie znacznie chętniej mówią o zdolności Altmana do naciągania prawdy. Ludzie zaczynają się zastanawiać – głośno i publicznie – czy zachowanie ludzi takich jak Altman dotyczy nie tylko sztucznej inteligencji i technologii, ale także zbiorowej przyszłości społeczeństwa.
OK: Ronan Farrow o Samie Altmanie, sztucznej inteligencji i prawdzie. Zaczynamy.
Wywiad ten został lekko zredagowany pod kątem długości i przejrzystości.
Ronan Farrow, jesteś reporterem śledczym i współpracownikiem „The New Yorker”. Witamy w Dekoderze.
Cieszę się, że tu jestem. Dziękuję, że mnie masz.
Jestem bardzo podekscytowany rozmową z tobą. Właśnie napisałeś ważny artykuł dla „The New Yorker”. To profil Sama Altmana i, w pewnym sensie, OpenAI. Z mojego odczytu wynika, że – jak wszystkie świetne funkcje – także i ta, wraz ze szczegółowymi raportami, potwierdza wiele uczuć, jakie ludzie żywią do Sama Altmana od bardzo długiego czasu. Najwyraźniej to opublikowałeś i spotkałeś się z reakcjami. Jak się z tym teraz czujesz?
Cóż, właściwie pocieszył mnie stopień, w jakim udało się to przełamać w czasach, gdy gospodarka uwagi jest tak schizofreniczna i płytka. To historia, która moim zdaniem dotyczy każdego z nas. A kiedy spędziłem półtora roku swojego życia, a mój współautor, Andrew Marantz, również spędził ten czas, naprawdę próbując zrobić coś kryminalistycznego i skrupulatnego, zawsze dzieje się tak dlatego, że mam wrażenie, że istnieją poważniejsze problemy strukturalne, które wpływają na ludzi poza jednostką i firmą, w centrum historii.
Sam Altman na tle kultury szumu w Dolinie Krzemowej i start-upów, które osiągają masowe wyceny w oparciu o obietnice, które mogą, ale nie muszą, spełnić się w przyszłości, oraz w obliczu rosnącego przyjęcia kultury założycieli, która uważa, że mówienie różnym grupom różnych sprzecznych rzeczy jest cechą, a nie cechąbłąd… Nawet na tym tle Sam Altman to niezwykły przypadek, w którym każdy w Dolinie Krzemowej, kto spodziewa się takich rzeczy, nie może przestać mówić o kwestii jego wiarygodności i uczciwości.
Wiedzieliśmy już, że został zwolniony z powodu jakiejś wersji zarzutów o nieuczciwość lub seryjne rzekome kłamstwo. Ale co niezwykłe, pomimo wspaniałych reportaży, Keach Hagey wykonał przy tym świetną pracę. Karen Hao wykonała przy tym świetną pracę. Tak naprawdę nie było ostatecznego zrozumienia rzeczywistych rzekomych punktów dowodowych i powodów, dla których pozostały one poza zasięgiem opinii publicznej.
Zatem punkt pierwszy: pociesza mnie fakt, że niektóre z tych luk w naszej wiedzy publicznej, a nawet wiedzy osób z Doliny Krzemowej, zostały teraz nieco bardziej uzupełnione. Niektóre przyczyny występowania luk zostały uzupełnione w nieco większym stopniu.
Zgłaszamy przypadki, w których ludzie w tej firmie naprawdę mieli wrażenie, że coś zostało zatuszowane lub celowo nieudokumentowane. Jedną z nowych rzeczy w tej historii jest kluczowe dochodzenie prowadzone przez firmę prawniczą prowadzoną przez WilmerHale, która jest oczywiście wymyślną, wiarygodną, dużą firmą prawniczą, która przeprowadziła dochodzenia w sprawie Enronu i WorldCom, które, nawiasem mówiąc, były obszerne, jak setki opublikowanych stron. WilmerHale przeprowadził śledztwo, którego żądali członkowie zarządu, którzy zwolnili Altmana jako warunek ich odejścia, gdy się ich pozbędzie, i wrócił. I co niezwykłe – w oczach wielu ekspertów prawnych, z którymi rozmawiałem i szokująco w oczach wielu osób w tej firmie – nie pisali tego. Wszystko, co z tego wynikło, to liczący 800 słów komunikat prasowy OpenAI, w którym opisano, co się stało, jako załamanie zaufania. Potwierdziliśmy, że ograniczono się do ustnych odpraw.
Zdarzają się przypadki, gdy na przykład członek zarządu najwyraźniej chce głosować przeciwko przekształceniu pierwotnej formy OpenAI non-profit w podmiot nastawiony na zysk i jest to odnotowywane jako wstrzymanie się od głosu. To tak, jakby prawnik na spotkaniu powiedział: „No cóż, to mogłoby spowodować zbyt wnikliwą kontrolę”. A osoba, która chce głosować przeciw, jest rejestrowana jako osoba wstrzymująca się od głosu. Istnieje spór merytoryczny. Jak można sobie wyobrazić, OpenAI twierdzi inaczej. We wszystkich tych przypadkach masz firmę, która sama w sobie trzyma naszą przyszłość w swoich rękach.
Zagrożenia bezpieczeństwa są tak poważne, że nie zniknęły. To jest powód, dla którego ta firma została założona jako organizacja non-profit skupiona na bezpieczeństwie, w której wszystko było ukrywane w sposób, który wiarygodni ludzie wokół niej uznali za mniej niż profesjonalny. I łączy się to z tłem, w którym apetyt polityczny na znaczące regulacje jest tak mały. Myślę, że to bardzo łatwopalna sytuacja.
Nie chodzi mi tylko o to, że Sam Altman tak bardzo zasługuje na te pytania. Chodzi także o to, że każdy z tych facetów w tej dziedzinie i wiele kluczowych postaci wykazuje, jeśli nie tę szczególną, specyficzną cechę rzekomego ciągłego kłamania, to z pewnością w pewnym stopniu mentalność wyścigu do dna, w której ludzie, którzy byli obrońcami bezpieczeństwa, złagodzili swoje zobowiązania i postawili wszystkich na wyścig.
Myślę, że patrząc na ostatnie przecieki z Anthropic, pojawia się osoba, która stawia pytanie, kto powinien trzymać rękę na pulsie w tym artykule. Odpowiedź brzmi: jeśli nie mamy znaczącego nadzoru, myślę, że musimy zadawać poważne pytania i starać się uzyskać jak najwięcej informacji o tych wszystkich facetach. Dlatego pocieszyło mnie to, co wydawało mi się znaczącą rozmową na ten temat lub jej początki.
Zapytałem o to w ten sposób, ponieważ pracowałeś nad tym przez półtora roku. Zdaje się, że rozmawiałeś ze 100 osobami ze swoim współautorem, Andrew. To dużo czasu na ugotowanie historii. Myślę szczególnie o ostatnim półtora roku spędzonym w AI i kurczę, postawy i wartości wszystkich tych postaci zmieniły się bardzo szybko.
Może nie bardziej niż Sam Altman, który zaczynał jako domyślny zwycięzca, ponieważ wypuścili ChatGPT i wszyscy myśleli, że to po prostu przejmie obowiązki Google. I wtedy Google odpowiedział, co wydawało się ich zaskoczyć, że Google będzie próbował chronić swoją firmę, być może jedną z najlepszych firm w historii technologii, jeśli nie historii biznesu. Anthropic zdecydowało, że skoncentruje się na przedsiębiorstwie. Wygląda na to, że przejmuje dowodzenietam, ponieważ wykorzystanie sztucznej inteligencji w przedsiębiorstwach jest tak wysokie.
Teraz OpenAI zmienia kierunek swojego produktu z „przejmiemy Google” na Codex, a oni przejmą przedsiębiorstwo. Nie jestem tylko w stanie stwierdzić, czy w trakcie twoich reportaży trwających przez ostatnie półtora roku miałeś wrażenie, że bohaterowie, z którymi rozmawiałeś, zmienili się? Czy zmieniły się ich postawy i wartości?
Tak. Przede wszystkim myślę, że krytyka poruszona w tym artykule, pochodząca obecnie od wielu osób pracujących w tych firmach – że jest to branża, która pomimo stawek egzystencjalnych popada w coś w rodzaju wyścigu do dna w zakresie bezpieczeństwa i gdzie prędkość przewyższa wszystko inne – ta obawa stała się bardziej dotkliwa. Myślę, że te obawy potwierdziły się w miarę upływu ostatniego półtora roku. Jednocześnie zmieniło się szczególnie podejście do Sama Altmana. Kiedy zaczęliśmy rozmawiać na ten temat ze źródłami, ludzie byli naprawdę nieufni, jeśli chodzi o cytowanie ich i publikowanie informacji na ten temat.
Pod koniec naszego raportu mamy zbiór raportów, w których ludzie mówią o tym bardzo otwarcie i wyraźnie, a członkowie zarządu mówią takie rzeczy jak: „On jest patologicznym kłamcą. Jest socjopatą”. Istnieje wiele perspektyw, od „To jest niebezpieczne, biorąc pod uwagę ryzyko związane z bezpieczeństwem i potrzebujemy liderów tej technologii o podwyższonej uczciwości”, aż po „Zapomnij o ryzyku bezpieczeństwa, jest to zachowanie, którego nie może zaakceptować żaden dyrektor żadnej dużej firmy, ponieważ powoduje po prostu zbyt wiele dysfunkcji”.
Zatem rozmowa stała się znacznie bardziej wyraźna i może wydawać się spóźniona, ale w pewnym sensie podnosząca na duchu. I Sam Altman, trzeba przyznać, że ten utwór jest bardzo uczciwy, a nawet hojny, powiedziałbym, w stosunku do Sama. To nie jest ten rodzaj utworu, w którym było dużo rzeczy typu „got you”. Kiedy kończyliśmy tę rozmowę, spędziłem z nim wiele, wiele godzin rozmawiając przez telefon i naprawdę go wysłuchałem.
Jak możesz sobie wyobrazić, w takim utworze nie wszystko się mieści. Niektóre z tych przypadków w tym przypadku wynikały z tego, że szczerze słuchałem. A jeśli Sam rzeczywiście argumentował, że czuję się sfrustrowany, że coś, nawet jeśli jest prawdą, może wywołać sensację, to naprawdę popełniłem błąd, utrzymując tę kryminalistykę i wyważając. Myślę więc, że zostało to przyjęte słusznie i mam tylko nadzieję, że fakty zgromadzone w tym okresie mogą wywołać bardziej orzeźwiającą rozmowę na temat potrzeby nadzoru.
To właściwie moje następne pytanie. Myślę, że rozmawiałeś z Samem kilkanaście razy w trakcie relacjonowania tej historii. Powtórzę: to wiele rozmów prowadzonych przez długi czas. Czy sądzisz, że Sam zmienił się w ciągu ostatniego półtora roku?
Tak. Myślę, że jednym z najciekawszych wątków pobocznych jest to, że Sam Altman również mówi o tej cesze bardziej wyraźnie niż w przeszłości. Postawa Sama w tym utworze nie jest taka: „Nic tam nie ma, to nieprawda; nie wiem, o czym mówisz”. Z jego postawy wynika, że wynika to z tendencji do zadowalania ludzi i pewnego rodzaju niechęci do konfliktów. Przyznaje, że spowodowało to dla niego problemy, szczególnie na początku jego kariery.
Mówi: „No cóż, mam już to za sobą lub w pewnym stopniu już to przekroczyłem”. Myślę, że to, co dla mnie naprawdę interesujące, to grupa osób, z którymi rozmawialiśmy, a którzy nie byli jedynie zwolennikami bezpieczeństwa, nie tylko badaczami technicznymi, którzy bardzo często mają poważne obawy dotyczące bezpieczeństwa, ale także pragmatycznymi, poważnymi inwestorami. Są zwolennikami Sama, którzy w niektórych przypadkach patrzą na tę kwestię i mówią, że odegrali nawet kluczową rolę w jego powrocie po zwolnieniu. Teraz na pytanie, czy przeszedł reformę i w jakim stopniu ta zmiana jest znacząca, mówią: „No cóż, wtedy daliśmy mu korzyść w postaci wątpliwości”.
Mam na myśli szczególnie jednego wybitnego inwestora, który powiedział: „Ale od tego czasu wydaje się jasne, że nie został zabrany za drewutnię” – tego sformułowania użył ten inwestor w niezbędnym zakresie. W rezultacie wydaje się, że jest to obecnie cecha stabilna. Obserwujemy to na bieżąco. Możesz przyjrzeć się niektórym z największych biznesów OpenAIrelacje i sposób, w jaki w ciągły sposób dźwigają ciężar tej nieufności.
Podobnie jak w przypadku Microsoftu, rozmawia się z tamtejszą kadrą kierowniczą i mają oni naprawdę poważne obawy, które niedawno wzbudziły w nich emocje. Jest taki przypadek, w którym tego samego dnia OpenAI potwierdza swoją wyłączność z Microsoftem w odniesieniu do podstawowych modeli bezpaństwowej sztucznej inteligencji, ogłaszając jednocześnie nową umowę z Amazonem, która dotyczy sprzedaży rozwiązań dla przedsiębiorstw do tworzenia agentów AI, które są stanowe, co oznacza, że mają pamięć.
Rozmawiasz z pracownikami Microsoftu, a oni mówią: „Nie da się tego zrobić bez interakcji z podstawowymi rzeczami, na które mamy umowę na wyłączność”. To tylko jeden z wielu drobnych przykładów, gdzie ta cecha ma ciągły wpływ na bieżącą działalność biznesową i jest przedmiotem aktywnego zainteresowania zarządu OpenAI, jej kadry kierowniczej oraz szerszej społeczności technologicznej.
Ciągle powtarzasz tę „cechę”. W tej historii jest zdanie, które wydaje mi się tezą i stanowi opis cechy, którą opisujesz. Chodzi o to, że „Prawda nie ogranicza Sama Altmana” i że ma „dwie cechy, których prawie nigdy nie widać u tej samej osoby: pierwsza to silne pragnienie sprawiania ludziom przyjemności, bycia lubianym w jakiejkolwiek interakcji, a druga to niemal socjopatyczny brak troski o konsekwencje, jakie może wyniknąć z oszukania kogoś”.
Muszę ci powiedzieć, że przeczytałem to zdanie 500 razy i próbowałem sobie wyobrazić, że zawsze mówię to, czego ludzie chcą, żeby byli lubiani, a potem nie denerwuję się, gdy czują się okłamani. I nie mogłam sprawić, by mój stan emocjonalny zrozumiał, jak te rzeczy mogą istnieć w tej samej osobie. Dużo rozmawiałeś z Samem i rozmawiałeś z ludźmi, którzy doświadczyli tych cech. Jak on to robi?
Tak. Jest to interesujące z ludzkiego punktu widzenia, ponieważ podchodzę do takich reporterów z prawdziwym naciskiem na humanizowanie każdego, kto jest w centrum tego zjawiska, oraz poszukiwanie głębokiego zrozumienia i empatii. Kiedy w pewnym sensie próbowałem podejść do tego z bardziej ludzkiego punktu widzenia i powiedzieć: „Hej, byłoby to dla mnie druzgocące, gdyby tak wiele osób, z którymi pracowałem, stwierdziło, że jestem patologicznym kłamcą. Jak udźwigniesz taki ciężar? Jak rozmawiasz o tym na terapii? Jaka jest historia, którą sobie na ten temat opowiadasz?”
Mam na ten temat jakieś frazesy, być może z Zachodniego Wybrzeża, w rodzaju: „Tak, lubię pracę z oddechem”. Ale nie było to zbyt orzeźwiające poczucie głębokiej konfrontacji z samym sobą, które, jak sądzę, prawdopodobnie odczuwałoby wielu z nas, gdyby widzieli tego rodzaju opinie na temat naszego zachowania i sposobu, w jaki traktujemy ludzi.
Myślę, że to właściwie dotyczy również szerszej odpowiedzi na pytanie. Sam twierdzi, że ta cecha spowodowała problemy, ale także że jest częścią tego, co umożliwiło mu przyspieszenie rozwoju OpenAI do tego stopnia, że jest w stanie zjednoczyć i zadowolić różne grupy ludzi. Nieustannie przekonuje wszystkie skłócone okręgi wyborcze, że im zależy na tym, na czym zależy jemu. A to może być naprawdę przydatna umiejętność dla założyciela. Rozmawiałem z inwestorami, którzy następnie mówią: „Cóż, może jest to mniej przydatna umiejętność w faktycznym prowadzeniu firmy, ponieważ sieje tyle niezgody”.
Jednak z osobistego punktu widzenia Sama myślę, że to, co zauważam, gdy próbuję nawiązać kontakt na poziomie ludzkim, to widoczny brak głębszej konfrontacji, refleksji i odpowiedzialności za siebie, co również świadczy o superwładzy lub odpowiedzialności firmy przygotowującej się do pierwszej oferty publicznej.
To ktoś, kto – jak stwierdziła jedna z byłych członkiń zarządu, Sue Yoon, która w nagraniu twierdzi, że używa określenia „do granic nieudolności”, jest w stanie naprawdę uwierzyć w zmieniającą się rzeczywistość swoich ofert sprzedaży lub jest w stanie się o nich przekonać. Albo przynajmniej, jeśli im nie wierzy, jest w stanie przebić się przez nie bez znaczących wątpliwości.
Myślę, że to, o czym mówisz, gdzie ty lub ja moglibyśmy, gdy to mówimy i zdajemy sobie sprawę, że jest to sprzeczne z innymi zapewnieniami, które złożyliśmy, może mieć chwilę zamrożenia lub sprawdzenia się. Myślę, że to się u niego nie zdarza. Istnieje szersza kultura szumu w Dolinie Krzemowej i kultura założycieli, która w pewnym sensie to obejmuje.
To zabawne. The Verge opiera się na recenzjach produktówprogram. To sedno tego, co tutaj robimy. Raz w roku trzymam w posiadaniu bilion dolarów działów badawczo-rozwojowych Apple i mówię: „Ten telefon to siódemka”. I to w pewnym sensie legitymizuje wszystkie nasze raporty i nasze opinie gdzie indziej. Mamy funkcję ewaluacyjną i spędzamy dużo czasu po prostu patrząc na produkty AI i pytając: „Czy one działają?”
Wydaje się, że brakuje tego w wielu dzisiejszych rozmowach na temat sztucznej inteligencji. Toczą się niekończące się dyskusje na temat tego, co może być w stanie zrobić i jak niebezpieczne może to być. A potem analizujesz i mówisz: „Czy to rzeczywiście robi to, co powinno dzisiaj robić?” W niektórych przypadkach odpowiedź brzmi: tak. Ale w wielu, wielu przypadkach odpowiedź brzmi: nie.
Wydaje się, że łączy się to z kulturą szumu, którą opisujesz, a także z poczuciem, że cóż, jeśli mówisz, że coś zrobi, a tak się nie dzieje, a ktoś czuje się źle, to w porządku, ponieważ przechodzimy do następnej rzeczy. To przeszłość. Szczególnie jeśli chodzi o sztuczną inteligencję, Sam jest tak dobry w składaniu wielkich obietnic.
Właśnie w tym tygodniu, myślę, że tego samego dnia, w którym opublikowano Twoją historię, OpenAI opublikowało dokument polityczny, w którym stwierdzono, że musimy ponownie przemyśleć umowę społeczną i uzyskać od rządu stypendia na efektywność sztucznej inteligencji. To wielka obietnica dotycząca tego, jak jakaś technologia może ukształtować przyszłość świata i naszego życia, a wszystko to opiera się na działaniu technologii dokładnie w taki sposób, w jaki być może obiecano lub powinno działać.
Czy kiedykolwiek zauważyłeś Sama wątpiącego w sztuczną inteligencję zamieniającą się w AGI lub superinteligencję lub w dotarcie do mety? Bo właśnie to mnie najbardziej zastanawia. Czy zastanawiają się Państwo, czy ta podstawowa technologia może wykonywać wszystkie zadania, o których mówi się, że może?
To dokładnie właściwy zestaw pytań. Istnieją wiarygodni technologowie, z którymi rozmawialiśmy w tym raporcie – i oczywiście Sam Altman nie jest jednym z nich; jest biznesmenem i twierdzi, że sposób, w jaki Sam mówi o harmonogramie rozwoju tej technologii, jest bardzo odległy. Istnieją posty na blogu sprzed kilku lat, w których Sam mówi: "Dotarliśmy już do horyzontu zdarzeń. AGI w zasadzie już tu jest. Superinteligencja jest tuż za rogiem. Będziemy na innych planetach. Będziemy leczyć wszystkie formy raka." Naprawdę, nie upiększam.
Ten z rakiem jest naprawdę interesujący, ponieważ Sam robi szum osobie, która teoretycznie wyleczyła raka swojego psa za pomocą ChatGPT, a to po prostu się nie wydarzyło. Rozmawiali z ChatGPT, co pomogło im skierować niektórych badaczy, którzy faktycznie wykonali tę pracę, ale w rzeczywistości historia indywidualnego wyleczenia tego psa za pomocą tego narzędzia nie jest prawdziwa.
Cieszę się, że poruszyłeś tę kwestię, ponieważ chcę przejść do ważniejszej kwestii, kiedy naprawdę ujawni się zarówno potencjał, jak i ryzyko związane z technologią. Warto jednak wspomnieć o tych drobnych szczegółach, które stale zdarzają się Samowi Altmanowi, gdzie wydaje się, że ucieleśnia tę cechę na nowo.
Mam na myśli przykład raportu Wilmera Hale’a, w którym dysponowaliśmy informacjami, których nie publikowaliśmy, i chcieliśmy wiedzieć, czy sprawozdanie ustne zostało przekazane komukolwiek innemu niż dwóm członkom zarządu, których Sam pomógł zainstalować, aby to nadzorować. A on na to: „Tak, tak, nie, sądzę, że został on wręczony każdemu, kto później dołączył do zarządu”. I mamy osobę, która bezpośrednio zna sytuację i twierdzi, że to po prostu kłamstwo. I rzeczywiście wydaje się, że tak jest, że jest to nieprawda. Jeśli chcemy być hojni, być może został źle poinformowany.
Tych przypadkowych zapewnień jest mnóstwo. Posłużę się tym przykładem po części dlatego, że jest to świetny przykład udawania, nazwijmy to, które może mieć realne konsekwencje prawne. Nie muszę mówić, że zgodnie z prawem korporacyjnym stanu Delaware, jeśli w przypadku IPO tej spółki akcjonariusze mogliby, zgodnie z sekcją 220, złożyć skargę i zażądać podstawowej dokumentacji. Niektórzy członkowie zarządu już mówią: „No cóż, chwileczkę, ta odprawa powinna się odbyć”.
Zatem te rzeczy, które cały czas wychodzą z jego ust, mogą mieć realny wpływ na rynek, realny wpływ na OpenAI. Wracając do utopijnego języka szumu, który powrócił, myślę, że nieprzypadkowo w dniu, w którym ukazał się ten artykuł, ma to również wpływ na nas wszystkich, ponieważ niebezpieczeństwa związane ze sposobem, w jaki jest onzastosowania w broni, sposobu, w jaki jest ona wykorzystywana do identyfikacji chemicznych środków bojowych, potencjału dezinformacyjnego oraz sposobu, w jaki ten utopijny szum rzeczywiście wydaje się skłaniać wielu wiarygodnych ekonomistów do stwierdzenia: „To ma wszelkie oznaki bańki”.
Nawet Sam Altman powiedział: „Ktoś tutaj straci dużo pieniędzy”. Może to naprawdę spowodować zahamowanie znacznego wzrostu gospodarczego w Ameryce i na świecie, jeśli nastąpi prawdziwe przebicie bańki, w której wszystkie te firmy będą zawierać między sobą umowy i stawiać na sztuczną inteligencję przy tak dużych pożyczkach. Zatem to, co mówi Sam Altman, ma znaczenie i myślę, że większość ludzi wokół niego, wspomniałeś, że rozmawialiśmy z ponad setką, a właściwie było ich znacznie ponad sto. Na mecie odbyliśmy rozmowę w stylu: „Czy byłoby zbyt małostkowe stwierdzenie, że to znacznie wyższa liczba?” A my na to: „Tak, zbagatelizujmy to. Rozegrajmy to spokojnie”. Ale było tak wielu ludzi i tak znacząca większość z nich stwierdziła: „To jest problem”. I myślę, że to wszystko dlatego.
Pozwól, że zapytam o ten numer. Jak wspomniałeś, z biegiem czasu ludzie coraz bardziej otwarcie wyrażali swoje obawy. Wydaje się, że presja wokół bańki – wyścig o zwycięstwo, spłatę całej inwestycji, wyłonienie się jako zwycięzca, aż do IPO – zmieniła wiele postaw. Z pewnością wywarło to większą presję na Sama i OpenAI.
W tym tygodniu opublikowaliśmy artykuł poświęcony wibracjom OpenAI. Twoja historia jest tego częścią, ale ogromne zmiany kadrowe na stanowiskach kierowniczych w OpenAI — ludzie przychodzą i odchodzą. Wszyscy badacze udają się w podróż, głównie do Anthropic, co moim zdaniem jest naprawdę interesujące. Widać, że ta firma odczuwa presję i w jakiś sposób na nią reaguje.
Ale potem wracam myślami do zwolnienia Sama. To po prostu zapada mi w pamięć. Nie zapadło to w pamięć nikomu innemu, ale w piątek o 19:00 zadzwoniłem do źródła w zoo w Bronxie i usłyszałem, że ktoś powiedział, że będą próbować odzyskać Sama. A potem spędziliśmy weekend na szukaniu tej historii. A ja na to: „Jestem w zoo. Co chcesz, żebym tu zrobił?” Odpowiedź brzmiała: „Zostań przy telefonie”. Cóż, moja córka powiedziała: „Oddaj telefon”. I to właśnie zrobiłem.
Aby odzyskać Sama, trzeba było jeździć lub ginąć. Ta firma odpowiedziała: „Nie, nie pozwolimy, aby zarząd zwolnił Sama Altmana”. Inwestorzy, jak ich zacytowano w twoim artykule, „Poszliśmy na wojnę” – takie jest stanowisko Thrive Capital – „aby odzyskać Sama”. Microsoft poszedł na wojnę, aby odzyskać Sama. Jest później i teraz wszyscy mówią: "Idziemy na pierwszą ofertę publiczną. Dotarliśmy do mety. Odzyskaliśmy naszego faceta i on doprowadzi nas do mety. Obawiamy się, że jest kłamcą. "
Dlaczego więc toczyła się wojna, żeby go odzyskać? Bo nie wygląda na to, żeby cokolwiek się zmieniło. Mówisz o notatkach, które Ilya Sutskever i [dyrektor generalny Anthropic] Dario Amodei prowadzili, gdy byli rówieśnikami Sama Altmana. Najważniejszą troską Ilyi było to, że Sam jest kłamcą.
Nic z tego się nie zmieniło. Dlaczego więc sprowadzenie go z powrotem wymagało wojny? A teraz, gdy jesteśmy na mecie, wydaje się, że wszystkie obawy zostały ujawnione.
Cóż, przede wszystkim przepraszam twoją córkę, mojego partnera i wszystkich innych ludzi wokół dziennikarzy.
[Śmiech] To był niezły weekend dla wszystkich.
Tak, to rzeczywiście przejmuje kontrolę nad czyimś życiem, a ta historia zdecydowanie wpłynęła na moje w ostatnim czasie. Myślę, że faktycznie odnosi się to do tematu dziennikarstwa i dostępu do informacji. Inwestorzy, którzy wyruszyli na wojnę dla Sama, i wszyscy inni, odegrali rolę w zapewnieniu jego powrotu, a zarząd, który został specjalnie zaprojektowany, aby chronić misję organizacji non-profit, polegającą na przedkładaniu bezpieczeństwa nad rozwój i zwalnianiu dyrektora, jeśli nie można im w tym zaufać, odeszli. A to wszystko dlatego, że rzeczywiście istniały zachęty rynkowe, prawda?
Sam był w stanie przekonać ludzi: „No cóż, firma po prostu się rozpadnie”. Ale powodem, dla którego miał wsparcie, był brak informacji. W wielu przypadkach inwestorzy ci mówią teraz: „Patrzę wstecz i myślę, że powinienem mieć więcej obaw, gdybym w pełni wiedział, jakie były twierdzenia i jakie były obawy”.
Nie wszyscy;opinie są różne, a my przytaczamy szereg opinii, ale są też znaczące, które działały na podstawie bardzo częściowych informacji. Zarząd, który zwolnił Sama, według słów jednej z osób, która kiedyś zasiadała w zarządzie, był „bardzo JV” i mocno grzebał w piłce. Dokumentujemy także skargi leżące u ich podstaw, a ludzie mogą sami zdecydować, czy przerodziły się one w tak pilny problem, jaki ich zdaniem był, ale ten argument i te informacje nie zostały przedstawione.
Otrzymali, co niektórzy z nich obecnie uznają za złą poradę prawną. Aby to opisać, zapamiętasz ten cytat i prawdopodobnie wielu twoich słuchaczy i widzów zapamięta ten cytat jako brak szczerości. Do tego to się sprowadzało i wtedy w zasadzie nie odbierali telefonów.
Nie chcieli odbierać telefonów. Jestem pewien, że próbowałeś. Wszyscy, których znam, próbowali i doszło do tego, że jako dziennikarz nie powinieneś dawać rad swoim źródłom, ale ja pomyślałem: „To minie, jeśli nie zaczniesz się tłumaczyć”.
I to właśnie się stało. Zapomnij o dziennikarzach. Satya Nadella mówiła: „Co się do cholery stało? Nie mogę znaleźć nikogo, kto by mi to wyjaśnił”. I to jest główny sponsor finansowy firmy. A potem Satya dzwoni do [współzałożyciela LinkedIn] Reida Hoffmana, a Reid dzwoni i mówi: „Nie wiem, co się do cholery stało”.
Zrozumiałe jest, że znajdują się w tej pustce informacji i szukają tradycyjnych wskaźników innych niż sztuczna inteligencja, które uzasadniałyby tak pilny, nagły ostrzał. No dobrze, czy to były przestępstwa na tle seksualnym? Czy to była defraudacja? Cały subtelny, ale moim zdaniem znaczący argument, że ta technologia jest inna i że tego rodzaju ciągłe kumulowanie mniejszych zdrad może mieć znaczące stawki zarówno dla tego biznesu, jak i być może dla świata, został w dużej mierze utracony. Zatem zachęty kapitalistyczne zwyciężyły, ale także ludzie, którzy je stworzyli, odeszli i nie zawsze działali z pełną informacją.
Chcę przez chwilę zapytać o aspekt „co wszyscy myśleli”, ponieważ z pewnością widziałem tę wiadomość i powiedziałem: „Och, musiało się wydarzyć coś złego”. Zasłynąłeś z wielu reportaży #MeToo. Złamałeś historię Harveya Weinsteina.
Spędziłeś dużo czasu na raportowaniu twierdzeń, które moim zdaniem ostatecznie uznałeś za bezpodstawne: że Altman dokonał napaści na tle seksualnym na nieletnich lub zatrudnił prostytutki, a nawet zamordował sygnalistę OpenAI. To znaczy, że jesteś osobą, która może zgłosić takie rzeczy najbardziej rygorystycznie. Czy zdecydowałeś, że to nic nie dało?
No cóż, nie zajmuję się twierdzeniem, że coś poszło na marne. Mogę powiedzieć, że spędziłem miesiące przyglądając się tym twierdzeniom i nie znalazłem dla nich potwierdzenia. Uderzyło mnie, że ci goście, te firmy, które mają tak wielką władzę nad naszą przyszłością, naprawdę poświęcają nieproporcjonalnie dużo czasu i zasobów na dziecinną walkę z błotem.
Jeden z dyrektorów określił to jako „szekspirowskie”. Ilość pieniędzy prywatnych detektywów i gromadzonych akt opozycji jest nieubłagana. A niefortunne jest to, że tego rodzaju sprośne rzeczy, które są powtarzane przez konkurentów Sama, są po prostu zakładane jako fakt, prawda? Krążą zarzuty, że ściga nieletnich chłopców i można to usłyszeć na wielu przyjęciach koktajlowych w Dolinie Krzemowej. Słyszałem to powtarzane podczas konferencji przez wiarygodnych, prominentnych dyrektorów: „Wszyscy wiedzą, że to fakt”.
Smutne jest to, że mówię o tym, skąd to się bierze, o różnych wektorach, którymi jest przenoszony. Elon Musk i jego współpracownicy najwyraźniej forsują naprawdę hardkorowe dossier, które w niczym nie przynoszą rezultatu. Są mgliste, gdy faktycznie zaczniesz przyglądać się leżącym u ich podstaw twierdzeniom. Smutne jest to, że naprawdę przyćmiewa to krytykę opartą na dowodach, która moim zdaniem naprawdę zasługuje na pilny nadzór i rozważenie.
Innym tematem, który naprawdę pojawia się w tej historii, jest niemal poczucie strachu, że Sam ma tak wielu przyjaciół — zainwestował w tak wiele firm, począwszy od swojej poprzedniej roli dyrektora generalnego Y Combinator, aż po swoje inwestycje osobiste, z których niektóre są w bezpośrednim konflikcie z jego rolą dyrektora generalnego OpenAI — a wokół niego panuje cisza.
Uderzyło mnie to szczególnie, gdy czytałam jedną linijkę. Opisujesz notatki Ilyi Sutskevera, które właśnie pojawiły się w Dolinie Krzemowej. Wszyscynazywa je notatkami Ilyi. Ale wokół tego jest nawet cisza. Są przekazywane, ale nie są omawiane. Jak myślisz, skąd to się bierze? Czy to strach? Czy jest to chęć zdobycia inwestycji aniołów? Skąd to się bierze?
Myślę, że to duże tchórzostwo, będę szczery. Po doniesieniu o historiach związanych z bezpieczeństwem narodowym, których źródłami są sygnaliści, którzy mogą stracić wszystko i stanąć w obliczu oskarżenia, nadal postępują właściwie i rozmawiają o sprawach, aby zwiększyć odpowiedzialność. Pracowałem nad historiami związanymi z przestępstwami na tle seksualnym, o których wspomniałeś, a których źródła doznały głębokiej traumy i obawiają się bardzo osobistego rodzaju zemsty.
W wielu przypadkach w tym rytmie masz do czynienia z ludźmi o własnym profilu i mocy. Albo sami są sławnymi ludźmi, albo są otoczeni przez sławnych ludzi. Mają solidne życie biznesowe. Moim zdaniem rozmowa na ten temat jest dla nich bardzo mało eksponowana. I na szczęście igła się porusza, o czym mówiliśmy wcześniej, a teraz ludzie mówią więcej.
Ale przez tak długi czas ludzie po prostu milczeli, ponieważ uważam, że kultura Doliny Krzemowej jest bezlitośnie egoistyczna i bezwzględnie zorientowana na biznes i rozwój. Myślę więc, że dotyka to nawet niektórych osób zaangażowanych w zwolnienie Sama, jak można było zobaczyć kilka dni później, tak, jednym z czynników, który doprowadził do jego powrotu i zwolnienia starych członków zarządu, było to, że zjednał sobie inwestorów, którzy nie byli zdezorientowani co do jego sprawy.
Ale inną sytuacją jest to, że wielu innych ludzi w okolicy, którzy mieli obawy i pilnie je wyrazili, po prostu zwinęło się jak serwetki i zmieniło melodię w chwili, gdy zobaczyły, że wiatr wieje w drugą stronę, i chcieli wsiąść do pociągu zysku.
Szczerze mówiąc, z mojego punktu widzenia jako reportera jest to dość mroczne.
Niektóre z tych osób to Mira Murati, która, jak sądzę, przez 20 minut była nowym dyrektorem generalnym OpenAI. Następnie została zastąpiona. To była bardzo skomplikowana dynamika i oczywiście Sam wrócił. Drugą osobą jest Ilja Sutskever, który był jednym z głosujących za usunięciem Sama, po czym zmienił zdanie, a przynajmniej powiedział, że zmienił zdanie, a następnie odszedł, aby założyć własną firmę. Czy wiesz, co skłoniło go do zmiany decyzji? Czy to były tylko pieniądze?
Cóż, żeby było jasne, nie wyróżniam tych dwóch. W strzelaninę brali udział inni członkowie zarządu, którzy po tym wydarzeniu również zamilkli. Myślę, że to szerszy problem zbiorowy. W niektórych przypadkach są to ludzie, którzy mieli dość moralności, aby wywołać alarm i podjąć radykalne działania, co należy pochwalić. W ten sposób zapewniasz odpowiedzialność. Mogłoby to pomóc wielu osobom dotkniętym tą technologią. Mogłoby to pomóc branży w większym skupieniu się na bezpieczeństwie.
Jednak mając do czynienia z sygnalistami i osobami, które często starają się nakłonić do pociągnięcia do odpowiedzialności, widać również, że trzeba wytrwać i trwać przy swoich przekonaniach. A ta branża jest naprawdę pełna ludzi, którzy po prostu nie trzymają się swoich przekonań.
Nawet jeśli myślą, że budują cyfrowego Boga, który w jakiś sposób albo wyeliminuje całą pracę, albo stworzy jej więcej, albo coś się wydarzy.
Cóż, w tym rzecz. Zatem kultura nie trzymania się swoich przekonań i odsuwania na dalszy plan wszelkich wątpliwości etycznych w momencie, gdy pojawia się gorączka lub cokolwiek, co mogłoby zagrozić twojej pozycji w biznesie, jest być może w pewnym stopniu w porządku dla firm prowadzących działalność na dotychczasowym poziomie i tworzących wszelkiego rodzaju widżety.
Ale to także ci sami ludzie, którzy mówią: „To może dosłownie zabić nas wszystkich”. I znowu, nie musisz popadać w skrajność Terminator Skynet. Istnieje szereg zagrożeń, które już się materializują. To prawda i słusznie ostrzegają, ale ktoś inny musiałby psychologować, jak te dwie rzeczy mogą żyć u tych samych ludzi, którzy pilnie ostrzegają, być może wtrącają się i próbują coś zrobić, a potem po prostu się poddają i milkną.
Właśnie dlatego tego rodzaju przypadki mogą być trzymane z daleka od pisania i zamiatane pod dywan, a nikt nie mówi o tym otwarcie przez lata po fakcie.
Naturalną, odpowiedzialną stroną nie byliby tutaj dyrektorzy generalni tych firm; byłyby to rządy. Może w Stanach Zjednoczonychto rządy stanowe, może to rząd federalny.
Z pewnością wszystkie te firmy chcą być globalne. Jest tu wiele implikacji globalnych. Obserwowałem, jak OpenAI, Google i Anthropic namawiają administrację Bidena do wydania rozporządzenia wykonawczego dotyczącego sztucznej inteligencji. W końcu był całkiem bezzębny. Napisano tylko, że muszą porozmawiać o możliwościach swoich modeli i opublikować testy bezpieczeństwa. A potem wszyscy poparli Trumpa, a Trump wszedł, wymazał to wszystko i powiedział: "Musimy być konkurencyjni. To wolność dla wszystkich. Idźcie na to".
Jednocześnie wszyscy próbują zebrać fundusze od krajów Bliskiego Wschodu, które mają dużo pieniędzy z ropy i chcą zmienić swoją gospodarkę. To są politycy. Mam wrażenie, że politycy zdecydowanie powinni zrozumieć, że ktoś mówi to z ich ust po obu stronach, i nie będą zbytnio zdenerwowani, jeśli ktoś w końcu będzie rozczarowany, ale politycy też dają się nabrać. Jak myślisz, dlaczego tak jest?
Myślę, że właśnie dlatego ten utwór jest dla mnie tak ważny i dlatego warto było poświęcić mu tyle czasu i szczegółów. Żyjemy w środowisku, w którym systemy, które, jak pan twierdzi, powinny zapewniać nadzór, są po prostu puste. To Ameryka po Zjednoczeniu Obywateli, gdzie przepływ pieniędzy jest tak nieskrępowany, i jest to szczególna koncentracja tego problemu wokół sztucznej inteligencji, gdzie istnieją PAC, które rozmnażają się i zalewają pieniądze, aby znieść znaczące regulacje zarówno na poziomie stanowym, jak i federalnym.
Masz [współzałożyciela OpenAI] Grega Brockmana, zastępcę Sama, który bezpośrednio przyczynił się do kilku z nich. Prowadzi to do sytuacji, w której rzeczywiście dochodzi do schwytania ustawodawców i potencjalnych organów regulacyjnych, z której trudno się wydostać. Smutne jest to, że moim zdaniem istnieją proste posunięcia polityczne – niektóre z nich są obecnie testowane w innych częściach świata – które pomogłyby w rozwiązaniu niektórych problemów z odpowiedzialnością.
Można byłoby wprowadzić bardziej obowiązkowe testy bezpieczeństwa przed wdrożeniem, co już ma miejsce w Europie w przypadku pionierskich modeli. Można wprowadzić bardziej rygorystyczne wymogi w zakresie pisemnych rejestrów publicznych w przypadku rodzajów dochodzeń wewnętrznych, w przypadku których w tej sprawie nie pisano o żadnych sprawach. Można byłoby mieć solidniejszy zestaw mechanizmów przeglądu bezpieczeństwa narodowego dla tego rodzaju ambicji infrastrukturalnych na Bliskim Wschodzie, na które nalegał Sam Altman.
Jak mówisz, robił tę przynętę i zamieniał się z administracją Bidena, mówiąc: „Reguluj nas, reguluj nas” i pomagał im w sporządzeniu rozporządzenia wykonawczego, a potem, gdy Trump wejdzie do pracy, tak naprawdę już w pierwszych dniach, po prostu nie stosując żadnych ograniczeń: „Przyspieszmy i zbudujmy ogromny kampus centrum danych w Abu Zabi”. Mogłeś, jest to naprawdę proste, jak ochrona sygnalistów. Nie ma ustawy federalnej chroniącej pracowników firmy AI, którzy ujawniają tego rodzaju obawy dotyczące bezpieczeństwa poruszane w tym artykule.
Mamy przypadki, w których Jan Leike, starszy specjalista ds. bezpieczeństwa w OpenAI, kierował superukładaniem w firmie. Pisze do zarządu, głównie dla sygnalistów, że firma schodzi z torów w swojej misji bezpieczeństwa. To właśnie tacy ludzie powinni mieć organ nadzorczy, do którego mogą się zwrócić, i powinni mieć wyraźną ochronę ustawową, taką, jaką widzimy w innych sektorach. Łatwo jest odtworzyć reżim w stylu Sarbanesa-Oxleya.
Myślę, że pomimo tego, jak poważny jest problem przejęcia przez Dolinę Krzemową kontroli nad wszystkimi dźwigniami władzy i pomimo tego, jak wydrążone są niektóre z tych instytucji, które mogłyby zapewniać nadzór i poręcze, nadal wierzę w podstawową matematykę demokracji i zainteresowanych polityków. Coraz więcej danych z sondaży wskazuje, że większość Amerykanów uważa, że obawy, pytania lub ryzyko związane ze sztuczną inteligencją przewyższają obecnie korzyści.
Myślę więc, że zalew pieniędzy do polityki ze strony sztucznej inteligencji leży w naszej mocy, aby uczynić to źródłem znaku zapytania w odniesieniu do polityków. Kiedy Amerykanie idą głosować, powinni sprawdzić, czy ludzie, na których głosują, zwłaszcza jeśli są bezkrytyczni i sprzeciwiają się regulacjom, biorąc pod uwagę wszystkie te obawy, są finansowani przez specjalne interesy wielkich technologicznych osób. Myślę więc, że jeśli ludzie potrafią czytać takie artykuły, słuchać takich podcastów i przejmować się nimi na tyle, aby krytycznie myślećswoich decyzji jako wyborcy, istnieje realna szansa na utworzenie w Waszyngtonie okręgu wyborczego złożonego z przedstawicieli, którzy mają oko na sytuację i wymuszają nadzór.
To może być jedna z najbardziej optymistycznych rzeczy, jakie kiedykolwiek słyszałem na temat obecnej branży sztucznej inteligencji. Doceniam to. Mam obsesję na punkcie sondaży, o których mówisz. Jest tego teraz dużo. Wszystko jest dość spójne i wygląda na to, że im bardziej młodzi ludzie mają kontakt ze sztuczną inteligencją, tym bardziej są wobec niej nieufni i wściekli. Na tym polega wartość wszystkich sondaży. Patrzę na to i myślę, że cóż, tak, mądrzy politycy po prostu by się temu sprzeciwili. Powiedzieliby po prostu: „Będziemy pociągać do odpowiedzialności wielkie technologie”.
Potem myślę o ostatnich 20 latach, kiedy polityk mówił, że pociągnie do odpowiedzialności wielką technologię, i nie mogę znaleźć choćby jednego momentu, w którym wielka technologia zostałaby pociągnięta do odpowiedzialności. Jedyną rzeczą, która sprawia, że myślę, że mogłoby być inaczej, jest to, że faktycznie trzeba zbudować centra danych i można głosować przeciwko temu, można składać petycje przeciwko temu i można przeciwko temu protestować.
Myślę, że jest pewien polityk, któremu właśnie ostrzelono dom, ponieważ głosował za centrum danych. Napięcie sięga, powiedziałbym, szczytu gorączki. Opisałeś wyspiarski charakter Doliny Krzemowej. To zamknięty ekosystem. Mam wrażenie, że myślą, że mogą rządzić światem. Wkładają mnóstwo pieniędzy w politykę i zderzają się z rzeczywistością, że ludzie nie kochają tych produktów, co nie zapewnia im dużej osłony. Im częściej korzystają z tych produktów, tym bardziej są zdenerwowani, a politycy zaczynają dostrzegać realne konsekwencje wspierania branży technologicznej zamiast ludzi, których reprezentują.
Rozmawiałeś z wieloma osobami. Czy sądzisz, że branża technologiczna ma szansę wyciągnąć wnioski z lekcji, która przed nią stoi?
Mówisz, że wydaje im się, że mogą rządzić światem bez odpowiedzialności. Nie sądzę nawet, że potrzebny jest kwalifikator „w dotyku”. To znaczy, patrząc na język, którego używa Peter Thiel, jest on wyraźny. Oczywiście to skrajny przykład. Sam Altman, choć w pewnym stopniu jest blisko ideologii Thiela i jest przez nią poinformowany, to zupełnie inny rodzaj osoby, który może brzmieć inaczej i do pewnego stopnia bardziej wyważony.
Myślę jednak, że szersza ideologia, którą reprezentuje Thiel, która w zasadzie brzmi: Skończyliśmy z demokracją, już jej nie potrzebujemy. Mamy tak dużo, że chcemy po prostu zbudować własne małe bunkry. Nie mamy już do czynienia z rodziną Carnegie ani Rockefellerami, gdzie są złymi ludźmi, ale czują, że muszą uczestniczyć w umowie społecznej i budować rzeczy dla ludzi. Mamy do czynienia z prawdziwym nihilizmem.
I naprawdę sądzę, że w najnowszej historii Ameryki nakręciła się wzajemnie napędzająca się spirala, w której potentaci i prywatne firmy zdobywają władzę superrządową, podczas gdy instytucje demokratyczne, które mogłyby pociągnąć ich do odpowiedzialności, zostają wydrążone. Nie napawam się optymizmem, jeśli chodzi o myśl, że ci goście mogą pewnego dnia obudzić się i pomyśleć: „Hę, może faktycznie powinniśmy uczestniczyć w społeczeństwie i pomagać budować rzeczy dla ludzi”.
Mam na myśli mikrokosmiczny przykład The Giving Pledge, gdzie był moment, w którym wydawało się, że jest to działalność charytatywna, ale ten moment już minął, a nawet został wyśmiany. To jest problem, szerszy problem braku odpowiedzialności, który moim zdaniem można rozwiązać jedynie zewnętrznie. Musi to być mobilizacja wyborców i wskrzeszenie władzy nadzoru rządowego. I masz całkowitą rację, mówiąc, że główny wektor, dzięki któremu ludzie mogliby to osiągnąć, ma charakter lokalny. Ma to związek z miejscem budowy infrastruktury.
Wspomniałeś o gorącym napięciu wokół tej sprawy, które prowadzi do przemocy i gróźb, i oczywiście nikt nie powinien stosować przemocy ani grozić. Nie jestem tu także po to, aby wydawać konkretne zalecenia dotyczące polityki, a jedynie przedstawić niektóre kroki polityczne, które wydają się podstawowe i sprawdzają się gdzie indziej na świecie, prawda? Lub ci, którzy pracowali w innych sektorach. Nie jestem tu po to, żeby mówić, które z nich należy wykonać i w jaki sposób.
Uważam, że coś musi się wydarzyć i to musi nastąpić na zewnątrz, a nie tylko poprzez zaufanie tym firmom. Ponieważ racjateraz mamy sytuację, w której przedsiębiorstwa, które opracowują technologię i są najlepiej wyposażone, aby zrozumieć ryzyko i które w rzeczywistości ostrzegają nas o ryzyku, również mają motywację do szybkiego działania i ignorowania tego ryzyka. I po prostu nie masz nic, co mogłoby to zrównoważyć. Zatem niezależnie od szczegółów reform, coś musi się z tym wiązać. I nadal wracam do optymizmu, że ludzie nadal się liczą.
Generalnie kupuję Twoją argumentację. Pozwolę sobie przedstawić jeden drobny kontrargument, który, jak sądzę, jestem w stanie sformułować. Inną rzeczą, która może się zdarzyć poza urną wyborczą, jest pęknięcie bańki, prawda? Że nie wszystkie te firmy dotrą do mety i że nie ma rynku produktów odpowiednich dla konsumenckich aplikacji AI. Powtórzę: jeszcze tego nie do końca widzę, ale jestem recenzentem technologii konsumenckich i może po prostu mam wyższe standardy niż wszyscy inni.
W świecie biznesu istnieje odpowiedni rynek produktów, prawda? Posiadanie grupy agentów AI piszących mnóstwo oprogramowania wydaje się być prawdziwym rynkiem dla tych narzędzi. Można przeczytać argumenty tych firm, mówiące: "Rozwiązaliśmy kodowanie, a to oznacza, że możemy rozwiązać wszystko. Jeśli potrafimy stworzyć oprogramowanie, możemy rozwiązać każdy problem. "
Myślę, że istnieją rzeczywiste ograniczenia możliwości oprogramowania. To wspaniałe w świecie biznesu. Oprogramowanie nie jest w stanie rozwiązać każdego problemu w rzeczywistości, ale musi się tam znaleźć. Muszą dokończyć robotę, a może nie każdemu udaje się dotrzeć do mety. I następuje krach, i ta bańka pęka, i może OpenAI, Anthropic lub xAI, jedna z tych firm upadnie, a cała inwestycja przepadnie.
Myślisz, że to będzie miało na to wpływ? Właściwie, pozwólcie, że najpierw zadam pierwsze pytanie. OpenAI jest tuż przed IPO. Istnieje wiele wątpliwości co do Sama jako lidera. Myślicie, że uda im się dotrzeć do mety?
Nie zamierzam prognozować, ale myślę, że poruszasz ważną kwestię, a mianowicie, że zachęty rynkowe mają znaczenie wewnętrzne w Dolinie Krzemowej, a niepewność dynamiki obecnej bańki może przerwać – zdaniem krytyków – potencjalnie wyścig w dół w zakresie bezpieczeństwa.
Dodałbym również, że jeśli spojrzeć na precedensy historyczne, w których istnieje podobnie i pozornie nieprzenikniony zestaw zachęt rynkowych i potencjalnie szkodliwych skutków dla społeczeństwa, mamy do czynienia z sporami sądowymi dotyczącymi wpływu. I postrzegasz to ostatnio jako obszar niepokojący. W tym tygodniu Sam Altman wypowiada się na temat przepisów, które chronią firmy zajmujące się sztuczną inteligencją przed niektórymi rodzajami odpowiedzialności, na jaką narażona jest OpenAI na przykład w procesach o śmierć bezprawną. Oczywiście istnieje potrzeba posiadania takiej osłony przed odpowiedzialnością.
Myślę, że sądy nadal mogą stanowić znaczący mechanizm i naprawdę ciekawie będzie zobaczyć, jak ułożą się te sprawy. Widziałeś już na przykład pozew zbiorowy, którego jestem członkiem ja i wielu, wielu innych znanych mi autorów, przeciwko firmie Anthropic za korzystanie z książek objętych prawami autorskimi. Jeśli istnieją bystre prawnicze umysły i powodowie, którym to zależy, jak widzieliśmy to w przeszłości w sprawach dotyczących dużych przedsiębiorstw tytoniowych i dużych przedsiębiorstw energetycznych, można również uzyskać pewne poręcze i zachęty, aby zwolnić, zachować ostrożność lub chronić ludzi w ten sposób.
Można odnieść wrażenie, że cała struktura kosztów branży sztucznej inteligencji opiera się na bardzo, bardzo charytatywnej interpretacji dozwolonego użytku. Nie pojawia się wystarczająco. Struktura kosztów tych firm może wymknąć się spod kontroli, jeśli będą musiały płacić Tobie i wszystkim innym, których pracę wykonali, ale myślenie o tym jest niewygodne, więc po prostu o tym nie myślimy. Poza tym wszystkie te produkty przynoszą obecnie straty. Podobnie jak dzisiaj, wszyscy są na straconej pozycji. Marnują więcej pieniędzy, niż są w stanie zarobić. W pewnym momencie muszą przełączyć przełącznik.
Sam jest biznesmenem. Jak już wielokrotnie wspominałeś, nie jest on technologiem. Jest biznesmenem. Czy myślisz, że jest gotowy na przełączenie i powiedzenie: „Zarobimy dolara?” Ponieważ kiedy pytam: „Czy myślisz, że OpenAI sobie poradzi?” Wtedy muszą zarobić dolara. Jak dotąd Sam zarobił wszystkie swoje dolary, prosząc innych ludzi o pieniądze, zamiast pozwalać, aby jego firmy zarabiały.
Cóż, to ważne pytanie dla Doliny Krzemowej, dla inwestorów i opinii publicznej.Widzisz pewne oświadczenia i ruchy z OpenAI, które wydają się świadczyć o pewnego rodzaju panice w tej sprawie. Zamknięcie Sory, zamknięcie niektórych projektów pomocniczych, próba skupienia się na głównym produkcie. Ale z drugiej strony wciąż widzisz mnóstwo pełzania misji, prawda? Nawet drobnym przykładem – oczywiście nie jest to kluczowy element ich działalności – jest przejęcie TBPN.
Swoją drogą, gdy dobiegaliśmy już do mety i sprawdzania faktów, firma stojąca przed tego rodzaju dziennikarską kontrolą zyskuje platformę, na której może mieć bardziej bezpośrednią kontrolę nad rozmową. Myślę, że wielu inwestorów jest zaniepokojonych, jak wynika z rozmów, które przeprowadziłem, że problem obiecywania wszystkiego wszystkim ludziom rozciąga się również na brak koncentracji na podstawowym modelu biznesowym. I mam na myśli, że jesteś bliższy prognozowania i obserwowania rynku niż ja. Pozostawiam Ciebie i słuchaczy do oceny, czy ich zdaniem OpenAI może przełączyć się na inny sposób.
Cóż, zadałem to pytanie, ponieważ w tym artykule znajduje się cytat wysokiego szczebla dyrektora Microsoftu, który brzmi: „Dziedzictwo Sama może bardziej przypominać Berniego Madoffa lub Sama Bankmana-Frieda” niż Steve’a Jobsa. To niezłe porównanie. Co sądzisz o tym porównaniu?
Myślę, że to parafraza. Część dotycząca Steve'a Jobsa nie była częścią cytatu. Ale jest w tym ciekawy rodzaj trzeźwości, ponieważ jest sformułowany w ten sposób: „Myślę, że istnieje niewielka, ale realna szansa, że skończy jako oszust z SBF lub na poziomie Madoffa”. Oznacza to, moim zdaniem, nie to, że Sam jest oskarżany o tego rodzaju oszustwa lub przestępstwa, ale że stopień udawania i oszustwa ze strony Sama może mieć szansę zostać ostatecznie zapamiętany na taką skalę.
Tak, myślę, że najbardziej uderzające w tym cytacie jest to, że, szczerze mówiąc, dzwonisz do Microsoftu i nie słyszysz: "To szaleństwo. Nigdy czegoś takiego nie słyszeliśmy". Często słyszysz: „Tak, wiele osób tutaj tak myśli”, co jest niezwykłe. I myślę, że to dotyczy tych ważnych pytań biznesowych.
Jeden z inwestorów powiedział mi na przykład, w świetle sposobu, w jaki ta cecha utrzymywała się przez lata po zwolnieniu” – i to również uznałem za interesującą, trzeźwą myśl – że niekoniecznie Sam powinien znajdować się na absolutnym dole listy, jak najniższy z najniższych pod względem osób, które absolutnie nie powinny budować tej technologii, jeśli jest ona warta. Jest kilka osób, które stwierdziły, że Elon Musk jest tą osobą. Ale ta cecha stawia go może na samym dole listy osób, które powinien zbudować AGI, a także pod kilkoma innymi czołowymi postaciami w tej dziedzinie.
Pomyślałem więc, że to interesująca ocena i myślę, że taki sposób myślenia można uzyskać od prawdziwych pragmatystów, którzy być może nie przejmują się tak bardzo kwestiami bezpieczeństwa. Są po prostu nastawieni na rozwój i uważają, że OpenAI ma teraz problem z Samem Altmanem.
Artykuł Microsoftu jest naprawdę interesujący. Ta firma myślała, że jest na szczycie świata. Że dokonali tej inwestycji i zamierzają przeskoczyć wszystkich, a zwłaszcza i co najważniejsze, Google, i wrócić do łask konsumentów. Poziom, do jakiego czują się spaleni tą przygodą – to bardzo trzeźwo zarządzana firma – nie może być przeceniony.
Wspomniałeś o postaciach i cechach osobowości. Na tym chcę zakończyć pytaniem naszych słuchaczy. W naszym innym programie, The Vergecast, powiedziałem, że będę z tobą rozmawiać, i powiedziałem: „Jeśli masz pytania do Ronana na temat tej historii, daj mi znać”. Mamy więc tutaj jeden, który moim zdaniem dobrze pasuje do tego, co opisujesz. Po prostu ci to przeczytam:
„Czym uzasadnienia złego zachowania, bezwzględnych działań Altmana i innych liderów AI różnią się od uzasadnień, które Ronan słyszał od innych znanych przywódców politycznych i mediów? Czy oni wszyscy nie usprawiedliwiają swoich działań stwierdzeniem, że w ten sposób zmienia się świat? Jeśli ja tego nie zrobię, zrobi to ktoś inny?”
Tak, dużo się tego dzieje. Powiedziałbym, że cechą charakterystyczną sztucznej inteligencji jest to, że tak wyjątkowo wysoka stawka egzystencjalna oznacza, że oba stwierdzenia dotyczące ryzyka są ekstremalne, prawda? Masz Sama Altmanamówiąc: „To może zgasić światło dla nas wszystkich”. A także, krytycy mogą powiedzieć, że mania, o której mówi pytający, jest skrajna, prawda?
Według protokołu Sam oskarżył Elona o to, że być może chce ocalić ludzkość, ale tylko wtedy, gdy to będzie on. Ten rodzaj komponentu ego, który wynika z chęci zwycięstwa, czyli tego, czego Sam używa przez cały czas, i który należy do podręczników historii, może wszystko zmienić. Zatem nawet poza nastawieniem „trzeba rozbić kilka jajek” charakterystycznym dla większości przedsiębiorstw z Doliny Krzemowej, zdaniem niektórych osób zajmujących się sztuczną inteligencją istnieje, jak sądzę, całkowita racjonalizacja wszelkich skutków ubocznych.
I zapomnij o rozbijaniu jajek. Myślę/myślę, że wielu badaczy zajmujących się bezpieczeństwem powiedziałoby, że potencjalnie ryzykuje zniszczenie kraju, złamanie świata i złamanie milionów ludzi, których praca i bezpieczeństwo wiszą na włosku – to jest w tym wyjątkowe. Na tym kończę, zastanawiając się nad tym zbiorem reportaży, naprawdę wierząc, że chodzi tu o coś więcej niż o Sama Altmana. Chodzi o nieograniczony przemysł i narastający problem polegający na tym, że Ameryka nie jest w stanie go ograniczyć.
Tak. Cóż, mieliśmy w sobie trochę optymizmu, ale myślę, że to dobre miejsce, aby go zostawić.
[Śmiech] Zakończ w spokojnym rytmie.
Oczywiście. To naprawdę każda wspaniała historia. Zbliża się proces Muska-Altmana. Myślę, że dowiemy się tutaj dużo więcej. Podejrzewam, że będę chciał z tobą jeszcze raz porozmawiać. Ronan Farrow, dziękuję bardzo za bycie w Decoderze.
Dziękuję.
Masz pytania lub komentarze na temat tego odcinka? Napisz do nas na adres [email protected]. Naprawdę czytamy każdy e-mail!