Odsuwając przyszłą apokalipsę. Groźny trend coraz bardziej obecny

Filozofia wspierana przez reprezentantów świata IT m.in. z Doliny Krzemowej napędza program badań nad AI, tworząc szkodliwy system w imię ratowania ludzkości. Okazuje się, że trwa wyścig prowadzący do rozprzestrzeniania szkodliwych systemów, jak na ironię, w imię bezpieczeństwa.

Efektywny altruizm (EA) jest obecnie analizowany ze względu na jego związek ze skandalem kryptowalutowym Sama Bankmana-Frieda, ale mniej pisze się o tym, jak ideologia ta napędza agendę badawczą w dziedzinie sztucznej inteligencji (AI). Okazuje się, że trwa wyścig prowadzący do rozprzestrzeniania szkodliwych systemów, jak na ironię, w imię bezpieczeństwa.

Zabiją nas roboty?

Center for Effective Altruism definiuje EA jako projekt intelektualny, wykorzystujący dowody i rozum, aby dowiedzieć się, jak przynieść innym jak najwięcej korzyści. A "dowody i rozum" doprowadziły do wniosku, że najbardziej palącym problemem na świecie jest zapobieżenie apokalipsie, w której sztucznie stworzone przez nas istoty zniszczą ludzkość. Pamiętamy zapewne film "Terminator" z Arnoldem Schwarzeneggerem. Ludzie związani z EA wierzą w jego przesłanie.

Reklama

Klasa miliarderów finansuje inicjatywy próbujące powstrzymać apokalipsę. Według EA stworzenie inteligentnych sztucznych istot jest prawdopodobnie nieuniknione, więc celem jest uczynienie ich przyjaznymi dla ludzkości. Przypomina to tworzenie "życzliwego boga, zamiast diabła".

Kto decyduje o naszej przyszłości?

Niektórzy z miliarderów, którzy przeznaczyli znaczne fundusze na ten cel, to: Elon Musk, Vitalik Buterin, Ben Delo, Jaan Tallinn, Peter Thiel, Dustin Moskovitz i Sam Bankman-Fried. Ten ostatni był jednym z największych fundatorów EA do czasu niedawnego bankructwa jego platformy kryptowalutowej FTX. 

Jest to kolejny przykład na to, że nasza technologiczna przyszłość nie jest liniowym marszem w kierunku postępu, ale jest określana przez tych, którzy mają pieniądze i wpływy, aby ją kontrolować.

Jeden z najbardziej godnych uwagi przykładów wpływu EA pochodzi z OpenAI, założonego w 2015 roku przez elity z Doliny Krzemowej, do których należą Elon Musk i Peter Thiel. Biznesmeni zaangażowali 1 miliard dolarów z misją "zapewnienia, że sztuczna inteligencja przynosi korzyści całej ludzkości." Obaj miliarderzy mocno zainwestowali również w inicjatywy mające na celu zbudowanie przyjaznych nam AI, takie jak DeepMind i MIRI.

Groźne modele językowe

Pięć lat po założeniu Open AI wydało duży model językowy (LLM) o nazwie GPT-3. LLM to modele trenowane na ogromnych ilościach danych tekstowych, których celem jest przewidywanie prawdopodobnych sekwencji słów. To rozpoczęło wyścig do budowania coraz większych modeli językowych, a wiele z niebezpieczeństw, takich jak masowe generowanie nienawistnych tekstów i dezinformacji, nadal się rozwija. 

Nie tak dawno, Meta opublikowała swój LLM Galactica, który ma streszczać prace akademickie, rozwiązywać problemy matematyczne, generować artykuły w Wikipedii, pisać kod naukowy, opisywać cząsteczki i białka i wiele, wiele więcej. Zaledwie trzy dni po uruchomieniu, publiczne demo zostało zdjęte po tym, jak badacze wygenerowali prace badawcze i wpisy na wiele różnych tematów, od korzyści z popełnienia samobójstwa, jedzenia pokruszonego szkła i antysemityzmu, do tego, dlaczego homoseksualiści są źli.

Ten wyścig nie zatrzymał się na LLMach, ale przeniósł się na modele tekst-obraz, takie jak DALL-E firmy OpenAI i Stable Diffusion firmy StabilityAI, które przyjmują tekst jako dane wejściowe i wyprowadzają wygenerowane obrazy na podstawie tego tekstu. 

Niebezpieczeństwa związane z tymi modelami obejmują tworzenie pornografii dziecięcej, utrwalanie uprzedzeń, wzmacnianie stereotypów i masowe rozpowszechnianie dezinformacji, o czym donosiło wielu badaczy i dziennikarzy.

Błąd tkwi w założeniach?

Ponieważ EA zakładają i finansują instytuty, firmy, ośrodki analityczne i grupy badawcze na elitarnych uniwersytetach możemy być świadkami dalszego rozprzestrzeniania się szkodliwych modeli. A wpływy zaczynają się wcześnie: efektywni altruiści zapewniają granty na budowanie społeczności, aby rekrutować na głównych kampusach uniwersyteckich, a oddziały EA opracowują programy nauczania i prowadzą zajęcia na temat bezpieczeństwa AI na takich uczelniach jak m.in. Stanford.

Zaledwie w zeszłym roku Anthropic, który jest opisywany jako "firma zajmująca się bezpieczeństwem i badaniami nad AI" i został założony przez byłych wiceprezesów OpenAI ds. badań i bezpieczeństwa, zebrał 704 miliony dolarów, a większość jego funduszy pochodzi od miliarderów EA, takich jak Talin, Moskovitz i Bankman-Fried. 

Priorytety badawcze podążają za finansowaniem, a biorąc pod uwagę duże sumy pieniędzy wpychane w AI w celu wsparcia ideologii, nie jest zaskakujące, że dziedzina ta podąża w kierunku obiecującym "niewyobrażalnie wspaniałą przyszłość" za rogiem, podczas gdy rozprzestrzenia produkty krzywdzące zmarginalizowane grupy. 

Krzysztof Maciejewski

INTERIA.PL
Dowiedz się więcej na temat: Sztuczna inteligencja | Sam Bankman Fried | Elon Musk
Reklama
Reklama
Reklama
Reklama
Finanse / Giełda / Podatki
Bądź na bieżąco!
Odblokuj reklamy i zyskaj nieograniczony dostęp do wszystkich treści w naszym serwisie.
Dzięki wyświetlanym reklamom korzystasz z naszego serwisu całkowicie bezpłatnie, a my możemy spełniać Twoje oczekiwania rozwijając się i poprawiając jakość naszych usług.
Odblokuj biznes.interia.pl lub zobacz instrukcję »
Nie, dziękuję. Wchodzę na Interię »