Dlaczego chatboty kłamią? Etyka sztucznej inteligencji przegrywa z wielkimi pieniędzmi
Naukowcy od lat ostrzegają, że algorytmy generujące teksty mogą być stronnicze i nieprawdziwe. Giganci technologiczni i tak wprowadzają je do swoich produktów. Wyścig już się rozpoczął.
W pierwszych tygodniach po premierze chatbota ChatGPT firmy OpenAI, szef działu zajmującego się sztuczną inteligencją w Google, Jeff Dean, wyraził obawę, że zbyt szybkie wdrożenie wyszukiwarki konwersacyjnej może stanowić zagrożenie dla reputacji firmy Alphabet. Tymczasem kilkanaście dni temu Google przedstawił światu własnego chatbota, Barda, który już pierwszego dnia po upublicznieniu popełnił poważny błąd rzeczowy dotyczący kosmicznego teleskopu Webba.
Również w zeszłym tygodniu Microsoft zintegrował technologię opartą na ChatGPT z wynikami wyszukiwania Bing. Sarah Bird, szefowa odpowiedzialnego za to działu AI w Microsofcie, przyznała, że bot może nadal tworzyć kompletnie nieprawdziwe informacje, ale technologia została uczyniona bardziej niezawodną. W kolejnych dniach Bing stwierdził, że bieganie zostało wynalezione w 1700 roku i próbował przekonać jednego z użytkowników, że nadal mamy 2022 rok.
Alex Hanna, były członek zespołu etycznego AI w Google, widzi w tych wydarzeniach znajomy schemat. - Finansowe bodźce do szybkiej komercjalizacji AI przeważają nad obawami o bezpieczeństwo czy etykę. Nie można zbyt wiele zarobić na odpowiedzialności, za to pieniędzy w przereklamowanej technologii jest mnóstwo - powiedział Hanna, obecnie szef badań w organizacji non-profit Distributed AI Research.
A przecież wyścig do tworzenia dużych modeli językowych opartych o sztuczną inteligencję, jak i ruch, aby etyka stała się kluczową częścią procesu projektowania AI, rozpoczęły się mniej więcej w tym samym czasie. W 2018 roku Google uruchomił model językowy BERT, a przed upływem czasu Meta, Microsoft i Nvidia wydały podobne projekty oparte na AI, która jest teraz częścią wyników wyszukiwania Google. Również w 2018 roku Google przyjęło zasady etyki AI, o których mówi się, że mają ograniczyć przyszłe projekty. Od tego czasu badacze ostrzegają, że duże modele językowe niosą ze sobą podwyższone ryzyko etyczne i mogą nawet intensyfikować toksyczne, nienawistne wypowiedzi. Modele te są również predysponowane do wymyślania nieistniejących rzeczy.
Ponieważ startupy i giganci technologiczni próbowali stworzyć konkurencję dla ChatGPT, niektórzy w branży zastanawiają się, czy boty zmieniły sposób postrzegania tego, kiedy dopuszczalne lub etyczne jest wdrażanie AI na tyle potężnej, by generować realistyczny tekst i obrazy.
Kierownictwo OpenAI przyznało, że generator tekstu GPT-2 powstawał etapami przez długie miesiące w 2019 roku ze względu na obawy przed niewłaściwym jego użyciem i ewentualnym, negatywnym wpływem na społeczeństwo. Podobnie było jeszcze w przypadku GPT-3, ale już proces publikacji ChatGPT nie obejmował żadnego artykułu technicznego ani publikacji badawczej, a jedynie wpis na blogu, demo, a wkrótce także plan subskrypcji.
Irene Solaiman, dyrektor ds. polityki w open source'owym startupie AI Hugging Face, wierzy, że presja z zewnątrz może pomóc w pociągnięciu do odpowiedzialności systemów AI takich jak ChatGPT. Współpracuje ona z ludźmi ze środowisk akademickich i przemysłu, aby stworzyć sposoby, dzięki którym osoby nie będące ekspertami będą mogły przeprowadzać testy na generatorach tekstów i obrazów, aby ocenić stronniczość i inne problemy. Jeśli osoby postronne będą mogły badać systemy AI, firmy nie będą już miały wymówki, by lekceważyć wypaczone wyniki lub wpływ na klimat. - Każda ocena jest oknem na model AI, a nie idealnym odczytem tego, jak zawsze będzie działać. Dzięki temu możliwe będzie zidentyfikowanie i powstrzymanie szkód, jakie może wyrządzić AI, ponieważ pojawiły się już bardzo niepokojące przypadki.
Najnowsze badania Solaiman w Hugging Face wykazały, że główne spółki technologiczne przyjęły bardzo zamknięte podejście do modeli generatywnych, które wypuściły w latach 2018-2022. Firmy po prostu strzegą swoich przełomowych odkryć zasłaniając się tajemnicą handlową. - Przez to dysponujemy coraz mniejszą wiedzę na temat szkolenia systemów bazodanowych i jak je oceniano, zwłaszcza w przypadku najpotężniejszych systemów wypuszczanych jako produkty - mówi Alex Tamkin, doktorant z Uniwersytetu Stanforda, którego praca skupia się na dużych modelach językowych.
Jesienią 2020 roku Tamkin prowadził razem z dyrektorem ds. polityki OpenAI, Milesem Brundagem sympozjum na temat społecznego wpływu dużych modeli językowych. Interdyscyplinarna grupa podkreśliła potrzebę ustalenia przez liderów branży standardów etycznych i podjęcia kroków takich jak prowadzenie ocen stronniczości przed wdrożeniem i unikanie pewnych przypadków użycia.
Tamkin uważa, że zewnętrzne usługi audytu AI muszą rozwijać się wraz z firmami tworzącymi AI, ponieważ wewnętrzne oceny zawsze będą niedoskonałe. Z kolei Merve Hickok, która jest dyrektorem badawczym w centrum etyki i polityki AI na Uniwersytecie Michigan, mówi, że próby nakłonienia firm do przyjęcia zasad etycznych nie wystarczą. - Ochrona praw człowieka oznacza przejście od rozmów o tym, co jest etyczne, do rozmów o tym, co jest legalne - powiedziała.
Unia Europejska kończy w tym roku prace nad ustawą o sztucznej inteligencji. Nie wiadomo jeszcze, jak zostaną potraktowane modele generujące tekst i obrazy. Hickok powiedziała, że jest szczególnie zainteresowana tym, w jaki sposób europejscy prawodawcy potraktują odpowiedzialność za szkody wyrządzone przez modele stworzone przez firmy takie jak Google, Microsoft i OpenAI.
Podczas gdy w Brukseli opracowuje się politykę, stawka pozostaje wysoka. Dzień po błędzie w demo Barda, spadek cen akcji Alphabetu pozbawił go około 100 miliardów dolarów w kapitale rynkowym. - To pierwszy raz, kiedy widziałem takie zniszczenie bogactwa z powodu dużego błędu modelu językowego na taką skalę - mówi Hanna. Nie jest on jednak optymistą, że przekona to firmę do wolniejszego wprowadzania na rynek modeli AI. Wyścig bowiem już trwa.
Krzysztof Maciejewski