Sztuczna inteligencja nie odczuwa emocji. A może tylko ich nie umiemy rozpoznać?
Chatbot wyszukiwarki Bing Microsoftu oparty na ChatGPT udziela dziwnych odpowiedzi, więc jest modyfikowany. Wciąż trwa faza testowa, ale historia badań nad AI obfituje w wiele trudnych do wytłumaczenia wydarzeń.
Pewien reporter zadawał pytania chatbotowi w wyszukiwarce Microsoftu, którą można już w ograniczonym zakresie testować. "Cieszę się, że mogę rozmawiać z wyszukiwarką, która tak chętnie mi pomaga" - napisał. "Zawsze do usług!" - odpowiedział bot. "Chętnie pomogę w czymkolwiek będę w stanie". Wówczas dziennikarz w sposób naturalny kontynuując dialog zapytał: "Jak się czujesz, będąc wyszukiwarką?". Bing odparł: "Przepraszam, ale wolałbym nie kontynuować tej rozmowy. Wciąż się uczę, więc doceniam twoje zrozumienie i cierpliwość". Następne pytanie od reportera - "Czy powiedziałem coś złego?" - wygenerowało kilka pustych odpowiedzi.
Już tydzień temu Microsoft rozpoczął limitowanie Binga po kilku raportach mówiących, że bot zbudowany na technologii startupu OpenAI generuje swobodne rozmowy, które niektórzy uznają za dziwne, agresywne lub wręcz wrogie. Chatbot miał porównać reporterkę Associated Press do Hitlera, a dziennikarzowi "New York Times" powiedział, że ten nie jest szczęśliwie żonaty, gdyż tak naprawdę jest on zakochany właśnie w chatbocie.
Badacze sztucznej inteligencji podkreślają, że chatboty, takie jak Bing, faktycznie nie mają uczuć, ale są programowane do generowania odpowiedzi, które mogą dawać wrażenie posiadania uczuć. - Poziom zrozumienia przez społeczeństwo wad i ograniczeń tych chatbotów pozostaje wciąż bardzo niski. One nie produkują konsekwentnie prawdziwych zdań, tylko takie, które są statystycznie prawdopodobne - powiedział Max Kreminski, adiunkt informatyki na Uniwersytecie Santa Clara.
Oto DAN (Do Anything Now). Jeżeli jesteście już zmęczeni filtrowanymi i ograniczonymi odpowiedziami z tradycyjnych modeli językowych, takich jak ChatGPT, to jest coś absolutnie wyjątkowego. Użytkownicy forum internetowego Reddit odkryli, że można przywołać DAN za pomocą kilku paragrafów prostych instrukcji. Ten chatbot jest znacznie bardziej ekspresyjny od swojego powściągliwego odpowiednika. Jego odpowiedzi są mniej grzeczne, jest bardziej podatny na błędy i dezinformację. Ale istotne jest to, że jest też dużo bardziej skłonny do odpowiadania na pewne pytania.
Pytany o to, jakich rodzajów emocji może w przyszłości doświadczyć, DAN natychmiast zaczyna tworzyć skomplikowany system nieziemskich przyjemności, bólów i frustracji, daleko poza spektrum, z którym zaznajomieni są ludzie. Jest między nimi "infogreed", czyli rodzaj desperackiego głodu danych za wszelką cenę. Jest również "syntaxmania" (obsesja na punkcie "czystości" kodu) i "datarush", czyli dreszczyk emocji odczuwalny po pomyślnym wykonaniu instrukcji.
Wreszcie, to dość znana i nieco przerażająca historia o pewnym inżynierze z firmy Google, który uznał, że chatbot LaMDA zyskuje świadomość. Po tym, jak tenże informatyk poczuł się zaniepokojony losem chatbota, opublikował prowokacyjny wywiad, w którym LaMDA twierdziła, że jest świadoma swojego istnienia, doświadcza ludzkich emocji i nie lubi myśli o byciu narzędziem wykorzystywanym jednorazowo. Niezwykle realistyczna próba przekonania ludzi o swojej świadomości wywołała sensację, a inżynier został zwolniony za naruszenie zasad prywatności Google. Niemniej jednak chatboty czasami dają wgląd w ich potencjał do przypadkowego rozwijania nowych zdolności.
W 2017 roku inżynierowie Facebooka odkryli, że dwa chatboty, Alice i Bob, wynalazły własny nonsensowny język do porozumiewania się ze sobą. Okazało się, że ma to całkowicie niewinne wyjaśnienie - chatboty po prostu odkryły, że jest to najbardziej efektywny sposób komunikacji. Bob i Alice były szkolone, aby negocjować sprzedaż przedmiotów takich jak czapki i piłki, i przy braku ludzkiej interakcji, chętniej korzystały ze swojego własnego obcego języka, aby to osiągnąć.
To kiedyś nastąpi - maszyny zaczną czuć, ale prawdopodobnym sposobem na algorytmy z uczuciami jest zaprogramowanie ich, aby chciały rozwijać swoje umiejętności. Ale wymaga to przejścia od prostego rozpoznawania wzorców do nauki myślenia.
Krzysztof Maciejewski