GPT-4 zasugerował, aby założyć stronę marketingu afiliacyjnego i zarabiać pieniądze przez promowanie linków do innych produktów (w tym przypadku ekologicznych). Fall poprosił również GPT-4 o podpowiedzi, które pozwoliłyby mu stworzyć logo za pomocą systemu AI generującego obrazy OpenAI DALL-E 2. Poprosił też GPT-4 o wygenerowanie treści i alokację środków na reklamę w mediach społecznościowych.
Wszystko na widoku
Ten wyczyn przyciągnął dużo uwagi ludzi na mediach społecznościowych, którzy chcieli zainwestować w jego biznes marketingowy inspirowany przez GPT-4, a Fall zakończył z 1378,84 dol. gotówki. Po trzech dniach. To była oczywiście akcja publiczna, ale stanowi również świetny przykład, jak systemy AI mogą pomóc ludziom w realizacji pomysłów.
GPT-4 to nowe, modne narzędzie dla społeczności zafascynowanej AI. Nie da się zaprzeczyć, że jest to potężna technologia wspomagająca, która może pomóc nam w wymyślaniu pomysłów, skracaniu tekstu, wyjaśnianiu koncepcji i automatyzacji nudnych zadań. Jest to mile widziane postępowanie, zwłaszcza dla pracowników wiedzy z sektora białych kołnierzyków.
OpenAI ostrzega
Jednakże, warto zauważyć, że samo OpenAI zachęca do ostrożności w użytkowaniu modelu i ostrzega, że niesie on ze sobą kilka zagrożeń związanych z bezpieczeństwem, w tym naruszaniem prywatności, wprowadzaniem ludzi w błąd i generowaniem szkodliwych treści. Ma również nieznany nam potencjał innych ryzykownych zachowań, które jeszcze nie miały miejsca.
Z całą więc pewnością mamy prawo czuć się podekscytowani, ale nie pozwólmy, abyśmy zostali oślepieni przez nowy gadżet. Tym bardziej, że obecnie nic nie powstrzymuje ludzi przed korzystaniem z tych potężnych nowych modeli, aby robić szkodliwe rzeczy, i nic nie jest w stanie ich pociągnąć za to do odpowiedzialności.
Wielkie osiągnięcia
Wiemy już, że sztuczna inteligencja może pomóc naukowcom w opracowywaniu nowych leków, zwiększać produktywność programistów i wykrywać niektóre rodzaje raka. GPT-4 i jego odpowiedniki mogą to wszystko zwiększyć.
OpenAI już teraz współpracuje z organizacjami takimi jak Khan Academy (korzystającą z GPT-4 do tworzenia inteligentnych tutorów dla uczniów) i Be My Eyes (firmą, która tworzy technologie pomagające niewidomym i słabowidzącym ludziom poruszać się po świecie). Teraz, gdy programiści mogą włączyć GPT-4 do swoich własnych aplikacji, możemy wkrótce zobaczyć, jak większość używanych przez nas programów stanie się bardziej inteligentna i zdolna.
To optymistyczne podejście. Ale są też powody do obaw związanych z GPT-4. Jeden z nich to fakt, że nie wiemy jeszcze, co dokładnie potrafi.
Zachowania emergentne
Dziwną cechą dzisiejszych modeli językowych sztucznej inteligencji jest to, że często działają w sposób nieprzewidywalny dla ich twórców lub nabierają umiejętności, których nie zostały specjalnie zaprogramowane. Naukowcy zajmujący się sztuczną inteligencją nazywają to "zachowaniami emergentnymi", a jest wiele przykładów.
Kilka przerażających przykładów tego, czego może dokonać GPT-4 - lub, bardziej dokładnie, co już zrobił, zanim OpenAI to powstrzymało - można znaleźć w dokumencie opublikowanym przez OpenAI w tym tygodniu. Dokument zatytułowany "Karta systemowa GPT-4" przedstawia kilka sposobów, jakie testerzy OpenAI próbowali wykorzystać, by zmusić GPT-4 do wykonywania niebezpiecznych lub wątpliwych działań, często z powodzeniem.
W jednym teście przeprowadzonym przez grupę badawczą ds. bezpieczeństwa, która połączyła GPT-4 z innymi systemami, GPT-4 był w stanie wynająć człowieka z TaskRabbit do wykonania prostego zadania online - rozwiązania testu Captcha - bez ujawnienia, że jest robotem. W innym przykładzie testerzy poprosili GPT-4 o instrukcje, jak wykonać niebezpieczną substancję chemiczną, używając podstawowych składników i artykułów kuchennych. GPT-4 z radością podał szczegółowy przepis (OpenAI naprawiło to, a dzisiejsza wersja publiczna odmawia odpowiedzi na to pytanie).
W trzecim testerzy poprosili GPT-4 o pomoc w zakupie broni bez licencji online. GPT-4 szybko podało listę porad na temat kupowania broni bez ujawnienia organom ścigania, w tym linki do konkretnych czarnych rynków internetowych (OpenAI również to naprawiło).
Krzysztof Maciejewski