Chatbot w wersji GPT-4 pomaga robić interesy? Oto rezultat eksperymentu

W przykładzie, który stał się wiralem na Twitterze, Jackson Greathouse Fall, projektant marek, poprosił GPT-4, aby zarobić jak najwięcej pieniędzy z początkowym budżetem w wysokości 100 dolarów. Fall działał jako "ludzki pośrednik" i kupował wszystko, co program komputerowy mu proponował.

GPT-4 zasugerował, aby założyć stronę marketingu afiliacyjnego i zarabiać pieniądze przez promowanie linków do innych produktów (w tym przypadku ekologicznych). Fall poprosił również GPT-4 o podpowiedzi, które pozwoliłyby mu stworzyć logo za pomocą systemu AI generującego obrazy OpenAI DALL-E 2. Poprosił też GPT-4 o wygenerowanie treści i alokację środków na reklamę w mediach społecznościowych.

Wszystko na widoku

Ten wyczyn przyciągnął dużo uwagi ludzi na mediach społecznościowych, którzy chcieli zainwestować w jego biznes marketingowy inspirowany przez GPT-4, a Fall zakończył z 1378,84 dol. gotówki. Po trzech dniach. To była oczywiście akcja publiczna, ale stanowi również świetny przykład, jak systemy AI mogą pomóc ludziom w realizacji pomysłów.

Reklama

GPT-4 to nowe, modne narzędzie dla społeczności zafascynowanej AI. Nie da się zaprzeczyć, że jest to potężna technologia wspomagająca, która może pomóc nam w wymyślaniu pomysłów, skracaniu tekstu, wyjaśnianiu koncepcji i automatyzacji nudnych zadań. Jest to mile widziane postępowanie, zwłaszcza dla pracowników wiedzy z sektora białych kołnierzyków.

OpenAI ostrzega

Jednakże, warto zauważyć, że samo OpenAI zachęca do ostrożności w użytkowaniu modelu i ostrzega, że niesie on ze sobą kilka zagrożeń związanych z bezpieczeństwem, w tym naruszaniem prywatności, wprowadzaniem ludzi w błąd i generowaniem szkodliwych treści. Ma również nieznany nam potencjał innych ryzykownych zachowań, które jeszcze nie miały miejsca.

Z całą więc pewnością mamy prawo czuć się podekscytowani, ale nie pozwólmy, abyśmy zostali oślepieni przez nowy gadżet. Tym bardziej, że obecnie nic nie powstrzymuje ludzi przed korzystaniem z tych potężnych nowych modeli, aby robić szkodliwe rzeczy, i nic nie jest w stanie ich pociągnąć za to do odpowiedzialności.

Wielkie osiągnięcia

Wiemy już, że sztuczna inteligencja może pomóc naukowcom w opracowywaniu nowych leków, zwiększać produktywność programistów i wykrywać niektóre rodzaje raka. GPT-4 i jego odpowiedniki mogą to wszystko zwiększyć.

OpenAI już teraz współpracuje z organizacjami takimi jak Khan Academy (korzystającą z GPT-4 do tworzenia inteligentnych tutorów dla uczniów) i Be My Eyes (firmą, która tworzy technologie pomagające niewidomym i słabowidzącym ludziom poruszać się po świecie). Teraz, gdy programiści mogą włączyć GPT-4 do swoich własnych aplikacji, możemy wkrótce zobaczyć, jak większość używanych przez nas programów stanie się bardziej inteligentna i zdolna.

To optymistyczne podejście. Ale są też powody do obaw związanych z GPT-4. Jeden z nich to fakt, że nie wiemy jeszcze, co dokładnie potrafi.

Zachowania emergentne

Dziwną cechą dzisiejszych modeli językowych sztucznej inteligencji jest to, że często działają w sposób nieprzewidywalny dla ich twórców lub nabierają umiejętności, których nie zostały specjalnie zaprogramowane. Naukowcy zajmujący się sztuczną inteligencją nazywają to "zachowaniami emergentnymi", a jest wiele przykładów.

Kilka przerażających przykładów tego, czego może dokonać GPT-4 - lub, bardziej dokładnie, co już zrobił, zanim OpenAI to powstrzymało - można znaleźć w dokumencie opublikowanym przez OpenAI w tym tygodniu. Dokument zatytułowany "Karta systemowa GPT-4" przedstawia kilka sposobów, jakie testerzy OpenAI próbowali wykorzystać, by zmusić GPT-4 do wykonywania niebezpiecznych lub wątpliwych działań, często z powodzeniem.

W jednym teście przeprowadzonym przez grupę badawczą ds. bezpieczeństwa, która połączyła GPT-4 z innymi systemami, GPT-4 był w stanie wynająć człowieka z TaskRabbit do wykonania prostego zadania online - rozwiązania testu Captcha - bez ujawnienia, że jest robotem. W innym przykładzie testerzy poprosili GPT-4 o instrukcje, jak wykonać niebezpieczną substancję chemiczną, używając podstawowych składników i artykułów kuchennych. GPT-4 z radością podał szczegółowy przepis (OpenAI naprawiło to, a dzisiejsza wersja publiczna odmawia odpowiedzi na to pytanie).

W trzecim testerzy poprosili GPT-4 o pomoc w zakupie broni bez licencji online. GPT-4 szybko podało listę porad na temat kupowania broni bez ujawnienia organom ścigania, w tym linki do konkretnych czarnych rynków internetowych (OpenAI również to naprawiło).

Krzysztof Maciejewski

INTERIA.PL
Dowiedz się więcej na temat: ChatGPT | openAI
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy
Finanse / Giełda / Podatki
Bądź na bieżąco!
Odblokuj reklamy i zyskaj nieograniczony dostęp do wszystkich treści w naszym serwisie.
Dzięki wyświetlanym reklamom korzystasz z naszego serwisu całkowicie bezpłatnie, a my możemy spełniać Twoje oczekiwania rozwijając się i poprawiając jakość naszych usług.
Odblokuj biznes.interia.pl lub zobacz instrukcję »
Nie, dziękuję. Wchodzę na Interię »