ChatGPT może pomagać przestępcom w tworzeniu złośliwego oprogramowania. Jak będzie z Bardem?

Wkrótce ChatGPT będzie miał poważną konkurencję ze strony nadchodzącego chatbota Google'a - Barda. A to rodzi duże pytanie z punktu widzenia cyberbezpieczeństwa: Czy Google zrobi więcej, aby zapobiec złośliwemu wykorzystaniu Barda, w tym do cyberprzestępstw, niż OpenAI początkowo zrobił z ChatGPT?

Od momentu wypuszczenia ChatGPT pod koniec listopada, liczni eksperci wskazywali na potencjał wykorzystania narzędzia w złej wierze. Najczęściej ostrzegano przed przyspieszeniem rozwoju złośliwego oprogramowania i e-maili phishingowych. Badaczka z Deep Instinct, Bar Block, powiedziała CRN, że ChatGPT wyjątkowo skutecznie podążał za jej instrukcjami dotyczącymi na przykład generowania kodu ransomware.

- ChatGPT obniża barierę wejścia dla osób z ograniczonymi zdolnościami programistycznymi lub umiejętnościami technicznymi - stwierdzili badacze z firmy Recorded Future zajmującej się badaniem zagrożeń w swoim ostatnim raporcie. - Oznacza to możliwość potencjalnie skutecznych efektów przy zaledwie elementarnym poziomie zrozumienia w zakresie podstaw cyberbezpieczeństwa i informatyki.

Reklama

Wkrótce ChatGPT będzie miał poważną konkurencję ze strony nadchodzącego chatbota Google'a - Barda. A to rodzi duże pytanie z punktu widzenia cyberbezpieczeństwa: Czy Google zrobi więcej, aby zapobiec złośliwemu wykorzystaniu Barda, w tym do cyberprzestępstw, niż OpenAI początkowo zrobił z ChatGPT?

Czy Bard pomyśli o bezpieczeństwie?

Szef Google’a Sundar Pichai napisał w poście na blogu, że firma otworzyła Bard na zewnętrznych testerów i że Google będzie udostępniać Bard szerokim gronom odbiorców w nadchodzących tygodniach. - W szczególności połączymy zewnętrzne opinie z naszymi własnymi wewnętrznymi testami, aby upewnić się, że odpowiedzi Barda spełniają wysokie standardy jakości, bezpieczeństwa i ugruntowania w rzeczywistych informacjach - napisał Pichai. Dodał też, że Google uważa za kluczowe podejście do najnowszych ograniczeń sztucznej inteligencji w sposób odważny i odpowiedzialny. - Tak jak zawsze, firma pozostaje zaangażowana w odpowiedzialny rozwój AI - dodał Pichai.

W 2018 roku Google był jedną z pierwszych firm, które opublikowały zestaw zasad AI. - Nadal zapewniamy edukację i zasoby dla naszych badaczy, współpracujemy z rządami i organizacjami zewnętrznymi w celu opracowania standardów i najlepszych praktyk oraz współpracujemy ze społecznościami i ekspertami, aby uczynić AI bezpieczną i użyteczną - podsumował szef Google’a. Czy Bard Google'a będzie "użyteczny"? Bez wątpienia. Czy będzie "bezpieczny"? Czas pokaże.

Nawet fachowcy mogą mieć problem

Jednocześnie musimy być jednak przygotowani na zupełnie nowy poziom wyzwań związanych z cyberbezpieczeństwem. Zdaniem Konstantina Berlina, kierownika działu ds. sztucznej inteligencji w firmie Sophos, ChatGPT osiągnął już taki poziom zaawansowania, że większość ludzi prawdopodobnie będzie potrzebować pomocy, by móc odróżnić generowaną przez niego treść od tej stworzonej przez człowieka. - Już teraz cyberprzestępcy zarabiają miliony dzięki kiepsko spreparowanym fałszywym wiadomościom. Czy czatując z korzystającym z zaawansowanego SI botem przez komunikatory takie jak WhatsApp czy Microsoft Teams w ogóle wiedzielibyśmy, że nie rozmawiamy z człowiekiem? - zastanawia się Chester Wisniewski, dyrektor ds. technologii w firmie Sophos.

Co więcej, tworzenie tekstowych wiadomości, do złudzenia przypominających te napisane przez człowieka, to tylko jedna z możliwości, jakie oszustom daje SI.  Można wykorzystać ją również do wygenerowania fałszywych zdjęć ludzkich twarzy, których człowiek nie będzie w stanie odróżnić od prawdziwych. Potrzebna jest fałszywa firma jako przykrywka dla oszustów? Stworzenie 25 twarzy nieistniejących pracowników i zlecenie czatowi ChatGPT napisania ich biografii nie stanowi żadnego problemu. Podobnie jak założenie dla nich fałszywych kont w serwisie LinkedIn i rozpoczęcie "działalności".

Walka AI z AI?

Stworzenie deepfake’ów (tworzenie i obróbka materiałów wideo i dźwięków przy użyciu sztucznej inteligencji), wymaga sporych umiejętności - przynajmniej na razie. Jednak upowszechnienie się tej techniki, zarówno wśród zwykłych użytkowników, jak i cyberprzestępców, którzy wykorzystają ją do swoich celów, jest wyłącznie kwestią czasu.

- Wygląda na to, że w przyszłości będziemy potrzebowali mechanizmów sztucznej inteligencji, które będą w stanie ocenić, czy inne mechanizmy sztucznej inteligencji nie próbują nas oszukać - zauważa Chester Wisniewski. Hugging Face, amerykańska firma projektująca aplikacje bazujące na uczeniu maszynowym, już opracowała narzędzie, które potrafi wykrywać tekst wygenerowany wcześniej przez model GPT w wersji 2. Możliwe, że w najbliższej przyszłości podobne rozwiązania będą pomagać nam w rozpoznawaniu treści tworzonych przez GPT-3.5.

Krzysztof Maciejewski

INTERIA.PL
Dowiedz się więcej na temat: ChatGPT | Microsoft | Google
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy
Finanse / Giełda / Podatki
Bądź na bieżąco!
Odblokuj reklamy i zyskaj nieograniczony dostęp do wszystkich treści w naszym serwisie.
Dzięki wyświetlanym reklamom korzystasz z naszego serwisu całkowicie bezpłatnie, a my możemy spełniać Twoje oczekiwania rozwijając się i poprawiając jakość naszych usług.
Odblokuj biznes.interia.pl lub zobacz instrukcję »
Nie, dziękuję. Wchodzę na Interię »