ChatGPT może pomagać przestępcom w tworzeniu złośliwego oprogramowania. Jak będzie z Bardem?
Wkrótce ChatGPT będzie miał poważną konkurencję ze strony nadchodzącego chatbota Google'a - Barda. A to rodzi duże pytanie z punktu widzenia cyberbezpieczeństwa: Czy Google zrobi więcej, aby zapobiec złośliwemu wykorzystaniu Barda, w tym do cyberprzestępstw, niż OpenAI początkowo zrobił z ChatGPT?
Od momentu wypuszczenia ChatGPT pod koniec listopada, liczni eksperci wskazywali na potencjał wykorzystania narzędzia w złej wierze. Najczęściej ostrzegano przed przyspieszeniem rozwoju złośliwego oprogramowania i e-maili phishingowych. Badaczka z Deep Instinct, Bar Block, powiedziała CRN, że ChatGPT wyjątkowo skutecznie podążał za jej instrukcjami dotyczącymi na przykład generowania kodu ransomware.
- ChatGPT obniża barierę wejścia dla osób z ograniczonymi zdolnościami programistycznymi lub umiejętnościami technicznymi - stwierdzili badacze z firmy Recorded Future zajmującej się badaniem zagrożeń w swoim ostatnim raporcie. - Oznacza to możliwość potencjalnie skutecznych efektów przy zaledwie elementarnym poziomie zrozumienia w zakresie podstaw cyberbezpieczeństwa i informatyki.
Wkrótce ChatGPT będzie miał poważną konkurencję ze strony nadchodzącego chatbota Google'a - Barda. A to rodzi duże pytanie z punktu widzenia cyberbezpieczeństwa: Czy Google zrobi więcej, aby zapobiec złośliwemu wykorzystaniu Barda, w tym do cyberprzestępstw, niż OpenAI początkowo zrobił z ChatGPT?
Szef Google’a Sundar Pichai napisał w poście na blogu, że firma otworzyła Bard na zewnętrznych testerów i że Google będzie udostępniać Bard szerokim gronom odbiorców w nadchodzących tygodniach. - W szczególności połączymy zewnętrzne opinie z naszymi własnymi wewnętrznymi testami, aby upewnić się, że odpowiedzi Barda spełniają wysokie standardy jakości, bezpieczeństwa i ugruntowania w rzeczywistych informacjach - napisał Pichai. Dodał też, że Google uważa za kluczowe podejście do najnowszych ograniczeń sztucznej inteligencji w sposób odważny i odpowiedzialny. - Tak jak zawsze, firma pozostaje zaangażowana w odpowiedzialny rozwój AI - dodał Pichai.
W 2018 roku Google był jedną z pierwszych firm, które opublikowały zestaw zasad AI. - Nadal zapewniamy edukację i zasoby dla naszych badaczy, współpracujemy z rządami i organizacjami zewnętrznymi w celu opracowania standardów i najlepszych praktyk oraz współpracujemy ze społecznościami i ekspertami, aby uczynić AI bezpieczną i użyteczną - podsumował szef Google’a. Czy Bard Google'a będzie "użyteczny"? Bez wątpienia. Czy będzie "bezpieczny"? Czas pokaże.
Jednocześnie musimy być jednak przygotowani na zupełnie nowy poziom wyzwań związanych z cyberbezpieczeństwem. Zdaniem Konstantina Berlina, kierownika działu ds. sztucznej inteligencji w firmie Sophos, ChatGPT osiągnął już taki poziom zaawansowania, że większość ludzi prawdopodobnie będzie potrzebować pomocy, by móc odróżnić generowaną przez niego treść od tej stworzonej przez człowieka. - Już teraz cyberprzestępcy zarabiają miliony dzięki kiepsko spreparowanym fałszywym wiadomościom. Czy czatując z korzystającym z zaawansowanego SI botem przez komunikatory takie jak WhatsApp czy Microsoft Teams w ogóle wiedzielibyśmy, że nie rozmawiamy z człowiekiem? - zastanawia się Chester Wisniewski, dyrektor ds. technologii w firmie Sophos.
Co więcej, tworzenie tekstowych wiadomości, do złudzenia przypominających te napisane przez człowieka, to tylko jedna z możliwości, jakie oszustom daje SI. Można wykorzystać ją również do wygenerowania fałszywych zdjęć ludzkich twarzy, których człowiek nie będzie w stanie odróżnić od prawdziwych. Potrzebna jest fałszywa firma jako przykrywka dla oszustów? Stworzenie 25 twarzy nieistniejących pracowników i zlecenie czatowi ChatGPT napisania ich biografii nie stanowi żadnego problemu. Podobnie jak założenie dla nich fałszywych kont w serwisie LinkedIn i rozpoczęcie "działalności".
Stworzenie deepfake’ów (tworzenie i obróbka materiałów wideo i dźwięków przy użyciu sztucznej inteligencji), wymaga sporych umiejętności - przynajmniej na razie. Jednak upowszechnienie się tej techniki, zarówno wśród zwykłych użytkowników, jak i cyberprzestępców, którzy wykorzystają ją do swoich celów, jest wyłącznie kwestią czasu.
- Wygląda na to, że w przyszłości będziemy potrzebowali mechanizmów sztucznej inteligencji, które będą w stanie ocenić, czy inne mechanizmy sztucznej inteligencji nie próbują nas oszukać - zauważa Chester Wisniewski. Hugging Face, amerykańska firma projektująca aplikacje bazujące na uczeniu maszynowym, już opracowała narzędzie, które potrafi wykrywać tekst wygenerowany wcześniej przez model GPT w wersji 2. Możliwe, że w najbliższej przyszłości podobne rozwiązania będą pomagać nam w rozpoznawaniu treści tworzonych przez GPT-3.5.
Krzysztof Maciejewski