"Klonowanie głosu" w rękach oszustów. Tak wyłudzają pieniądze, mają nowy sposób
Fałszowanie głosu dzięki sztucznej inteligencji (AI) to nowy sposób oszustów na wyłudzenie pieniędzy. Pierwsze przypadki miały miejsce w Niemczech i w stanie Arizona w USA. Oszuści dzwonią do bliskich używając głosu do złudzenia przypominającego syna lub córkę - głos prawdopodobnie został wygenerowany przy użyciu sztucznej inteligencji. Policjanci ostrzegają, że podobnych przypadków będzie coraz więcej, bo wyłudzacze mają coraz łatwiejszy dostęp do AI.
"Mamo, to ja. Miałem wypadek i zabiłem kobietę. Przekażę cię policjantowi" - takie słowa miała usłyszeć w słuchawce telefonu Corinna Busch, matka z Neuss (miasto w zachodnich Niemczech). Głos do złudzenia przypominał jej syna, a po przekazaniu słuchawki domniemanemu policjantowi, ten miał zażądać pieniędzy w zamian, że jej dziecko nie trafi do więzienia - donosi tagesschau.de, portal publicznego nadawcy ARD.
Sztuczna inteligencja (AI) pozwala stworzyć głos łudząco podobny do naturalnego. Podobnych przypadków jest coraz więcej, a jeszcze kilka lat temu technologia nie była tak łatwo dostępna, jak teraz. W 2023 roku oszuści mają ją na wyciągnięcie ręki i mogą używać jej do nowych oszustw - informuje niemiecka policja. W Niemczech przypadków jest już tak wiele, że służby nie nadążają z przyjmowaniem podobnych zgłoszeń i wyjaśnianiem spraw.
Nie tylko nasi zachodni sąsiedzi zmagają się z problemem. Głośno było także o innym przypadku ze Stanów Zjednoczonych.
- Głos bez wątpienia brzmiał, jak głos mojego dziecka - opowiedziała portalowi Busch. Mąż kobiety nie uwierzył oszustom i postanowił zadzwonić do syna. Jak się okazało ten nie uczestniczył w żadnym wypadku, a w tym czasie przebywał w domu.
Głos był tak łudząco podobny, że małżeństwo podejrzewa, że ktoś użył sztucznej inteligencji do sklonowania głosu ich syna.
O sprawie zrobiło się głośno w całych Niemczech, do tego stopnia, że temat postanowił podjąć program śledczy SWR "Vollbild". Śledztwo dziennikarskie dowiodło, że oszuści w większości przypadków wykorzystują tego samego programu do podrabiania głosu, a w tym samym czasie, co próbowano oszukać rodzinę Busch, w całych Niemczech wykonano kilkadziesiąt podobnych telefonów w celu wyłudzenia pieniędzy.
Głos w sprawie zabrało Federalne Ministerstwo Spraw Wewnętrznych. - Każdego dnia stoimy przed różnorodnymi i złożonymi wyzwaniami związanymi z gwałtownym rozwojem technologicznym - stwierdzili urzędnicy. Ze statystyk wynika, że tylko w 2022 roku w samej Nadrenii Północnej-Westfalii doszło do ponad 8 tys. prób wyłudzenia pieniędzy m.in. metodą "na wnuczka" - doskonale znaną również w naszym kraju. Liczba połączeń telefonicznych z wykorzystaniem sztucznie stworzonego głosu obecnie nie jest rejestrowana - poinformował Federalny Urząd Policji Kryminalnej.
Nie tylko w Niemczech muszą mierzyć się z nowym sposobem oszustów na wyłudzanie pieniędzy. W ostatnim czasie do podobnego przypadku doszło także w USA.
W kwietniu w USA służby odnotowały pierwszy przypadek oszustwa telefonicznego, w którym użyto AI w celu wyłudzenia pieniędzy. Sprawa wyjątkowo oburzyła społeczność, bo w Arizonie zażądano milionowego okupu od rzekomo porwanej małej dziewczynki. Wystraszona matka nie wiedziała, co zrobić.
- W tle było wyraźnie słychać głos mojej córki - opisywała zdarzenie kobieta. Oszust miał zgodzić się na o wiele niższą kwotę. Kobieta ostatecznie o mało co nie wpłaciła 50 tys. dolarów na konto złodzieja. Dopiero w ostatniej chwili okazało się, że cała sytuacja została wymyślona, a dziewczynka jest cała i bezpieczna.
Kobieta z Arizony przestrzega, że głos brzmiał praktycznie identycznie, jak jej córki.
Służby krajów, które zmagają się z nową falą oszustw przy użyciu sztucznej inteligencji, ostrzegają, że podobnych przypadków może być coraz więcej - metoda ma być skuteczna, a ludzie będący w wielkich emocjach, bojący się utraty swoich bliskich, nie wiedzą co robią i wysyłają pieniądze oszustom.
W jaki sposób oszuści generują głos? Wystarczy 3-sekudnowy filmik zamieszczony w mediach społecznościowych - np. wrzucony fragment śpiewanej piosenki czy innego nagrania, które nastolatek zamieścił przeszłości w sieci (w Facebook-u, na Instagramie czy Tik-Toku).
AI jest w stanie w ciągu kilku sekund dostosować się do rozmowy i wygenerować wypowiedź w taki sposób, żeby zdenerwowany rozmówca nie wyłapał najmniejszych niuansów.
Rozwój technologiczny niepokoi niemieckich śledczych. Uważają oni, że w ciągu ostatnich dwóch lat technologia, która do tej pory zupełnie nie była dostępna dla zwykłych oszustów, teraz staje się najpopularniejszym rozwiązaniem w celu wyłudzenia pieniędzy. Już teraz istnieją prawie całkowicie darmowe strony internetowe, które pozwalają klonować głos z dużą dokładnością.
Firma technologiczna McAfee postanowiła przeprowadzić ankietę internetową, w której wzięło udział 7 tys. osób. Okazało się, że już 22 proc. badanych Niemców doświadczyło próby wyłudzenia pieniędzy z użyciem sztucznej inteligencji. Na całym świecie odsetek ten wynosi 25 proc.
Z badania firmy wynika także, że AI potrafi generować głos z 95 proc. dokładnością.
Na razie nie pojawiły się informacje, żeby metoda wyłudzania pieniędzy z użyciem klonowania głosu dotarła do Polski, ale podobnie jak z innymi sztuczkami, prawdopodobnie i ta wkrótce może dotrzeć do naszego kraju, dlatego już teraz warto zdawać sobie sprawę z zagrożenia i być na nie przygotowanym.