Spis treści:
- "Klonowanie głosu" w rękach oszustów. W Niemczech seria wyłudzeń
- Porwanie z głosem dziecka w tle. Chcą pieniędzy, nie mają żadnych granic
- Oszustwa przy użyciu AI. Wystarczy 3-sekudnowa próbka głosu z nagrania zamieszczonego w social-mediach
- Śledczy zaniepokojeni rozwojem sztucznej inteligencji. AI klonuje głosy z 95-procentową dokładnością
"Mamo, to ja. Miałem wypadek i zabiłem kobietę. Przekażę cię policjantowi" - takie słowa miała usłyszeć w słuchawce telefonu Corinna Busch, matka z Neuss (miasto w zachodnich Niemczech). Głos do złudzenia przypominał jej syna, a po przekazaniu słuchawki domniemanemu policjantowi, ten miał zażądać pieniędzy w zamian, że jej dziecko nie trafi do więzienia - donosi tagesschau.de, portal publicznego nadawcy ARD.
Sztuczna inteligencja (AI) pozwala stworzyć głos łudząco podobny do naturalnego. Podobnych przypadków jest coraz więcej, a jeszcze kilka lat temu technologia nie była tak łatwo dostępna, jak teraz. W 2023 roku oszuści mają ją na wyciągnięcie ręki i mogą używać jej do nowych oszustw - informuje niemiecka policja. W Niemczech przypadków jest już tak wiele, że służby nie nadążają z przyjmowaniem podobnych zgłoszeń i wyjaśnianiem spraw.
Nie tylko nasi zachodni sąsiedzi zmagają się z problemem. Głośno było także o innym przypadku ze Stanów Zjednoczonych.
"Klonowanie głosu" w rękach oszustów. W Niemczech seria wyłudzeń
- Głos bez wątpienia brzmiał, jak głos mojego dziecka - opowiedziała portalowi Busch. Mąż kobiety nie uwierzył oszustom i postanowił zadzwonić do syna. Jak się okazało ten nie uczestniczył w żadnym wypadku, a w tym czasie przebywał w domu.
Głos był tak łudząco podobny, że małżeństwo podejrzewa, że ktoś użył sztucznej inteligencji do sklonowania głosu ich syna.
O sprawie zrobiło się głośno w całych Niemczech, do tego stopnia, że temat postanowił podjąć program śledczy SWR "Vollbild". Śledztwo dziennikarskie dowiodło, że oszuści w większości przypadków wykorzystują tego samego programu do podrabiania głosu, a w tym samym czasie, co próbowano oszukać rodzinę Busch, w całych Niemczech wykonano kilkadziesiąt podobnych telefonów w celu wyłudzenia pieniędzy.
Głos w sprawie zabrało Federalne Ministerstwo Spraw Wewnętrznych. - Każdego dnia stoimy przed różnorodnymi i złożonymi wyzwaniami związanymi z gwałtownym rozwojem technologicznym - stwierdzili urzędnicy. Ze statystyk wynika, że tylko w 2022 roku w samej Nadrenii Północnej-Westfalii doszło do ponad 8 tys. prób wyłudzenia pieniędzy m.in. metodą "na wnuczka" - doskonale znaną również w naszym kraju. Liczba połączeń telefonicznych z wykorzystaniem sztucznie stworzonego głosu obecnie nie jest rejestrowana - poinformował Federalny Urząd Policji Kryminalnej.
Nie tylko w Niemczech muszą mierzyć się z nowym sposobem oszustów na wyłudzanie pieniędzy. W ostatnim czasie do podobnego przypadku doszło także w USA.
Porwanie z głosem dziecka w tle. Chcą pieniędzy, nie mają żadnych granic
W kwietniu w USA służby odnotowały pierwszy przypadek oszustwa telefonicznego, w którym użyto AI w celu wyłudzenia pieniędzy. Sprawa wyjątkowo oburzyła społeczność, bo w Arizonie zażądano milionowego okupu od rzekomo porwanej małej dziewczynki. Wystraszona matka nie wiedziała, co zrobić.
- W tle było wyraźnie słychać głos mojej córki - opisywała zdarzenie kobieta. Oszust miał zgodzić się na o wiele niższą kwotę. Kobieta ostatecznie o mało co nie wpłaciła 50 tys. dolarów na konto złodzieja. Dopiero w ostatniej chwili okazało się, że cała sytuacja została wymyślona, a dziewczynka jest cała i bezpieczna.
Apelujemy o ostrożność i rozwagę podczas rozmów telefonicznych. Oszuści wykorzystują pośpiech i strach, ale w takich chwilach należy wykazać się opanowaniem i upewnić się, czy nasi bliscy nie są bezpieczni. Najlepiej do nich zadzwonić, zanim wyśle się jakiekolwiek pieniądze.
Kobieta z Arizony przestrzega, że głos brzmiał praktycznie identycznie, jak jej córki.
Oszustwa przy użyciu AI. Wystarczy 3-sekudnowa próbka głosu z nagrania zamieszczonego w social-mediach
Służby krajów, które zmagają się z nową falą oszustw przy użyciu sztucznej inteligencji, ostrzegają, że podobnych przypadków może być coraz więcej - metoda ma być skuteczna, a ludzie będący w wielkich emocjach, bojący się utraty swoich bliskich, nie wiedzą co robią i wysyłają pieniądze oszustom.
W jaki sposób oszuści generują głos? Wystarczy 3-sekudnowy filmik zamieszczony w mediach społecznościowych - np. wrzucony fragment śpiewanej piosenki czy innego nagrania, które nastolatek zamieścił przeszłości w sieci (w Facebook-u, na Instagramie czy Tik-Toku).
Zespół redakcyjny był w stanie sklonować mój głos. Przeżyłam szok, kiedy skonfrontowano mnie z rezultatem eksperymentu. Bardzo trudno było mi zdać sobie sprawę, że to nie byłam naprawdę ja.
AI jest w stanie w ciągu kilku sekund dostosować się do rozmowy i wygenerować wypowiedź w taki sposób, żeby zdenerwowany rozmówca nie wyłapał najmniejszych niuansów.
Śledczy zaniepokojeni rozwojem sztucznej inteligencji. AI klonuje głosy z 95-procentową dokładnością
Rozwój technologiczny niepokoi niemieckich śledczych. Uważają oni, że w ciągu ostatnich dwóch lat technologia, która do tej pory zupełnie nie była dostępna dla zwykłych oszustów, teraz staje się najpopularniejszym rozwiązaniem w celu wyłudzenia pieniędzy. Już teraz istnieją prawie całkowicie darmowe strony internetowe, które pozwalają klonować głos z dużą dokładnością.
Firma technologiczna McAfee postanowiła przeprowadzić ankietę internetową, w której wzięło udział 7 tys. osób. Okazało się, że już 22 proc. badanych Niemców doświadczyło próby wyłudzenia pieniędzy z użyciem sztucznej inteligencji. Na całym świecie odsetek ten wynosi 25 proc.
Z badania firmy wynika także, że AI potrafi generować głos z 95 proc. dokładnością.
Na razie nie pojawiły się informacje, żeby metoda wyłudzania pieniędzy z użyciem klonowania głosu dotarła do Polski, ale podobnie jak z innymi sztuczkami, prawdopodobnie i ta wkrótce może dotrzeć do naszego kraju, dlatego już teraz warto zdawać sobie sprawę z zagrożenia i być na nie przygotowanym.