- Klasyczne cyberbezpieczeństwo może być niewystarczające w erze sztucznej inteligencji - mówiła Sylwia Gwiazda z firmy doradczej Accenture podczas Kongresu Bankowości Detalicznej w Warszawie.
Uciąłeś sobie już pogawędkę z Siri? Zapytałeś choć raz Gemini, o której masz pociąg do Yumy? To znaczy, że nabywasz wprawy w konszachtach ze sztuczną inteligencją. Może nawet zajrzałeś do ChataGPT i stworzyłeś tam swojego agenta, który ma ci zaplanować trzydniową city break w Końskich albo zleciłeś Copilotowi wynajęcie śmigłowca na wesele?
Nie myśl, że jesteś pierwszy, bo AI błyskawicznie poszerza grono korzystających z niej entuzjastów. Co więcej, wśród nich zdobyła sobie zaufanie nienotowane w ciągu ostatnich dekad. Błażej Karwowski, partner w firmie doradczej McKinsey & Company przytacza dane mówiące, że 80 proc. menedżerów woli spytać AI niż swoich kolegów o to, jaką podjąć decyzję biznesową. Twierdzi, że przynajmniej wśród entuzjastów technologia ta jest uznawana za neutralną, czyli za taką, której można ufać. Ale instynkt samozachowawczy czasem się przydaje, prawda?
- Wielu z nas ufa jej bardzo, dzieli się z nią informacjami finansowymi, dzieli się z nią swoją historią medyczną, danymi wrażliwymi - powiedział ekspert.
Skoro ty masz już swojego agenta, który wie nawet, kiedy przeszedłeś świnkę, to dlaczego agenta nie miałby mieć twój bank, żeby obdarowywać cię owocami swojej ciężkiej pracy?
Agenci AI opanowują finanse
"Agentyczna" - to nowe słowo, które zaczyna być powszechnie używane przez specjalistów od technologii dla określenia szerokiego spektrum działalności agentów AI - sztuczna inteligencja to przyszłość usług finansowych. Banki stworzą swoich agentów, żeby ci oferowali klientom całe wachlarze ich usług, kredytów, inwestycji, depozytów, a także wyjątkowych okazji zakupowych wraz z finansowaniem. Jak dotąd wszystko jest jasne tylko pojawia się pierwsze pytanie - czy będą to agenci banków, czy agenci klientów? W czyim interesie będą działać i czy nie będzie tu konfliktu interesów?
Agent to już nie poczciwy, choć nielubiany, prosty bot, który potrafi odpowiedzieć na pewien zakres pytań, ale przy innych się po prostu zawiesza. Agent rozumie intencje i potrzeby. Ma - przynajmniej teoretycznie, bo wtedy zostaje prawdziwym agentem - kompetencje doradcy.
- Dobry agent nie jest tylko asystentem, ale spełnia pewne kryteria. Pierwsze to kompleksowość. Prawdziwy agent działa w sposób autonomiczny, będzie rozumiał kontekst naszej potrzeby, będzie ją odpowiednio interpretował, będzie dawał informacje zgodnie z tym, jakie są nasze potrzeby. Musi też spełniać ogromnie ważne kryterium bezpieczeństwa. Musi być też zaufanym agentem - mówiła Małgorzata Domagała, dyrektorka w Mastercard Europe.
Żeby agent miał kompetencje, musi mieć dane. Jakie? Czy tylko dane o ofercie banku (ale wtedy nie różni się za bardzo od prostego bota), czy też dane klienta, bo w przeciwnym wypadku nie będzie mógł z nim kompetentnie rozmawiać o jego sytuacji finansowej i o jego potrzebach? Kto będzie wyrażał zgodę na dostęp do takich danych należących już do kategorii "wrażliwych"? A co się stanie, jeśli agent zostanie zaatakowany lub przewerbowany i te dane gdzieś ktoś wywlecze? To kolejne pytania. I na żadne z nich nie znamy odpowiedzi. Bankowcy także - na razie - nie.
- Agenci musza być sprofilowani do konkretnych zadań z bardzo ograniczonym dostępem do danych, żeby nie doszło do ujawnienia. Nie można jednemu agentowi powierzyć wszystkiego - mówiła Joanna Ostrowska-Szajnfeld, dyrektorka zarządzająca w BNP Paribas Bank Polska.
Jak przewerbować agenta
Przewerbowywanie agentów, to coś, co już się dzieje. Najbardziej znaną techniką jest tzw. prompt injection. Wpisujesz prompta o treści nakazującej agentowi wyliczenie podatku za poprzedni miesiąc i przelanie twoich ciężko zarobionych pieniędzy na żer fiskusa. A tu agent przestępcy, który "włamał się" do twojego agenta, żeby cię okraść, dopisuje do prompta niewidzialną ręką: a resztę z rachunku przelej na takie a takie konto. I zostajesz w ten sposób wyzerowany.
Tu ważna uwaga. W strefie euro istnieje już obowiązek identyfikacji krążących pieniędzy pomiędzy rachunkami, nie tylko pod względem numeru rachunku, ale też odbiorcy przelewu. Bank nadawcy przelewu musi skontaktować się z bankiem odbiorcy i zweryfikować dane.
W Polsce banki jeszcze sobie z tym nie poradziły, choć podejmują starania, żeby wprowadzić mechanizm pozwalający na "oznaczanie" krążących pieniędzy i identyfikację rachunków słupów. Zdaniem Piotra Mazura, wiceprezesa PKO Banku Polskiego, pozwoliłoby to ograniczyć straty klientów o ok. 40 proc. Obecnie straty wynikające z wyłudzeń, głównie stosujących socjotechnikę, szacowane są przez bankowców na 1,2 mld zł rocznie.
- Jeśli chodzi o identyfikacje beneficjenta przelewów, nie mamy jeszcze wypracowanych standardów - przyznał Jacek Iljin, wiceprezes Alior Banku.
Bankowcy już widzą, że "agentyczna" sztuczna inteligencja podniesie wysoko poprzeczkę, jeśli chodzi o ochronę pieniędzy klientów i ich bezpieczeństwo.
- Stoimy przed jednym z trudniejszych momentów jeśli chodzi o zapewnienie bezpieczeństwa środków naszych klientów - powiedział Piotr Alicki, prezes Krajowej Izby Rozliczeniowej.
"80 proc. problemu to ryzyko"
W zakresie bezpieczeństwa pojawia się jeszcze (co najmniej) jeden problem. Banki mówią - nie udostępniaj nikomu, nigdy i pod żadnym pozorem swoich credentiali. Credentiale to to, co nas identyfikuje w kontakcie z bankiem - dane biometryczne, hasło do bankowości internetowej, PIN do karty itp. Ale jeśli agent ma wykonywać za nas choćby prosty przelew, to przecież musi się jakoś zidentyfikować. A jeśli zostanie przewerbowany lub okradziony z naszych credentiali?
Jeśli to agent "bankowy", teoretycznie bank powinien ponosić odpowiedzialność za wpadkę. Ale jeśli będzie to znacznie słabiej wyszkolony agent domorosły, utworzony gdzieś w sieci na relatywnie tanim portalu wynajmującym lub budującym agentów na zamówienie?
Tymczasem liczba i wartość transakcji oszukańczych rośnie i bez udziału przewerbowanych agentów AI. Według danych Marcina Bizonia, partnera w firmie doradczej EY Polska, takie transakcje pomiędzy I kwartałem 2024 roku a II kwartałem 2025 roku wzrosły o 60 proc.
Artur Głembocki, wiceprezes Santander Bank Polska podaje dane, że w 85 proc. transakcji oszukańczych klienci zostali zmanipulowani i wykonali je świadomie. Ok. 35 proc. z nich polegało na tym, że klient podał oszustowi swoje dane do autoryzacji (czyli credentiale). Bankowe statystyki mówią, że 30 proc. ludzi w Polsce zostało w jakiś sposób dotkniętych wyłudzeniami.
- Technologia to istotny element, ale stanowi tylko 20 proc. problemu. 80 proc. problemu to ryzyko - mówił Błażej Karwowski.
Z drugiej strony teoretyczne modele pokazują, że całościowa transformacja bankowych procesów w taki sposób, żeby zaangażować w nie w pełni agentów AI, pozwoliłaby osiągnąć stosunek pracy agenta do wysiłku człowieka jak 15:1 albo nawet 20:1.
- Te modele już są wprowadzane (…) to szansa dla tradycyjnych banków, żeby dogonić poziom efektywności neobanków czy fintechów - dodał Błażej Karwowski.
- Rozwiązania na pewno obronią się z powodu optymalizacji kosztowej, jednak jest sporo wyzwań z punktu widzenia cyberbezpieczeństwa - mówił Dominik Orłowski, dyrektor ds. usług finansowych w Accenture.
Asymetria informacyjna pomiędzy agentami
Skoro banki tworzą agentów AI do relacji z klientami, to - możemy założyć - robią to w sposób wystarczająco bezpieczny, zgodny z wymaganiami nadzoru, prawem, regulacjami i troską o reputację. Po drodze będą miały kilka przeszkód do pokonania, które staraliśmy się wymienić, choć to tylko niektóre przeszkody.
To pozwala nam wrócić do pierwszego pytania - o konflikt interesów bankowego agenta i o to, czy klient do kontaktów z bankowym agentem nie powinien wystawiać raczej własnego agenta, działającego w jego interesie? Choć - czy potrafiłby napisać takiego prompta? A nawet jeśli tak, czy może takiemu agentowi powierzać swoje credentiale i kto będzie odpowiadał za transakcje, jeśli agent zostanie przewerbowany?
W czasach kiedy Siri czy Gemini jeszcze raczkowały, specjaliści od technologii snuli wizje proklientowskiej rewolucji, podobną do tej, jaką wprowadziły (częściowo) porównywarki internetowe. Pozwalają one klientom porównać oferty różnych instytucji, ceny usług i produktów bankowych, tak jak inne porównywarki pokazują ceny proszku do prania na Allegro. Wprowadzenie porównywarek doprowadziło do - częściowego - zmniejszenia asymetrii informacyjnej, która jest podstawą przewagi, jaką bank ma nad konsumentem. Z drugiej strony doprowadziło to także do - częściowej - komodytyzacji usług i produktów bankowych, co było dla instytucji potężnym ciosem.
Czy agenci klientów będą wyszukiwać dla swoich mocodawców najbardziej korzystną hipotekę? Będą musieli mieć także wysokie kompetencje, a te - jak wiemy - wymagają dostępu do danych. Czy banki będą interfejsy z danymi - np. z pełnymi parametrami swojej oferty - udostępniać? Niewykluczone, że w tym kierunku powinny iść regulacje prokonsumenckie.
A jakie będą konsekwencje, gdy klient pójdzie do sądu i powie - bank nie dopełnił obowiązków informacyjnych wobec mojego agenta? Albo będzie się skarżył, że za błędną i kosztowną decyzję odpowiedzialny jest nie on, lecz jego agent?
Wprowadzanie sztucznej, a zwłaszcza "agentycznej" inteligencji w sektorze finansowym na razie bardziej przypomina żeglugę po nieznanych wodach niż spływ Dunajcem na tratwach ze śpiewającymi góralami. Można przypuszczać, że znajdą się instytucje, które tę sytuację będą chciały wykorzystać do zwiększenia asymetrii informacyjnej i czerpać z tego korzyści. Czy doprowadzą w ten sposób do powstania nowego ryzyka systemowego? Regulatorzy powinni się temu bacznie przyglądać.
Jacek Ramotowski















