Przyszłość finansów: oto 10 najważniejszych innowacji FinTech nie tylko w 2024 roku
Poznaj innowacyjne trendy, które będą kształtować branżę FinTech w 2024 roku. Odkryj, jak nowe technologie wpływają na przyszłość usług finansowych.
O zastosowaniu sztucznej inteligencji w sektorze finansowym — z perspektywy zarówno oszustów, jak i specjalistów ds. zabezpieczeń.
Z raportu ABA Banking Journal z listopada 2022 r. wynika, że branża finansowa i sektor bankowy ucierpiały w znacznym stopniu ze względu na oszustwa, a każdy 1 dolar utracony w wyniku oszustwa kosztuje obecnie 4,36 dolara w powiązanych wydatkach, np. w opłatach za obsługę prawną. Ponieważ koszty te nadal rosną, sztuczna inteligencja (AI) stała się swego rodzaju mieczem obosiecznym — narzędziem, które może być wykorzystywane zarówno przez oszustów, jak i specjalistów od ich wykrywania. Artykuł stanowi omówienie tej podwójnej roli sztucznej inteligencji. Głównym celem jest pokazanie, w jaki sposób sztuczna inteligencja może być wykorzystywana do popełniania oszustw, ale także w jaki sposób technologia ta może pomóc im zapobiegać.
Koszty oszustw w sektorze bankowym i finansowym to złożona kwestia, która wpływa na kondycję finansową tych instytucji, a także na zaufanie ich klientów. Oszustwa bankowe stają się coraz poważniejszym problemem, który wymaga coraz większej czujności i ostrożności. Na szczęście rozwijają się też jednocześnie zaawansowane rozwiązania, które mają na celu zapobiegać tego typu sytuacjom lub łagodzić ich skutki.
Ostatnio było dość głośno o kilku większych przypadkach oszustw w sektorze bankowym. Przypadki te dobitnie przypominają nam o tym, że oszustwa wśród instytucji finansowych są czymś wszechobecnym. Stąd też tak ważna jest potrzeba wdrażania sprawdzonych, solidnych mechanizmów ochrony.
Jak już wspomniano, oszustwa w sektorze finansowym to kwestia, na którą należy spojrzeć dwojako. Z jednej strony sztuczna inteligencja może potencjalnie zwiększyć ryzyko występowania oszustw, ponieważ dzięki niej oszuści zyskują dostęp do zaawansowanych narzędzi. Z drugiej jednak strony, sztuczna inteligencja może zmniejszyć ryzyko wystąpienia nieuczciwych działań czyniąc systemy bankowe i finansowe bardziej odpornymi na próby oszustw. Dlatego też kluczowe znaczenie dla instytucji finansowych mają inwestycje w zaawansowane systemy wykrywania oszustw i zapobiegania im oparte na sztucznej inteligencji, a także opowiadanie się za większą liczbą standardów zgodności, mechanizmów wykrywania oszustw, odpowiednich narzędzi i przepisów, które mogłyby regulować korzystanie ze sztucznej inteligencji.
Oszustwa, w których wykorzystuje się sztuczną inteligencję i których celem jest branża finansowa i sektor bankowości internetowej budzą coraz większe obawy. Oszuści coraz częściej sięgają po zaawansowane technologie i specjalistyczne narzędzia, aby realizować coraz bardziej wymyślne scenariusze. Oto kilka przykładów oszustw z udziałem sztucznej inteligencji.
Oszuści wykorzystują sztuczną inteligencję do generowania syntetycznych tożsamości, które stanowią połączenie prawdziwych i fałszywych informacji. Wykorzystują te tożsamości do otwierania fałszywych kont i dokonywania transakcji na tych kontach. Sztuczna inteligencja jest w stanie generować bardzo realistyczne dane osobowe, przez co tradycyjne systemy wykrywania oszustw nie zawsze są w stanie uznać tego typu dane i tożsamości za nieprawdziwe. Według VentureBeat oszuści zbierają duże ilości informacji identyfikowalnych osobowo (PII – personally identifiable information) – począwszy od wszelkich numerów identyfikacyjnych czy dat urodzenia – w celu stworzenia nowych syntetycznych tożsamości.
Te syntetyczne tożsamości są często tworzone przy użyciu legalnych informacji ze skradzionych danych, które obejmują m.in. numery ubezpieczenia społecznego, natomiast sfałszowane informacje to np. zmyślone nazwiska, adresy lub daty urodzenia. Algorytmy AI potrafią tworzyć syntetyczne tożsamości, które wyglądają bardzo przekonująco i są nawet w stanie przejść tradycyjne procesy weryfikacyjne. Tożsamości te są wykorzystywane do otwierania kont bankowych, ubiegania się o kredyt, dokonywania fałszywych transakcji i/lub fałszywych zakupów, co oczywiście prowadzi do znacznych strat finansowych na skutek przejęcia kont prawdziwych osób.
Sztuczna inteligencja może tworzyć tzw. deepfakes, czyli bardzo realistyczne zdjęcia, materiały filmowe lub audio, które nie są prawdziwe. W sektorze finansowym oszuści mogą wykorzystywać technologię deepfake do podszywania się pod członków kadry kierowniczej, czy innych pracowników wysokiej rangi, aby autoryzować fałszywe lub nieautoryzowane transakcje na kontach bankowych albo np. manipulować cenami akcji. Jak donosi FinTech Futures, oszust może stworzyć fałszywą wersję wnioskodawcy i użyć jej do otwarcia konta, omijając wiele wymogów prawnych i mechanizmów kontroli. W ten sposób jest w stanie szybko przejąć czyjeś konto, a właściciel tego konta może nawet nie mieć świadomości tego, że coś takiego miało miejsce.
Deepfakes korzystają z potencjału sztucznej inteligencji i uczenia maszynowego, aby modyfikować lub tworzyć obraz i dźwięk. Technologia ta generuje realistyczne zdjęcia i filmy przedstawiające ludzi mówiących rzeczy, których nigdy nie mówili i wykonujących czynności, których nigdy nie wykonywali, co może prowadzić do kradzieży tożsamości i manipulacji. Dobrym przykładem jest tu deepfake Toma Cruise’a, stworzony przez artystę VFX Chrisa Umé. Nagranie ma milony wyświetleń na TikToku. Deepfake był tak przekonujący, że wywołał cały szereg dyskusji na temat jego autentyczności. Warto zapoznać się z artykułem CNN i tym YouTube video aby dowiedzieć się, jak powstał ten deepfake i czym zaowocował.
Sztuczna inteligencja i uczenie maszynowe mogą być stosowane w automatyzacji procesu hakowania. Sztuczna inteligencja może być na przykład wykorzystywana do przeprowadzania ataków siłowych, w ramach których narzędzie hakujące używa każdej możliwej kombinacji w celu złamania hasła. Sztuczna inteligencja może być również wykorzystywana do wykrywania luk w systemie, które można później wykorzystać na potrzeby ataku hakerskiego. Według MDPI hakerzy mogą korzystać z algorytmów AI, aby uzyskać dostęp do chronionych danych (tzw. naruszenie danych) lub identyfikować słabe punkty w systemach bezpieczeństwa banków.
Mówiąc językiem bardziej technicznym, sztuczna inteligencja może być stosowana do automatyzacji procesu wykrywania i wykorzystywania wszelkich słabości i niedoskonałości oprogramowania i sprzętu komputerowego. Może to obejmować m.in. wykrywanie słabych haseł za pomocą ataków siłowych (ang. brute force) czy wyszukiwanie niezabezpieczonych elementów oprogramowania. Sztuczna inteligencja może być również wykorzystywana do automatyzacji procesu tworzenia i dystrybucji złośliwego oprogramowania, czyniąc je bardziej wydajnym i skutecznym w infekowaniu systemów i trudniej wykrywalnym. Z pomocą AI można tworzyć np. polimorficzne złośliwe oprogramowanie, które zmienia swój kod, żeby nie dać się wykryć systemom wykrywania opartego na sygnaturach.
Sztuczna inteligencja może być stosowana do przeprowadzania wyrafinowanych ataków socjotechnicznych. Dzięki AI można na przykład analizować profile danej osoby w mediach społecznościowych i inną aktywność online, aby stworzyć spersonalizowane wiadomości phishingowe, które mają większe szanse odnieść oczekiwany skutek. Sztuczna inteligencja zmienia istotę inżynierii społecznej, ułatwiając oszustom pozyskiwanie danych behawioralnych w celu manipulowania, wywierania wpływu lub oszukiwania innych osób, czego efektem ma być przejęcie kontroli nad systemem komputerowym osoby oszukanej — co z kolei może prowadzić do kradzieży tożsamości.
Mówiąc bardziej szczegółowo, dzięki AI można analizować ogromne ilości danych z różnych źródeł, w tym z profili w mediach społecznościowych, ciemnej sieci (tzw. dark web), aktywności online, a nawet komunikacji osobistej, dzięki czemu oszuści są w stanie tworzyć wysoce spersonalizowane i przekonujące wiadomości phishingowe. Wiadomości te mogą być dostosowane do zainteresowań, aktywności, a nawet stylu pisania danej osoby, co zwiększa prawdopodobieństwo ich otwarcia i podjęcia oczekiwanych działań.
Narzędzia AI mogą być bardzo przydatne na potrzeby phishingu. Jak donosi Forbes, badacze przeprowadzili eksperyment, w ramach którego wykorzystali zaawansowaną technikę o nazwie Indirect Prompt Injection, aby zmusić chatbota Bing do podszywania się pod pracownika Microsoftu, a następnie wygenerowali wiadomości phishingowe, które wymagały od użytkownika weryfikacji danych z karty kredytowej.
Przykłady te pokazują, jak groźne i brzemienne w skutki może być zastosowanie sztucznej inteligencji w sektorze finansowym, jeśli za jej sterami stoi ktoś o złych zamiarach. Dlatego też instytucje finansowe powinny być na bieżąco z najnowszymi doniesieniami w obszarze AI i stawiać na zaawansowane środki bezpieczeństwa, aby przeciwdziałać istniejącym zagrożeniom.
Za nami kilka przykładów ilustrujących, w jaki sposób sztuczna inteligencja może być wykorzystywana do nieuczciwych działań. Warto zatem teraz spojrzeć na sztuczną inteligencję jako potężne narzędzie do wykrywania oszustw i przyjrzeć się jej zastosowaniu w rozwiązaniach zapobiegających oszustwom. Wraz z rozwojem technologii ewoluują również metody wykrywania oszustw. W tej części artykułu skupiamy się na osiągnięciach w dziedzinie sztucznej inteligencji, które mogą znacznie poprawić skuteczność wykrywania prób oszustw w sektorze finansowym i zapobiegania im.
Kiedy myślimy o przyszłości branży usług finansowych, nie ma wątpliwości, że sztuczna inteligencja odegra niezwykle istotną rolę w obszarze możliwości wykrywania oszustw. Na tym jednak nie koniec. W następnej części artykułu przyjrzymy się szerszemu zastosowaniu sztucznej inteligencji w kontekście przyszłości oszustw bankowych i branży finansowej. Warto być na bieżąco, aby wiedzieć, w jaki sposób sztuczna inteligencja może zrewolucjonizować świat finansów, kiedy zostanie wykorzystana nie tylko jako narzędzie wspomagające wykrywanie oszustw.
Sztuczna inteligencja będzie z dużą pewnością odgrywać bardzo ważną rolę w kształtowaniu przyszłości branży finansowej i sektora bankowego. Wraz z dalszym rozwojem tej technologii, narzędzia AI staną się zapewne integralnym elementem branży finansowej i będą stosowane jako rozwiązania pomagające osiągać lepsze wyniki, obniżać koszty i poprawiać jakość obsługi klienta. Coraz większa i lepsza dostępność AI oznacza też jednak, że może być częściej wykorzystywana w złej wierze. Dlatego też instytucje finansowe muszą stale prowadzić zaawansowane analizy i wdrażać oparte na sztucznej inteligencji systemy wykrywania oszustw i zapobiegania im.
W najbliższej przyszłości możemy spodziewać się większej liczby standardów zgodności, mechanizmów wykrywania oszustw, zarządzania oszustwami, oceny ryzyka, kar i regulacji prawnych, które mogą pomóc nadać właściwy kierunek zastosowaniu sztucznej inteligencji w sektorze finansowym. W ten sposób możemy zyskać pewność, że sztuczna inteligencja będzie działać na korzyść – a nie na niekorzyść – sektora finansowego i bankowego.
Oczywiście istnieją już standardy i przepisy dotyczące stosowania sztucznej inteligencji w tych sektorach. I choć mogą one różnić się w zależności od kraju, mają na ogół na celu zapewnić, że z AI korzysta się w odpowiedzialny i etyczny sposób. Poniżej kilka ważnych, wiarygodnych źródeł, które omawiają tę kwestię bardziej szczegółowo:
Artykuły te stanowią źródło wielu cennych informacji na temat sztucznej inteligencji. Z pewnością okażą się pomocne w zrozumieniu obecnego stanu przepisów dotyczących stosowania sztucznej inteligencji w sektorze finansowym i bankowym.
Biorąc pod uwagę stały rozwój technologii, wydaje się oczywistym, że sztuczna inteligencja może być wykorzystywana zarówno w dobrym, jak i złym celu. I chociaż to, jakie możliwości AI daje oszustom, nie napawa optymizmem, postępy w obszarze wykrywania i zapobiegania oszustwom opartym na AI są naprawdę obiecujące. Systemy te stają się coraz bardziej zaawansowane i są w stanie wykrywać i skutecznie rozpoznawać złożone wzorce i zachowania wskazujące na oszustwa.
Jeśli instytucjom finansowym zależy na bezpiecznej przyszłości, powinny one stale inwestować w odpowiednie zabezpieczenia i działać na rzecz większej liczby standardów zgodności, mechanizmów zapobiegania oszustwom, a także zasad, które regulują korzystanie ze sztucznej inteligencji. W ten sposób możemy zyskać pewność, że sztuczna inteligencja stanie się naszym sprzymierzeńcem i będzie działać na korzyść — a nie na niekorzyść — sektora finansowego i bankowego.
Jeśli chcesz dowiedzieć się więcej na temat tego, jak można wykorzystać sztuczną inteligencję, aby utrzymać zaufanie klientów na wysokim poziomie i skutecznie zapobiegać oszustwom i praniu brudnych pieniędzy w sektorze bankowym i finansowym, skontaktuj się z nami.
* USA i Kanada, obowiązują wyjątki
Rozpocznij rozmowę
Chętnie odpowiemy na Twoje pytania. Skorzystaj z poniższego formularza, aby skontaktować się z nami. Odezwiemy się do Ciebie wkrótce.