Wykorzystanie sztucznej inteligencji (AI) do przeprowadzania fraudów
źródło: opracowanie własne
Uruchomiony w pod koniec listopada 2022 roku ChatGPT to opracowany przez OpenAI chatbot oparty na modelu językowym, którego działanie polega na generowaniu przez sztuczną inteligencję szeroko pojętych treści w odpowiedzi na wytyczne przekazane przez uczestnika konwersacji. Został on udostępniony publicznie bez konieczności wnoszenia jakichkolwiek opłat, więc bardzo szybko zyskiwał (i oczywiście wciąż zyskuje) na popularności. Już w styczniu 2023 roku został najszybciej rozwijającą się aplikacją konsumencką w historii, zyskując ponad 100 milionów użytkowników.
Nic więc dziwnego, że w bardzo krótkim czasie powstało wiele innych aplikacji opartych na podobnym schemacie - Google, Baidu i Meta wypuściły swoje, konkurencyjne, produkty - odpowiednio: Bard, Ernie Bot i LLaMA w niespełna kilka miesięcy po upublicznieniu dzieła OpenAI. Choć ChatGPT posiada reguły, które mają powstrzymać użytkowników przed nieetycznym używaniem chatbota (takich jak odmowa wykonania zadań związanych z przestępczością czy tworzeniem złośliwego oprogramowania) wiele osób i organizacji publicznie wyraża zaniepokojenie związane z jego działaniem (a także z działaniem innych dużych modeli językowych (LLM - Large Language Model)) – od możliwości wykorzystania go do popełnienia plagiatu czy tworzenia wyglądających bardzo wiarygodnie nieprawdziwych wiadomości aż do bardziej złożonych przestępstw jak wyłudzenia, przeprowadzanie ataków BEC (Business Email Compromise) czy tworzenie treści phishingowych. Szybko okazało się, że takie obawy są uzasadnione…
oszuści mogą wykorzystywać sztuczną inteligencję do własnych celów [opracowanie własne przez stable diffusion]
Jailbreaks, czyli obchodzenie zabezpieczeń
To, że publicznie znane duże modele językowe mają zasady, których muszą przestrzegać, nie oznacza, że nie ma ukrytych taktyk, które pozwalają przekonać je do podjęcia określonych działań. Jailbreaks to konkretne polecenia i dane wejściowe mające na celu oszukanie algorytmu głębokiego uczenia tak, aby podał on odpowiedź, mimo że może ona naruszać jego zasady działania. Może to spowodować na przykład wyciek prywatnych informacji, wygenerowanie zabronionych treści lub stworzenie szkodliwego kodu.
O obchodzeniu regulaminu narzędzia stworzonego przez OpenAI już jest głośno. Znane są już przypadki studentów złapanych na plagiacie popełnionym przy użyciu ChatuGPT czy też rozpowszechniania dezinformacji i propagandy z wykorzystaniem treści przez niego stworzonych. Amerykańska Federalna Komisja Handlu (FTC) prowadzi też dochodzenie w sprawie przetwarzania przez sztuczną inteligencję danych osobowych.
Złośliwe modele LLM
Podobnie jak przedstawiciele wielu firm widocznych w sieci również cyberprzestępcy są bardzo zainteresowani modelami LLM. Nic więc dziwnego, że już powstają odpowiedniki ChatuGPT dla darknetu – o dwóch modelach języka naturalnego działających podobnie jak program OpenAI (ale nielegalnie!) już jest głośno. Omówimy je poniżej.
WormGPT to narzędzie promowane na forach hakerskich przez osobę przedstawiającą się jako Last lub Laste. Świat dowiedział się o nim 13 lipca 2023 roku, gdy badacze z firmy SlashNext zajmującej się cyberbezpieczeństwem opublikowali o nim wpis na swoim blogu. W tekście opisano wrażenia pracowników firmy SlashNext po tym jak uzyskali dostęp do WormGPT i go przetestowali. Samo narzędzie powstało w oparciu o darmowy model językowy GPT-J z 2021 roku, który został stworzony na zasadach open source przez instytut badawczy non-profit obecnie znany jako EleutherAI Foundation. WormGPT opisywane jest jako moduł AI przeszkolony w szerokim zakresie źródeł danych, w tym szczególnie tych związanych ze złośliwym oprogramowaniem (jak fora w darknecie, przewodniki hakerskie, próbki złośliwego oprogramowania, szablony phishingowe itp.). Choć narodził się rzekomo już w marcu 2021 roku, dostęp do platformy na popularnym forum hakerskim kupić można od czerwca tego roku. W swoich materiałach reklamowych Laste prezentuje między innymi potencjał wykorzystania generatywnej sztucznej inteligencji do stworzenia phishingowej wiadomości e-mail i tworzenia kodów złośliwego oprogramowania. Ten hakerski Chatbot jest pozbawiony jakichkolwiek ograniczeń etycznych.
Kilka dni po ujawnieniu WormGPT, 22 lipca 2023 roku, analitycy cyberbezpieczeństwa z zespołu badawczego Netenrich donieśli światu o innym podobnym narzędziu ułatwiających popełnianie oszustw w internecie – FraudGPT. Jest to duży model językowym podobny do ChatuGPT stworzony wyłącznie do działań ofensywnych i dostępny po uiszczeniu opłaty na rynkach Dark Web i Telegramie.
Jakie zagrożenia wynikają z istnienia takich narzędzi?
Nie da się dokładnie wyliczyć zagrożeń jakie mogą wiązać się z istnieniem i rozpowszechnianiem tego typu narzędzi – ich zastosowań dla cyberprzestępczości jest z pewnością bardzo wiele, do najbardziej znanych należą:
- rozpowszechnianie dezinformacji i propagandy
- przeprowadzanie ataków typu Business Email Compromise (BEC)
- tworzenie złośliwego oprogramowania i kodu
- generowanie emaili i wiadomości oraz stron phishingowych
- kradzież i ujawnianie poufnych danych
- łamanie zabezpieczeń, w tym omijanie oprogramowania antywirusowego
- tworzenie samouczków dotyczących technik i narzędzi hackerskich
- generowanie wysoce przekonujących fałszywych wiadomości, spersonalizowanych pod kątem odbiorcy oraz
- docieranie do ofiar poprzez tworzenie realistycznych osobowości.
Największym zagrożeniem jest natomiast niska poprzeczka wejścia. Łatwość obsługi sprawia, że oszust nie musi nawet posługiwać się językiem w jakim chce dokonać oszustwa (na przykład wygenerować treść wiadomości), ani posiadać wiedzy na temat technik wykorzystywanych przy fraudzie, jakiego chce się dopuścić – wszystko zrobi za niego sztuczna inteligencja (AI).
Ile trzeba zapłacić za dostęp do tego typu narzędzi?
W przeciwieństwie do ChatuGTP dostęp do jego odpowiedników dla cyberprzestępców nie jest darmowy, przy czym w obu przypadkach opłaty trzeba dokonać walutą cyfrową. Cena miesięcznej subskrypcji WormGPT wacha się od 60 (około 265 zł) do 100 euro (około 443 zł), a roczny dostęp to koszt 550 euro (około 2 436 zł). Nie zniechęca to jednak zainteresowanych – podobno program ma już ponad 1500 użytkowników. Loste oferuje też prywatną wersję za 5000 euro (około 22 145 zł), która obejmuje roczny dostęp do WormGPT v2 - bardziej zaawansowanego, poprawionego wariantu WormGPT.
Jeśli chodzi o FraudGPT miesiąc używania programu to koszt od 90 (około 364 zł) do nawet 200 USD (około 809 zł), istnieje też możliwość wykupienia dostępu na 3 miesiące za od 230 (około 931 zł) do 450 USD (około 1 821 zł), abonamentu półrocznego za od 500 (około 2 023 zł) do 1000 USD (około 4 056 zł) oraz rocznego za od 800 (około 3 237 zł) do 1700 USD (około 6 878 zł). Nie wiadomo z czego wynikają tak duże różnice, jeśli chodzi o koszt dostępu do programu.
Omówione powyżej dwa znane przypadki generatywnych modeli języka naturalnego stworzonych z myślą o fraudach to z pewnością kropla w morzu rozwiązań AI jakie już teraz wykorzystują cyberprzestępcy. Najbardziej przeraża fakt, że nawet niedoświadczony oszust może dzięki nim łatwo dokonać fraudu. Zastosowanie sztucznej inteligencji w phishingu i atakach BEC może zmienić je z łatwych do uniknięcia sytuacji w wyrafinowane operacje, które mają zdecydowanie większe szanse powodzenia, a to niestety dopiero początek. Ważne więc aby być przygotowanym i zachować czujność. Aby chronić się przed potencjalnymi atakami należy zadbać o to, aby wszyscy pracownicy używali silnych haseł, uwierzytelniania wieloskładnikowego, na bieżąco uaktualniali oprogramowania antywirusowe (i inne) i odbywali regularne szkolenia z zakresu cyberbezpieczeństwa.