Sztuczna inteligencja staje się kluczowym elementem wspierającym codzienne obowiązki i cyfrowe narzędzia, z których coraz częściej korzystamy. Ułatwia automatyzację procesów, zwiększa efektywność biznesu i pozwala lepiej analizować dane. Jednak jej rozwój i wciąż zwiększająca się popularność oraz łatwość użycia niesie również nowe ryzyka – zwłaszcza w obszarze cyberbezpieczeństwa.
W erze AI cyberprzestępczość zyskuje zupełnie nowy wymiar. Przestępcy wykorzystują narzędzia oparte na sztucznej inteligencji do przeprowadzania bardziej wyrafinowanych i trudniejszych do wykrycia ataków. Firmy, instytucje publiczne, a nawet zwykli użytkownicy internetu stają się celem coraz bardziej zautomatyzowanych i personalizowanych działań cyber przestępczych.
Jak AI zmienia krajobraz cyberprzestępczości?
Jednym z najbardziej niepokojących tematów jest wykorzystywanie deepfake’ów – realistycznych, fałszywych obrazów oraz nagrań wideo lub audio, tworzonych przy wykorzystaniu technologii opartych o sieci neuronowe. W 2023 roku głośny był przypadek, w którym nagranie wideo - deepfake przedstawiający dyrektora finansowego znanej firmy doprowadził do przelania kilku milionów euro na konto oszustów. Sztuczna inteligencja pozwalała na perfekcyjne odwzorowanie głosu i mimiki, co zmyliło pracowników.
Równie niebezpieczne są zautomatyzowane ataki phishingowe - polegających na zachęceniu konkretnej osoby do wykonania danej akcji takiej jak: kliknięcia w link z odpowiednio spreparowaną stronę lub podanie danych do logowania. Ataki te wspierane są przez generatywne modele językowe, które potrafią tworzyć przekonujące wiadomości e-mail w wielu językach i są dostosowane do konkretnego odbiorcy. Dzięki analizie profili w mediach społecznościowych AI może przygotować bardzo osobiste, trudne do rozpoznania oszustwa, kierować komunikaty do odpowiednich osób i skutecznie podszywać się pod rzekomych nadawców wiadomości.
Warto też wspomnieć o możliwości zastosowaniu AI w tworzeniu złośliwego oprogramowania (malware). Algorytmy uczące się mogą dostosowywać kod do środowiska ofiary, unikać wykrycia przez klasyczne oprogramowanie antywirusowe, a nawet analizować reakcje systemu w czasie rzeczywistym. Tym samym narzędzia służące do pozyskiwania danych, przechwytywania dostępów do systemów czy też blokujące możliwość dostępu do poszczególnych informacji mogą być wykorzystywane bardziej skutecznie.
Zagrożenia dla firm i instytucji
Dla firm i instytucji publicznych zagrożenia płynące z rozwoju AI są szczególnie poważne. Stawką jest już tylko bezpieczeństwo systemów informatycznych, ale również reputacja, zaufanie klientów, a nawet ciągłość operacyjna.
AI umożliwia przeprowadzanie ataków socjotechnicznych (social engineering) na niespotykaną dotąd skalę. Przykładowo, chatboty mogą podszywać się pod pracowników działów IT lub HR, wyciągając wrażliwe dane od nieświadomych pracowników. Im większa organizacja, tym większe pole manewru dla takiego ataku.
W sektorze finansowym AI pozwala cyberprzestępcom na szybkie analizowanie danych transakcyjnych i wykrywanie luk w zabezpieczeniach. Ataki DDoS (Distributed Denial of Service) - polegające na wykonywaniu dużej ilości zapytań na konkretną usługę dostępną w internecie (np. na stronę internetową), co ma powodować przeciążenie działania tej usługi i docelowo jej niedostępność, są dziś planowane przez algorytmy, które optymalizują moment uderzenia i sposób działania a także starają się przeciwdziałać wykrywaniu i odpowiedniej reakcji na taki atak.
Szczególnie narażone są również sektory medyczny i przemysłowy. W szpitalach coraz częściej wykorzystywane są systemy AI do diagnostyki i zarządzania danymi pacjentów. Przejęcie kontroli nad takim systemem może nie tylko oznaczać wyciek danych, ale stanowić realne zagrożenie dla życia. W przemyśle – ataki na systemy SCADA lub IoT mogą doprowadzić do zatrzymania linii produkcyjnych czy uszkodzenia infrastruktury.
Co istotne, cyberprzestępcy często błyskawicznie testują i wdrażają innowacje, tworzą zorganizowane grupy badawczo-rozwojowe i dzielą się wypracowanymi narzędziami. Niektóre grupy oferują usługi – platformy, które umożliwiają mniej zaawansowanym przestępcom wykorzystanie AI do ataków bez konieczności posiadania specjalistycznej wiedzy technicznej.
Warto zwrócić uwagę, że systemy AI same w sobie stają się wektorem ryzyka. W przeciwieństwie do klasycznego oprogramowania, modele sztucznej inteligencji są trudniejsze do audytowania i mogą zachowywać się w sposób trudny do przewidzenia. W praktyce oznacza to, że organizacja korzystająca z narzędzi AI – takich jak chatboty, asystenci głosowi, narzędzia rekomendacyjne czy generatory treści – są narażone nie tylko na błędne decyzje ale również na celowe manipulacje. Jednym z realnych zagrożeń jest tzw. prompt injection, czyli wstrzykiwanie złośliwych poleceń do modelu AI, które może prowadzić do ujawnienia danych lub zmiany działania systemu. Innym poważnym ryzykiem jest data poisoning, czyli wprowadzanie „skażonych” danych do zbiorów treningowych. Złośliwie spreparowane dane mogą wpłynąć na sposób działania modelu, np. osłabiając jego skuteczność w konkretnych przypadkach. Rośnie także zagrożenie związane z wykorzystywaniem modeli open source, które mogą zawierać intencjonalne błędy, trudne do wykrycia w codziennym użytkowaniu.
Wyścig zbrojeń w cyberbezpieczeństwie
Jak w takim razie walczyć z nowymi rodzajami zagrożeń? Okazuje się, to właśnie AI może być też najskuteczniejszym sposobem obrony. W ostatnich latach obserwujemy wyraźny trend rozwoju systemów bezpieczeństwa opartych na sztucznej inteligencji, które uczą się wykrywać anomalie i reagować na nie w czasie rzeczywistym.
Zamiast statycznych baz danych zagrożeń, coraz częściej stosuje się algorytmy behawioralne, które analizują aktywność użytkowników, urządzeń i sieci. System może wykryć, że użytkownik loguje się o nietypowej porze, z nietypowego miejsca, i zablokować działanie zanim dojdzie do incydentu.
Coraz większe znaczenie mają również systemy typu SOAR (Security Orchestration, Automation and Response), które automatyzują reakcje na incydenty – od izolacji podejrzanego urządzenia, przez wysyłanie alertów, aż po uruchamianie procedur przywracania danych.
Funkcjonują już modele AI, odpowiedzialne za rozpoznawanie treści (obrazu, nagrań audio oraz video) wygenerowanych od treści oryginalnych, które mogą zapobiegać podszywaniu się pod inną osobę. Podobnie, tego typu rozwiązania mogą pomóc walczyć z dezinformacją propagowaną za pomocą automatycznych narzędzi.
Jest to wyścig - każde nowe narzędzie defensywne spotyka się z próbami obejścia go przez przestępców. Pojawia się też pytanie: czy człowiek nadąża za AI? W wielu firmach brakuje nie tylko narzędzi, ale i kompetencji by w pełni wykorzystać potencjał obronny sztucznej inteligencji.
Jak się bronić? Rekomendacje i dobre praktyki
Choć zagrożenia są poważne, istnieje szereg działań, które mogą znacząco zwiększyć odporność organizacji na ataki w erze AI.
Dla małych i średnich firm wykorzystanie AI staje się coraz bardziej dostępne. Narzędzia do automatyzacji marketingu, obsługi klienta czy analizy danych często korzystają z gotowych modeli, które nie zawsze są przejrzyste pod kątem źródeł danych i bezpieczeństwa. W wielu przypadkach MŚP nie dysponują własnym zespołem cyberbezpieczeństwa, dlatego polegają na zewnętrznych dostawcach, co zwiększa zależność i podatność na błędy w łańcuchu usług. Brakuje też świadomości, że system AI może nie tylko zostać zaatakowany, ale też samodzielnie wygenerować niebezpieczne treści – np. błędną rekomendację kredytową, e-mail z nieetyczną treścią czy analizę naruszającą prywatność. Firmy powinny zwrócić szczególną uwagę na proces wyboru narzędzi AI, zadając pytania o audytowalność modeli, sposób ich aktualizacji oraz mechanizmy ochrony danych. Nawet jeśli nie posiadają własnych specjalistów, mogą skorzystać z usług doradczych lub certyfikowanych rozwiązań, które oferują wyższy poziom kontroli i zgodności z regulacjami.
Konieczne jest przede wszystkim zwiększanie świadomości co do istniejących zagrożeń i zwiększona ostrożność. Szkolenia z zakresu cyberbezpieczeństwa powinny objąć wszystkich pracowników instytucji, nie tylko dział IT. Jest to konieczne, aby zmniejszyć ryzyko skutecznego ataku phishingowego czy bycia podatnym na manipulację.
Warto rozważyć, a w większych organizacjach należy koniecznie wdrożyć systemy detekcji zagrożeń, analizy behawioralnej czy SIEM (Security Information and Event Management) opartych o sztuczną inteligencję.
W podmiotach, które samodzielnie rozwijają oprogramowanie koniecznie należy regularnie wykonywać testy penetracyjne oraz audyty kodu. W firmach korzystających z zewnętrznych systemów należy wymagać od dostawców IT raportów z takich audytów a także dodatkowych informacji dotyczących bezpieczeństwa oprogramowania. Warto korzystać z renomowanych, sprawdzonych i zaufanych dostawców, którzy zapewniają bieżącą reakcję na możliwe incydenty bezpieczeństwa i regularną aktualizację swoich rozwiązań.
Aby skutecznie ograniczyć ryzyko związane z podatnościami wewnątrz samych systemów AI, firmy powinny wdrażać kilka kluczowych zasad. Przede wszystkim – modele wykorzystywane w środowiskach produkcyjnych powinny podlegać procesowi walidacji, obejmującemu testy odporności na nieautoryzowane zachowania i próby wstrzyknięcia poleceń (np. przez nietypowe dane wejściowe). Należy unikać bezpośredniego udostępniania modeli LLM (np. chatbota) dla użytkownika końcowego bez odpowiednich filtrów lub warstw pośredniczących, które zapobiegałyby takim nadużyciom.
W kontekście uczenia modeli, ważne jest monitorowanie jakości zbiorów danych, ich źródła i integralności – szczególnie jeśli są one pozyskiwane z zewnętrznych, automatycznych źródeł (np. sieci społecznościowe). Można stosować techniki wykrywania anomalii w danych treningowych i przygotowywać odpowiedni dane przed użyciem ich w modelu.
Dodatkowo, organizacje powinny stosować zasadę ograniczonego zaufania również wobec komponentów AI – zwłaszcza open source. Każdy model lub komponent wdrażany w organizacji powinien posiadać dokumentację, kontrolę wersji oraz być regularnie audytowany pod kątem bezpieczeństwa. Warto także rozważyć użycie tzw. AI red teaming - symulowanych ataków prowadzonych przez zespoły ekspertów, podobnie jak w klasycznych testach penetracyjnych.
W polityce bezpieczeństwa firmy należy uwzględnić zmiany i ryzyka, jakie niesie ze sobą AI wykorzystane przez cyberprzestępców. Konieczna jest aktualizacja procedur reagowania na incydenty, przechowywania danych i autoryzacji dostępu.
Sztuczna inteligencja odegrała przełomową rolę w zwiększeniu skali i skuteczności kampanii dezinformacyjnych. Tego typu technologia jest wykorzystywana również do wywierania wpływu na opinię publiczną – np. w czasie wyborów czy w sytuacjach kryzysowych. AI pozwala także profilować użytkowników i precyzyjnie dostosowywać do nich przekaz dezinformacyjny, zwiększając jego skuteczność. Bezpieczeństwo informacyjne staje się dziś integralną częścią cyberbezpieczeństwa – organizacje powinny monitorować źródła informacji, reagować na fałszywe treści krążące wokół ich marki oraz inwestować w technologie wykrywające manipulacje medialne.
W erze sztucznej inteligencji cyberzagrożenia stają się bardziej złożone, trudniejsze do wykrycia i potencjalnie bardziej szkodliwe niż kiedykolwiek wcześniej. Przestępcy często wyprzedzają rozwój technologiczny narzędzi i systemów, które mają z nimi walczyć. Dlatego konieczne jest podjęcie konkretnych kroków.
Eksperci przewidują, że w ciągu najbliższych 2–3 lat nastąpi skokowy wzrost automatyzacji zarówno ataków, jak i systemów obrony. Zobaczymy więcej narzędzi opartych na uczeniu ze wzmocnieniem, które same będą uczyć się jak omijać lub wzmacniać zabezpieczenia. Równocześnie wzrośnie nacisk na transparentność algorytmów - zw. explainable AI - czyli algorytmy, których decyzje można zrozumieć i przeanalizować oraz konieczność dokumentowania decyzji podejmowanych przez maszyny – nie tylko z powodów bezpieczeństwa, ale też zgodności z regulacjami.
Organizacje które chcą zachować konkurencyjność i bezpieczeństwo, muszą inwestować w nowoczesne narzędzia, rozwijać kompetencje cyfrowe wśród pracowników i utrzymywać aktualną wiedzę na temat zmieniających się dynamicznie zagrożeń. W świecie AI ochrona bezpieczeństwa informatycznego to nie koszt – to inwestycja w przetrwanie i rozwój.