Czy sztuczna inteligencja pracuje już dla przestępców?

utworzone przez | lis 3, 2025 | AI, Bezpieczeństwo informacji | 0 komentarzy

Czy sztuczna inteligencja (AI) stanowi rzeczywiste zagrożenie? Czy może przełamać zabezpieczenia? Czy to już ten moment? Czy AI potrafi wykorzystać zaawansowaną wiedzę psychologiczną, by przekonać pracownika do pobrania i uruchomienia złośliwego oprogramowania? Jak przebiega taki atak?

Firmy i organizacje na całym świecie już odczuwają skutki użycia AI w atakach hackerskich, przy czym raporty ujawniają, że nadal najsłabszym elementem jest… człowiek. Cyberprzestępcy bezwzględnie wykorzystują nowe technologie oraz podatności wynikające z codziennego zaangażowania pracowników w zadania operacyjne. Chociaż socjotechnika i wpływanie na człowieka nie jest nowym zjawiskiem, sztuczna inteligencja sprawiła, że ataki stały się bardziej spersonalizowane – „twórcze” i kreatywne.

Socjotechnika, stojąca za sprytnie ułożonymi fałszywymi mailami jest skuteczna szczególnie tam gdzie pracownik nie zdaje sobie sprawy, że zagrożenie jego dotyczy właśnie jego. Cyberprzestępcy dzięki rozwojowi sztucznej inteligencji dostali nowe narzędzia dzięki, którym mogą lepiej przygotować się do ataku i podszywać się pod prawdziwe osoby funkcyjne w firmie. Według najnowszych raportów atakujący coraz częściej biorą na celowniki działy helpdesk i procesy wsparcia IT oraz osoby nadające uprawnienia w systemach. Do ataku mogą zostać wykorzystane próbki głosu pracowników, użyte następnie w rozmowie telefonicznej. Technologia sztucznej inteligencji pozwala skutecznie naśladować np. konkretną osobę, która dzwoni na helpdesk z prośbą o nowe hasło lub dyrektora, który prosi o przelew. Czy to naprawdę działa?

1. Czy to, aby nie przesada?

Pojawia się jednak pytanie, czy obawy nie są zbyt przesadzone? Jakie są fakty? Obecnie Internet zalewa fala sztucznych tekstów generowanych modele językowe, które z natury są skore do „fantazjowania”. Utrudnia to ocenę, co jest prawdą, a co „fikcją literacką” także na temat ataków z użyciem sztucznej inteligencji.

Problem polega na tym, że nawet eksperci nie są zgodni, czy AI rzeczywiście „hakują ludzi” na masową skalę, czy jedynie wspierają cyberprzestępców w tworzeniu bardziej przekonujących wiadomości? Mamy zatem klasyczny produkt naszych czasów: chaos informacyjny. Jedni wieszczą rewolucję, inni wzruszają ramionami, twierdząc, że to wciąż tylko drogie zabawki dla entuzjastów.

W międzyczasie raporty Palo Alto Networks (Unit 42) i Microsoftu z 2025 roku donoszą, że ok jedna trzecia incydentów zaczyna się dziś od inżynierii społecznej i manipulacji pracownikiem — coraz częściej podlanej właśnie sztuczną inteligencją. Na jednym końcu mamy więc entuzjazm i wizję „hakera-bota”, który sam planuje, pisze, dzwoni i kasuje ślady po sobie. Na drugim — twarde dane pokazujące, że większość przestępców nadal korzysta z gotowych zestawów phishingowych i kopiowanych szablonów maili ponieważ pracownicy nie są odporni nawet na proste triki tekstowe w mailach i po prostu klikają…

2. Raport Intel 471

Przyjrzyjmy się zatem wiarygodnym źródłom. Intel 471 To prywatna firma zajmująca się wywiadem cybernetycznym (cyber threat intelligence). Specjalizuje się w monitorowaniu działalności cyberprzestępczej w tzw. undergroundzie – na forach, w kanałach komunikacji i na darknecie. Można powiedzieć, że doskonale znają realia cyberprzestępczego podziemia.

Raport Intel 471 wskazuje, że cyberprzestępcy nie śpieszą się z pełną integracją tej technologii w swoich metodach. „Chociaż AI często przedstawiana jest jako przełom w zakresie inżynierii społecznej, w kontekście phishingu większość cyberprzestępców nadal opiera się na platformach phishing-as-a-service i gotowych zestawach narzędzi, wykorzystując AI głównie do tworzenia treści i lokalizacji językowej – nie do pełnej automatyzacji czy innowacji” – napisali badacze.

Raport wskazuje trzy główne powody tego zjawiska: a) ograniczenia obliczeniowe, b) trudność integracji AI z narzędziami hakerskimi, c) skuteczność obecnych technik. Włączenie AI do cyberataków wymaga trenowania lub konfigurowania modeli, automatyzacji w infrastrukturze ataku, integracji z systemami dostarczania i opracowania metod omijania detekcji – co pochłania czas, który hakerzy wolą poświęcić na działania przynoszące zyski. W efekcie przestępcy wolą korzystać z „gotowych zestawów phishingowych”, które są łatwiejsze we wdrożeniu, szybsze w użyciu i mają sprawdzoną skuteczność.

Raport wspomina o call center używającym trzech modeli AI, w tym jednego od Google i jednego od OpenAI. W innym przypadku cyberprzestępca reklamował usługę bota głosowego AI, który miał skuteczność kradzieży danych u 10% ofiar. Obecnie jednak „istnieją ograniczone dowody na obecność narzędzi opartych o AI na czarnym rynku” – podkreśla Intel 471 – a „dyskusje wśród cyberprzestępców rzadko odnoszą się do operacyjnego wykorzystania generatywnej AI”. Firma konkluduje, że „praktyczne zastosowanie” AI w cyberprzestępczości „wciąż jest w powijakach”, a powszechne użycie nastąpi dopiero wraz ze spadkiem kosztów hostingu modeli i pojawieniem się „nowoczesnych zestawów AI porównywalnych z obecnymi ofertami PhaaS”. Intel 471 mimo wszystko przewiduje wzrost ataków z wykorzystaniem deepfake.

3. Unit 42

Choć raport Intel 471 może wydawać się „uspokajający”, inne źródła przedstawiają zdecydowanie bardziej niepokojący obraz sytuacji. Unit 42 to zespół ekspertów od cyberzagrożeń należący do firmy Palo Alto Networks – jednej z największych na świecie firm tworzących technologie chroniące sieci i dane przed atakami hakerów.

W raporcie zespołu czytamy „Obserwujemy, że inżynieria społeczna ewoluuje w 2025 roku w jeden z najbardziej niezawodnych, skalowalnych i wpływowych sposobów uzyskiwania dostępu do systemów z pięciu kluczowych powodów: Po pierwsze, inżynieria społeczna pozostaje najczęstszym wektorem początkowego dostępu w sprawach obsługiwanych przez Unit 42 w ramach reagowania na incydenty między majem 2024 a majem 2025 roku – 36% wszystkich incydentów rozpoczęło się od zastosowania technik inżynierii społecznej [skierowanej na pracowników]. Ataki te konsekwentnie omijały zabezpieczenia techniczne, wykorzystując schematy ludzkiego zachowania, zaufanie oraz manipulując systemami zarządzania tożsamością. Ponad jedna trzecia przypadków inżynierii społecznej obejmowała techniki inne niż phishing, takie jak zatruwanie wyników wyszukiwania (SEO poisoning), fałszywe komunikaty systemowe i manipulacje działami wsparcia technicznego. Po drugie, rośnie liczba ataków „wysokiego kontaktu”. Grupy takie jak Muddled Libra omijają uwierzytelnianie wieloskładnikowe (MFA) i wykorzystują procesy wsparcia IT [HelpDesk], by w ciągu minut podnieść swoje uprawnienia – często bez użycia złośliwego oprogramowania. W jednym z przypadków atakujący uzyskał dostęp do poziomu administratora domeny w mniej niż 40 minut — wyłącznie przy użyciu wbudowanych narzędzi systemowych i socjotechnicznych pretekstów. Po trzecie, niska wykrywalność i zmęczenie alertami (alert fatigue) pozostają kluczowymi czynnikami umożliwiającymi ataki. W wielu przypadkach inżynieria społeczna odnosiła sukces nie dzięki zaawansowanej technice, lecz dlatego, że organizacje przeoczyły lub błędnie sklasyfikowały krytyczne sygnały – szczególnie w obszarze odzyskiwania tożsamości i ścieżek ruchu bocznego (lateral movement).

Zespół zauważa, że sztuczna inteligencja (AI) „przyspiesza zarówno skalę, jak i realizm kampanii socjotechnicznych. Cyberprzestępcy używają generatywnej AI do tworzenia spersonalizowanych przynęt, klonowania głosów menedżerów w fałszywych rozmowach telefonicznych oraz prowadzenia interaktywnych kampanii podszywania się pod osoby.”

Z analizy przypadków Unit 42 wynika, że pojawiły się trzy poziomy wykorzystania AI:

1. Automatyzacja (Automation) Narzędzia działające według z góry określonych reguł przyspieszają standardowe etapy włamania – rozsyłanie phishingu, podszyte SMS-y, testy poświadczeń. Choć to nie nowość, są one coraz częściej konfigurowane tak, by imitować procesy korporacyjne i omijać klasyczne mechanizmy detekcji.

2. Sztuczna inteligencja generatywna (Generative AI, GenAI) Używana do tworzenia wiarygodnych, ludzkich treści w różnych kanałach – e-mail, głos, czat. W wielu incydentach napastnicy wykorzystywali GenAI do przygotowania spersonalizowanych przynęt na podstawie publicznych informacji. W bardziej zaawansowanych przypadkach generatywna AI klonowała głosy kadry zarządzającej w oszukańczych rozmowach telefonicznych (callback scams). W dłuższych kampaniach AI pomagała również tworzyć i dopasowywać tożsamości atakujących, generować kolejne wiadomości phishingowe i reagować w czasie rzeczywistym w trakcie interakcji z ofiarą. Dzięki temu napastnicy mogli utrzymać zaangażowanie ofiary z wysokim stopniem naturalności i spójności tonacji.

3. Agentowa AI (Agentic AI) Odnosi się do systemów kontekstowo świadomych i zadaniowych, które potrafią autonomicznie wykonywać złożone działania wieloetapowe z minimalnym nadzorem człowieka, ucząc się z wyników. Choć adopcja tej technologii jest jeszcze ograniczona, odnotowano przypadki użycia jej do automatycznego łączenia czynności – np. rekonesansu międzyplatformowego i dystrybucji wiadomości. W jednym incydencie atakujący stworzyli wielowarstwowe syntetyczne tożsamości (fałszywe CV, profile w mediach społecznościowych) wspierające kampanię podszywania się pod pracowników w firmie docelowej.

Raport przedstawia także przykładowe scenariusze ataku jakie miały miejsce:

Oszustwo w dziale pomocy technicznej (HelpDesk) doprowadziło do wycieku danych. Napastnik zdołał wyeksportować ponad 350 GB danych bez wywołania jakichkolwiek alertów EDR lub antywirusowych. Nie użyto żadnego malware – wyłącznie prawidłowych poświadczeń i legalnych narzędzi systemowych. Atakujący skontaktował się z helpdeskiem, podszywając pod zablokowanego pracownika. Wykorzystał połączenie danych wyciekłych i publicznie dostępnych, aby przejść weryfikację tożsamości i zyskać zaufanie pracownika wsparcia IT, który zresetował uwierzytelnianie MFA. Po uzyskaniu dostępu napastnik zalogował się i poruszał po środowisku za pomocą wbudowanych narzędzi administracyjnych. Cała aktywność była zgodna z typowym wzorcem zachowania użytkownika, co pozwoliło uniknąć wykrycia przez systemy detekcji.

Cyberprzestępcy skutecznie wykorzystują techniki budowania relacji, by obejść procedury działu wsparcia technicznego (HelpDesk). Jedna z odnotowanych technik wyglądała tak, że przez kilka dni napastnik wykonywał spokojne, nieinwazyjne połączenia do helpdesku, za każdym razem podszywając się pod pracownika z problemem logowania. Zbierał informacje o procedurach, a następnie doskonalił swój scenariusz (pretext). Gdy opowieść w pełni pasowała do wewnętrznych protokołów eskalacji, zgłosił pilną prośbę o reset MFA. Po uzyskaniu dostępu zalogował się pomyślnie, jednak został szybko wykryty dzięki analizie geolokalizacji logowania.

Obserwowana ewolucja wskazuje na hybrydyzację taktyk– tradycyjne metody inżynierii społecznej są coraz częściej wspierane komponentami AI. Adopcja technologii różni się między grupami, lecz trend jest wyraźny: automatyzacja i sztuczna inteligencja zmieniają skalę, tempo i adaptacyjność ataków socjotechnicznych.

Inżynieria społeczna w liczbach:

  • 66% ataków socjotechnicznych celowało w konta uprzywilejowane.
  • 23% wykorzystywało techniki callback / głosowe.
  • 45% polegało na podszywaniu się pod wewnętrzny personel w celu zbudowania zaufania.

W analizowanym zbiorze phishing stanowił 23% wszystkich włamań; jeżeli ograniczyć się do przypadków napędzanych inżynierią społeczną, phishing odpowiada za 65% tych incydentów.

Główne obserwowane wzorce (sześć kluczowych powodów sukcesu):

  • słabe lub nadmierne uprawnienia dostępu,
  • pilność i presja czasu wykorzystywana w pretekstach,
  • zaufanie procedur (np. łatwe resetowanie kont),
  • niewystarczająca kontrola tożsamości i ścieżek odzyskiwania,
  • niska widoczność behawioralna/telemetria,
  • początkowe wektory poza e-mailem (SEO, malvertising, fałszywe alerty).

Kluczowy wniosek: skuteczność inżynierii społecznej wynika nie z luk technicznych, lecz z niedoskonałości mechanizmów kontroli dostępu, nadmiaru uprawnień oraz zaufania operacyjnego — które utrzymują się nawet w organizacjach dysponujących zaawansowanymi narzędziami detekcji.

4. Microsoft Digital Defense Report 2025

Warto przytoczyć kolejne wiarygodne źródło. Coroczny raport Microsoftu opiera się na danych telemetrycznych z usług Defender, analizach zespołu Microsoft Threat Intelligence oraz incydentach obsługiwanych przez zespół reagowania na incydenty. Przez wielu CISO traktowany jest jako punkt odniesienia, podobnie jak raport Unit 42. Raport Microsoft Digital Defense Report 2025 bardzo szeroko omawia wątki dotyczące sztucznej inteligencji – zarówno w kontekście zagrożeń, jak i obrony.

Ton raportu i ocena zagrożeń jest podobna jak zespołu Unit 42. Najważniejszą zmianą w phishingu w ciągu ostatniego roku jest wzrost skali i skuteczności ataków.

Wiadomości phishingowe generowane z użyciem AI osiągnęły wskaźnik klikalności na poziomie 54%, w porównaniu do 12% dla standardowych prób — to wzrost o ponad 4,5 raza. Sztuczna inteligencja umożliwia bardziej ukierunkowane ataki phishingowe i lepsze przynęty phishingowe.

Co bardziej niepokojące, automatyzacja oparta na AI może potencjalnie zwiększyć rentowność kampanii phishingowych nawet 50-krotnie poprzez skalowanie wysoce ukierunkowanych ataków na tysiące celów przy minimalnych kosztach. Ten ogromny zwrot z inwestycji będzie motywował cyberprzestępców, którzy jeszcze nie korzystają ze sztucznej inteligencji, do dodania jej do swojego zestawu narzędzi w przyszłości. P.S Oczywiście ja nie zachęcam, a przestrzegam.

Cyberoszuści mogą obecnie błyskawicznie generować całe fałszywe strony WWW, profile w mediach społecznościowych czy czaty obsługi klienta, a także sztucznie tworzyć głosy i wizerunki wideo, by wiarygodnie udawać prawdziwe firmy lub ludzi – i to przy minimalnych kosztach

Deepfake audio/wideo stały się nowym narzędziem social engineeringu. Raport wskazuje, że np. w klasycznych oszustwach “tech support” (fałszywej pomocy technicznej) oszuści zaczęli wykorzystywać sztucznie zmodyfikowane głosy, by brzmieć jak prawdziwi konsultanci. Takie dezinformacyjne rozmowy telefoniczne lub video ze zmienionym głosem skutecznie uwiarygadniają atak i skłaniają ofiary do współpracy – jednocześnie nadszarpując reputację firm, pod które podszywają się oszuści

W jaki sposób rozwijać obronę przed tego typu atakami? Według autorów raportu: Zespoły obronne powinny przeciwdziałać wzmacnianiu ataków przez AI poprzez:

  • budowanie silnej kultury cyberbezpieczeństwa,
  • szkolenie użytkowników w rozpoznawaniu technik manipulacji,
  • wdrażanie uwierzytelnionych kanałów komunikacji.

Systemy wykrywania oparte na AI, które identyfikują anomalie w wzorcach komunikacji lub rozpoznają treści typu deepfake w czasie rzeczywistym, mogą pełnić rolę kluczowych zabezpieczeń. AI używane jako narzędzie obronne może również wykrywać podatności, automatyzować procesy łatania oraz poprawiać jakość informacji o zagrożeniach.

Zaczyna to brzmieć jak opowieści science-fiction gdzie autonomiczne roboty walczą przeciwko robotom.

Raport Microsoftu pokazuje nieco szerszy obraz zagrożeń w związku z AI, który wymagałby odrębnego omówienia, warto jednak zwrócić uwagę na kilka zagrożeń.

Nadmierne poleganie na AI może zostać wykorzystane przez atakujących, którzy dostarczają zmanipulowane dane lub tworzą zwodnicze scenariusze, wprowadzając fałszywe informacje do systemów lub nawet wywołując zakłócenia operacyjne. Jednym ze sposobów ograniczenia tego ryzyka jest traktowanie AI jak nowego pracownika, którego praca wymaga przeglądu i informacji zwrotnej, a nie jak nieomylnego eksperta. Po stronie rozwoju oznacza to projektowanie systemów zgodnie z zasadą „secure by design and default” oraz zapewnienie nadzoru ludzkiego. Po stronie wdrożeniowej oznacza to traktowanie AI jako jednego z elementów większego procesu, który podlega zabezpieczeniom.

Wycieki informacji mogą być wykorzystywane przez atakujących zarówno w czasie działania systemu, jak i na etapie trenowania modeli, co może prowadzić do ujawnienia wrażliwych danych organizacyjnych. Systemy AI obsługujące interakcje z klientami lub przetwarzające dane własne są szczególnie narażone – aktorzy zagrożeń mogą wydobywać poufne informacje poprzez odpowiednio skonstruowane zapytania lub wykorzystując podatności w zbiorach danych.

Deepfake’i stanowią poważne zagrożenie w obszarach takich jak oszustwa finansowe, szpiegostwo korporacyjne czy rozpowszechnianie fałszywych informacji w czasie kryzysów, co może prowadzić do dezorientacj. Deepfake’i mogą również ułatwiać kradzież tożsamości oraz tworzenie nieautoryzowanych intymnych materiałów (NCII), które często są wykorzystywane do nękania i szantażu.

Typo-squatting – na większą skalę

Ponadto cyberprzestępcy wykorzystują oparte na sztucznej inteligencji generowanie domen przeciwników, takie jak generatywne sieci przeciwstawne (GAN), aby ominąć tradycyjne wykrywanie w atakach ukierunkowanych. Generator GAN uczy się na podstawie rzeczywistych zestawów danych domen, takich jak popularne adresy URL marek, i tworzy przekonujące, podobne domeny. W międzyczasie dyskryminator ocenia ich autentyczność, udoskonalając wynik, aż fałszywe domeny stają się niemal nie do odróżnienia od prawdziwych. Automatyzacja oparta na sztucznej inteligencji pozwala na szybkie tworzenie tysięcy domen podszywających się w atakach nieukierunkowanych, umożliwiając prowadzenie kampanii phishingowych i oszukańczych na dużą skalę w ciągu kilku minut.

Shadow AI – Osobnym wyzwaniem, na które raport zwraca uwagę, jest zjawisko tzw. “shadow AI” – czyli używania przez pracowników nieautoryzowanych narzędzi AI poza wiedzą i kontrolą działów IT. Analogicznie do “shadow IT”, korzystanie z popularnych chatbotów czy aplikacji AI w celach służbowych, bez odpowiednich zabezpieczeń, niesie ryzyko wycieku danych wrażliwych oraz naruszenia zasad compliance. Microsoft odnotowuje, że wraz z rosnącą adopcją generatywnej AI w miejscu pracy, firmy mierzą się z przypadkami niekontrolowanego użycia zewnętrznych usług AI, udostępniania zbyt dużej ilości danych tym usługom czy nawet ujawniania informacji poufnych

5. Wnioski

Czy sztuczna inteligencja stanowi zagrożenie dla naszej firmy? Odpowiedź nie jest jednoznaczna — ale jedno jest pewne: AI już dziś zmienia reguły gry w cyberbezpieczeństwie.

Z jednej strony, raporty takie jak Intel 471 pokazują, że pełna automatyzacja ataków z użyciem AI wciąż jest ograniczona. Z drugiej — dane z Unit 42 i Microsoftu wskazują, że AI radykalnie zwiększa skuteczność socjotechniki, pozwalając cyberprzestępcom na tworzenie spersonalizowanych, realistycznych i trudnych do wykrycia kampanii.

AI nie musi „przełamywać zabezpieczeń” w klasycznym sensie. Wystarczy, że przełamuje człowieka — jego uwagę, zaufanie, rutynę. Pracownik, który odbiera telefon od „dyrektora” z klonowanym głosem, może nieświadomie otworzyć drzwi do systemu. A to już nie jest science fiction — to realne scenariusze z ostatnich miesięcy.

W raporcie Microsoft wskazano na zagrożenia przyszłego roku: „Mogą zostać wykorzystać agenty oparte na sztucznej inteligencji, które są w stanie dostosowywać się w czasie rzeczywistym do środowisk obronnych, zmieniać trasy kanałów dowodzenia i kontroli lub dynamicznie przepisywać payloady, aby ominąć systemy EDR. Taki poziom autonomii może umożliwić im przeprowadzanie skalowalnych, wielowektorowych włamań w różnych sektorach przy niewielkich kosztach operacyjnych. „

Dlatego kluczowe pytanie nie brzmi już: czy AI może zaatakować? Lecz: czy jesteśmy gotowi, by się przed nią bronić?

Hosts & Guests

Amanda Doe

Cameron James

Todd Dawson

 Share Episode

Quisque

Lacus

Donec 

Platforma edukacyjn@

Nowości na blogu

0 komentarzy