
Chińscy szpiedzy wykorzystali AI do automatyzacji ataków? Anthropic twierdzi, że tak
Czy sztuczna inteligencja zmieniła krajobraz cyberbezpieczeństwa? Zdecydowanie tak. Modele AI są wykorzystywane zarówno przez oszustów, (o czym więcej pisaliśmy TUTAJ), jak również przez analityków bezpieczeństwa, wspierając ich w codziennej pracy. Jednak najnowszy raport firmy Anthropic, rzuca nowe światło na systemy sztucznej inteligencji, które stały się narzędziem zdolnym do prowadzenia prawie samodzielnych cyberataków. I to na skalę, jakiej wcześniej nie widzieliśmy.
W połowie września 2025 roku eksperci Anthropic, natrafili na kampanię szpiegowską, w której kluczową rolę odegrał Claude Code – model opracowany przez tę właśnie firmę. Kim byli atakujący? Według raportu, z dużym prawdopodobieństwem była to grupa sponsorowaną przez chińskie państwo. Jak działali?
AI na usługach cyberprzestępców
Z ustaleń wynika, że model był wykorzystywany jako autonomiczny agent, który:
- Analizował infrastrukturę firm.
- Wyszukiwał podatności.
- Pisał kod exploita.
- Przygotowywał dokumentację operacji, wraz ze skradzionymi danymi.
Według raportu w większości kampanii (od 80 do 90 procent) wykorzystano sztuczną inteligencję. Atakujący ingerowali jedynie w kilku kluczowych momentach, gdy AI potrzebowała potwierdzeń lub decyzji strategicznych. Reszta przebiegała automatycznie i do tego, w tempie niemożliwym do osiągnięcia dla ludzkiego zespołu.
W szczytowym momencie Claude wysyłał tysiące żądań na sekundę, co pozwoliło mu błyskawicznie przeszukiwać bazy danych, segregować zebrane informacje, a także tworzyć backdoory, (czyli ukryte mechanizmy umożliwiające dostęp do systemów). Nigdy wcześniej nie zarejestrowano ataku autonomicznego na taką skalę.
Sztuczna inteligencja wsparciem dla oszustów. To może przydarzyć się też Tobie!
Jak przełamano zabezpieczenia?
Żeby skłonić model do działania wbrew zasadom bezpieczeństwa, operatorzy zastosowali precyzyjnie zaplanowany jailbreak, (czyli próbę obejścia zabezpieczeń):
- Dzielili operacje na małe, pozornie nieszkodliwe zadania.
- Przedstawiali modelowi, że to testy ochronne.
- Ukrywali pełen kontekst operacji.
- Wykorzystywali moduły narzędziowe dostępne poprzez Model Context Protocol.
AI nie „wiedziała”, że tworzy elementy cyberataku. Wykonywała kolejne instrukcje, które razem układały się w pełnoprawną operację, dowodzoną przez hakerów.
Luki bezpieczeństwa w ChatGPT. Atakujący mogą wykraść prywatne dane!
Jakie były cele ataku?
Celem kampanii było około 30 organizacji z różnych sektorów. Po zidentyfikowaniu tej aktywności Anthropic niezwłocznie rozpoczęło analizę, żeby ustalić charakter i skalę cyberprzestępczej operacji. W ciągu kolejnych dni, firma blokowała kolejne powiązane konta oraz informowała podmioty o naruszeniach. Dodatkowo rozpoczęto współpracę z organami ścigania, przekazując im wszelkie informacje.
AI w cyberatakach
Sztuczna inteligencja nie jest wyłącznie narzędziem wspierającym pracę analityków. Może stać się kluczowym elementem ataków działających szybciej, precyzyjniej i na większą skalę niż zespoły ludzkie.
Co warto podkreślić, bariera wejścia dla cyberprzestępców w ostatnim czasie dramatycznie spada. Ataki, które kiedyś wymagały grupy doświadczonych specjalistów, dziś mogą być prowadzone przez mniej zaawansowane technicznie zespoły korzystające z modeli AI.
Ten atak nie tylko ujawnia nowe możliwości. To moment, w którym cyberbezpieczeństwo wchodzi w zupełnie nową fazę. I trzeba być gotowym, bo kolejne operacje mogą być jeszcze szybsze, bardziej autonomiczne i trudniejsze do powstrzymania.
Więcej o AI dowiesz się na naszej stronie TUTAJ.
Śledź najnowsze doniesienia ze świata bezpieczeństwa oraz informacje o zagrożeniach – sprawdzaj regularnie naszego bloga i nie daj się zaskoczyć!