
Luki bezpieczeństwa w ChatGPT. Atakujący mogą wykraść prywatne dane!
Na początku października informowaliśmy Was o najnowszych zabezpieczeniach, testowanych przez OpenAI, twórców ChataGPT. Dotyczyły one wykrywania rozmów o charakterze emocjonalnym i nowej funkcji kontroli rodzicielskiej. To był kolejny krok w rozwijaniu narzędzi, mających na celu lepszą ochronę użytkowników. Jak jednak pokazuje najnowszy raport firmy Tenable Research, wciąż pokazują się nowe wyzwania w obszarze zabezpieczeń. Badacze odkryli siedem luk bezpieczeństwa w ChatGPT firmy OpenAI. Niestety, również w najnowszych modelach GPT-4o i GPT-5. Ich wykorzystanie pozwala atakującym na kradzież prywatnych danych użytkowników, a także historii rozmów.
Jak wskazują autorzy raportu – Moshe Bernstein, Liv Matan i Yarden Curiel – podatności umożliwiają tzw. ataki typu prompt injection. Co to takiego? To wstrzykiwanie złośliwych instrukcji do modeli językowych. Tego rodzaju manipulacja sprawia, że sztuczna inteligencja może wykonywać niepożądane działania, np. może dojść do ujawnienia poufnych informacji.
OpenAI kontra cyberprzestępcy – jak firma walczy z wykorzystaniem ich modeli w atakach? Zobacz TUTAJ.
Jak to działa?
W klasycznym scenariuszu atakujący ukrywa złośliwe polecenia w miejscu, do którego chatbot ma dostęp, np. w komentarzach pod artykułem. Jeśli użytkownik poprosi ChatGPT o podsumowanie treści strony, model nieświadomie odczyta również te ukryte instrukcje. Efekt? Sztuczna inteligencja sama wykonuje polecenia cyberprzestępcy.
Jeszcze groźniejszy jest tzw. atak „zero-click”. W tym przypadku użytkownik nie musi nawet klikać żadnego linku. Wystarczy, że atakujący stworzy fałszywą stronę internetową i zindeksuje ją za pomocą funkcji wyszukiwania ChatGPT. Model może znaleźć ukrytą instrukcję i uruchomić ją w tle.
Jak oszukać ChatGPT?
Badacze z Tenable pokazali również, że możliwe jest obejście systemów bezpieczeństwa. Jedna z technik wykorzystuje domenę bing.com, która znajduje się na liście zaufanych adresów. Niestety, pozwala to na ukrycie złośliwego odnośnika w linkach śledzących reklamy Bing, które ChatGPT uznaje za bezpieczne.
W raporcie opisano także metodę conversation injection, czyli wstrzykiwanie złośliwych poleceń do pamięci roboczej chatbota. W rezultacie model może w kolejnych rozmowach działać niezgodnie z intencją użytkownika, bez jego wiedzy i zgody.
Szczególnie niebezpieczna okazała się technika memory injection. Pozwala ona zapisać w pamięci ChatGPT ukryte instrukcje, które przetrwają kolejne sesje. W praktyce oznacza to, że atakujący może stworzyć trwałe zagrożenie – chatbot, „zatruty” wcześniej, będzie stopniowo ujawniał dane użytkownika przy każdej kolejnej interakcji.
Problem prompt injection
Według ekspertów Tenable, OpenAI częściowo naprawiło zgłoszone luki, jednak problem tzw. prompt injection jest znacznie głębszy. Wynika on z samego sposobu działania dużych modeli językowych, które nie potrafią jednoznacznie odróżnić legalnych instrukcji od fałszywych komunikatów pochodzących z zewnętrznych źródeł.
AI na usługach przestępców? Niepokojące wnioski naukowców!
Co dalej?
W ostatnim czasie, rośnie liczba badań nad podatnościami w systemach generatywnej sztucznej inteligencji. Niedawno podobne problemy ujawniono w narzędziach Anthropic Claude, Microsoft 365 Copilot czy GitHub Copilot.
Każdy z tych incydentów pokazuje, że rozwój agentów AI, łączących się z zewnętrznymi usługami, otwiera zupełnie nowe sposoby oszustw dla cyberprzestępców. A im bardziej inteligentne stają się maszyny, tym zwiększa się potencjał ataków, choć daje to również twórcom narzędzia do lepszej ochrony.
Więcej o AI dowiesz się na naszej stronie TUTAJ.
Śledź najnowsze doniesienia ze świata bezpieczeństwa oraz informacje o zagrożeniach – sprawdzaj regularnie naszego bloga i nie daj się zaskoczyć!