CyberRescue
  • Jesteśmy do dyspozycji 24h/dobę!
  • Facebook
  • Instagram
  • Twitter
Menu
  • Sprawdź – tu stracisz kasę!
  • Biuro Prasowe
  • O nas
  • Kontakt
  • Facebook
  • Instagram
  • Twitter
Luki bezpieczeństwa w ChatGPT. Atakujący mogą wykraść prywatne dane!

Luki bezpieczeństwa w ChatGPT. Atakujący mogą wykraść prywatne dane!

07.11.2025
Komentarze (0)
Karolina Kmak
Ekspert ds. cyberbezpieczeństwa
  • Jump to comments
  • Share on linkedin
  • Podziel się na Facebooku
  • Podziel się na Twitterze
  • Podziel się na Pinterest
  • Jump to top

Na początku października informowaliśmy Was o najnowszych zabezpieczeniach, testowanych przez OpenAI, twórców ChataGPT. Dotyczyły one wykrywania rozmów o charakterze emocjonalnym i nowej funkcji kontroli rodzicielskiej. To był kolejny krok w rozwijaniu narzędzi, mających na celu lepszą ochronę użytkowników. Jak jednak pokazuje najnowszy raport firmy Tenable Research, wciąż pokazują się nowe wyzwania w obszarze zabezpieczeń. Badacze odkryli siedem luk bezpieczeństwa w ChatGPT firmy OpenAI. Niestety, również w najnowszych modelach GPT-4o i GPT-5. Ich wykorzystanie pozwala atakującym na kradzież prywatnych danych użytkowników, a także historii rozmów.

Jak wskazują autorzy raportu – Moshe Bernstein, Liv Matan i Yarden Curiel – podatności umożliwiają tzw. ataki typu prompt injection. Co to takiego? To wstrzykiwanie złośliwych instrukcji do modeli językowych. Tego rodzaju manipulacja sprawia, że sztuczna inteligencja może wykonywać niepożądane działania, np. może dojść do ujawnienia poufnych informacji.

OpenAI kontra cyberprzestępcy – jak firma walczy z wykorzystaniem ich modeli w atakach? Zobacz TUTAJ.

Jak to działa?

W klasycznym scenariuszu atakujący ukrywa złośliwe polecenia w miejscu, do którego chatbot ma dostęp, np. w komentarzach pod artykułem. Jeśli użytkownik poprosi ChatGPT o podsumowanie treści strony, model nieświadomie odczyta również te ukryte instrukcje. Efekt? Sztuczna inteligencja sama wykonuje polecenia cyberprzestępcy.

Jeszcze groźniejszy jest tzw. atak „zero-click”. W tym przypadku użytkownik nie musi nawet klikać żadnego linku. Wystarczy, że atakujący stworzy fałszywą stronę internetową i zindeksuje ją za pomocą funkcji wyszukiwania ChatGPT. Model może znaleźć ukrytą instrukcję i uruchomić ją w tle.

Jak oszukać ChatGPT? 

Badacze z Tenable pokazali również, że możliwe jest obejście systemów bezpieczeństwa. Jedna z technik wykorzystuje domenę bing.com, która znajduje się na liście zaufanych adresów. Niestety, pozwala to na ukrycie złośliwego odnośnika w linkach śledzących reklamy Bing, które ChatGPT uznaje za bezpieczne.

W raporcie opisano także metodę conversation injection, czyli wstrzykiwanie złośliwych poleceń do pamięci roboczej chatbota. W rezultacie model może w kolejnych rozmowach działać niezgodnie z intencją użytkownika, bez jego wiedzy i zgody.

Szczególnie niebezpieczna okazała się technika memory injection. Pozwala ona zapisać w pamięci ChatGPT ukryte instrukcje, które przetrwają kolejne sesje. W praktyce oznacza to, że atakujący może stworzyć trwałe zagrożenie – chatbot, „zatruty” wcześniej, będzie stopniowo ujawniał dane użytkownika przy każdej kolejnej interakcji.

Problem prompt injection

Według ekspertów Tenable, OpenAI częściowo naprawiło zgłoszone luki, jednak problem tzw. prompt injection jest znacznie głębszy. Wynika on z samego sposobu działania dużych modeli językowych, które nie potrafią jednoznacznie odróżnić legalnych instrukcji od fałszywych komunikatów pochodzących z zewnętrznych źródeł.

AI na usługach przestępców? Niepokojące wnioski naukowców!

Co dalej?

W ostatnim czasie, rośnie liczba badań nad podatnościami w systemach generatywnej sztucznej inteligencji. Niedawno podobne problemy ujawniono w narzędziach Anthropic Claude, Microsoft 365 Copilot czy GitHub Copilot.

Każdy z tych incydentów pokazuje, że rozwój agentów AI, łączących się z zewnętrznymi usługami, otwiera zupełnie nowe sposoby oszustw dla cyberprzestępców. A im bardziej inteligentne stają się maszyny, tym zwiększa się potencjał ataków, choć daje to również twórcom narzędzia do lepszej ochrony.

Więcej o AI dowiesz się na naszej stronie TUTAJ.

Śledź najnowsze doniesienia ze świata bezpieczeństwa oraz informacje o zagrożeniach – sprawdzaj regularnie naszego bloga i nie daj się zaskoczyć!

1
Podziel się na TwitterzePodziel się na FacebookuPodziel się na PinterestPodziel się na Linkedin
Tagi:
  • Tenable Research,
  • conversation injection,
  • AI,
  • memory injection,
  • prompt injection,
  • chatbot AI,
  • chatGPT,
  • OpenAI,
  • luka bezpieczeństwa,
  • zero-click,
  • GPT-5,
  • gpt-4o
Subskrybuj
Powiadom o
guest
guest
0 Komentarze
Najnowsze
Najstarsze Najwięcej głosów
Opinie w linii
Zobacz wszystkie komentarze

Panel boczny

Gorące tematy

  • „Toyota Corolla od Dino”? Uwaga na konkurs, w którym wygrywają… oszuści
  • Fałszywa wiadomość z Messengera. Twoje konto na Facebooku zostanie zablokowane?!
  • Konkurs Allegro – nowa kampania oszustów w sieci
  • Zarabianie na TikToku? Uważaj, to pułapka!
  • Nowy smartfon pod choinką? Zanim go uruchomisz, zadbaj o bezpieczeństwo!
  • Kurierzy znów na celowniku oszustów. Uwaga na fałszywe SMS-y przed świętami!
  • „Zaktualizuj numer telefonu albo konto zostanie zawieszone”. Ostrzegamy!
  • Oszuści podszywają się pod PKO Bank Polski – uważaj na fałszywe maile!
  • „Twoje punkty wkrótce stracą ważność”. Uwaga na fałszywy SMS!
  • Oszuści podszywają się pod Krajową Administrację Skarbową!
  • Fałszywy profil Lotto na Facebooku?! Zobacz, w jaki sposób możesz stracić swoje pieniądze
  • Mail z fakturą – nowy sposób na wyłudzenie danych

Zobacz wszystkie

Social Media

  • Grok pod lupą. Śledztwa, deepfake’i i pytania o bezpieczeństwo AI
  • Zakaz mediów społecznościowych dla dzieci do 15. roku życia? Nowa inicjatywa w Sejmie
  • Meta zamknęła ponad pół miliona kont. W tle zakaz social mediów w Australii
  • Co dzieje się w serwisie X? Grok generuje nagie obrazy bez zgody kobiet
  • Disney z milionową grzywną za dane dzieci na YouTube!
  • AI propaganda z TikToka – reaguje Ministerstwo Cyfryzacji
  • Reddit pozywa Australię. W tle zakaz social mediów
  • Nowa funkcja X ujawnia lokalizację kont. Użytkownicy odkrywają, że „patrioci” nadają… z Azji, Afryki i Białorusi
  • Hiszpania kontra Meta. Rząd mówi o „ukrytym mechanizmie śledzącym” na Androidzie
  • YouTube zaostrza zasady. Hazard online, NFT i brutalne gry pod lupą
  • Australia zakazuje mediów społecznościowych dla dzieci. Czy to rozwiąże problem, czy stworzy nowy?
  • Meta zarabia miliardy na fałszywych reklamach. Ujawniono szokujące dokumenty

Zobacz wszystkie

Ze świata bezpieczeństwa

  • Grok pod lupą. Śledztwa, deepfake’i i pytania o bezpieczeństwo AI
  • Rosyjski atak na polską energetykę?
  • Zakaz mediów społecznościowych dla dzieci do 15. roku życia? Nowa inicjatywa w Sejmie
  • Co dzieje się w serwisie X? Grok generuje nagie obrazy bez zgody kobiet
  • Roblox wprowadza obowiązkową weryfikację wieku
  • Disney z milionową grzywną za dane dzieci na YouTube!
  • AI propaganda z TikToka – reaguje Ministerstwo Cyfryzacji
  • Więcej incydentów w tym roku? CERT Polska uspokaja
  • Google wyłącza Dark Web Report. Co z monitorowaniem wycieków danych?
  • Cyber.gov.pl już działa. Sprawdź, w czym pomoże Ci nowy rządowy portal!
  • Rosja grozi WhatsAppowi blokadą
  • Europol zamyka Cryptomixer. Koniec jednej z największych pralni kryptowalut?

Zobacz wszystkie

eBooki

  • Bezpieczne Social Media – e-book do pobrania za darmo
  • Jak weryfikować sklepy internetowe? – e-book do pobrania za darmo
  • CyberBezpieczny Senior – poradnik do pobrania za darmo
  • CyberBezpieczny Dzieciak – poradnik do pobrania za darmo

Zobacz wszystkie

CyberRescue radzi...

  • Nowy smartfon pod choinką? Zanim go uruchomisz, zadbaj o bezpieczeństwo!
  • Ataki DDoS. Czym są, historia i rekordowy incydent z Microsoft Azure
  • Gry, które infekują: o rosnącym problemie złośliwego oprogramowania
  • Nowy system, stare zagrożenia – co naprawdę daje iOS 26
  • Historia ataków hakerskich
  • Kolejna piramida finansowa… właśnie przestała istnieć. Co z Coinplex?
  • Podatności – ukryte drzwi dla cyberprzestępców
  • Bezpieczeństwo domowej sieci Wi-Fi
  • Czy zdjęcia mogą zdradzić Twoje położenie?
  • Smishing Triad – globalne zagrożenie oszustwami SMS
  • Drony spadają nad Trójmiastem. Co stoi za zakłóceniami GPS?
  • W jaki sposób Android przechowuje dane biometryczne?

Zobacz wszystkie

CyberNEWS

  • CyberNEWS 16.01.2026
  • CyberNEWS 14.01.2026
  • CyberNEWS 12.01.2026
  • CyberNEWS 09.01.2026
  • CyberNEWS 07.01.2026
  • CyberNEWS 05.01.2026
  • CyberNEWS 31.12.2025
  • CyberNEWS 29.12.2025
  • CyberNEWS 22.12.2025
  • CyberNEWS 19.12.2025
  • CyberNEWS 17.12.2025
  • CyberNEWS 15.12.2025

Zobacz wszystkie

  • Polityka prywatności
  • Klauzula informacyjna
CyberRescue Sp. z o.o.
ul. Modlińska 129/U10, 03-186 Warszawa
NIP: 5242880817 KRS: 0000767083
CyberRescue © 2026
powered by  AIO collective