
AI pod kontrolą? Nowe filtry mają zwiększyć bezpieczeństwo młodych użytkowników
Firma OpenAI udostępniła zestaw filtrów bezpieczeństwa dla systemów sztucznej inteligencji, które mogą być wykorzystywane w aplikacjach skierowanych do młodszych użytkowników. Rozwiązanie, przyjmuje formę gotowych promptów, które programiści mogą wdrażać jako warstwę moderacyjną.
W praktyce to próba odpowiedzi na jeden z największych problemów współczesnego cyberbezpieczeństwa: jak kontrolować zachowanie modeli AI w czasie rzeczywistym.
ZOBACZ TEŻ: Kolejne europejskie państwa chcą chronić dzieci przed mediami społecznościowymi
Jak działają te filtry?
Zamiast tworzyć własne systemy moderacji od podstaw, programiści mogą korzystać z gotowych schematów. Filtry umożliwiają automatyczne oznaczanie, klasyfikowanie, a także ograniczanie treści – zarówno w trakcie rozmowy, jak i po jej zakończeniu.
Systemy oparte na dużych modelach językowych stają się częścią codzienności – od edukacji po komunikację. Wraz z ich popularyzacją rośnie ryzyko nadużyć, zwłaszcza w kontekście młodszych użytkowników.
Jednym z największych wyzwań dla twórców aplikacji AI jest więc brak spójnych zasad. Wiele firm deklaruje dbałość o bezpieczeństwo, ale bez konkretnych mechanizmów egzekwowania, bądźmy szczerzy – te deklaracje pozostają ogólne. I właśnie tę lukę mają wypełnić nowe filtry.
Sześć obszarów szczególnego ryzyka
Nowy zestaw obejmuje sześć kategorii treści, które mogą być szczególnie niebezpieczne dla młodych użytkowników. Chodzi m.in. o: treści brutalne i seksualne, szkodliwe wzorce dotyczące wyglądu, niebezpieczne wyzwania, a także inne materiały oraz usługi objęte ograniczeniami wiekowymi.
Co ważne, filtry mogą być modyfikowane i dostosowywane do konkretnych aplikacji. Ma to zwiększyć ich skuteczność.
Presja prawna
Decyzja o publikacji narzędzia pojawia się w czasie, gdy twórcy systemów AI mierzą się z rosnącą presją regulacyjną. W ostatnich miesiącach pojawiło się kilka pozwów, w których zarzucano chatbotom niewystarczającą ochronę młodych użytkowników.
I choć w ostatnich miesiącach opisywaliśmy działania, m.in. OpenAI mające na celu poprawę bezpieczeństwa (m.in. przewidywanie wieku użytkownika czy kontrolę rodzicielską), widać, że wciąż są one niewystarczające.
Co dalej?
Firma zaznacza, że nowe filtry nie zastąpią istniejących mechanizmów ochrony, ale mają stanowić ich dodatkową warstwę. Rozwiązanie zaproponowane przez OpenAI może analizować treści w czasie rzeczywistym i blokować lub modyfikować odpowiedzi w sześciu kluczowych obszarach ryzyka – od przemocy po niebezpieczne zachowania.
W praktyce oznacza to przesunięcie bezpieczeństwa „bliżej użytkownika”, bez konieczności ingerencji w sam model.
Aktualności ze świata cyberbezpieczeństwa oraz ostrzeżenia przez najnowszymi zagrożeniami – zaglądaj regularnie na naszego bloga i niczego nie przegap!