
Meta nie podpisze kodeksu UE ws. sztucznej inteligencji. „Europa zmierza w złym kierunku”
Za kilka tygodni w życie wejdą nowe przepisy unijne dotyczące sztucznej inteligencji. Jednak, Meta, czyli właściciel Facebooka i Instagrama ogłosiła, że nie zamierza podpisać kodeksu postępowania przygotowanego przez Komisję Europejską. Firma tłumaczy swoją decyzję „niejasnościami prawnymi” i zbyt szerokim zakresem obowiązków, jakie nakłada dokument.
Reakcja Mety
Joel Kaplan, wiceprezes ds. globalnych Meta, wprost skrytykował kierunek, w jakim podąża UE. Na LinkedInie napisał:
„Europa zmierza w niewłaściwym kierunku w sprawie sztucznej inteligencji. (…) Dokładnie przeanalizowaliśmy Kodeks postępowania Komisji Europejskiej dotyczący modeli ogólnego przeznaczenia (GPAI) i Meta nie zamierza go podpisać. Kodeks ten wprowadza szereg niejasności prawnych dla twórców modeli, a także przewiduje środki wykraczające daleko poza zakres unijnej ustawy o AI”.
Kodeks, choć dobrowolny, ma wspierać firmy we wdrażaniu mechanizmów zgodnych z nadchodzącą legislacją UE. Wprowadza on m.in.:
- Obowiązek dokumentowania i aktualizacji danych o modelach AI.
- Zakaz wykorzystywania treści pirackich w procesie trenowania modeli.
- Konieczność reagowania na żądania właścicieli praw autorskich w zakresie przetwarzania ich danych.
Meta zarzuca Komisji Europejskiej „nadmierną ingerencję”, a dodatkowo ostrzega, że obecne podejście może zahamować rozwój innowacyjnych rozwiązań AI w Europie. Zdaniem Kaplana, nowe prawo „zdusi rozwój i wdrażanie przełomowych modeli AI w Europie oraz zahamuje wzrost europejskich firm, które chcą budować swoje biznesy w oparciu o tę technologię”.
Dlaczego to istotne?
Kodeks ma na celu przygotować dostawców dużych modeli AI, (jak Meta, OpenAI, Google, Anthropic) do przyszłych obowiązkowych regulacji wynikających z AI Act. Nie jest jednak sam w sobie wiążący prawnie.
AI Act, czyli pierwsze tego typu prawo na świecie
AI Act, czyli unijna ustawa o sztucznej inteligencji, została formalnie przyjęta przez Parlament Europejski w marcu 2024 roku. To pierwsze na świecie kompleksowe prawo regulujące sztuczną inteligencję. Jego głównym założeniem jest klasyfikacja systemów AI według poziomu ryzyka, od niskiego po „nieakceptowalny”. W praktyce oznacza to zakaz stosowania niektórych technologii, takich jak manipulacja behawioralna czy scoring społeczny, oraz szczegółowe regulacje dla systemów wysokiego ryzyka, np. w edukacji, rekrutacji czy biometrii. Wspomniany kodeks dobrych praktyk ma wspierać twórców modeli ogólnego przeznaczenia w dostosowywaniu się do nadchodzących obowiązków. O pierwszych przepisach AI Act, które weszły w życie, pisaliśmy TUTAJ.
Choć wiele globalnych firm technologicznych (Alphabet, Microsoft, Mistral AI czy sama Meta), apelowało o opóźnienie wejścia przepisów w życie, Komisja Europejska pozostaje nieugięta i nie planuje zmiany harmonogramu.
Dodatkowo, w ostatni piątek opublikowano nowe wytyczne dla twórców modeli AI ogólnego przeznaczenia, których dotkną szczególne regulacje od 2 sierpnia br. Firmy, które już udostępniły tego typu systemy przed tą datą, będą miały czas do 2027 roku, by dostosować się do wymogów legislacyjnych. Nowe regulacje obejmą m.in. OpenAI, Anthropic, Google i Meta.