Czerwony symbol zakazu nad smartfonem z aplikacjami AI, realistyczne zdjęcie ilustrujące 7 zakazów AI Act w Unii Europejskiej, ochrona przed manipulacją, scoringiem społecznym i biometryczną inwigilacją7 rzeczy, których AI nie może robić w Unii Europejskiej

Większość Polaków słyszała o RODO. Znacznie mniej osób wie, że od 2 lutego 2025 roku w Unii Europejskiej obowiązuje coś równie ważnego – i potencjalnie jeszcze bardziej rewolucyjnego.

AI Act wprowadził listę absolutnych zakazów dotyczących sztucznej inteligencji. Zakazy, które obowiązują tu i teraz – nie tylko wielkie korporacje, ale każdą firmę, szkołę, urząd i zwykłego Kowalskiego w Polsce.

Najważniejsze: zakaz nie dotyczy nazw konkretnych systemów, tylko praktyk i funkcji. Nawet popularne narzędzia AI mogą być niedopuszczalne w określonych zastosowaniach.

Oto 7 rzeczy, których AI nie może legalnie robić w Unii Europejskiej:

1. Manipulacja, której nie czujesz – zakaz technik podprogowych

Zakazane jest stosowanie systemów AI, które wykorzystują techniki działające poniżej progu świadomości człowieka (np. ledwo słyszalne komunikaty, subtelne zmiany kontrastu, rytmu muzyki), których celem lub skutkiem jest znacząca zmiana zachowania osoby w sposób, który może wyrządzić jej poważną szkodę.

Przykłady: aplikacje, które manipulują Twoimi decyzjami zakupowymi lub czasem spędzonym na platformie bez Twojej wiedzy.

Manipulacja podprogowa – zakaz AI Act, techniki wpływające na podświadomość poza świadomością osoby w celu zmiany zachowania i wyrządzenia szkody, przykład ukrytych sygnałów dźwiękowych lub wizualnych w aplikacji, Art. 5 ust. 1 lit. a) Rozporządzenia AI Act
Manipulacja podprogowa – jeden z zakazów AI Act (Art. 5)

2. Polowanie na słabych – zakaz wykorzystywania podatności

Zakazane jest wykorzystywanie słabości osób ze względu na wiek, niepełnosprawność lub trudną sytuację społeczną/ekonomiczną, jeśli celem lub skutkiem jest wyrządzenie poważnej szkody.

Wykorzystywanie słabości – zakaz AI Act, systemy AI celowo eksploatujące wiek, niepełnosprawność lub trudną sytuację ekonomiczną osoby w celu wpływu na jej decyzje, przykład reklam skierowanych do dzieci lub seniorów analizujących podatność emocjonalną, Art. 5 ust. 1 lit. b) Rozporządzenia AI Act
Wykorzystywanie słabości – zakaz AI Act (Art. 5 ust. 1 lit. b)

Przykłady: agresywne reklamy targetowane na dzieci, seniorów lub osoby w depresji.

3. Ocenianie ludzi jak kredyt – koniec ze scoringiem społecznym

Zakazany jest system AI, który ocenia lub klasyfikuje ludzi na podstawie ich zachowania społecznego lub przewidywanych cech osobowości w sposób prowadzący do krzywdzącego traktowania (np. ograniczanie dostępu do usług na podstawie „punktów społecznych”).

W praktyce: algorytm, który klasyfikuje obywateli korzystających z pomocy społecznej na podstawie pochodzenia lub aktywności w sieci – jest nielegalny.

Scoring społeczny (social scoring) – zakaz AI Act, zakaz oceniania i klasyfikowania obywateli przez podmioty publiczne na podstawie zachowań społecznych lub cech osobowości, przykład systemu ograniczającego dostęp do kredytów lub usług publicznych ze względu na „wynik zachowania” obywatela, Art. 5 ust. 1 lit. c) Rozporządzenia AI Act
Scoring społeczny (social scoring) – zakaz AI Act (Art. 5)

4. Minority Report w wersji UE – zakaz przewidywania przestępczości

Zakazane jest przewidywanie ryzyka popełnienia przestępstwa wyłącznie na podstawie profilowania i oceny cech osobowości, bez obiektywnych faktów związanych z rzeczywistą działalnością przestępczą.

AI może analizować dowody rzeczywistych przestępstw, ale nie może „typować” potencjalnych przestępców na podstawie tego, kim ktoś jest.

Przewidywanie przestępczości – zakaz AI Act, zakaz oceniania ryzyka popełnienia przestępstwa na podstawie samego profilowania i cech osobowości bez obiektywnych dowodów działania, przykład algorytmu policyjnego typującego potencjalnych przestępców na podstawie miejsca zamieszkania i profilu w sieci, Art. 5 ust. 1 lit. d) Rozporządzenia AI Act
Przewidywanie przestępczości – zakaz AI Act (Art. 5)

5. Kradzież twarzy – zakaz tworzenia baz danych wizerunków z internetu

Zakazane jest budowanie baz danych do rozpoznawania twarzy poprzez scraping zdjęć z internetu lub monitoringu bez zgody osób, których dane dotyczą (sprawa Clearview AI pokazała, jak niebezpieczne jest to rozwiązanie).

Bazy twarzy ze scrapingu – zakaz AI Act, zakaz masowego pobierania zdjęć twarzy z internetu lub kamer CCTV bez zgody osób w celu tworzenia baz danych do rozpoznawania twarzy, przykład firmy Clearview AI, która zbierała miliardy twarzy z social mediów, Art. 5 ust. 1 lit. e) Rozporządzenia AI Act
Bazy twarzy ze scrapingu – zakaz AI Act (Art. 5)

6. Kamera patrzy Ci w twarz na lekcji lub w pracy – zakaz analizy emocji

Zakazane jest stosowanie AI do wyciągania wniosków na temat emocji osoby w miejscach pracy lub placówkach edukacyjnych (z bardzo wąskimi wyjątkami medycznymi lub bezpieczeństwa).

Rozpoznawanie emocji w pracy i szkole – zakaz AI Act, zakaz systemów AI analizujących emocje pracowników lub uczniów w miejscu pracy i instytucjach edukacyjnych, wyjątek tylko cele medyczne lub bezpieczeństwa, przykład kamery w klasie analizującej skupienie uczniów lub systemu HR monitorującego nastrój pracowników przez kamerę, Art. 5 ust. 1 lit. f) Rozporządzenia AI Act
Rozpoznawanie emocji w pracy i szkole – zakaz AI Act (Art. 5)

Przykłady: systemy „analizy zaangażowania” uczniów podczas lekcji online lub monitorowania emocji pracowników call center.

7. Kamera na mieście Cię nie rozpoznaje – zakaz biometrycznej inwigilacji w czasie rzeczywistym

Zdalne rozpoznawanie biometryczne w przestrzeni publicznej do celów egzekwowania prawa jest co do zasady zakazane. Wyjątki są bardzo wąskie (poszukiwanie zaginionych dzieci, bezpośrednie zagrożenie terrorystyczne) i wymagają zgody sądu.

Identyfikacja biometryczna w czasie rzeczywistym – zakaz AI Act, zakaz zdalnego rozpoznawania twarzy i identyfikacji osób w przestrzeni publicznej w czasie rzeczywistym przez organy ścigania, wąskie wyjątki: terroryzm, zaginięcia dzieci, przykład kamer policyjnych na koncercie lub meczu skanujących tłum, Art. 5 ust. 1 lit. h) Rozporządzenia AI Act
Identyfikacja biometryczna w czasie rzeczywistym – zakaz AI Act (Art. 5)

Kary wyższe niż za RODO

Za naruszenie zakazów grozi kara do 35 mln euro lub 7% rocznego światowego obrotu – w zależności od tego, która kwota jest wyższa. To znacznie surowsze sankcje niż w RODO.

Kary za naruszenia AI Act – tabela z Art. 99. Do 35 mln euro lub 7% obrotu za zakazane praktyki (Art. 5), 15 mln euro lub 3% za inne naruszenia, 7,5 mln euro lub 1% za podanie nieprawdziwych informacji organom. Porównanie z RODO (max 20 mln euro lub 4% obrotu)
Kary za naruszenia AI Act (Art. 99) – porównanie z RODO

W Polsce organem nadzorczym będzie Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI).

Co to oznacza dla zwykłego Kowalskiego i użytkowników AI Girl / AI Boy?

  • Masz większą ochronę przed manipulacją i inwigilacją.
  • Pracodawca nie może legalnie analizować Twoich emocji przez kamerę.
  • Szkoła nie może śledzić emocji Twojego dziecka podczas lekcji online.
  • Aplikacje AI companions będą musiały uważać na to, jak wykorzystują dane emocjonalne i biometryczne (zwłaszcza w kontekście AI Act).

Podsumowanie AI Act nie zabrania AI jako takiego – zabrania najbardziej niebezpiecznych praktyk. To ważny krok w stronę odpowiedzialnego rozwoju sztucznej inteligencji w Europie.

Źródła:

  • Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 (AI Act)
  • Komisja Europejska – Wytyczne do Art. 5 AI Act (luty 2025)
  • Poradnik Przedsiębiorcy, LexDigital, Rzeczpospolita, AI o AI (2025–2026)

Co Wy na to? Czy uważacie, że te zakazy są wystarczające, czy powinny być ostrzejsze? A może idą za daleko i ograniczają innowacje? Napiszcie w komentarzu – chętnie poznamy Wasze opinie!

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *