Parlamentul European vrea interzicerea aplicațiilor AI care dezbracă persoane

Scris de | 27 martie, 2026
Parlamentul European vrea interzicerea aplicațiilor AI care dezbracă persoane

Parlamentul European a adoptat poziția sa privind un pachet de simplificare care modifică Artificial Intelligence Act, într-un vot care arată clar direcția politică actuală: mai multă predictibilitate pentru companii, mai mult timp pentru implementare și o linie mai dură împotriva unor utilizări considerate abuzive ale inteligenței artificiale. Potrivit textului adoptat, eurodeputații susțin amânarea aplicării anumitor obligații pentru sistemele AI cu risc ridicat, dar în același timp cer introducerea unei interdicții explicite pentru aplicațiile de tip „nudifier”, care pot genera imagini nud cu persoane reale.

Termene mai clare pentru sistemele AI cu risc ridicat

Una dintre cele mai importante modificări susținute de eurodeputați este introducerea unor date fixe pentru aplicarea regulilor dedicate sistemelor AI cu risc ridicat. Argumentul este că firmele și autoritățile au nevoie de predictibilitate și siguranță juridică, mai ales într-un domeniu unde standardele tehnice și ghidurile de implementare nu sunt încă pe deplin pregătite. În locul unei aplicări percepute drept prea grăbite, Parlamentul propune un calendar mai clar și mai etapizat.

Pentru sistemele AI „de risc înalt” enumerate explicit în regulament, inclusiv cele din biometrie, infrastructură critică, educație, ocuparea forței de muncă, servicii esențiale, aplicarea legii, justiție și managementul frontierelor, eurodeputații propun data de 2 decembrie 2027. Pentru sistemele AI care intră sub incidența legislației sectoriale europene privind siguranța produselor și supravegherea pieței, termenul propus este 2 august 2028. Separat, furnizorii ar urma să aibă până la 2 noiembrie 2026 pentru a respecta obligațiile de marcare conținutului generat de AI.

Parlamentul European vrea interzicerea aplicațiilor „nudifier”

Poate cea mai dură măsură din textul adoptat este propunerea unei interdicții noi pentru sistemele AI care generează fotografii nud cu persoane reale. Parlamentul definește această categorie ca sisteme care folosesc inteligența artificială pentru a crea sau manipula imagini sexual explicite ori intime care seamănă cu o persoană reală identificabilă, fără consimțământul acesteia.

Totuși, eurodeputații lasă și o excepție. Interdicția nu s-ar aplica acelor sisteme AI care au măsuri de siguranță eficiente, capabile să împiedice utilizatorii să creeze astfel de imagini. Această nuanță arată că Parlamentul încearcă să lovească în utilizările efectiv abuzive, fără să blocheze complet tehnologii care pot avea și alte întrebuințări, atâta vreme cât includ protecții reale și funcționale.

AI Act poate deveni mai puțin strict pentru produse deja reglementate

Textul adoptat mai include și o idee importantă pentru industriile care operează deja sub reguli sectoriale stricte. Obligațiile din AI Act ar putea fi mai puțin severe pentru produsele care sunt deja reglementate de alte acte legislative europene privind siguranța produselor. Sunt menționate explicit exemple precum dispozitivele medicale, echipamentele radio și siguranța jucăriilor.

Rațiunea din spatele acestei abordări este evitarea suprapunerilor inutile de reglementare. Dacă un produs trece deja printr-un cadru sectorial complex, Parlamentul consideră că AI Act nu ar trebui să dubleze în mod excesiv aceleași obligații. În practică, acest lucru ar putea reduce povara birocratică pentru companii și ar putea face mai ușoară integrarea AI în produse deja bine reglementate la nivel european.

Urmează negocierile cu Consiliul UE

Adoptarea poziției Parlamentului nu înseamnă că noile reguli intră imediat în vigoare în forma actuală. Documentul precizează clar că următorul pas îl reprezintă negocierile cu Consiliul privind forma finală a legii. Cu alte cuvinte, propunerile aprobate acum stabilesc mandatul politic al Parlamentului pentru negocierile interinstituționale, nu versiunea finală și definitivă a textului.

Etichete: , , , , , ,