Companiile care folosesc inteligență artificială în activitatea de zi cu zi intră într-o cursă contra cronometru înainte de 2 august 2026, data de la care AI Act devine, ca regulă generală, aplicabil în Uniunea Europeană. „Dacă folosești ChatGPT pentru a filtra CV-uri, un algoritm care evaluează performanța angajaților sau un chatbot care răspunde clienților, ești deja vizat”, spune, pentru Digi24.ro, avocatul specializat în tehnologie Marius Stanciu.
Pentru firme, vorbim despre noi obligații de transparență, control uman și documentare. Pentru cetățeni, înseamnă că deciziile luate sau influențate de algoritmi, de la angajare până la accesul la anumite servicii, vor intra sub reguli mai stricte.
Ce este, de fapt, AI Act și de ce contează
AI Act este Regulamentul (UE) 2024/1689, adoptat pentru a stabili reguli armonizate privind inteligența artificială în Uniunea Europeană.
A intrat în vigoare la 1 august 2024 și se aplică direct în toate statele membre, fără a necesita o lege de transpunere, inclusiv companiilor din afara UE, dacă sistemele lor AI afectează persoane aflate pe teritoriul Uniunii.
Regulamentul folosește o logică bazată pe risc: cu cât un sistem AI poate afecta mai mult viața, siguranța sau drepturile oamenilor, cu atât regulile sunt mai stricte.
AI Act clasifică sistemele de inteligență artificială în mai multe niveluri de risc: sisteme cu risc inacceptabil, care sunt interzise, sisteme cu risc ridicat, supuse unor obligații stricte, și sisteme cu risc limitat sau minim, pentru care cerințele sunt mai reduse.
Legea nu privește doar companiile care dezvoltă inteligență artificială, ci și pe cele care o folosesc în activitatea curentă, inclusiv în procese precum recrutarea, evaluarea angajaților, relația cu clienții sau creditarea.
De ce nu este doar o problemă a companiilor tech
Dacă aplici la un job, este posibil ca CV-ul tău să fie analizat de un sistem automat. Dacă lucrezi deja într-o companie, performanța ta poate fi evaluată cu ajutorul unui algoritm. Dacă ești client, poți interacționa cu un chatbot, iar răspunsul primit poate depinde de un sistem automatizat.
Astfel de utilizări nu sunt excepții, ci tot mai frecvente în activitatea companiilor, iar în anumite situații pot influența direct decizii importante pentru oameni, de la angajare până la accesul la servicii.
„Cel mai frecvent mit pe care îl întâlnesc este că AI Act ar fi o problemă a companiilor de tehnologie, a celor care dezvoltă inteligență artificială. În realitate, orice firmă care folosește un sistem AI devine, în ochii legii, un implementator cu obligații clare”, a explicat Marius Stanciu, pentru Digi24.ro.
Ce se întâmplă concret din 2 august 2026
Potrivit calendarului oficial de implementare al AI Act, data de 2 august 2026 marchează aplicarea generală a regulamentului.
Din acest moment, devin relevante obligațiile complete pentru multe sisteme AI cu risc ridicat, inclusiv cele folosite în zona ocupării forței de muncă și a accesului la servicii.
Pentru firme, asta înseamnă că utilizarea AI în procese sensibile nu mai poate fi tratată ca un simplu instrument de eficientizare fără consecințe juridice. Dacă un sistem influențează recrutarea, evaluarea angajaților sau accesul la servicii, obligațiile cresc semnificativ.
Pentru sistemele cu risc ridicat, AI Act impune cerințe clare: companiile trebuie să știe ce folosesc, cum folosesc și cine răspunde în cazul unor probleme.
Transparența devine esențială, iar în anumite situații oamenii trebuie informați că interacționează cu un sistem AI sau că o decizie este influențată de un algoritm.
În același timp, este necesară supravegherea umană, întrucât sistemele nu pot fi lăsate să ia decizii complet autonom în chestiuni care afectează direct oamenii.
„Sistemele nu pot fi lăsate să ia decizii de capul lor, iar angajații trebuie să știe cum și când să intervină”, a explicat Marius Stanciu.
Pentru companii, asta înseamnă obligații concrete: documentare, păstrarea evidențelor, evaluarea impactului și asigurarea unui control uman real.
În același timp, AI Act introduce și mecanisme prin care persoanele afectate de deciziile luate cu ajutorul AI pot depune plângeri și pot solicita informații despre modul în care au fost utilizate aceste sisteme, în anumite condiții, potrivit Comisiei Europene.
Ce era deja interzis și ce obligații există deja
O parte dintre prevederile AI Act sunt deja aplicabile din 2 februarie 2025, când au intrat în vigoare interdicțiile privind anumite practici de inteligență artificială și obligațiile de „AI literacy”.
Sunt vizate utilizările considerate inacceptabile, precum sistemele care manipulează comportamentul uman, exploatează vulnerabilități sau creează forme de scoring social incompatibile cu standardele europene.
Aplicarea regulamentului este etapizată. Din 2 august 2025 se aplică regulile pentru modelele de inteligență artificială de uz general (GPAI), precum ChatGPT, Claude sau Gemini.
Acestea nu trebuie confundate cu sistemele AI cu risc ridicat, pentru care obligațiile complete devin relevante odată cu aplicarea generală a regulamentului.
Amenzile: cât de mare este riscul real pentru companii
AI Act vine și cu sancțiuni semnificative. Pentru folosirea unor practici interzise, amenzile pot ajunge până la 35 de milioane de euro sau 7% din cifra de afaceri anuală globală.
Pentru alte încălcări, plafonul este de până la 15 milioane de euro sau 3%, iar furnizarea de informații incorecte sau înșelătoare poate fi sancționată separat, cu până la 7,5 milioane de euro sau 1%.
„Sunt cifre comparabile cu amenzile GDPR. Și știm cu toții că, după ani în care lumea a crezut că GDPR e doar teorie, au venit și primele amenzi serioase. Același scenariu se va repeta cu AI Act”, spune avocatul Marius Stanciu.
România și problema întârzierii
În România, Guvernul a adoptat la 12 martie 2026 un memorandum privind desemnarea autorităților naționale competente și stabilirea punctului național unic de contact pentru aplicarea AI Act.
Potrivit documentului, Autoritatea Națională pentru Administrare și Reglementare în Comunicații (ANCOM) a fost desemnată autoritate de supraveghere a pieței și punct unic de contact.
În același timp, Autoritatea de Supraveghere Financiară (ASF) și Banca Națională a României (BNR) au atribuții în domeniul serviciilor financiare, Autoritatea Națională de Supraveghere a Prelucrării Datelor cu Caracter Personal (ANSPDCP) pentru domenii sensibile, iar Autoritatea pentru Digitalizarea României (ADR) ca autoritate de notificare.
Termenul stabilit la nivel european pentru desemnarea acestor autorități a fost 2 august 2025, ceea ce înseamnă că România a făcut acest pas cu întârziere.
Întârzierea nu suspendă însă aplicarea regulamentului. AI Act se aplică direct, iar lipsa unor proceduri naționale complet operaționale nu exonerează companiile de obligații.
„ANCOM are expertiză în reglementarea telecomunicațiilor, dar supravegherea AI aduce un alt nivel de complexitate. Provocarea reală nu este desemnarea pe hârtie, ci construirea capacității tehnice”, spune Marius Stanciu.
Cum se pregătesc companiile și ce se schimbă pentru angajați
Companiile nu mai au luxul de a amâna. Cu cât procesul de conformare începe mai târziu, cu atât crește riscul ca el să fie făcut în grabă, incomplet sau greșit.
Marius Stanciu recomandă trei pași imediați: inventarierea sistemelor AI utilizate, clasificarea acestora în funcție de risc și pregătirea angajaților prin training documentat.
„Dacă nu poți demonstra că ai făcut asta, ești deja în culpă”, a avertizat acesta.
În practică, aceste reguli vizează inclusiv modul în care sunt luate deciziile care îi privesc direct pe angajați și candidați. Dacă un algoritm influențează selecția CV-urilor sau evaluarea performanței, utilizarea lui trebuie să fie transparentă și supusă controlului uman.
