CHANGE.WORLD: IA și legislația europeană

Inteligența Artificială (IA) nu este creată și utilizată într-un vid legislativ. Voi încerca în acest articol al rubricii CHANGE.WORLD să furnizez câteva informații de bază, să sintetizez și să clarific care sunt liniile directoare și stadiul prezent al legislației europene legate de IA. La fel ca în multe alte discuții despre IA, circulă multe informații vagi sau incorecte și despre acest subiect. Ideea acestui articol a venit de la citirea unei pseudo-știri pe un Web site cultural (de altfel, respectabil în multe privințe) în limba română, având contributori din toată lumea, care anunța recent, ca noutate de ultima oră, că ar începe aplicarea legislației europene în acest domeniu. Nu mai dădea prea multe alte detalii decât informațiile de contact ale autoarei și ale biroului de avocatură pe care-l reprezintă. Chiar și singura informație concretă legată de faza în care se află legislația IA era incorectă. Departe de a fi la început, aceasta a fost aprobată acum aproape doi ani și a trecut dincolo de jumătate din perioada de intrare în vigoare și implementare în spațiul UE. Europa se află din acest punct de vedere în avangardă, fiind prima comunitate de țări care introduce și începe să aplice un sistem legislativ legat de IA, cu avantatajele și riscurile pionieratului. Să vedem concret despre ce este vorba.

(sursa imaginii: www.palaiologos.law/eu-ai-act/)

În limba engleză această legislație se numește ‘Artificial Intelligence Act’ sau ‘AI Act’, adică ‘Legea privind inteligența artificială’ sau ‘Legea IA’. A fost votată în Parlamentul European la 13 martie 2024, aprobată de Consiliul European la 21 mai 2024 și a intrat în vigoare la 1 august 2024, cu prevederi care urmau să fie aplicate treptat în următoarele 6 până la 36 de luni. Este important să menționăm două aspecte – reglementările se ocupă mai ales de aplicațiile civile și ele se adresează în special creatorilor de aplicații și servicii IA, și nu utilizatorilor individuali. Sunt incluse majoritatea sistemelor de IA într-o gamă largă de sectoare, dar și cu multe excepții pentru IA utilizată doar în scopuri militare, de securitate națională, de cercetare sau pentru uz neprofesional. Ca formă de reglementare a produselor, legea impune obligații furnizorilor de IA și organizațiilor care utilizează IA într-un context profesional. Ca utilizatori individuali, cei mai mulți dintre noi nu suntem vizați direct de aceasta lege, dar îi putem trage la răspundere pe acei furnizori de sisteme IA sau firme care utilizează IA în produsele și serviciile lor, dacă nu respectă condițiile legislației.

(sursa imaginii: www.telefonica.com/en/communication-room/blog/a-fit-for-purpose-and-borderless-european-artificial-intelligence-regulation/)

Legea împarte aplicațiile IA neexceptate în funcție de riscul lor de a provoca daune. Există patru niveluri de risc – inacceptabil, ridicat, limitat, minim – plus o categorie suplimentară pentru IA de uz general.

– Aplicațiile cu riscuri inacceptabile sunt interzise. Ele includ aplicațiile care manipulează comportamentul uman, cele care utilizează identificarea biometrică de la distanță în timp real (cum ar fi recunoașterea facială) în spațiile publice și cele utilizate pentru stabilirea de scoruri sociale (clasificarea indivizilor pe baza caracteristicilor personale, a statutului socio-economic sau a comportamentului lor)

– Aplicațiile cu risc ridicat trebuie să respecte obligații de securitate, transparență și calitate și să fie supuse evaluărilor de conformitate. Sunt incluse aplicații care pot să reprezinte amenințări semnificative la adresa sănătății, siguranței sau drepturilor fundamentale ale persoanelor – în special, sistemele de IA utilizate în sănătate, educație, recrutare, gestionarea infrastructurilor critice, aplicarea legii sau justiție. Acestea sunt supuse unor obligații de calitate, transparență, supraveghere umană și siguranță și, în unele cazuri, necesită o evaluare a impactului asupra drepturilor fundamentale înainte de implementare. Algoritmii trebuie evaluați atât înainte de a fi introduși pe piață, cât și pe tot parcursul ciclului lor de viață. Lista aplicațiilor cu risc ridicat poate fi extinsă în timp. De asemenea, cetățenii au dreptul de a depune reclamații cu privire la sistemele de IA și de a primi explicații cu privire la deciziile luate de IA cu risc ridicat care le afectează drepturile.

– Aplicațiile cu risc limitat au doar obligații de transparență. Utilizatorii trebuie să fie informați că interacționează cu un sistem IA pentru a putea lua decizii în cunoștință de cauză. Această categorie include, de exemplu, aplicații de inteligență artificială care permit generarea sau manipularea imaginilor, sunetului sau videoclipurilor. Atenție, deci: cine creează conținut cu ajutorul unei aplicații de inteligență artificiala are obligația, conform acestei legislații, să semnaleze clar faptul că este vorba despre conținut generat cu asistență IA.

– Aplicațiile cu risc minim includ, de exemplu, sistemele de inteligență artificială utilizate pentru jocuri video sau filtre antispam. Se așteaptă ca majoritatea aplicațiilor de inteligență artificială să se încadreze în această categorie. Aceste sisteme nu sunt reglementate, iar statele membre nu pot impune reglementări suplimentare. Cu toate acestea, se sugerează un cod de conduită voluntar.

– Categoria IA de uz general include modele fundamentale (de exemplu, ChatGPT) care pot îndeplini o gamă largă de sarcini. Dacă designul este open-source, dezvoltatorii trebuie să publice un rezumat al datelor de antrenament și o politică de drepturi de autor; modelele cu sursă închisă trebuie să îndeplinească cerințe mai largi de transparență. Sunt introduse evaluări suplimentare pentru modelele cu capacitate ridicată. Dincolo de aceste obligații de bază privind transparența, Legea IA stabilește o listă comună de obligații pentru furnizorii de modele IA de uz general. Aceștia trebuie să publice un rezumat al datelor de învățare, să adopte o politică de conformitate cu legea drepturilor de autor și să furnizeze documentație tehnică utilizatorilor care creează alte aplicații și autorităților de supraveghere.

(sursa imaginii: https://trumpetproject.eu/steering-the-future-in-the-right-direction-introducing-the-new-european-ai-office/)

Care este modelul de guvernanță sau, în alte cuvinte, cum va fi implementată această legislație? În ianuarie 2024 a fost înființat Biroul IA (AI Office) în cadrul Comisiei Europene. Directoarea Biroului se numește Lucilla Sioli, are două doctorate (de la universitățile din Southampton și Milano) și lucrează din 1997 în organizații europene. Biroul IA va coordona implementarea Legii privind IA în toate statele membre și va supraveghea conformitatea furnizorilor de IA de uz general. De asemenea, el poate solicita informații sau deschide anchete atunci când sunt suspectate probleme grave.

(sursa imaginii: https://bernitsaslaw.com/2024/05/27/formal-adoption-of-the-ai-act-by-the-council-eu-timeline-highlights)

Care este calendarul de introducere a legislației? După intrarea în vigoare, la 1 august 2024, Legea privind IA urma să se aplice în 6 luni pentru sistemele de IA interzise, în 12 luni pentru sistemele IA de uz general și în 24-36 de luni pentru sistemele IA cu risc ridicat. Practic, deci, primele două categorii au intrat deja în aplicare, în timp ce legislația legată de sistemele cu risc ridicat ar trebui să înceapă să fie aplicată după 1 august 2026. O cerere de amânare cu 9 luni a introducerii acestei părți a legislației (necesară pentru finalizarea sculelor de conformitate) se află în discuția Biroului IA.

Ce înseamnă aceasta? Legislația europeană nu este o noutate. Aplicarea ei a început cu 2 ani în urmă. Este probabil cea mai avansată legislație internațională în acest domeniu, dar nu este singura. Peste 1 000 de inițiative legislative naționale au fost promulgate sau sunt în lucru în 72 de țări. Cele mai avansate dintre ele sunt Coreea de Sud (din ianuarie 2025) și China, care în 2025 a legiferat obligația marcării explicite a oricărui conținut generat cu IA. Statele Unite nu au o singură lege federală pentru IA, ceea ce lasă reglementările să fie decise la nivel de stat. Printre legile statale notabile se numără Legea AB 2013 din California (despre transparența datelor de instruire) și Legea SB 24-205 din Colorado (discriminarea algoritmică). La nivel federal, accentul s-a mutat la sfârșitul anului 2025 către o abordare dereglementată menită să stimuleze inovația și să elimine birocrația.

Firma Deloitte Legal, asociată cu o mare rețea internațională de firme care furnizează servicii legale pentru business și creatorii de tehnologii, activând cu 470 de mii de angajați în 150 de țări, a publicat în ianuarie 2026 un raport despre gradul de implementare a legislației IA în tarile UE la finele anului 2025. Țările europene sunt împărțite în trei categorii: cele în care implementarea este si avansată (acolo unde au fost deja desemnate autoritățile naționale competente – NCA), cele în care legislația națională respectivă este în curs și urmează să fie desemnate NCA-urile, și cele care se află doar în stadiul de ‘planificare timpurie’. În această din urmă categorie se află și România, alături de Austria, Belgia, Estonia și Portugalia. România se află printre cele șapte tari care nu au desemnat un punct de contact sau responsabilitate clar în problemele IA, conform acestui document (accesibil public la adresa deloittelegal.de/content/dam/assets-zone6/dl/de/docs/services/legal/2025/national-implementation-of-the-eu-ai-act-across-member-states.pdf). Accelerarea eforturilor legislative și a implementării legislației sunt evident necesare.

(sursa imaginii: www.esa-automation.com/en/ai-act-the-first-regulatory-framework-for-artificial-intelligence-in-the-european-union/)

Concluzii? Majoritatea obligațiilor revin furnizorilor (dezvoltatorilor) de sisteme de IA cu risc ridicat. De asemenea, sunt afectați implementatorii – persoane fizice sau juridice care implementează un sistem de IA în scop profesional. Mai puțin afectați, dar nu complet imuni la responsabilități, sunt utilizatorii finali. Atunci când creați un text sau o fotografie bazată pe IA, aveți obligația să le marcați că atare. Distribuind sau redistribuind un asemenea conținut deveniți cel puțin utilizatori finali și uneori chiar implementatori. Legile privitoare la proprietatea intelectuală se aplică la fel ca la orice conținut care nu este creat original, ci copiat din alte surse. La fel ca în orice fel de transfer financiar, de bunuri sau de informație, avem responsabilități ca producători și creatori, dar și ca utilizatori. Se impune precauție, cunoaștere, utilizare inteligentă. Aplicațiile IA deschid posibilități enorme, amplifică productivitatea și fac mai eficientă munca intelectuală, creează forme noi de divertisment. Să ne bucuram de ele în cadrul și în spiritul legilor.

Articolul a fost publicat inițial în revista de cultură ‘Literatura de Azi’

This entry was posted in change.world. Bookmark the permalink.

Leave a Reply

Your email address will not be published. Required fields are marked *