Newsletter

Reglementarea a ceea ce nu este creat: riscă Europa irelevanța tehnologică?

**TITLUL: Legea europeană privind inteligența artificială - Paradoxul celui care reglementează ceea ce nu se dezvoltă** **SUMAR:** Europa atrage doar o zecime din investițiile globale în inteligența artificială, dar pretinde că dictează regulile globale. Acesta este "efectul Bruxelles" - impunerea de reglementări la scară planetară prin puterea de piață, fără a stimula inovarea. Legea privind inteligența artificială intră în vigoare după un calendar eșalonat până în 2027, dar companiile multinaționale de tehnologie răspund prin strategii creative de eludare: invocarea secretelor comerciale pentru a evita dezvăluirea datelor de formare, producerea de rezumate conforme din punct de vedere tehnic, dar de neînțeles, utilizarea autoevaluării pentru a reduce nivelul sistemelor de la "risc ridicat" la "risc minim", forum shopping prin alegerea statelor membre cu controale mai puțin stricte. Paradoxul drepturilor de autor extrateritoriale: UE cere ca OpenAI să respecte legislația europeană chiar și în cazul formării în afara Europei - principiu nemaiîntâlnit până acum în dreptul internațional. Apare "modelul dual": versiuni europene limitate vs. versiuni globale avansate ale acelorași produse AI. Risc real: Europa devine o "fortăreață digitală" izolată de inovarea globală, cetățenii europeni având acces la tehnologii inferioare. Curtea de Justiție în cazul credit scoring a respins deja apărarea "secretelor comerciale", dar incertitudinea interpretativă rămâne enormă - ce înseamnă exact "rezumat suficient de detaliat"? Nimeni nu știe. Ultima întrebare fără răspuns: UE creează o a treia cale etică între capitalismul american și controlul statului chinez sau pur și simplu exportă birocrația într-un domeniu în care nu concurează? Pentru moment: lider mondial în reglementarea IA, marginal în dezvoltarea acesteia. Program vast.
Fabio Lauria
Director executiv și fondator al Electe‍

Legea europeană privind IA: între transparență și strategiile de evaziune ale întreprinderilor

Uniunea Europeană a făcut un pas istoric prin intrarea în vigoare a Actului privind inteligența artificială, prima legislație cuprinzătoare din lume privind inteligența artificială. Acest act revoluționar, care plasează Europa în fruntea guvernanței IA, stabilește un cadru de reglementare bazat pe riscuri care urmărește să echilibreze inovarea și protecția drepturilor fundamentale. Cu toate acestea, regulamentul reprezintă, de asemenea, încă o manifestare a așa-numitului "efectul Bruxelles" - tendința UE de a-și impune normele la scară globală prin puterea sa de piață, fără a stimula neapărat inovarea tehnologică.

În timp ce SUA și China conduc dezvoltarea inteligenței artificiale cu investiții publice și private masive (45% și, respectiv, 30% din investițiile globale în 2024), Europa a atras doar 10% din investițiile globale în inteligența artificială. Ca răspuns, UE încearcă să compenseze întârzierea sa tehnologică prin reglementare, impunând standarde care ajung să afecteze întregul ecosistem global.

Întrebarea centrală este: Europa creează un mediu care promovează inovarea responsabilă sau pur și simplu exportă birocrație într-o industrie în care nu poate concura?

Dimensiunea extrateritorială a reglementării europene

Legea privind IA se aplică nu numai întreprinderilor europene, ci și celor care operează pe piața europeană sau ale căror sisteme de IA au impact asupra cetățenilor UE. Această competență extrateritorială este evidentă în special în dispozițiile privind modelele GPAI, unde considerentul 106 din lege prevede că furnizorii trebuie să respecte drepturile de autor ale UE "indiferent de jurisdicția în care are loc formarea modelelor".

Această abordare a fost aspru criticată de unii observatori, care o văd ca pe o încercare a UE de a-și impune normele companiilor care nu își au sediul pe teritoriul său. Potrivit criticilor, acest lucru ar putea crea o ruptură în ecosistemul tehnologic global, companiile fiind forțate să dezvolte versiuni separate ale produselor lor pentru piața europeană sau să adopte standarde europene pentru toate piețele pentru a evita costurile suplimentare de conformitate.

Prin urmare, companiile multinaționale din domeniul tehnologiei se află într-o poziție dificilă: ignorarea pieței europene nu este o opțiune viabilă, dar respectarea Legii privind inteligența artificială necesită investiții semnificative și ar putea limita posibilitățile de inovare. Acest efect este amplificat în continuare de calendarul ambițios de punere în aplicare și de incertitudinea interpretativă a multor dispoziții.

Calendarul de punere în aplicare și cadrul de reglementare

Legea IA a intrat în vigoare la 1 august 2024, dar punerea sa în aplicare va urma un calendar eșalonat:

  • 2 februarie 2025: Intrarea în vigoare a interdicției privind sistemele de inteligență artificială care implică riscuri inacceptabile (cum ar fi sistemele guvernamentale de scoring social) și a obligațiilor privind alfabetizarea în domeniul inteligenței artificiale
  • 2 mai 2025: Termen limită pentru finalizarea Codului de conduită pentru modelele AI cu scop general (GPAI)
  • 2 august 2025: Aplicarea normelor privind modelele AI cu scop general, guvernanța și autoritățile de raportare
  • 2 august 2026: Aplicarea integrală a dispozițiilor privind sistemele cu risc ridicat și obligațiile de transparență
  • 2 august 2027: Aplicarea standardelor pentru sistemele cu risc ridicat care fac obiectul legislației privind siguranța produselor

Regulamentul adoptă o abordare bazată pe risc, clasificând sistemele AI în patru categorii: risc inacceptabil (interzis), risc ridicat (supus unor cerințe stricte), risc limitat (cu obligații de transparență) și risc minim sau inexistent (utilizare liberă). Această clasificare determină obligațiile specifice pentru dezvoltatori, furnizori și utilizatori.

Noile dispoziții privind transparența: un obstacol în calea inovării?

Una dintre cele mai importante inovații ale Legii privind inteligența artificială se referă la obligațiile de transparență, care urmăresc să abordeze natura de "cutie neagră".cutie neagră" a sistemelor AI. Aceste obligații includ:

  • Obligația pentru furnizorii de modele GPAI de a publica un "rezumat suficient de detaliat" al datelor de formare, facilitând monitorizarea de către titularii de drepturi de autor și alte părți interesate
  • Necesitatea ca sistemele care interacționează cu oamenii să informeze utilizatorii că comunică cu un sistem AI
  • Obligația de a eticheta în mod clar conținutul generat sau modificat de AI (cum ar fi deepfakes)
  • Punerea în aplicare a unei documentații tehnice complete pentru sistemele cu risc ridicat

Aceste cerințe, deși menite să protejeze drepturile cetățenilor, ar putea reprezenta o povară semnificativă pentru întreprinderi, în special pentru întreprinderile nou-înființate și IMM-urile inovatoare. Necesitatea de a documenta în detaliu procesele de dezvoltare, datele de formare și logica decizională ar putea încetini ciclurile de inovare și crește costurile de dezvoltare, dezavantajând întreprinderile europene în raport cu concurenții din alte regiuni cu reglementări mai puțin stricte.

Studii de caz: evaziunea în practică

Punctaj de credit și procese decizionale automatizate

Hotărârea în cauza C-203/22 evidențiază modul în care întreprinderile se opun inițial mandatelor de transparență. Pârâtul, un furnizor de telecomunicații, a susținut că dezvăluirea logicii algoritmului său de scoring al creditelor ar dezvălui secrete comerciale, punând în pericol avantajul său competitiv6 . CJUE a respins acest argument, afirmând că articolul 22 din RGPD dă dreptul persoanelor fizice la o explicație a "criteriilor și logicii" care stau la baza deciziilor automatizate, chiar dacă simplificate6 .

Inteligența artificială generativă și eludarea drepturilor de autor

În conformitate cu sistemul pe două niveluri al Legii privind inteligența artificială, majoritatea modelelor generative de inteligență artificială se încadrează în nivelul 1, care impune respectarea drepturilor de autor ale UE și a rezumatelor datelor de formare2 . Pentru a evita reclamațiile privind încălcarea drepturilor de autor, companii precum OpenAI au trecut la date rezumate sau la conținut licențiat, însă persistă lacune în documentație.

Implicațiile pentru drepturile de autor: Europa stabilește legea la nivel mondial

Legea IA conține dispoziții specifice privind drepturile de autor care extind influența de reglementare a UE mult dincolo de granițele sale. Furnizorii de modele GPAI trebuie:

  • să respecte rezerva de drepturi stabilită prin Directiva privind piața unică digitală (2019/790)
  • Furnizarea unui rezumat detaliat al conținutului utilizat pentru formare, echilibrând necesitatea de a proteja secretele comerciale cu necesitatea de a permite titularilor de drepturi de autor să își aplice drepturile

Considerentul 106 din AI Act prevede că furnizorii trebuie să respecte legislația UE privind drepturile de autor, "indiferent de jurisdicția în care are loc formarea modelului". Această abordare extrateritorială ridică semne de întrebare cu privire la compatibilitatea cu principiile teritorialității dreptului de autor și ar putea crea conflicte de reglementare cu alte jurisdicții.

Strategii corporative: evaziune sau conformitate cu "efectul Bruxelles"?

Pentru companiile tehnologice globale, Legea privind inteligența artificială prezintă o alegere strategică fundamentală: să se adapteze la "efectul Bruxelles" și să respecte standardele europene la nivel global sau să dezvolte abordări diferențiate pentru diferite piețe? Au apărut mai multe strategii:

Strategii de evaziune și de atenuare

  1. Protecția secretului comercial: Multe întreprinderi încearcă să limiteze divulgarea prin invocarea protecției secretului comercial din Directiva UE privind secretul comercial. Companiile susțin că divulgarea detaliată a datelor de formare sau a arhitecturilor modelelor ar expune informații de proprietate, subminându-le competitivitatea. Această abordare confundă cerința din lege privind rezumatul datelor cu divulgarea completă.
  2. Complexitatea tehnică ca mijloc de apărare: natura inerent complexă a sistemelor moderne de inteligență artificială oferă o altă cale de atenuare. Întreprinderile produc rezumate conforme din punct de vedere tehnic, dar excesiv de prolixe sau pline de jargon, care îndeplinesc formal cerințele legale fără a permite o examinare semnificativă. De exemplu, un rezumat al datelor de formare ar putea enumera categorii generale de date (de exemplu, "texte disponibile public") fără a specifica sursele, proporțiile sau metodele specifice.
  3. Lacuna autoevaluării: Modificările aduse secțiunii 6 din Legea privind IA introduc un mecanism de autoevaluare care permite dezvoltatorilor să își scutească sistemele de la clasificarea în categorii de risc ridicat dacă consideră că riscurile sunt "neglijabile". Această lacună conferă întreprinderilor autoritatea unilaterală de a evita obligațiile stricte de conformitate.
  4. Forumul de reglementare pentru cumpărături: Legea privind IA deleagă punerea în aplicare autorităților naționale de supraveghere a pieței, ceea ce duce la potențiale disparități în materie de strictețe și competență. Unele întreprinderi își localizează în mod strategic operațiunile europene în state membre cu abordări mai permisive în materie de aplicare sau cu resurse mai reduse în acest sens.

"Modelul dual" ca răspuns la efectul Bruxelles

Unele întreprinderi mari din domeniul tehnologiei dezvoltă un "model dual" de funcționare:

  1. versiuni "conforme cu UE" ale produselor lor de inteligență artificială, cu funcționalitate limitată, dar în deplină conformitate cu Legea privind inteligența artificială
  2. Versiuni "globale" mai avansate disponibile pe piețe mai puțin reglementate

Această abordare, deși costisitoare, face posibilă menținerea unei prezențe pe piața europeană fără a compromite inovarea globală. Cu toate acestea, această fragmentare ar putea duce la o creștere a decalajului tehnologic, utilizatorii europeni având acces la tehnologii mai puțin avansate decât cei din alte regiuni.

Incertitudinea legislativă ca obstacol în calea inovării europene

Actul european privind IA reprezintă un punct de cotitură în reglementarea IA, însă complexitatea și ambiguitățile de interpretare ale acestuia generează un climat de incertitudine care ar putea afecta negativ inovarea și investițiile în acest sector. Întreprinderile se confruntă cu mai multe provocări:

Incertitudinea de reglementare ca risc de afaceri

Schimbarea peisajului de reglementare reprezintă un risc semnificativ pentru întreprinderi. Interpretarea unor concepte-cheie precum "rezumat suficient de detaliat" sau clasificarea sistemelor cu "risc ridicat" rămâne ambiguă. Această incertitudine ar putea duce la:

  1. Costuri de conformare imprevizibile: întreprinderile trebuie să aloce resurse semnificative pentru conformare fără a avea o certitudine deplină cu privire la cerințele finale.
  2. Strategii de piață prudente: incertitudinea în materie de reglementare ar putea conduce la decizii de investiții mai prudente și la întârzieri în dezvoltarea de noi tehnologii, în special în Europa.
  3. Fragmentarea pieței digitale europene: interpretarea inegală a normelor de către diferitele state membre riscă să creeze un mozaic de reglementări greu de navigat pentru întreprinderi.
  4. Concurență globală asimetrică: întreprinderile europene pot fi supuse unor constrângeri mai stricte decât concurenții din alte regiuni, ceea ce le va afecta competitivitatea globală.

Decalajul de inovare și suveranitatea tehnologică

Dezbaterea privind "efectul Bruxelles" este plasată în contextul mai larg al suveranității tehnologice europene. UE se află în situația dificilă de a trebui să găsească un echilibru între nevoia de a promova inovarea internă și nevoia de a reglementa tehnologiile dezvoltate în principal de actori non-europeni.

În 2024, întreprinderile europene au atras doar 10% din investițiile globale în IA, în timp ce SUA și China au dominat sectorul datorită unei combinații de investiții publice și private masive, de politici favorabile inovării și de acces la date mari. Europa, cu fragmentarea sa lingvistică, culturală și de reglementare, se străduiește să genereze "campioni" tehnologici capabili să concureze la nivel mondial.

Criticii susțin că abordarea europeană axată pe reglementare riscă să înăbușe și mai mult inovarea și să descurajeze investițiile, în timp ce susținătorii consideră că crearea unui cadru de reglementare fiabil poate stimula de fapt dezvoltarea unei IA etice și sigure "prin concepție", creând un avantaj competitiv pe termen lung.

Concluzie: reglementare fără inovare?

"Efectul Bruxelles" al Legii privind inteligența artificială evidențiază o tensiune fundamentală în abordarea europeană a tehnologiei: capacitatea de a stabili standarde globale prin reglementare nu este însoțită de un leadership corespunzător în domeniul inovării tehnologice. Această asimetrie ridică semne de întrebare cu privire la durabilitatea pe termen lung a acestei abordări.

Dacă Europa continuă să reglementeze tehnologii pe care nu le dezvoltă, riscă să se afle într-o poziție de dependență tehnologică din ce în ce mai mare, în care normele sale ar putea deveni din ce în ce mai puțin relevante într-un ecosistem global în schimbare rapidă. În plus, întreprinderile neeuropene s-ar putea retrage progresiv de pe piața europeană sau ar putea oferi acolo versiuni limitate ale produselor lor, creând o "Europă fortăreață digitală" tot mai izolată de progresul global.

Pe de altă parte, dacă UE ar putea echilibra abordarea sa de reglementare cu o strategie eficientă de promovare a inovării, ar putea defini efectiv o "a treia cale" între capitalismul american și controlul statului chinez, punând drepturile omului și valorile democratice în centrul dezvoltării tehnologice. Vaste programe ar spune în Franța.

Viitorul IA în Europa va depinde nu numai de eficiența Legii IA în protejarea drepturilor fundamentale, ci și de capacitatea Europei de a însoți reglementarea cu investiții adecvate în inovare și de a simplifica cadrul de reglementare pentru a-l face mai puțin opresiv. În caz contrar, Europa riscă să se afle într-o situație paradoxală: lider mondial în reglementarea IA, dar marginal în dezvoltarea și punerea în aplicare a acesteia.

Referințe și surse

  1. Comisia Europeană. (2024). "Regulamentul (UE) 2024/1689 de stabilire a standardelor armonizate privind inteligența artificială". Jurnalul Oficial al Uniunii Europene.
  2. Oficiul European pentru Inteligență Artificială. (2025, aprilie). "Orientări preliminare privind obligațiile furnizorilor de modele GPAI". Comisia Europeană.
  3. Curtea de Justiție a Uniunii Europene. (2025, februarie). "Hotărârea în cauza C-203/22, Dun & Bradstreet Austria". CJUE.
  4. Warso, Z., & Gahntz, M. (2024, decembrie). "Cum poate Legea UE privind inteligența artificială să sporească transparența datelor de formare în domeniul inteligenței artificiale". TechPolicy.Press.. https://www.techpolicy.press/how-the-eu-ai-act-can-increase-transparency-around-ai-training-data/
  5. Wachter, S. (2024). "Limitations and Loopholes in the EU AI Act and AI Liability Directives". Yale Journal of Law & Technology, 26(3). https://yjolt.org/limitations-and-loopholes-eu-ai-act-and-ai-liability-directives-what-means-european-union-united
  6. Drepturile digitale europene (EDRi). (2023, septembrie). "Legiuitorii UE trebuie să elimine lacunele periculoase din Legea privind inteligența artificială". https://www.amnesty.eu/news/eu-legislators-must-close-dangerous-loophole-in-ai-act/.
  7. Institutul Viitorul Vieții. (2025). "AI Act Compliance Checker". https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/
  8. Dumont, D. (2025, februarie). "Understanding the AI Act and its compliance challenges" (Înțelegerea legii privind inteligența artificială și provocările legate de respectarea acesteia). Help Net Security. https://www.helpnetsecurity.com/2025/02/28/david-dumont-hunton-andrews-kurth-eu-ai-act-compliance/
  9. Guadamuz, A. (2025). "Legea UE privind inteligența artificială și drepturile de autor". The Journal of World Intellectual Property. https://onlinelibrary.wiley.com/doi/full/10.1111/jwip.12330
  10. White & Case LLP. (2024, iulie). "Mult așteptatul Act UE privind inteligența artificială devine lege după publicarea în Jurnalul Oficial al UE". https://www.whitecase.com/insight-alert/long-awaited-eu-ai-act-becomes-law-after-publication-eus-official-journal.

Resurse pentru dezvoltarea afacerilor