

Uniunea Europeană a făcut un pas istoric prin intrarea în vigoare a Actului privind inteligența artificială, prima legislație cuprinzătoare din lume privind inteligența artificială. Acest act revoluționar, care plasează Europa în fruntea guvernanței IA, stabilește un cadru de reglementare bazat pe riscuri care urmărește să echilibreze inovarea și protecția drepturilor fundamentale. Cu toate acestea, regulamentul reprezintă, de asemenea, încă o manifestare a așa-numitului "efectul Bruxelles" - tendința UE de a-și impune normele la scară globală prin puterea sa de piață, fără a stimula neapărat inovarea tehnologică.
În timp ce SUA și China conduc dezvoltarea inteligenței artificiale cu investiții publice și private masive (45% și, respectiv, 30% din investițiile globale în 2024), Europa a atras doar 10% din investițiile globale în inteligența artificială. Ca răspuns, UE încearcă să compenseze întârzierea sa tehnologică prin reglementare, impunând standarde care ajung să afecteze întregul ecosistem global.
Întrebarea centrală este: Europa creează un mediu care promovează inovarea responsabilă sau pur și simplu exportă birocrație într-o industrie în care nu poate concura?
Legea privind IA se aplică nu numai întreprinderilor europene, ci și celor care operează pe piața europeană sau ale căror sisteme de IA au impact asupra cetățenilor UE. Această competență extrateritorială este evidentă în special în dispozițiile privind modelele GPAI, unde considerentul 106 din lege prevede că furnizorii trebuie să respecte drepturile de autor ale UE "indiferent de jurisdicția în care are loc formarea modelelor".
Această abordare a fost aspru criticată de unii observatori, care o văd ca pe o încercare a UE de a-și impune normele companiilor care nu își au sediul pe teritoriul său. Potrivit criticilor, acest lucru ar putea crea o ruptură în ecosistemul tehnologic global, companiile fiind forțate să dezvolte versiuni separate ale produselor lor pentru piața europeană sau să adopte standarde europene pentru toate piețele pentru a evita costurile suplimentare de conformitate.
Prin urmare, companiile multinaționale din domeniul tehnologiei se află într-o poziție dificilă: ignorarea pieței europene nu este o opțiune viabilă, dar respectarea Legii privind inteligența artificială necesită investiții semnificative și ar putea limita posibilitățile de inovare. Acest efect este amplificat în continuare de calendarul ambițios de punere în aplicare și de incertitudinea interpretativă a multor dispoziții.
Legea IA a intrat în vigoare la 1 august 2024, dar punerea sa în aplicare va urma un calendar eșalonat:
Regulamentul adoptă o abordare bazată pe risc, clasificând sistemele AI în patru categorii: risc inacceptabil (interzis), risc ridicat (supus unor cerințe stricte), risc limitat (cu obligații de transparență) și risc minim sau inexistent (utilizare liberă). Această clasificare determină obligațiile specifice pentru dezvoltatori, furnizori și utilizatori.
Una dintre cele mai importante inovații ale Legii privind inteligența artificială se referă la obligațiile de transparență, care urmăresc să abordeze natura de "cutie neagră".cutie neagră" a sistemelor AI. Aceste obligații includ:
Aceste cerințe, deși menite să protejeze drepturile cetățenilor, ar putea reprezenta o povară semnificativă pentru întreprinderi, în special pentru întreprinderile nou-înființate și IMM-urile inovatoare. Necesitatea de a documenta în detaliu procesele de dezvoltare, datele de formare și logica decizională ar putea încetini ciclurile de inovare și crește costurile de dezvoltare, dezavantajând întreprinderile europene în raport cu concurenții din alte regiuni cu reglementări mai puțin stricte.

Hotărârea în cauza C-203/22 evidențiază modul în care întreprinderile se opun inițial mandatelor de transparență. Pârâtul, un furnizor de telecomunicații, a susținut că dezvăluirea logicii algoritmului său de scoring al creditelor ar dezvălui secrete comerciale, punând în pericol avantajul său competitiv6 . CJUE a respins acest argument, afirmând că articolul 22 din RGPD dă dreptul persoanelor fizice la o explicație a "criteriilor și logicii" care stau la baza deciziilor automatizate, chiar dacă simplificate6 .
În conformitate cu sistemul pe două niveluri al Legii privind inteligența artificială, majoritatea modelelor generative de inteligență artificială se încadrează în nivelul 1, care impune respectarea drepturilor de autor ale UE și a rezumatelor datelor de formare2 . Pentru a evita reclamațiile privind încălcarea drepturilor de autor, companii precum OpenAI au trecut la date rezumate sau la conținut licențiat, însă persistă lacune în documentație.
Legea IA conține dispoziții specifice privind drepturile de autor care extind influența de reglementare a UE mult dincolo de granițele sale. Furnizorii de modele GPAI trebuie:
Considerentul 106 din AI Act prevede că furnizorii trebuie să respecte legislația UE privind drepturile de autor, "indiferent de jurisdicția în care are loc formarea modelului". Această abordare extrateritorială ridică semne de întrebare cu privire la compatibilitatea cu principiile teritorialității dreptului de autor și ar putea crea conflicte de reglementare cu alte jurisdicții.
Pentru companiile tehnologice globale, Legea privind inteligența artificială prezintă o alegere strategică fundamentală: să se adapteze la "efectul Bruxelles" și să respecte standardele europene la nivel global sau să dezvolte abordări diferențiate pentru diferite piețe? Au apărut mai multe strategii:
Unele întreprinderi mari din domeniul tehnologiei dezvoltă un "model dual" de funcționare:
Această abordare, deși costisitoare, face posibilă menținerea unei prezențe pe piața europeană fără a compromite inovarea globală. Cu toate acestea, această fragmentare ar putea duce la o creștere a decalajului tehnologic, utilizatorii europeni având acces la tehnologii mai puțin avansate decât cei din alte regiuni.
Actul european privind IA reprezintă un punct de cotitură în reglementarea IA, însă complexitatea și ambiguitățile de interpretare ale acestuia generează un climat de incertitudine care ar putea afecta negativ inovarea și investițiile în acest sector. Întreprinderile se confruntă cu mai multe provocări:
Schimbarea peisajului de reglementare reprezintă un risc semnificativ pentru întreprinderi. Interpretarea unor concepte-cheie precum "rezumat suficient de detaliat" sau clasificarea sistemelor cu "risc ridicat" rămâne ambiguă. Această incertitudine ar putea duce la:

Dezbaterea privind "efectul Bruxelles" este plasată în contextul mai larg al suveranității tehnologice europene. UE se află în situația dificilă de a trebui să găsească un echilibru între nevoia de a promova inovarea internă și nevoia de a reglementa tehnologiile dezvoltate în principal de actori non-europeni.
În 2024, întreprinderile europene au atras doar 10% din investițiile globale în IA, în timp ce SUA și China au dominat sectorul datorită unei combinații de investiții publice și private masive, de politici favorabile inovării și de acces la date mari. Europa, cu fragmentarea sa lingvistică, culturală și de reglementare, se străduiește să genereze "campioni" tehnologici capabili să concureze la nivel mondial.
Criticii susțin că abordarea europeană axată pe reglementare riscă să înăbușe și mai mult inovarea și să descurajeze investițiile, în timp ce susținătorii consideră că crearea unui cadru de reglementare fiabil poate stimula de fapt dezvoltarea unei IA etice și sigure "prin concepție", creând un avantaj competitiv pe termen lung.
"Efectul Bruxelles" al Legii privind inteligența artificială evidențiază o tensiune fundamentală în abordarea europeană a tehnologiei: capacitatea de a stabili standarde globale prin reglementare nu este însoțită de un leadership corespunzător în domeniul inovării tehnologice. Această asimetrie ridică semne de întrebare cu privire la durabilitatea pe termen lung a acestei abordări.
Dacă Europa continuă să reglementeze tehnologii pe care nu le dezvoltă, riscă să se afle într-o poziție de dependență tehnologică din ce în ce mai mare, în care normele sale ar putea deveni din ce în ce mai puțin relevante într-un ecosistem global în schimbare rapidă. În plus, întreprinderile neeuropene s-ar putea retrage progresiv de pe piața europeană sau ar putea oferi acolo versiuni limitate ale produselor lor, creând o "Europă fortăreață digitală" tot mai izolată de progresul global.
Pe de altă parte, dacă UE ar putea echilibra abordarea sa de reglementare cu o strategie eficientă de promovare a inovării, ar putea defini efectiv o "a treia cale" între capitalismul american și controlul statului chinez, punând drepturile omului și valorile democratice în centrul dezvoltării tehnologice. Vaste programe ar spune în Franța.
Viitorul IA în Europa va depinde nu numai de eficiența Legii IA în protejarea drepturilor fundamentale, ci și de capacitatea Europei de a însoți reglementarea cu investiții adecvate în inovare și de a simplifica cadrul de reglementare pentru a-l face mai puțin opresiv. În caz contrar, Europa riscă să se afle într-o situație paradoxală: lider mondial în reglementarea IA, dar marginal în dezvoltarea și punerea în aplicare a acesteia.