Fabio Lauria

Mașini care învață (și) din greșelile noastre Efectul bumerang: noi învățăm inteligența artificială greșelile noastre, iar ea ni le redă... multiplicate!

13 aprilie 2025
Partajați pe rețelele sociale

Unele cercetări recente au evidențiat un fenomen interesant: există o relație "bidirecțională" între prejudecățile prezente în modelele de inteligență artificială și cele ale gândirii umane.

Această interacțiune creează un mecanism care tinde să să amplifice distorsiunile cognitive în ambele direcții.

Această cercetare arată că sistemele de inteligență artificială nu numai că moștenesc prejudecățile umane din datele de formare, dar atunci când sunt implementate le pot intensifica, influențând la rândul lor procesele decizionale ale oamenilor. Acest lucru creează un ciclu care, dacă nu este gestionat corespunzător, riscă să sporească progresiv prejudecățile inițiale.

Acest fenomen este evident în special în sectoare importante precum:

În aceste domenii, mici prejudecăți inițiale se pot amplifica prin interacțiuni repetate între operatorii umani și sistemele automate, transformându-se treptat în diferențe semnificative în rezultate.

Originile prejudecăților

În gândirea umană

Mintea umană utilizează în mod natural "scurtături de gândire" care pot introduce erori sistematice în judecățile noastre. Teoria "gândire dublă" distinge între:

  • Gândire rapidă și intuitivă (predispusă la stereotipuri)
  • Gândire lentă și reflexivă (capabilă să corecteze prejudecățile)

De exemplu, în domeniul medical, medicii tind să acorde prea multă importanță ipotezelor inițiale, neglijând dovezile contrare. Acest fenomen, denumit "părtinire de confirmare", este reprodus și amplificat de sistemele AI antrenate pe baza datelor istorice de diagnosticare.

În modelele AI

Modelele de învățare automată perpetuează prejudecățile în principal prin trei canale:

  1. Date de formare dezechilibrate care reflectă inegalitățile istorice
  2. Selectarea caracteristicilor care includ atribute protejate (cum ar fi sexul sau etnia)
  3. Buclele de reacție rezultate din interacțiunile cu deciziile umane deja distorsionate

Unul studiu UCL din 2024 a arătat că sistemele de recunoaștere facială antrenate pe baza judecăților emoționale făcute de oameni au moștenit o tendință de 4,7 % de a eticheta fețele ca fiind "triste", iar apoi au amplificat această tendință la 11,3 % în interacțiunile ulterioare cu utilizatorii.

Cum se amplifică reciproc

Analiza datelor de pe platformele de recrutare arată că fiecare ciclu de colaborare om-algoritm crește prejudecățile de gen cu 8-14% prin mecanisme de feedback care se consolidează reciproc.

Atunci când profesioniștii din domeniul resurselor umane primesc de la AI liste de candidați deja influențați de prejudecăți istorice, interacțiunile lor ulterioare (cum ar fi alegerea întrebărilor pentru interviu sau evaluarea performanțelor) consolidează reprezentările distorsionate ale modelului.

O meta-analiză din 2025 a 47 de studii a constatat că trei runde de colaborare om-IA au crescut disparitățile demografice de 1,7-2,3 ori în domenii precum asistența medicală, creditarea și educația.

Strategii pentru măsurarea și atenuarea prejudecăților

Cuantificarea prin învățare automată

Cadrul de măsurare a prejudecăților propus de Dong et al. (2024) permite detectarea prejudecăților fără a fi nevoie de etichete de "adevăr absolut" prin analizarea discrepanțelor în modelele de luare a deciziilor între grupurile protejate.

Intervenții cognitive

Tehnica "oglinzii algoritmice" dezvoltată de cercetătorii de la UCL a redus cu 41% prejudecățile de gen în deciziile de promovare, arătând managerilor cum ar arăta alegerile lor istorice dacă ar fi fost făcute de un sistem AI.

Protocoalele de formare care alternează între asistența AI și luarea autonomă a deciziilor se dovedesc deosebit de promițătoare, reducând efectele transferului de prejudecăți de la 17% la 6% în studiile de diagnostic clinic.

Implicații pentru societate

Organizațiile care implementează sisteme AI fără a lua în considerare interacțiunile cu prejudecățile umane se confruntă cu riscuri juridice și operaționale amplificate.

O analiză a cazurilor de discriminare la angajare arată că procesele de recrutare asistate de inteligența artificială cresc ratele de succes ale reclamanților cu 28% în comparație cu cazurile tradiționale conduse de oameni, deoarece urmele deciziilor algoritmice oferă dovezi mai clare ale impactului disparat.

Către o inteligență artificială care respectă libertatea și eficiența

Corelația dintre denaturările algoritmice și restricțiile privind libertatea de alegere ne obligă să regândim dezvoltarea tehnologică din perspectiva responsabilității individuale și a protejării eficienței pieței. Este esențial să ne asigurăm că IA devine un instrument de extindere a oportunităților, nu de restricționare a acestora.

Direcțiile promițătoare includ:

  • Soluții de piață care stimulează dezvoltarea de algoritmi imparțiali
  • Mai multă transparență în procesele decizionale automatizate
  • Dereglementarea favorizează concurența între diferite soluții tehnologice

Numai printr-o autoreglementare responsabilă a industriei, combinată cu libertatea de alegere a utilizatorilor, ne putem asigura că inovarea tehnologică continuă să fie un motor al prosperității și al oportunităților pentru toți cei care sunt dispuși să își pună abilitățile la încercare.

Fabio Lauria

CEO & Fondator | Electe

CEO al Electe, ajut IMM-urile să ia decizii bazate pe date. Scriu despre inteligența artificială în lumea afacerilor.

Cele mai populare
Înscrieți-vă pentru cele mai recente știri

Primiți săptămânal știri și informații în căsuța dvs. poștală
. Nu ratați!

Vă mulțumim! Trimiterea dvs. a fost primită!
Oops! Ceva nu a mers bine la trimiterea formularului.