ChatGPT te ascultă (și s-ar putea să te raporteze)
Cazul OpenAI redefinește granița dintre siguranța publică și confidențialitatea digitală: provocarea de a proteja societatea fără a trăda încrederea utilizatorilor. Între promisiunile tehnologice și zonele gri ale reglementărilor, încrederea în IA rămâne o miză riscantă. Șoapte digitale într-o lume care ascultă mereu.
Marea schimbare: OpenAI recunoaște că a raportat autorităților
În septembrie 2025, OpenAI a făcut o dezvăluire care a zguduit comunitatea tehnologică globală: ChatGPT monitorizează activ conversațiile utilizatorilor și raportează conținutul potențial criminal către agențiile de aplicare a legii.
Știrea, care a apărut aproape întâmplător într-o postare pe blogul companiei, a dezvăluit că, atunci când sistemele automate detectează utilizatori care „intenționează să facă rău altora”, conversațiile sunt redirecționate către canale specializate, unde o mică echipă instruită în politicile de utilizare le examinează. Dacă evaluatorii umani stabilesc că există o „amenințare iminentă de vătămare fizică gravă a altora”, cazul poate fi trimis autorităților de aplicare a legii.
ChatGPT vă invită cordial să împărtășiți gândurile voastre cele mai intime. Nu vă faceți griji, totul este confidențial... mai mult sau mai puțin.
Când vorbim cu un psiholog, avocat, medic sau preot, cuvintele noastre sunt protejate de un mecanism juridic bine stabilit: secretul profesional. Acest principiu, înrădăcinat în secole de tradiție juridică, stabilește că anumite conversații sunt inviolabile, chiar și în cazul anchetelor penale.
Protecție extinsă: comunicațiile rămân confidențiale chiar și în cazul unor infracțiuni mărturisite.
Excepții limitate și specifice: Numai în cazuri extreme definite de lege, anumiți profesioniști pot/trebuie să încalce confidențialitatea.
Supraveghere umană calificată: Decizia de a încălca confidențialitatea rămâne întotdeauna în mâinile unui profesionist calificat.
Responsabilitate etică: Profesioniștii sunt obligați să respecte coduri de conduită care echilibrează obligațiile față de client și societate.
Limitele reale ale secretului profesional
Contrar percepției comune, secretul profesional nu este absolut. Există excepții bine definite, care variază în funcție de categoria profesională:
Pentru avocați (art. 28 din Codul de conduită al avocaților): Dezvăluirea este permisă atunci când este necesară pentru:
Desfășurarea activităților de apărare
Prevenirea comiterii unei infracțiuni deosebit de grave
Apărarea în cazul unui litigiu cu clientul dumneavoastră
Proceduri disciplinare
Exemplu critic: dacă un client îi spune avocatului său că intenționează să comită o crimă, protecția vieții trebuie să aibă prioritate față de protecția dreptului la apărare, iar avocatul este eliberat de obligația de confidențialitate².
Pentru psihologi (art. 13 din Codul deontologic): Confidențialitatea poate fi încălcată în următoarele situații:
Există obligația de a raporta sau de a depune plângere pentru infracțiunile care sunt urmărite penal din oficiu.
Există pericole grave pentru viața sau sănătatea fizică și mentală a persoanei și/sau a terților.
Există un consimțământ valabil și demonstrabil din partea pacientului.
Distincție importantă: Psihologii privați au o mai mare libertate de acțiune decât psihologii publici, care, în calitate de funcționari publici, au obligații de raportare mai stricte³.
ChatGPT funcționează într-o zonă gri complet diferită:
Lipsa privilegiului legal: Conversațiile cu IA nu beneficiază de nicio protecție legală. După cum a recunoscut Sam Altman, CEO al OpenAI: „Dacă discutați cu un terapeut, un avocat sau un medic despre aceste probleme, există un privilegiu legal pentru asta. Există confidențialitatea medic-pacient, există confidențialitatea juridică, orice ar fi. Și încă nu am rezolvat această problemă pentru discuțiile cu ChatGPT.”
Proces automatizat: Spre deosebire de un profesionist uman care evaluează fiecare caz în parte, ChatGPT utilizează algoritmi pentru a identifica conținutul „problematic”, eliminând judecata umană calificată din etapa inițială de selecție.
Implicațiile practice: un nou paradigma de supraveghere
Paradoxul încrederii în tehnologie
Situația creează un paradox îngrijorător. Milioane de oameni folosesc ChatGPT ca pe un confident digital, împărtășindu-i gânduri intime, îndoieli, temeri și chiar fantezii criminale pe care nu le-ar împărtăși niciodată unui om. După cum relatează Sam Altman: „Oamenii vorbesc cu ChatGPT despre cele mai personale lucruri din viața lor. Oamenii îl folosesc – în special tinerii – ca pe un terapeut, un coach de viață”.⁴
Riscul autocenzurii criminale: Conștientizarea faptului că conversațiile pot fi monitorizate ar putea, în mod paradoxal:
Împingerea infractorilor către canale mai ascunse
Împiedicarea persoanelor cu gânduri violente să caute ajutor
Crearea unui efect de „răcire” în comunicațiile digitale
Expertiza vs. algoritmi: cine decide ce este criminal?
Un aspect crucial subliniat de critici se referă la competența celor care iau deciziile finale.
Profesioniștii umani au:
Ani de antrenament pentru a distinge între fantezii și intenții reale
Coduri de conduită care definesc când se poate încălca confidențialitatea
Responsabilitatea juridică personală pentru deciziile lor
Capacitatea de a evalua contextul și credibilitatea
Sistemul ChatGPT funcționează cu:
Algoritmi automatizați pentru detectarea inițială
Personalul OpenAI care nu are neapărat pregătire clinică sau criminologică
Criterii de evaluare care nu sunt publice și pot fi arbitrare
Absența mecanismelor de control extern
Exemplu problematic: Cum face diferența un algoritm între:
O persoană care scrie romane polițiste și caută inspirație pentru scene violente.
Cineva care fantasmează fără intenția de a trece la fapte
Contradicția OpenAI: confidențialitate vs. securitate
Standardul dublu
Recunoașterea OpenAI creează o contradicție flagrantă cu pozițiile sale anterioare. Compania s-a opus cu tărie cererilor de furnizare a datelor utilizatorilor în cazuri juridice, invocând protecția vieții private. În procesul împotriva New York Times, OpenAI s-a opus cu vehemență divulgării înregistrărilor chat-urilor pentru a proteja confidențialitatea utilizatorilor.
Ironia situației: OpenAI apără confidențialitatea utilizatorilor în instanță, recunoscând în același timp că monitorizează și partajează date cu autorități externe.
Impactul cazului New York Times
Situația a fost complicată și mai mult de o hotărâre judecătorească care obligă OpenAI să păstreze pe termen nelimitat toate jurnalele ChatGPT, inclusiv conversațiile private și datele API. Acest lucru înseamnă că conversațiile pe care utilizatorii le considerau temporare sunt acum arhivate permanent.
După cum sugerează Sam Altman, ar putea fi necesar să se dezvolte un concept de „privilegiu AI” – o protecție juridică similară cu cea oferită profesioniștilor tradiționali. Totuși, acest lucru ridică întrebări complexe:
Opțiuni de reglementare posibile:
Model de licențiere: Numai AI-urile certificate pot oferi „privilegiu conversațional”
Formare obligatorie: Persoanele care manipulează conținut sensibil trebuie să dețină calificări specifice.
Supraveghere profesională: implicarea psihologilor/avocaților calificați în raportarea deciziilor
Transparența algoritmică: publicarea criteriilor utilizate pentru identificarea conținutului „periculos”
Soluții tehnice intermediare
IA „Compartimentat”:
Sisteme separate pentru uz terapeutic și uz general
Criptare end-to-end pentru conversații sensibile
Consimțământ explicit pentru toate tipurile de monitorizare
Abordarea „tripartită”:
Detectarea automată numai pentru amenințări imediate și verificabile
Revizuire obligatorie de către personal calificat
Procesul de apel pentru deciziile contestate
Precedentul profesioniștilor din domeniul digital
Lecții din alte sectoare:
Telemedicină: Protocoale dezvoltate pentru confidențialitatea digitală
Consultanță juridică online: Utilizați criptarea și verificarea identității
Terapie digitală: aplicații specializate cu protecții specifice
Elaborarea unor criterii publice și verificabile pentru raportare
Creați procese de apel pentru utilizatori
Investiții în formarea specializată a personalului de audit
Pentru companiile care utilizează IA:
Evaluează riscurile legate de confidențialitate înainte de implementare
Informați clar utilizatorii cu privire la limitele confidențialității
Luați în considerare alternative specializate pentru utilizări sensibile
Viitorul confidențialității digitale
Dilema centrală: Cum se poate echilibra prevenirea infracțiunilor reale cu dreptul la viață privată și confidențialitatea digitală?
Problema nu este doar de natură tehnică, ci atinge principii fundamentale:
Prezumția de nevinovăție: monitorizarea conversațiilor private implică suspiciune generalizată
Dreptul la intimitate: Include dreptul de a avea gânduri private, chiar și cele tulburătoare.
Eficacitatea preventivă: Nu există dovezi că supravegherea digitală previne efectiv infracțiunile.
Concluzii: Găsirea echilibrului potrivit
Dezvăluirea OpenAI marchează un moment decisiv în evoluția inteligenței artificiale, dar întrebarea nu este dacă raportul este corect sau greșit în termeni absoluți: este vorba despre cum să îl facem eficient, echitabil și respectuos față de drepturi.
Nevoia este reală: amenințările concrete de violență, planurile de atacuri sau alte infracțiuni grave necesită intervenție. Întrebarea nu este dacă să raportăm, ci cum să o facem în mod responsabil.
Diferențele fundamentale care trebuie rezolvate:
Formare și expertiză:
Profesioniștii din domeniul umanitar au stabilit protocoale pentru a face distincția între amenințările reale și cele imaginare.
Sistemele de IA necesită standarde echivalente și supraveghere calificată
Persoanele care iau deciziile finale trebuie să urmeze o formare specializată.
Transparență și control:
Profesioniștii își desfășoară activitatea sub supravegherea asociațiilor profesionale.
OpenAI necesită criterii publice și mecanisme de control externe
Utilizatorii trebuie să știe exact când și de ce pot fi raportați.
Proporționalitate:
Profesioniștii echilibrează confidențialitatea cu securitatea, de la caz la caz.
Sistemele de IA trebuie să dezvolte mecanisme similare, nu algoritmi binari.
Pentru companiile din acest sector, provocarea constă în dezvoltarea de sisteme care să protejeze în mod eficient societatea, fără a deveni instrumente de supraveghere indiscriminată. Încrederea utilizatorilor este esențială, dar trebuie să coexiste cu responsabilitatea socială.
Pentru utilizatori, lecția este dublă:
Conversațiile cu IA nu beneficiază de aceleași protecții ca profesioniștii tradiționali.
Acest lucru nu este neapărat negativ dacă se face într-un mod transparent și proporțional, dar este important să fim conștienți de acest aspect.
Viitorul IA conversaționale necesită un nou cadru care:
Stabilirea unor standarde profesionale pentru cei care gestionează conținut sensibil
Asigurarea transparenței în procesele decizionale
Protejați drepturile individuale fără a ignora securitatea
Întrebarea corectă nu este dacă mașinile ar trebui să raporteze infracțiunile, ci cum putem să ne asigurăm că o fac (cel puțin) cu aceeași înțelepciune, pregătire și responsabilitate ca profesioniștii umani.
Obiectivul nu este acela de a reveni la o IA „orbă” la pericolele reale, ci de a construi sisteme care combină eficiența tehnologică cu etica și expertiza umană. Numai astfel putem beneficia de cele mai bune aspecte ale ambelor lumi: securitate și protejarea drepturilor individuale.
Referințe și surse
Futurism - „OpenAI declară că monitorizează conversațiile utilizatorilor pe ChatGPT și raportează conținutul către poliție”
Cabinetul de avocatură Puce - „Privilegiul avocat-client”
Legea pentru toți - „Un psiholog care are cunoștință despre o infracțiune trebuie să-și denunțe pacientul?”
TechCrunch - „Sam Altman avertizează că nu există confidențialitate legală atunci când se utilizează ChatGPT ca terapeut”
Blogul Shinkai - „Conversațiile ChatGPT ale OpenAI au fost scanate și raportate poliției, stârnind indignarea utilizatorilor și temeri legate de confidențialitate”
Simon Willison - „OpenAI contestă ordinul judecătoresc de a salva toate jurnalele ChatGPT, inclusiv conversațiile șterse”
Success Knocks - „Procesul OpenAI 2025: Apeluri NYT privind datele ChatGPT”