Site icon Ai-Romania – informații din domeniul inteligenței artificiale

Sunt datele personale protejate când conversăm cu AI-ul?

Ne fură AI-ul datele personale?

Ne fură AI-ul datele personale?

Oamenii adoră să discute cu inteligența artificială – unii chiar prea mult, ajungând șă divulge prea multe să ignore datele personale. Potrivit contractorilor care lucrează pentru Meta, care analizează interacțiunile utilizatorilor cu chatboții companiei pentru a îmbunătăți inteligența artificială, utilizatorii sunt dispuși să împărtășească informații personale, private, inclusiv numele reale, numerele de telefon și adresele de e-mail, cu AI-ul Meta. Această situație ridică probleme serioase legate de confidențialitate și de modul în care datele noastre sunt gestionate de giganții tehnologici.

Dispoziția utilizatorilor de a partaja date personale

Conform unor declarații ale contractorilor angajați de Meta prin platforme precum Alignerr și Scale AI – Outlier, datele personale neprotejate sunt mai frecvente în proiectele Meta comparativ cu cele ale altor companii din Silicon Valley. Utilizatorii Facebook și Instagram împărtășesc detalii profunde cu AI-ul, tratându-l ca pe un prieten sau chiar un partener romantic, trimițând selfie-uri și chiar imagini explicite.

Utilizatorii ignoră protejarea datelor personale atunci când intră în conversații cu sistemele AI

Este un fenomen deja documentat, însă cazul Meta este particular, având în vedere istoricul companiei în ceea ce privește protecția datelor.

Istoricul problematic al Meta cu confidențialitatea datelor utilizatorilor

În 2018, New York Times și The Guardian au dezvăluit modul în care Cambridge Analytica, o firmă de consultanță politică, a exploatat Facebook pentru a colecta date de la zeci de milioane de utilizatori fără consimțământul lor. Aceste date au fost utilizate pentru a crea profiluri ale alegătorilor americani și pentru a-i ținti cu reclame politice personalizate, influențând alegerile din 2016. Acest incident a dus la o amendă de 5 miliarde de dolari impusă de Comisia Federală pentru Comerț (FTC), fiind una dintre cele mai mari amenzi legate de confidențialitate din istoria SUA.

Sunt datele personale protejate când conversăm cu AI-ul?

Scandalul a expus lacunele majore în platforma de dezvoltatori Facebook, care permitea acces larg la date, dar cu o supraveghere limitată. Documente interne dezvăluite de Frances Haugen, o fostă angajată a Meta, indică faptul că conducerea companiei a prioritizat creșterea și implicarea utilizatorilor în detrimentul preocupărilor legate de confidențialitate și siguranță.

Practici controverse: contractorii și ascultarea conversațiilor

Meta nu este singura companie care folosește contractori pentru a evalua calitatea asistenților virtuali cu inteligență artificială. În 2019, The Guardian a raportat că Apple a întrerupt practica de a permite contractorilor să asculte conversațiile utilizatorilor Siri, deoarece nu avea proceduri adecvate pentru gestionarea informațiilor sensibile. Bloomberg a dezvăluit că Amazon avea mii de angajați și contractori care revizuiau manual înregistrări audio de la utilizatorii Alexa, iar Vice și Motherboard au relatat despre Microsoft care angaja contractori pentru a înregistra și revizui conținut audio, inclusiv conversații ale copiilor prin intermediul consolei Xbox.

Cu toate acestea, istoricul Meta în privința gestionării datelor și dependența de contractori ridică semne de întrebare suplimentare cu privire la modul în care datele sunt tratate de compania din spatele celor mai populare rețele sociale din lume.

Reacția Meta și perspective viitoare

Ca răspuns la aceste acuzații, un purtător de cuvânt Meta a declarat că compania are „politici stricte care guvernează accesul la datele personale pentru toți angajații și contractorii”. Compania susține că limitează intenționat informațiile personale la care au acces contractorii și are procese de protecție pentru gestionarea datelor sensibile.

Cu toate acestea, preocupările rămân. Utilizarea contractorilor pentru a îmbunătăți modelele lingvistice mari (LLM) este o practică standard, dar modul în care Meta gestionează accesul la datele utilizatorilor și asigură conformitatea cu politicile de confidențialitate rămâne o problemă crucială.

Atunci când modelele LLM sunt utilizate indirect prin API, pot fi luate măsuri preventive de eliminare a informațiilor sensibile din conversații. Aceste informații sensibile pot depăși zona datelor personale (nume, adresă, telefon, email, date de sănătate sau date bancare). Putem discuta și de date sensibile pentru organizației precum proiecte, invenții, baze de date cu clienții și așa mai departe.

În situația utilizării directe on cloud, aceste date sunt însă transmise complet către furnizorii de AI și practic singurele măsuri de securitate se rezumă la garanțiile date de acești furnizori.

Pentru situația utilizării AI -ul în cadrul organizațiilor este necesar să ne amintim că există și anumite cerințe legale exprimate în Regulamentul GDPR și în EU Ai Act. Printre aceste cerințe legale ar fi de amintit:

Totuși să nu uităm că și furnizorii de sisteme AI au obligații legale.

Situația conversațiilor cu modelele OpenAI

În ultimele săptămâni, comunitatea utilizatorilor de inteligență artificială a fost zguduită de o serie de revelații îngrijorătoare privind protecția datelor personale în contextul utilizării serviciilor OpenAI. Sam Altman, directorul general al companiei, a emis recent un avertisment clar și fără echivoc: conversațiile cu ChatGPT pot fi folosite împotriva utilizatorilor în instanță.

Procesul cu The New York Times – un precedent periculos

Contextul acestui avertisment este un proces juridic în curs de desfășurare între OpenAI și The New York Times, alături de alți reclamanți din domeniul media. În iunie 2024, instanța a emis o ordonanță prin care OpenAI este obligată să păstreze toate jurnalele de conversații cu ChatGPT pe termen nelimitat, inclusiv conversațiile pe care utilizatorii le-au șters. Această măsură face parte dintr-un litigiu mai amplu privind drepturile de autor, în care publicațiile mass-media acuză compania că a folosit fără permisiune conținutul lor pentru antrenarea modelelor de inteligență artificială.

Deși OpenAI a contestat această ordonanță judecătorească, argumentând că aceasta încalcă dreptul la confidențialitate al utilizatorilor, realitatea rămâne că, în prezent, toate conversațiile sunt păstrate indefinit. Compania susține că datele vor fi stocate separat într-un sistem securizat, dar această asigurare pare să ofere o protecție limitată în contextul legal actual.

Lipsa protecției legale – un gol juridic periculos

Avertismentul lui Sam Altman devine și mai îngrijorător când înțelegem că conversațiile cu ChatGPT nu beneficiază de nicio protecție legală specială. Spre deosebire de discuțiile cu un medic, un avocat sau un terapeut, care sunt protejate prin secretul profesional, conversațiile cu un chatbot AI nu au niciun statut privilegiat din punct de vedere juridic.

„Oamenii vorbesc cu ChatGPT despre cele mai personale lucruri din viața lor”, a declarat Altman într-un podcast recent, adăugând că „am putea fi obligați să furnizăm acele date personale” în cadrul unor procese juridice. Această situație ridică întrebări serioase despre natura intimă a multor conversații pe care utilizatorii le au cu AI-ul, tratându-l adesea ca pe un confident personal sau chiar ca pe un terapeut.

Implicații pentru utilizatori

Aceste dezvoltări au implicații profunde pentru milioanele de utilizatori de ChatGPT din întreaga lume. Mulți oameni au dezvoltat o relație de încredere cu chatbotul, împărtășindu-i probleme personale, dileme etice, sau chiar informații sensibile despre viața lor profesională sau personală. Aceste conversații, care păreau să se desfășoare într-un spațiu privat și sigur, se dovedesc a fi vulnerable la investigații legale și potențiale dezvăluiri în instanță.

Experții în protecția datelor personale avertizează că această situație creează un precedent îngrijorător. În contextul în care tot mai multe procese juridice ar putea solicita accesul la conversațiile utilizatorilor AI, confidențialitatea digitală se află într-un teritoriu juridic necunoscut și imprevizibil.

Necesitatea unei reglementări urgente

Cazul OpenAI evidențiază necesitatea unei reglementări clare și cuprinzătoare a protecției datelor în era inteligenței artificiale. În timp ce Europa a făcut progrese cu Regulamentul General privind Protecția Datelor (GDPR), sistemul juridic american pare să fie în urmă în ceea ce privește protecția conversațiilor cu AI-ul.

Utilizatorii de ChatGPT și alte servicii similare ar trebui să fie conștienți că tot ceea ce împărtășesc poate deveni, în anumite circumstanțe, o probă într-un proces juridic. Această realitate transformă fundamental natura interacțiunii cu inteligența artificială, de la o experiență aparent privată la una care necesită prudență și considerație atentă a consecințelor legale potențiale.

Avertismentul lui Sam Altman nu este doar o precauție – este o recunoaștere a unei realități juridice care schimbă regulile jocului pentru milioanele de utilizatori care s-au obișnuit să vadă în AI un confident digital de încredere.

Concluzie

Dezvăluirile recente privind împărtășirea datelor personale cu chatboții AI de către utilizatorii Facebook, dar și ai altor sisteme AI, combinate cu istoricul acestor companii în materia confidențialității datelor, subliniază importanța unei protecții mai stricte a datelor personale și a unei supravegheri mai atente a practicilor companiilor tehnologice. Este esențial ca utilizatorii să fie conștienți de riscurile legate de confidențialitate și să își protejeze informațiile personale online. Furnizorii sistemelor AI (Meta, OpenAi, Google etc) trebuie să demonstreze un angajament real față de confidențialitate și să asigure implementarea unor măsuri eficiente pentru a proteja datele utilizatorilor săi.

Exit mobile version