Cine suportă consecințele erorilor AI-ului? Companiile acuză Google și Meta pentru dezinformarea care le-a afectat imaginea

Moderator
3 Min Citire
Sursa foto: PROFILUX IMAGES

Cine suportă consecințele erorilor AI-ului?

Reprezentanții Wolf River Electric, o companie de panouri solare din Minnesota, au observat o creștere a contractelor anulate la sfârșitul anului trecut. Clienții au menționat că au renunțat după ce au găsit informații false pe Google, care sugerau că firma ar fi fost implicată într-un proces cu procurorul general al statului pentru practici comerciale înșelătoare. Deși compania nu a fost niciodată dată în judecată, rezultatele căutărilor generate de tehnologia AI a Google, Gemini, afișau aceste informații eronate în topul paginii.

În încercarea de a corecta informațiile, Wolf River Electric a decis să dea în judecată Google pentru defăimare, invocând faptul că și-au construit cu greu o reputație bună. „Când clienții văd un semnal de alarmă ca acesta, e aproape imposibil să îi recâștigi”, a declarat Justin Nielsen, fondatorul companiei.

Procesele pentru defăimare generată de AI

Acesta este unul dintre cele șase procese de defăimare intentate în SUA în ultimii doi ani, vizând conținut generat de instrumente AI. Reclamanții susțin că tehnologia a creat și a publicat informații false și dăunătoare, continuând să le difuzeze chiar și după ce au fost informați despre problemă. Aceste cazuri abordează un concept nou: responsabilitatea pentru defăimarea provocată de conținutul necreat de oameni.

„Nu există nicio îndoială că aceste modele pot publica afirmații dăunătoare”, afirmă Eugene Volokh, expert în Primul Amendament la UCLA. În 2023, el a dedicat un număr al publicației Journal of Free Speech Law acestei probleme. Întrebarea centrală rămâne: cine răspunde pentru aceste afirmații?”

Publicitate
Ad Image

Cazuri notabile și dificultăți legale

Unul dintre primele cazuri de defăimare prin AI a fost depus în Georgia în 2023, unde reclamanții au susținut că chatbot-ul ChatGPT le-a afectat reputația. De asemenea, un caz recent împotriva Meta a fost soluționat în august, când influencerul Robby Starbuck a afirmat că o imagine generată de AI a insinuat informații false despre el. Meta l-a angajat ulterior pe Starbuck ca consilier pentru supravegherea AI-ului companiei.

Până acum, niciun caz de defăimare prin AI nu a ajuns la juriu, iar majoritatea cazurilor au fost respinse din diverse motive legale. De exemplu, cazul lui Mark Walters a fost respins parțial deoarece jurnalistul care a folosit ChatGPT a verificat rapid informația și a constatat că era falsă.

Concluzie

Impactul erorilor generate de AI asupra reputației companiilor ridică întrebări semnificative despre responsabilitate și reglementare în domeniul tehnologiei, subliniind necesitatea unei clarificări legale în ceea ce privește defăimarea provocată de conținutul generat de inteligența artificială.

Distribuie acest articol
4 comentarii
  • Ce se întâmplă cu responsabilitatea în cazul erorilor inteligenței artificiale? E ușor să acuzăm companiile mari, dar până la urmă cine plătește pentru aceste greșeli?

  • E clar că dezinformarea poate afecta grav imaginea unei firme. M-ar interesa să știu ce măsuri iau companiile pentru a preveni astfel de situații în viitor.

  • Cred că e momentul să ne gândim serios la reglementările care ar trebui impuse asupra AI-ului. Dacă nu există responsabilitate clară, riscurile devin tot mai mari.

  • Pe de altă parte, poate e o oportunitate bună pentru micile afaceri să își consolideze reputația! Poate clienții vor aprecia mai mult transparența și onestitatea în loc de promisiuni false generate automat.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *