Inteligența artificială de la Meta oferă sugestii necorespunzătoare anchetatorilor americani în cazurile de abuz asupra copiilor

Moderator
4 Min Citire
Sursa foto: PROFILUX IMAGES

Probleme cu inteligența artificială a Meta în cazurile de abuz asupra copiilor

Utilizarea de către Meta a software-ului de inteligență artificială pentru moderarea platformelor sale de socializare generează volume mari de rapoarte inutile referitoare la cazuri de abuz sexual asupra copiilor, ceea ce afectează resursele și îngreunează anchetele, au declarat ofițerii din cadrul grupului de lucru Internet Crimes Against Children (ICAC) din SUA. Benjamin Zwiebel, agent special din cadrul ICAC în New Mexico, a afirmat că „primim multe sugestii de la Meta care sunt pur și simplu inutile”.

Procurorul general al statului New Mexico acuză Meta că prioritizează profiturile în detrimentul siguranței copiilor. Meta contestă aceste acuzații, invocând schimbările implementate pe platformele sale, cum ar fi conturile pentru adolescenți cu protecții implicite. Grupul ICAC este o rețea națională de agenții de aplicare a legii coordonată cu Departamentul de Justiție al SUA pentru a investiga și a urmări cazurile de exploatare și abuz online asupra copiilor.

Calitatea rapoartelor primite

Un alt ofițer ICAC, care a dorit să rămână anonim, a declarat că Meta furnizează mii de sugestii în fiecare lună, dar calitatea acestora este deficitară în ceea ce privește capacitatea de a lua măsuri serioase. Numărul total de rapoarte primite de departamentul lor s-a dublat între 2024 și 2025. Zwiebel și alți ofițeri ICAC au menționat că rapoartele de pe Instagram, Facebook și WhatsApp conțin, în unele cazuri, informații care nu sunt de natură penală, ceea ce îngreunează anchetele.

Problemele cu informațiile lipsă

Rapoartele derizorii de pe Instagram au crescut semnificativ, mai ales în ultimele luni, ceea ce complică identificarea autorilor infracțiunilor. Ofițerul ICAC a subliniat că, în aceste cazuri, lipsa informațiilor esențiale, cum ar fi imagini sau texte, împiedică progresele în investigații. Aceste situații sunt frustrante pentru ofițerii care știu că infracțiunile au avut loc, dar nu pot identifica autorul.

Publicitate
Ad Image

Reacția Meta

Un purtător de cuvânt al Meta a declarat că compania a sprijinit autoritățile de aplicare a legii în urmărirea infractorilor de-a lungul anilor și că Departamentul de Justiție a lăudat cooperarea rapidă a companiei. În 2024, Meta a primit peste 9.000 de solicitări de urgență din partea autorităților din SUA, rezolvându-le în medie în 67 de minute. De asemenea, Meta raportează imagini de exploatare sexuală a copiilor către National Center for Missing and Exploited Children (NCMEC).

Îngrijorările interne privind criptarea

Documentele dezvăluite în cadrul procesului arată că executivii Meta și-au exprimat îngrijorări interne în legătură cu capacitatea companiei de a combate abuzul sexual asupra copiilor în 2019, când se pregăteau să implementeze criptarea end-to-end în Facebook Messenger. Monika Bickert, șefa politicii de conținut a Meta, a scris că criptarea ar împiedica identificarea planificării atacurilor teroriste sau a exploatării copiilor.

Estimările interne sugerează că criptarea Messenger ar fi împiedicat compania să furnizeze date proactive în 600 de cazuri de exploatare a copiilor, 1.454 de cazuri de sextorțiune și 152 de cazuri teroriste. Andy Stone, purtător de cuvânt al Meta, a afirmat că preocupările exprimate în 2019 au fost motivul pentru care compania a dezvoltat o serie de noi caracteristici de siguranță pentru a ajuta la detectarea și prevenirea abuzului.

Concluzie

Problemele legate de calitatea rapoartelor generate de sistemele de inteligență artificială ale Meta subliniază provocările continue în protejarea copiilor împotriva abuzului online, ridicând întrebări serioase despre eficiența acestor tehnologii în sprijinul autorităților de aplicare a legii.

Distribuie acest articol
7 comentarii
  • E greu de înțeles cum o companie atât de mare ca Meta poate să greșească în cazuri atât de serioase. Chiar nu ar trebui să fie mai atenți cu inteligența artificială, având în vedere impactul pe care-l poate avea?

  • Mă întreb dacă cineva verifică efectiv sugestiile date de AI înainte ca acestea să ajungă la anchetatori. E chiar îngrijorător când tehnologia devine parte a unui proces atât de delicat și important.

  • Mi se pare că Meta ar trebui să investească mai mult în dezvoltarea unei inteligențe artificiale care să țină cont de nuanțele umane. Nu e ușor, dar implicațiile sunt prea mari pentru a lăsa totul pe seama algoritmilor.

  • Aproape că mă surprinde cât de multe companii își asumă riscuri cu inteligența artificială fără o responsabilitate adecvată. Cazurile de abuz asupra copiilor merită toată atenția noastră, iar tehnologia ar trebui să ajute, nu să facă rău!

  • Dacă software-ul ăsta face astfel de greșeli, ce altceva putem aștepta? Ne bazăm prea mult pe tehnologie și uităm adesea că un om trebuie să fie implicat în procesul decizional.

  • Sunt curios dacă vor lua vreo măsură concretă după acest incident sau totul va fi trecut sub preș, ca multe alte scandaluri din trecut. E trist că asemenea situații apar tocmai într-un domeniu unde trebuie să ne protejăm copiii!

  • Poate ar fi bine ca Meta să colaboreze cu specialiști din domeniu pentru a-și îmbunătăți sistemele AI. Nu este suficient doar un algoritm bun; trebuie și expertiză umană care să ghideze aceste tehnologii!

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *