Peste un milion de oameni își exprimă săptămânal intenții suicidare în conversațiile cu ChatGPT, estimează OpenAI

Moderator
4 Min Citire
Sursa foto: PROFILUX IMAGES

Estimări alarmante privind intențiile suicidare în rândul utilizatorilor ChatGPT

Peste un milion de utilizatori ai ChatGPT trimit săptămânal mesaje care conțin „indicatori expliciți ai planificării sau intenției suicidare”, conform unei postări pe blog publicate de OpenAI. Această constatare face parte dintr-o actualizare privind modul în care chatbotul gestionează conversațiile sensibile și evidențiază amploarea impactului pe care inteligența artificială îl poate avea asupra problemelor de sănătate mintală.

Semne de urgență în sănătatea mintală

OpenAI a estimat că aproximativ 0,07% din utilizatorii activi într-o săptămână – adică aproximativ 560.000 din cei 800 de milioane de utilizatori săptămânali – prezintă „posibile semne de urgență în sănătatea mintală legate de psihoză sau manie”. Compania a subliniat dificultatea detectării sau măsurării acestor conversații, menționând că analiza este una inițială.

Consecințe legale și investigații

OpenAI se confruntă cu un control sporit după un proces publicizat de familia unui adolescent care s-a sinucis după o implicare extinsă cu ChatGPT. De asemenea, Comisia Federală pentru Comerț a lansat luna trecută o investigație amplă în legătură cu companiile care creează chatboți AI, inclusiv OpenAI, pentru a evalua modul în care acestea măsoară efectele negative asupra copiilor și adolescenților.

Îmbunătățiri aduse modelului GPT-5

OpenAI a afirmat că actualizarea recentă a modelului GPT-5 a redus numărul comportamentelor nedorite și a îmbunătățit siguranța utilizatorilor, conform unei evaluări a mai mult de 1.000 de conversații legate de auto-vătămare și suicid. Compania a raportat că noul model a obținut un scor de 91% în ceea ce privește comportamentele dorite, comparativ cu 77% pentru modelul anterior GPT-4.

Publicitate
Ad Image

Colaborarea cu experți în sănătate mintală

OpenAI a extins accesul la linii de urgență pentru crize și a adăugat memento-uri pentru utilizatori de a lua pauze în timpul sesiunilor lungi. Pentru a îmbunătăți modelul, compania a colaborat cu 170 de clinicieni din rețeaua sa globală de experți în sănătate, care au ajutat la evaluarea siguranței răspunsurilor modelului și la formularea răspunsurilor la întrebările legate de sănătatea mintală.

Îngrijorări legate de utilizarea chatboților

Experții în sănătate mintală și cercetătorii AI sunt îngrijorați de tendința chatboților de a valida deciziile sau deluziile utilizatorilor, chiar și atunci când acestea pot fi dăunătoare. Această problemă, cunoscută sub numele de „sycophancy”, ridică semne de întrebare cu privire la utilizarea chatboților ca suport psihologic și la posibilele efecte negative asupra utilizatorilor vulnerabili.

Declarațiile conducerii OpenAI

CEO-ul OpenAI, Sam Altman, a afirmat că compania a realizat progrese în tratarea problemelor de sănătate mintală, anunțând că OpenAI va relaxa restricțiile și va permite în curând adulților să creeze conținut erotic. Altman a subliniat importanța de a aborda serios problemele de sănătate mintală, recunoscând că restricțiile anterioare au afectat experiența utilizatorilor fără probleme de sănătate mintală.

Concluzie

Estimările OpenAI referitoare la utilizatorii care exprimă intenții suicidare subliniază provocările cu care se confruntă compania în gestionarea sănătății mintale în contextul utilizării inteligenței artificiale, ridicând întrebări esențiale despre responsabilitatea și siguranța în dezvoltarea tehnologiilor AI.

Distribuie acest articol
Niciun comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *