Compania californiană de inteligenţă artificială (IA) estimează că aproximativ 0,15% dintre utilizatorii ChatGPT au ”conversaţii care includ indicatori expliciţi de planificare sau intenţie suicidară potenţială”, transmite Le Figaro
Peste un milion de utilizatori ai ChatGPT discută despre gânduri legate de sinucidere cu acest asistent IA generativ, potrivit estimărilor furnizate de creatorul său, OpenAI.
Compania californiană de inteligenţă artificială (IA) estimează că aproximativ 0,15% dintre utilizatorii ChatGPT au „conversaţii care includ indicatori expliciţi de planificare sau intenţie suicidară potenţială”, potrivit unui articol publicat pe blogul companiei.
Având în vedere că OpenAI revendică 800 de milioane de utilizatori săptămânali, aceasta corespunde aproximativ 1,2 milioane de persoane. Compania estimează, de asemenea, că aproximativ 0,07% dintre utilizatorii săptămânali activi ai ChatGPT prezintă semne de potenţiale urgenţe de sănătate mintală legate de episoade psihotice sau maniacale, adică puţin sub 600.000 de persoane.
Această problemă a intrat în centrul atenţiei după moartea unui adolescent californian, Adam Raine. Părinţii acestuia au dat recent OpenAI în judecată, afirmând că ChatGPT i-ar fi oferit sfaturi specifice despre cum să se sinucidă.
OpenAI a întărit de atunci controlul parental şi a implementat alte măsuri de siguranţă, precum acces îmbunătăţit la asistenţă telefonică de urgenţă, redirecţionarea automată a conversaţiilor sensibile către modele mai sigure şi mementouri binevoitoare care îi invită pe utilizatori să ia pauze în timpul sesiunilor prelungite.
Compania a precizat că şi-a actualizat modelul pentru a recunoaşte şi răspunde mai bine utilizatorilor care se confruntă cu o urgenţă de sănătate mintală. OpenAI afirmă că lucrează cu peste 170 de profesionişti din domeniul sănătăţii mintale pentru a reduce semnificativ răspunsurile problematice.
Dati-ne un LIKE si fiti la curent cu ultimele articole.