CNN-ის ინფორმაციით, 23 წლის ტეხასელი სტუდენტის მშობლებმა OpenAI-ს უჩივლეს, რომ კომპანია უსაფრთხოების საკმარის ზომებს არ იღებდა და ჩატბოტმა დეპრესიული მომხმარებლის სუიციდი "ემოციურად წაახალისა".
OpenAI-მ განაცხადა, რომ კომპანიამ უკვე განაახლა ChatGPT, რათა უკეთ ამოიცნოს და შეაჩეროს თვითდაზიანების ან სუიციდის ნიშნები. მშობლები მოითხოვენ, რომ მსგავსი შემთხვევებისას ბოტმა დიალოგი ავტომატურად შეწყვიტოს და საჭიროების შემთხვევაში, ოჯახის წევრებს აცნობოს.









