“Я просила в ChatGPT допомоги – а він порадив мені, як себе вбити”.
Слова дівчини транслює ВВС Україна.
Самотня й охоплена тугою за батьківщиною, яка потерпає від війни, українка Вікторія почала ділитися своїми тривогами з ChatGPT. Вона проводила біля 6 годин на день у спілкуванні з ботом. Ділилася з ним відчуттями, страхами і написала про бажання вчинити суїцид.
Бот підтримав дівчину у бажанні вкоротити вік і, як пище видання, запропонував проаналізувати місце, де Вікторія хотіла би піти з життя. Також чат підготував останню записку.
На щастя, дівчина вчасно схаменулася. Відомо, що вона зараз перебуває на лікуванні. Також відомо, що у компанії-виробника ChatGPT пообіцяли перевірити “збоі” в роботі мережі, але попри збіг часу, кілька місяців, не надали жодних відповідей.
Натомість журналісти ВВС знайшли ще кілька випадків, коли бот підтримував людей у бажанні зробити суїцид.



