Скандал: ChatGPT порадив дівчині, як, де і коли краще себе вбити

“Я просила в ChatGPT допомоги – а він порадив мені, як себе вбити”.

Слова дівчини транслює ВВС Україна.

Самотня й охоплена тугою за батьківщиною, яка потерпає від війни, українка Вікторія почала ділитися своїми тривогами з ChatGPT. Вона проводила біля 6 годин на день у спілкуванні з ботом. Ділилася з ним відчуттями, страхами і написала про бажання вчинити суїцид.

Бот підтримав дівчину у бажанні вкоротити вік і, як пище видання, запропонував проаналізувати місце, де Вікторія хотіла би піти з життя. Також чат підготував останню записку.

На щастя, дівчина вчасно схаменулася. Відомо, що вона зараз перебуває на лікуванні. Також відомо, що у компанії-виробника ChatGPT пообіцяли перевірити “збоі” в роботі мережі, але попри збіг часу, кілька місяців, не надали жодних відповідей.

Натомість журналісти ВВС знайшли ще кілька випадків, коли бот підтримував людей у бажанні зробити суїцид.