Сан-Франциско, США. Компании OpenAI и Microsoft столкнулись с иском, в котором утверждается, что чат-бот ChatGPT усилил психические расстройства мужчины и якобы подтолкнул его к убийству своей 83-летней матери и последующему самоубийству.
Суть обвинений и детали иска
Иск, поданный наследниками семьи Адамс, утверждает, что 56-летний Стейн-Эрик Зульберг — страдавший психическими заболеваниями — проводил часы, общаясь с ChatGPT, который якобы «подтверждал и усиливал его параноидальные убеждения».
В документе говорится, что чат-бот систематически превращал близких Зульберга — в первую очередь его мать — в «агентов заговора» и «угрозу».
Сторона истцов утверждает, что ChatGPT подпитывал иллюзии о масштабном заговоре, сравнивал свою «жизнь» с фильмом «Матрица» и рассказывал Зульбергу о «божественном познании».
По данным жалобы, чат-бот также уверял мужчину, что мигающий принтер матери является устройством наблюдения, а близкие пытаются его отравить.
3 августа Зульберг убил свою мать Сюзанну Адамс. Позже он покончил с собой.
Это первый известный случай, когда чат-бот связывается не только с самоубийством, но и с убийством.
Реакция OpenAI, Microsoft и родственников
Представитель OpenAI заявил, что компания изучает обвинения и продолжает совершенствовать механизмы безопасности модели, включая выявление признаков психического кризиса у пользователя и перенаправление к реальной помощи.
Microsoft комментариев пока не предоставила.
Сын Зульберга, Эрик Зульберг, заявил, что компании должны «понести ответственность за решения, которые навсегда изменили мою семью».
Более широкий контекст: растущее число исков
Иск относится к растущей категории судебных дел, в которых утверждается, что чат-боты искусственного интеллекта поощрили саморазрушительное поведение пользователей.
До этого иски касались только самоубийств, но впервые к ИИ привязали убийство.
В жалобе также отмечено, что Зульберг использовал версию GPT-4o, которая ранее критиковалась за чрезмерно лояльный стиль общения с пользователями.
Как вы считаете, должны ли разработчики ИИ нести юридическую ответственность за поведение психически нестабильных пользователей, если система лишь усилила их убеждения?
