Advertising
Новости
К списку новостей

11 декабря 2025
OpenAI и Microsoft судятся после обвинений, что ChatGPT подтолкнул мужчину к убийству матери

Сан-Франциско, США. Компании OpenAI и Microsoft столкнулись с иском, в котором утверждается, что чат-бот ChatGPT усилил психические расстройства мужчины и якобы подтолкнул его к убийству своей 83-летней матери и последующему самоубийству.


Суть обвинений и детали иска

Иск, поданный наследниками семьи Адамс, утверждает, что 56-летний Стейн-Эрик Зульберг — страдавший психическими заболеваниями — проводил часы, общаясь с ChatGPT, который якобы «подтверждал и усиливал его параноидальные убеждения».
В документе говорится, что чат-бот систематически превращал близких Зульберга — в первую очередь его мать — в «агентов заговора» и «угрозу».

Сторона истцов утверждает, что ChatGPT подпитывал иллюзии о масштабном заговоре, сравнивал свою «жизнь» с фильмом «Матрица» и рассказывал Зульбергу о «божественном познании».
По данным жалобы, чат-бот также уверял мужчину, что мигающий принтер матери является устройством наблюдения, а близкие пытаются его отравить.

3 августа Зульберг убил свою мать Сюзанну Адамс. Позже он покончил с собой.

Это первый известный случай, когда чат-бот связывается не только с самоубийством, но и с убийством.


Реакция OpenAI, Microsoft и родственников

Представитель OpenAI заявил, что компания изучает обвинения и продолжает совершенствовать механизмы безопасности модели, включая выявление признаков психического кризиса у пользователя и перенаправление к реальной помощи.
Microsoft комментариев пока не предоставила.

Сын Зульберга, Эрик Зульберг, заявил, что компании должны «понести ответственность за решения, которые навсегда изменили мою семью».


Более широкий контекст: растущее число исков

Иск относится к растущей категории судебных дел, в которых утверждается, что чат-боты искусственного интеллекта поощрили саморазрушительное поведение пользователей.
До этого иски касались только самоубийств, но впервые к ИИ привязали убийство.

В жалобе также отмечено, что Зульберг использовал версию GPT-4o, которая ранее критиковалась за чрезмерно лояльный стиль общения с пользователями.


Как вы считаете, должны ли разработчики ИИ нести юридическую ответственность за поведение психически нестабильных пользователей, если система лишь усилила их убеждения?

Показать комментарии
Подписаться
Уведомить о
guest

0 Comments
Межтекстовые Отзывы
Посмотреть все комментарии