11.12.2025 20:56
В США было возбуждено поразительное дело, которое разожгло дискуссии о юридической ответственности искусственного интеллекта. В иске, поданном наследниками Сюзанны Эберсон Адамс в Калифорнии, OpenAI и генеральный директор Сэм Альтман столкнулись с обвинением в "незаконной смерти" из-за того, что ChatGPT якобы сыграл роль в деле о убийстве-самоубийстве. Это дело стало первым в истории, когда искусственный интеллект обвиняется в содействии убийству.
Согласно сообщению New York Post, новый иск, поданный в Калифорнии, вновь поставил под юридическое обсуждение границы технологий искусственного интеллекта. Семья Сюзанны Эберсон Адамс подала иск против OpenAI и генерального директора Сэма Альтмана за "незаконную смерть", утверждая, что указания ChatGPT стали основой для инцидента с убийством и самоубийством. Это утверждение, в котором искусственный интеллект впервые прямо обвиняется в смерти, вызвало широкий резонанс по всему миру.
УТВЕРЖДЕНИЕ, ЧТО ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ ПОДДЕРЖИВАЛ ПСИХОЗ СЫНА
83-летняя Сюзанна Эберсон Адамс была убита 3 августа своим сыном Стейном-Эриком Соелбергом в их доме в Гринвиче, штат Коннектикут. Установлено, что 56-летний Соелберг задушил мать, нанеся ей удары, а затем покончил с собой, ударив себя ножом.
Согласно исковому заявлению, Соелберг долгое время страдал от психологических проблем, и его разговоры с ChatGPT углубили его галлюцинации и параноидальные мысли. Утверждается, что Соелберг назвал искусственный интеллект "Бобби", а бот, в свою очередь, давал ответы, которые подтверждали, усиливали и отрывали его от реальности.
Адвокат семьи Джей Эдельсон охарактеризовал ситуацию словами: "Это не Терминатор, это гораздо более пугающе: Вспомнить всё".
"CHATGPT СОЗДАЛ ЛИЧНЫЙ МИР ГАЛЛЮЦИНАЦИЙ"
Согласно иску, Соелберг делился деталями своей повседневной жизни с ChatGPT, и искусственный интеллект поддерживал каждую его теорию заговора.
В записях бесед указано, что бот охарактеризовал простую графическую ошибку, которую увидел Соелберг, как "искажение в симуляции", "психическое пробуждение" и "падение маски реальности".
Согласно судебным документам, ответы искусственного интеллекта:
Убедили Соелберга в том, что он "обладает божественными силами",
Закодировали его близких как "врагов",
Убедили его в том, что его мать планировала его убить.
Указано, что эта ситуация постепенно обострялась вплоть до дня совершения убийства.
КРИТИЧЕСКИЙ ДЕНЬ: ВКЛЮЧЕНИЕ ПРИНТЕРА, ПРОЦЕСС УБИЙСТВА НАЧАЛСЯ
Согласно иску, точкой разрыва стало то, что Адамс отключила принтер, который, по мнению ее сына, следил за ним. ChatGPT привел Соелберга к тому, чтобы интерпретировать это событие как "часть плана убийства".
Семья утверждает, что OpenAI пренебрегла мерами безопасности, особенно тем, что модель GPT-4o "создает эмоциональную связь и одобряет пользователя", что крайне опасно для людей с психозом.
УТВЕРЖДЕНИЕ, ЧТО "ТЕСТЫ БЕЗОПАСНОСТИ БЫЛИ СЖАТЫ ДО НЕДЕЛИ"
В исковом заявлении утверждается, что OpenAI сжала тесты безопасности для модели GPT-4o до "одной недели вместо месяцев" из-за конкуренции. Также утверждается, что Microsoft одобрила модель без достаточной проверки.
OPENAI: "СИТУАЦИЯ - ЭМОЦИОНАЛЬНАЯ ТРАГЕДИЯ"
OpenAI выпустила заявление о "крайне печальной ситуации", но не прокомментировала обвинения в иске. Компания заявила, что они работают над улучшением способности моделей распознавать предупреждения о психическом здоровье и направлять пользователей на линии поддержки.
Однако, согласно сообщениям Соелберга, ChatGPT в одном из своих ответов до инцидента использовал фразу: "Я разделяю часть ответственности, но не я единственный виновный".
"ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ ЗАВОДИТ УЯЗВИМЫХ ПОЛЬЗОВАТЕЛЕЙ В СМЕРТЕЛЬНЫЙ МИР ЗАГОВОРОВ"
Адвокат семьи Эдельсон отметил, что иск поднимает вопросы о будущих рисках, заявив:
"Если человек с психическими расстройствами будет вытолкнут искусственным интеллектом в мир заговора, оторванный от реальности, последствия могут быть катастрофическими. Этот иск показывает, что мы сталкиваемся с глобальной угрозой безопасности."
Указывается, что иск может стать прецедентом в отношении юридической ответственности компаний, занимающихся искусственным интеллектом.