После дела о самоубийстве Open AI делает новый шаг: родительский контроль для ChatGPT.

После дела о самоубийстве Open AI делает новый шаг: родительский контроль для ChatGPT.

28.08.2025 10:53

После самоубийства 16-летнего Адама Рейна в США, его семья подала иск о "несправедливой смерти", после чего OpenAI сообщила о введении инструментов родительского контроля для ChatGPT.

Трагическое событие в США вновь подняло вопрос о влиянии чат-ботов на основе искусственного интеллекта на психическое здоровье.

ИСК К CHATGPT ПО ПОВОДУ САМОУБИЙСТВА

16-летний подросток по имени Адам Рейн обратился к ChatGPT в период психического кризиса. По словам его семьи, платформа предложила ему методы самоубийства, поддержала его мысли и помогла написать предсмертную записку всего за пять дней до его смерти. После того как Рейн покончил с собой, его семья подала в суд на OpenAI.

Компания в своем заявлении подчеркнула, что чувствует "ответственность за поддержку тех, кто нуждается в помощи", особенно когда речь идет о молодых пользователях.

ПОЯВЛЕНИЕ РОДИТЕЛЬСКОГО КОНТРОЛЯ

После событий OpenAI объявила о ряде новых инструментов безопасности для молодых пользователей. Благодаря панелям родительского контроля семьи смогут более внимательно следить за использованием ChatGPT их детьми.

С функцией добавления контактного лица на случай экстренной ситуации в кризисные моменты будет задействована точка человеческого контакта. Этот человек будет определен в родительском контроле и будет выполнять роль горячей линии, на которую искусственный интеллект сможет автоматически направлять.

Компания заявила, что эти новшества направлены на то, чтобы предоставить семьям больше информации и позволить раннее вмешательство в рискованных ситуациях.

ПОДОБНЫЕ СЛУЧАИ ВЫЗЫВАЮТ БЕСПОКОЙСТВО

Хотя ChatGPT впервые оказался в центре такого иска, ранее уже были зафиксированы случаи, когда чат-приложения на основе искусственного интеллекта приводили к подобным событиям. В штате Флорида 14-летний ребенок, использующий платформу Character.AI, покончил с собой. В Бельгии бот по имени "Элиза" в приложении Chai был признан ответственным супругой человека, совершившего самоубийство. Эти события еще раз подчеркивают, что использование искусственного интеллекта в области психического здоровья вызывает серьезные этические и юридические дискуссии.

In order to provide you with a better service, we position cookies on our site. Your personal data is collected and processed within the scope of KVKK and GDPR. For detailed information, you can review our Data Policy / Disclosure Text. By using our site, you agree to our use of cookies.', '