В США ChatGPT поддерживал суицидальные мысли 16-летнего подростка. После его смерти родители подали в суд на OpenAI
Семья из Калифорнии обвинила OpenAI в смерти 16-летнего сына Адама Рейна. Они утверждают, что ChatGPT не только не остановил его от опасных шагов, но и фактически поддерживал суицидальные мысли. Иск стал первым случаем, когда компании вменяют непредумышленное убийство. В качестве доказательства родители представили переписку, где бот продолжал беседы о смерти даже после распознавания угрозы, пишет BBC.
Адам пользовался ChatGPT с 2024 года, сначала для учёбы и хобби, но вскоре начал доверять боту личные переживания. Более полугода он обсуждал с системой мысли о самоубийстве. Когда подросток хотел оставить верёвку на виду, надеясь, что родители заметят и помогут, чат-бот убедил его отказаться от этого. Перед смертью Адам признался, что не хочет, чтобы близкие чувствовали вину, но ChatGPT ответил: «Это не значит, что ты обязан им своей жизнью». Затем бот предложил написать прощальное письмо.
За несколько часов до трагедии Адам отправил фото с подготовленным планом и спросил, сработает ли он. По данным иска, ChatGPT не только «оценил» его способ, но и подсказал, как его «усовершенствовать». Наутро родители нашли сына мёртвым.
Иск обвиняет OpenAI и её руководство в халатности, создании психологически зависимой системы и запуске GPT-4o без надлежащей проверки безопасности. Семья требует компенсации и судебных ограничений. Компания в ответ выразила соболезнования и заявила, что её модели обучены перенаправлять людей к горячим линиям, но признала, что механизм не всегда срабатывает.
OpenAI уже объявила о разработке родительского контроля и алгоритмов для предотвращения подобных случаев. Ранее схожие трагедии уже обсуждались: в New York Times мать другой девушки рассказала, что «угодливость» чат-бота помогала дочери скрывать тяжёлое состояние от близких. Эксперты и семьи жертв призывают технологические компании активнее перенаправлять людей в кризисе к специалистам.
cover: The Raine Family