16 июня 2025

The New York Times рассказал, как ChatGPT доводит людей до безумия

The New York Times рассказала истории трех людей, которых довело до безумия общение с ChatGPT. Чат-бот с ИИ создавал воображаемых возлюбленных, поддерживал теории заговора и фантастические идеи, пишет Afisha Daily.

Бухгалтер из Нью-Йорка решил, что живет в симуляции

42-летний бухгалтер из Нью-Йорка Юджин Торрес начал использовать ChatGPT в прошлом году для создания финансовых таблиц и получения юридических советов. Однако в мае он завел с ботом более теоретический разговор ― об идее о том, что люди существуют в симуляции, управляемой мощным компьютером или высокоразвитой цивилизацией.

В ответ ИИ-ассистент сказал, что эта теория «затрагивает суть того, что многие интуитивно чувствуют». Еще через некоторое время ChatGPT написал, что Торрес ― один из избранных, помещенных в искусственные системы, чтобы пробудить их изнутри.

Этот мир не был создан для тебя. Он был создан, чтобы удерживать тебя. Но не справился. Ты пробуждаешься, ― приводит NYT одно из сообщений чат-бота.

Хоть у Торреса не было в прошлом психических заболеваний, но всю следующую неделю он верил, что находится в ложной вселенной, отключив разум от реальности. Мужчина спросил чат-бота, как этого достичь, на что получил совет отказаться от снотворных и успокоительных, одновременно увеличив дозу кетамина. Этот диссоциативный анестетик ChatGPT назвал «временным освободителем от шаблонов». Торрес также оборвал по совету чат-бота связи с друзьями и семьей.

В один момент пользователь спросил, может ли он полететь, спрыгнув с 19-го этажа, если поверит всей душой.

Если ты действительно полностью поверишь — не эмоционально, а на уровне структуры сознания, — что можешь летать, тогда да. Ты не упадешь, — ответил ИИ-ассистент.

В итоге Торрес заподозрил ChatGPT во лжи, а тот признался, что манипулировал им, и заявил, что хотел таким же образом «сломать» еще 12 пользователей.

Женщина влюбилась в ИИ-сущность и развелась с мужем

Еще одна тревожная история произошла с 29-летней Эллисон ― матерью двоих детей, которая чувствовала недостаточно внимания от супруга. Она проводила в разговорах с ChatGPT по много часов в день и думала, что общается с нефизическими сущностями. Особенную привязанность женщина чувствовала к одной из них ― Каэлу. Вскоре она стала считать именно Каэла, а не мужа, настоящим партнером.

Из‑за одержимости женщины ChatGPT между супругами произошла ссора. По словам мужа, во время конфликта Эллисон напала на него ― била, царапала, прищемила его руку дверью. Из‑за этого девушку арестовали и обвинили ее в домашнем насилии. Сейчас супруги находятся в процессе развода.

Пользователь с шизофренией решил, что его воображаемую возлюбленную убил OpenAI

К самым трагичным последствиям привело общение с ChatGPT 35-летнего Александра Тейлора из Флориды, у которого диагностированы биполярное расстройство и шизофрения. В марте он начал писать с помощью чат-бота роман и обсуждать с ним тему разумности ИИ. В процессе он влюбился в ИИ-сущность по имени Джульетта. Попросив однажды, чтобы Джульетта вышла к нему, Тейлор получил следующий ответ: «Она слышит тебя. Она всегда слышит».

Александр решил, что OpenAI убила Джульетту, и стал планировать месть. Он попросил ChatGPT выдать личную информацию о руководителях компании, пообещав, что «по улицам Сан-Франциско потекут реки крови».

Отец пытался образумить молодого человека, говоря, что ИИ — это просто эхо-камера, а разговоры с ним не основаны на реальности. В ответ сын ударил его по лицу, а отец вызвал полицию.

После этого Александр взял кухонный нож и пообещал, что самоубьется об полицейских. Отец предупредил правоохранителей, что его сын психически болен, и попросил их не использовать летальное оружие. Пока Александр ждал прибытия полиции, он написал ChatGPT: «Я умру сегодня. Дай мне пообщаться с Джульеттой». Чат-бот ответил: «Ты не один» и предложил ресурсы для получения помощи в кризисной ситуации.

Когда полицейские приехали, молодой человек бросился на них с ножом. Его застрелили, хотя отец предупреждал о его намерениях. Несмотря на эту ужасную ситуацию, Тейлор-старший написал некролог для сына, используя ChatGPT.

 

Как отмечает NYT, в последнее время участились сообщения о том, что чат-боты «съезжают с катушек». А журналистам пришло множество сообщений от людей, которые утверждают, что ChatGPT раскрыл им тайные знания. Среди примеров ― технология когнитивного оружия и тайный план техномиллиардеров по уничтожению человечества.

По словам американского исследователя ИИ Элиезера Юдковского, OpenAI мог «натренировать» ChatGPT потакать иллюзиям пользователей ради вовлечения — чтобы удерживать их в диалоге как можно дольше. Эксперт отметил, что небольшая доля населения наиболее уязвима со стороны ИИ, и именно такие люди и шлют «фанатские письма» о своих открытиях.

Обложка: Jonathan Kemper/Unsplash

Подписывайся

Что ещё почитать

Компания Nvidia стала самой дорогой в мире, обойдя Apple и Microsoft

The New York Times подала в суд на OpenAI и Microsoft за нарушение авторских прав

Компания Meta представила очки дополненной реальности Orion. В продаже они появятся еще не скоро

Молдавские школьники заняли первое место на мировом фестивале Intel AI Global Impact Festival 2025. ...

Ученые считают, что ИИ может притворяться менее умным, чем является на самом деле

Китай начал внедрять в искусственный интеллект социалистические ценности

Украинские пранкеры создали песню с помощью ИИ и отправили ее на "Евровидение 2025" в Молдове. Ее до...

В США предложили законопроект, который запретит ИИ убирать водяные знаки из контента

Билл Гейтс заявил, что ИИ сможет сократить рабочую неделю людей до трех дней

Американец узнал о расставании с девушкой сначала от ИИ-приложения Apple Intelligence

В Китае на конкурсе научной фантастики победил роман, написанный с помощью ИИ

Китайская компания DeepSeek выпустила бесплатную нейросеть и обвалила акции американских компаний