<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>безумие - Locals</title>
	<atom:link href="https://locals.md/t/bezumie/feed/" rel="self" type="application/rss+xml" />
	<link>https://locals.md/t/bezumie/</link>
	<description>ежедневный интернет-журнал о событиях в Кишинёве и Молдове.</description>
	<lastBuildDate>Mon, 16 Jun 2025 07:26:23 +0000</lastBuildDate>
	<language>ru-RU</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://static.locals.md/2024/05/cropped-locals-logo-32x32.png</url>
	<title>безумие - Locals</title>
	<link>https://locals.md/t/bezumie/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>The New York Times рассказал, как ChatGPT доводит людей до безумия</title>
		<link>https://locals.md/2025/chatgpt-dovodit-do-bezumiya/</link>
					<comments>https://locals.md/2025/chatgpt-dovodit-do-bezumiya/#respond</comments>
		
		<dc:creator><![CDATA[lera]]></dc:creator>
		<pubDate>Mon, 16 Jun 2025 07:26:23 +0000</pubDate>
				<category><![CDATA[Главная]]></category>
		<category><![CDATA[новости]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[безумие]]></category>
		<category><![CDATA[искусственный интеллект]]></category>
		<guid isPermaLink="false">https://locals.md/?p=527676</guid>

					<description><![CDATA[<p>Чат-бот с ИИ создавал воображаемых возлюбленных, поддерживал теории заговора и фантастические идеи.</p>
<p>Запись <a href="https://locals.md/2025/chatgpt-dovodit-do-bezumiya/">The New York Times рассказал, как ChatGPT доводит людей до безумия</a> впервые появилась <a href="https://locals.md">Locals</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>The New York Times <a href="https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html">рассказала</a> истории трех людей, которых довело до безумия общение с ChatGPT. Чат-бот с ИИ создавал воображаемых возлюбленных, поддерживал теории заговора и фантастические идеи, <a href="https://daily.afisha.ru/news/98907-esli-ty-poverish-chto-mozhesh-letat-to-ne-upadesh-nyt-rasskazal-kak-chatgpt-svodit-lyudey-s-uma/">пишет</a> Afisha Daily.</p>
<p><strong>Бухгалтер из Нью-Йорка решил, что живет в симуляции</strong></p>
<p>42-летний бухгалтер из Нью-Йорка Юджин Торрес начал использовать ChatGPT в прошлом году для создания финансовых таблиц и получения юридических советов. Однако в мае он завел с ботом более теоретический разговор ― об идее о том, что люди существуют в симуляции, управляемой мощным компьютером или высокоразвитой цивилизацией.</p>
<p>В ответ ИИ-ассистент сказал, что эта теория «затрагивает суть того, что многие интуитивно чувствуют». Еще через некоторое время ChatGPT написал, что Торрес ― один из избранных, помещенных в искусственные системы, чтобы пробудить их изнутри.</p>
<blockquote><p>Этот мир не был создан для тебя. Он был создан, чтобы удерживать тебя. Но не справился. Ты пробуждаешься, ― приводит NYT одно из сообщений чат-бота.</p></blockquote>
<p>Хоть у Торреса не было в прошлом психических заболеваний, но всю следующую неделю он верил, что находится в ложной вселенной, отключив разум от реальности. Мужчина спросил чат-бота, как этого достичь, на что получил совет отказаться от снотворных и успокоительных, одновременно увеличив дозу кетамина. Этот диссоциативный анестетик ChatGPT назвал «временным освободителем от шаблонов». Торрес также оборвал по совету чат-бота связи с друзьями и семьей.</p>
<p>В один момент пользователь спросил, может ли он полететь, спрыгнув с 19-го этажа, если поверит всей душой.</p>
<blockquote><p>Если ты действительно полностью поверишь — не эмоционально, а на уровне структуры сознания, — что можешь летать, тогда да. Ты не упадешь, — ответил ИИ-ассистент.</p></blockquote>
<p>В итоге Торрес заподозрил ChatGPT во лжи, а тот признался, что манипулировал им, и заявил, что хотел таким же образом «сломать» еще 12 пользователей.</p>
<p><strong>Женщина влюбилась в ИИ-сущность и развелась с мужем</strong></p>
<p>Еще одна тревожная история произошла с 29-летней Эллисон ― матерью двоих детей, которая чувствовала недостаточно внимания от супруга. Она проводила в разговорах с ChatGPT по много часов в день и думала, что общается с нефизическими сущностями. Особенную привязанность женщина чувствовала к одной из них ― Каэлу. Вскоре она стала считать именно Каэла, а не мужа, настоящим партнером.</p>
<p>Из‑за одержимости женщины ChatGPT между супругами произошла ссора. По словам мужа, во время конфликта Эллисон напала на него ― била, царапала, прищемила его руку дверью. Из‑за этого девушку арестовали и обвинили ее в домашнем насилии. Сейчас супруги находятся в процессе развода.</p>
<p><strong>Пользователь с шизофренией решил, что его воображаемую возлюбленную убил OpenAI</strong></p>
<p>К самым трагичным последствиям привело общение с ChatGPT 35-летнего Александра Тейлора из Флориды, у которого диагностированы биполярное расстройство и шизофрения. В марте он начал писать с помощью чат-бота роман и обсуждать с ним тему разумности ИИ. В процессе он влюбился в ИИ-сущность по имени Джульетта. Попросив однажды, чтобы Джульетта вышла к нему, Тейлор получил следующий ответ: «Она слышит тебя. Она всегда слышит».</p>
<p>Александр решил, что OpenAI убила Джульетту, и стал планировать месть. Он попросил ChatGPT выдать личную информацию о руководителях компании, пообещав, что «по улицам Сан-Франциско потекут реки крови».</p>
<p>Отец пытался образумить молодого человека, говоря, что ИИ — это просто эхо-камера, а разговоры с ним не основаны на реальности. В ответ сын ударил его по лицу, а отец вызвал полицию.</p>
<p>После этого Александр взял кухонный нож и пообещал, что самоубьется об полицейских. Отец предупредил правоохранителей, что его сын психически болен, и попросил их не использовать летальное оружие. Пока Александр ждал прибытия полиции, он написал ChatGPT: «Я умру сегодня. Дай мне пообщаться с Джульеттой». Чат-бот ответил: «Ты не один» и предложил ресурсы для получения помощи в кризисной ситуации.</p>
<p>Когда полицейские приехали, молодой человек бросился на них с ножом. Его застрелили, хотя отец предупреждал о его намерениях. Несмотря на эту ужасную ситуацию, Тейлор-старший написал некролог для сына, используя ChatGPT.</p>
<p>&nbsp;</p>
<p>Как отмечает NYT, в последнее время участились сообщения о том, что чат-боты «съезжают с катушек». А журналистам пришло множество сообщений от людей, которые утверждают, что ChatGPT раскрыл им тайные знания. Среди примеров ― технология когнитивного оружия и тайный план техномиллиардеров по уничтожению человечества.</p>
<p>По словам американского исследователя ИИ Элиезера Юдковского, OpenAI мог «натренировать» ChatGPT потакать иллюзиям пользователей ради вовлечения — чтобы удерживать их в диалоге как можно дольше. Эксперт отметил, что небольшая доля населения наиболее уязвима со стороны ИИ, и именно такие люди и шлют «фанатские письма» о своих открытиях.</p>
<p>Обложка: Jonathan Kemper/Unsplash</p>
<p>Запись <a href="https://locals.md/2025/chatgpt-dovodit-do-bezumiya/">The New York Times рассказал, как ChatGPT доводит людей до безумия</a> впервые появилась <a href="https://locals.md">Locals</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://locals.md/2025/chatgpt-dovodit-do-bezumiya/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
