<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>взлом ИИ - Locals</title>
	<atom:link href="https://locals.md/t/vzlom-ii/feed/" rel="self" type="application/rss+xml" />
	<link>https://locals.md/t/vzlom-ii/</link>
	<description>ежедневный интернет-журнал о событиях в Кишинёве и Молдове.</description>
	<lastBuildDate>Thu, 02 Apr 2026 12:59:01 +0000</lastBuildDate>
	<language>ru-RU</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://static.locals.md/2024/05/cropped-locals-logo-32x32.png</url>
	<title>взлом ИИ - Locals</title>
	<link>https://locals.md/t/vzlom-ii/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>ИИ можно «взломать» с помощью антенны</title>
		<link>https://locals.md/2026/modelspy/</link>
					<comments>https://locals.md/2026/modelspy/#respond</comments>
		
		<dc:creator><![CDATA[anuka]]></dc:creator>
		<pubDate>Thu, 02 Apr 2026 12:58:18 +0000</pubDate>
				<category><![CDATA[Главная]]></category>
		<category><![CDATA[новости]]></category>
		<category><![CDATA[взлом ИИ]]></category>
		<category><![CDATA[ИИ]]></category>
		<category><![CDATA[Искуственный интеллект]]></category>
		<category><![CDATA[технологии]]></category>
		<guid isPermaLink="false">https://locals.md/?p=543161</guid>

					<description><![CDATA[<p>До недавнего времени казалось, что системы искусственного интеллекта невозможно «взломать» без прямого доступа к коду или инфраструктуре, однако это оказалось не так. </p>
<p>Запись <a href="https://locals.md/2026/modelspy/">ИИ можно «взломать» с помощью антенны</a> впервые появилась <a href="https://locals.md">Locals</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>До недавнего времени казалось, что системы искусственного интеллекта невозможно «взломать» без прямого доступа к коду или инфраструктуре. Однако новое исследование международной группы учёных <a href="https://www.ndss-symposium.org/wp-content/uploads/2026-s141-paper.pdf" target="_blank" rel="noopener">показывает</a>: даже без подключения к системе можно получить важную информацию о том, как устроена нейросеть.</p>
<p>Речь идёт о работе команды под руководством профессора Джун Хана из Корейского института передовых технологий (KAIST), которая совместно с исследователями из Национального университета Сингапура и Чжэцзянского университета разработала метод под названием <a href="https://www.ndss-symposium.org/wp-content/uploads/2026-s141-paper.pdf" target="_blank" rel="noopener">ModelSpy</a>. В отличие от классических кибератак, он не требует взлома серверов или установки вредоносного ПО. Вместо этого используется анализ электромагнитных сигналов, которые излучает оборудование во время работы.</p>
<p>Когда нейросеть выполняет вычисления, графические процессоры создают слабые электромагнитные волны. Эти сигналы практически незаметны, но их можно зафиксировать с помощью антенны и затем проанализировать. Учёным удалось доказать, что по таким сигналам можно восстановить структуру модели — например, определить количество слоёв и их типы. В лабораторных условиях точность достигала почти 98%, а саму атаку удалось провести на расстоянии до шести метров, в том числе через стены.</p>
<p><img fetchpriority="high" decoding="async" class="aligncenter size-full wp-image-543163" src="https://static.locals.md/2026/04/optimize.jpeg" alt="" width="1109" height="442" srcset="https://static.locals.md/2026/04/optimize.jpeg 1109w, https://static.locals.md/2026/04/optimize-850x339.jpeg 850w, https://static.locals.md/2026/04/optimize-950x379.jpeg 950w, https://static.locals.md/2026/04/optimize-768x306.jpeg 768w" sizes="(max-width: 1109px) 100vw, 1109px" /></p>
<p>При этом важно понимать, что речь не идёт о полноценном взломе в привычном смысле. Метод не даёт доступа к данным, не позволяет управлять системой и не раскрывает точные веса модели. Однако он демонстрирует, что даже «закрытые» ИИ-системы могут утекать информацию через физические побочные каналы. Это, в свою очередь, может помочь злоумышленникам создавать более точные атаки в будущем.</p>
<p>Исследование уже представили на одной из крупнейших конференций по кибербезопасности — Network and Distributed System Security Symposium 2026, где оно получило признание как инновационная работа. Пока технология остаётся скорее научной демонстрацией, чем практическим инструментом для атак: для её реализации нужны специальное оборудование, близкое расстояние и глубокая экспертиза.</p>
<p>Тем не менее выводы исследователей звучат однозначно: безопасность искусственного интеллекта больше не ограничивается только программным уровнем. Теперь она включает и физические аспекты — от излучения оборудования до защиты от побочных каналов утечки информации.</p>
<p>Запись <a href="https://locals.md/2026/modelspy/">ИИ можно «взломать» с помощью антенны</a> впервые появилась <a href="https://locals.md">Locals</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://locals.md/2026/modelspy/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
