Эксперты предупреждают, что ИИ может получить доступ к ядерному оружию
В прошлом месяце группа лауреатов Нобелевской премии провела встречу с ведущими специалистами в области ядерной безопасности, чтобы обсудить потенциальные катастрофические сценарии, связанные с развитием искусственного интеллекта.
По информации издания Wired, участники дискуссии пришли к выводу: передача полномочий ИИ в сфере ядерного управления — вопрос ближайшего будущего.
С началом второго президентского срока Дональда Трампа в США началась активная интеграция искусственного интеллекта в различные сферы деятельности. Это происходило на фоне многочисленных предостережений учёных, настаивавших на том, что ИИ пока не достиг уровня, позволяющего ему выполнять столь ответственные задачи, и, возможно, никогда не достигнет.
В подтверждение серьёзности намерений, компания OpenAI, разработчик ChatGPT, в начале текущего года заключила соглашение с национальными ядерными лабораториями США. Цель — использовать возможности ИИ для усиления контроля и защиты ядерного арсенала.
Ранее генерал ВВС США Энтони Коттон, отвечающий за стратегические ядерные силы, сообщил на профильной конференции, что Пентагон активно внедряет ИИ в оборонную сферу, надеясь повысить эффективность принятия решений.
Однако, учитывая потенциальную роль ИИ в охране и управлении ядерным оружием, даже минимальные сбои или ошибки могут привести к катастрофическим последствиям.
Многие эксперты также предупреждают об угрозе, напоминающей сюжет научно-фантастических фильмов, где сверхразвитый ИИ выходит из-под контроля и использует ядерное оружие против человечества.
Дополнительную тревогу вызывает возможность взлома: несовершенные ИИ-системы могут стать уязвимыми для кибератак — как со стороны враждебных государств, так и со стороны агрессивных автономных алгоритмов, способных получить несанкционированный доступ к стратегическим системам.
cover: causes.com