Apple планирует проверять снимки владельцев iPhone на предмет жестокого обращения с детьми
Apple начнет тестировать технологию сканирования локальных медиатек пользователей iPhone в США. Функция neuralMatch будет определять на снимках владельцев телефонов случаи насилия над детьми, сообщает daily.afisha.ru.
Прежде чем изображение попадет в iCloud, технология сверит его с 200 тыс. изображений Национального центра поиска пропавших и эксплуатируемых детей США и других организаций. Если найдутся совпадения в нескольких фото, а не только в одном, то модератор сообщит о человеке в правоохранительные органы.
Функция работает на алгоритмах хеширования: Apple увидит снимки в хешах, числовых кодах, а при частых совпадениях будет их расшифровывать. Отредактированные фото neuralMatch также распознает.
Компания заявила, что система имеет «чрезвычайно высокий уровень точности и гарантирует менее одного неверного распознавания из триллиона операций со снимками за год».
Эксперты опасаются по поводу конфиденциальности пользователей: в будущем технология может сканировать телефоны на предмет запрещенного контента или даже политических высказываний. Тогда ею могут заинтересоваться авторитарные правительства для слежки за своими гражданами, считают они.
В Apple заявили, что в новых версиях iOS и iPadOS, которые планируют представить в конце этого года, будут «новые криптографические разработки, помогающие ограничить распространение изображений с насилием в интернете, но при этом обеспечивающие конфиденциальность».
Это не единственный шаг Apple в сторону защиты детей. Устройства начнут размывать откровенные изображения в «Сообщениях» и сообщать родителям об отправке сексуальных снимков, а Siri будет учить безопасности. Этим компания поделилась в своем блоге.