imageКоллизия для тестовой версии алгоритма сканирования Apple NeuralHash. Изображения имеют одинаковый хэш 59a34eabe31910abfb06f308.

3 сентября 2021 года Apple отложила на неопределенное время планы по сканированию всех фотографий пользователей в iCloud на предмет содержания материалов о сексуальном насилии над детьми. Функции «Расширенная защита для детей» появится в iOS 15 только через несколько месяцев, после доработки ее алгоритма. Вероятно, это произойдет в следующем году, а не в конце 2021 года, как планировала компания изначально. На этот шаг Apple пошла после критики правозащитных организаций и ИБ-экспертов, а также по отзывам недовольных клиентов.

Apple уточнила, что не отказывается от своих планов по внедрению критически важной функции безопасности для защиты детей и ограничения распространения изображений с сексуальным насилием над детьми. Компания собирается изучить всю информацию по реакции общества на эту функцию и внесет необходимые улучшения в алгоритм NeuralHash. Будет ли Apple проводить консультации с кем-либо, компания не уточнила.

18 августа разработчик Асухариет Игвар обнаружил в скрытых API-интерфейсах iOS в iOS 14.3 код алгоритма NeuralHash и опубликовал его на GitHub. Код был спрятан внутри API в MobileNetV3. На то, что он принадлежит именно к NeuralHash, указывают два фактора: файлы моделей имеют тот же префикс, что и в документации Apple, и проверяемые части кода работают аналогично описанию NeuralHash от Apple.

15 августа Apple раскрыла начальный порог срабатывания триггера системы сканирования фотографий пользователей на предмет содержания материалов о сексуальном насилии над детьми, отправленных в iCloud. Эта функция для безопасности детей появится в iOS 15. Учетная запись пользователя попадет под подозрение, если на его смартфоне будет обнаружено 30 и более совпадений хэшей изображений жестокого обращения с детьми, включая детскую порнографию, с базой данных ФБР и организации «Национальный центр пропавших без вести и эксплуатируемых детей».

6 августа разработчики, эксперты по информационной безопасности, криптографы, исследователи, ученые, юристы и обычные пользователи со всего мира призывали Apple в открытом письме отказаться от планов сканировать весь личный контент на устройствах пользователей. Они считают, что это подрывает конфиденциальность пользователей в экосистеме компании и механизм работы системы сквозного шифрования. Открытое письмо уже подписали на GitHub более 9 тысяч частных лиц и организаций, в том числе Фонд свободы прессы, Нью-Йоркская публичная библиотека и экс-сотрудник ЦРУ Эдвард Сноуден.

В начале августа СМИ сообщили, что Apple начнет сканировать iPhone на предмет фото жестокого обращения с детьми. Apple признала наличие проблемы с тем, как пользователи приняли это нововведение. Компания считает, что новая система анализа фотографий на iPhone и поиск там незаконных и запрещённых изображений является частью «важной миссии» по обеспечению безопасности детей, но при этом сохраняется глубокая приверженность Apple к конфиденциальности пользователей.

Источник: Habr

Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии

Похожие записи: