Пользователь Reddit обнаружил код алгоритма Apple для проверки детского порно в iOS 14.3

После чего опубликовал его на GitHub. Систему обещают включить только в обновленном iOS 15. Однако код уже есть на всех устройствах с iOS 14.3.

Пользователь Reddit под ником AsuharietYgvar опубликовал код алгоритма NeuralHash. Этот код Apple будет использовать для проверки фотографий iCloud на детское порно. Он обнаружил следы системы на iOS 14.3 и провёл реверс-инжиниринг кода. Результат он выгрузил на GitHub.

Как отметил сам пользователь, ранние тесты показывают, что системе не мешает изменение размеров и сжатие изображений. Но её можно и обмануть. Например, обрезав исходную картинку или изменив её ориентацию. Это, в свою очередь, подтверждает заявления Apple о том, что алгоритм срабатывает только при полном сходстве с базой данных изображений, на которых запечатлено жестокое обращение с детьми.

Автор отдельно отметил, что обнаружил алгоритм уже на iOS 14.3. На данный момент актуальной версии системы, в которой функция не была заявлена. NeuralHash оказался скрыт за обфусцированными названиями классов. Но после недолгого погружения в скрытые API пользователю Reddit удалось получить код алгоритма и воссоздать его на языке Python.

Apple объявила об усилении защиты детей в начале августа. Компания хочет бороться с проблемой в iMessage, iCloud и через Siri.

Пользователи, журналисты и эксперты по кибербезопасности раскритиковали одну из функций ещё до запуска. По задумке Apple все фотографии, выгружаемые в iCloud, будут проверять на соответствие базе данных снимков с жестоким обращением, но в соцсетях посчитали это нарушением приватности.

Ознакомиться с другими интересными новостями можно в нашем разделе «Свежие новости».

Не забывайте подписаться на канал и вступить в чат:
Больше годноты на канале — Довольный Арбитражник 
Обсудить и задать вопросы в чате — Арбитраж трафика | Довольный

Поделиться ссылкой:

Добавить комментарий