- Популярное
Apple, как сообщается, планирует сделать так, чтобы iOS обнаруживала фотографии насилия над детьми
Эксперт по безопасности утверждает, что Apple собирается анонсировать инструменты для идентификации фотографий, которые будут определять изображения жестокого обращения с детьми в библиотеках фотографий iOS.
Apple ранее удаляла отдельные приложения из App Store из-за проблем с детской порнографией, но теперь, как сообщается, собирается внедрить такую систему обнаружения. Используя хеширование фотографий, iPhone может идентифицировать на устройстве материалы о сексуальном насилии над детьми (CSAM).
Apple не подтвердила это, и пока единственным источником информации является Мэтью Грин, криптограф и доцент Института информационной безопасности Джонса Хопкинса.
По словам Грина, план изначально должен быть клиентским, то есть все обнаружение должно производиться на iPhone пользователя . Однако он утверждает, что вполне возможно, что это начало процесса, который ведет к слежке за трафиком данных, отправляемым и получаемым с телефона.
«В конечном итоге это может стать ключевым элементом в добавлении наблюдения к системам зашифрованных сообщений», — продолжает Грин. «Возможность добавления подобных систем сканирования к системам обмена сообщениями E2E [сквозное шифрование] является серьезной проблемой для правоохранительных органов во всем мире».
«Такой инструмент может быть благом для поиска детской порнографии в телефонах людей», — сказал он. «Но представьте, что он может сделать в руках авторитарного правительства?»
Грин, который со своими студентами-криптографами ранее сообщал о том, как правоохранительные органы могут взламывать iPhone. Он и Университет Джона Хопкинса также ранее работали с Apple над исправлением ошибки безопасности в Сообщениях.