Apple объявила, что в следующих обновлениях iOS и iPadOS будет добавлена система поиска материалов о сексуальном насилии над детьми (CSAM) на устройствах клиентов из США. Об этом пишет ВВС. Прежде чем изображение будет сохранено в iCloud Photos, технология выполнит поиск совпадений с уже известными изображениями насилия. Если совпадение будет найдено, о пользователе сообщат в правоохранительные органы. Система работает путем сравнения изображений с базой данных Национального центра США по пропавшим и эксплуатируемым детям (NCMEC) и других организаций по безопасности детей. Изображения из баз данных переводятся в числовые коды, которые можно сопоставить с изображением на устройстве Apple, пишет tech.liga.net
В компании заявляют, что технология также будет улавливать отредактированные, но похожие версии исходных изображений. А также, что у системы чрезвычайно высокий уровень точности и вероятность ошибиться в неправильном определении запрещенного контента составляет один на триллион в год.
Более того, Apple будет вручную проверять каждый отчет, чтобы подтвердить совпадение и только после этого сообщать в правоохранительные органы.
Нововведение вызвало критику со стороны большого числа экспертов по безопасности, указывает ВВС.
По их мнению, создается прецендент инсталляции в персональные гаджеты систем мониторинга контента пользователя и передачи этого контента в правоохранительные органы.
Не исключено, что авторитарные правительства в обозримом будущем могут требовать от производителей инсталлировать в гаджеты похожие системы сканирования для слежки за своими гражданами.