Apple проверит медиатеки всех пользователей США. Компания будет искать материалы, содержащие насилие над детьми

Apple объявила о своих намерениях протестировать новую систему для iOS и iPadOS, которая способна обнаруживать в iCloud изображения с сексуальным насилием над детьми (CSAM).
Apple проверит медиатеки всех пользователей США. Компания будет искать материалы, содержащие насилие над детьми
Unsplash

Сейчас данная технология будет опробована лишь на пользователях iPhone в США, однако, возможно, она распространится и на другие страны в дальнейшем

Эксперты уже выразили свои опасения по поводу политики конфиденциальности данной технологии. Они считают, что она может быть использована авторитарными правительствами для слежки за своими гражданами.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Однако Apple заявила, что в новых версиях iOS и iPadOS, которые должны быть выпущены позже в этом году, «приложения криптографии, которые помогут ограничить распространение CSAM в Интернете» будут соблюдать конфиденциальность пользователей.

Система не будет сканировать все фотографии пользователей в iCloud, она лишь будет сопоставлять хэш-суммы (цифровые отпечатки) фотографий с базой данных известных изображений сексуального насилия над детьми, собранных Национальным центром США по пропавшим и эксплуатируемым детям (NCMEC) и другими организациями по безопасности детей. Apple заявляет, что технология также будет «улавливать» отредактированные, но похожие версии оригинальных изображений.

«Прежде чем изображение будет сохранено в фотографиях iCloud, оно пройдет через процесс сопоставления с известными хэшами», — говорится в сообщении Apple. Компания утверждает, что система обладает «чрезвычайно высоким уровнем точности и обеспечивает менее одного шанса из триллиона в год неверно пометить учетную запись».

Apple заявляет, что будет вручную просматривать каждый отчет, чтобы подтвердить наличие совпадения. Затем компания может предпринять шаги для отключения учетной записи пользователя и сообщить об этом в правоохранительные органы.