Apple рассказала о проверке запрещенного контента с детьми

Компания выпустила документ, в котором ответила на часто задаваемые вопросы о своем недавнем анонсе по работе с детским контентом.

Apple рассказала, что:

 — проверка снимков на наличие насильственного содержания с детьми относится только к изображением, которые пользователь выгрузил в облако iCloud. Без разрешения система работать не будет. iMessage сканируется только на семейных аккаунтах с детьми 12 лет или младше;

 — компания не получает никаких данных от пользователей, распознавание фотографий происходит прямо на устройстве. Apple не узнает о содержании библиотеки, если программа не увидит совпадений с базой данных;

 — система училась распознавать насилие над детьми с помощью снимков, которые отправили правозащитные организации, поэтому она узнает только «коллекцию уже известных изображений с детской порнографией»;

— компания не будет использовать программу для других целей и откажется  сотрудничать с властями, если те попросят применить ее по иному назначению.

6 августа Apple анонсировала систему по проверке контента пользователей на наличие запрещенного контента с детьми. Это вызвало критику компании, ее обвинили в нарушениях приватности пользователей и возможности использовании технологии в авторитарных государствах.

Пока что программа будет работать только в США. Позже ее протестируют и в других странах в зависимости от законодательства конкретной страны.


Источник: Apple