Компания выпустила документ, в котором ответила на часто задаваемые вопросы о своем недавнем анонсе по работе с детским контентом.
Apple рассказала, что:
— проверка снимков на наличие насильственного содержания с детьми относится только к изображением, которые пользователь выгрузил в облако iCloud. Без разрешения система работать не будет. iMessage сканируется только на семейных аккаунтах с детьми 12 лет или младше;
— компания не получает никаких данных от пользователей, распознавание фотографий происходит прямо на устройстве. Apple не узнает о содержании библиотеки, если программа не увидит совпадений с базой данных;
— система училась распознавать насилие над детьми с помощью снимков, которые отправили правозащитные организации, поэтому она узнает только «коллекцию уже известных изображений с детской порнографией»;
— компания не будет использовать программу для других целей и откажется сотрудничать с властями, если те попросят применить ее по иному назначению.
6 августа Apple анонсировала систему по проверке контента пользователей на наличие запрещенного контента с детьми. Это вызвало критику компании, ее обвинили в нарушениях приватности пользователей и возможности использовании технологии в авторитарных государствах.
Пока что программа будет работать только в США. Позже ее протестируют и в других странах в зависимости от законодательства конкретной страны.
Источник: Apple