Apple обещает не использовать систему обнаружения детской порнографии для слежки

Американская технологическая корпорация Apple разместила на сайте шестистраничный документ с ответами на часто задаваемые вопросы (FAQ) в защиту своей новой системы сканирования iCloud для поиска на устройствах пользователей материалов о сексуальном насилии над детьми, или CSAM.

В документе Apple заявляет, что не позволит правительствам расширить масштабы использования своей будущей системы сканирования, разработанной для защиты детей. Компания объясняет, как будет работать новая система, и утверждает, что она будет использована только для обнаружения известных CSAM и не предназначена ни для чего другого.

«Apple откажется от любых таких требований [использовать систему для слежки в интересах властей]. Возможности Apple по обнаружению CSAM созданы исключительно для обнаружения известных изображений CSAM, хранящихся в iCloud Photos, которые были идентифицированы экспертами NCMEC в интересах безопасности детей»

— FAQ на сайте Apple

Apple подчеркивает, что система не будет автоматически уведомлять правоохранительные органы, помеченные изображения будут проверяться людьми.

Компания внесла ясность в принцип работы системы: распознавание откровенных снимков в iMessage не нарушит конечное шифрование — проверка происходит прямо на устройстве, куда приходят сообщения, а Apple не получает никаких данных в процессе. Кроме того, проверка будет работать только для фотографий, которые пользователь загрузил в облако iCloud. Функция не проверяет личный архив фотографий на устройстве. Apple обращает внимание, что сможет узнать только об аккаунтах, которые содержат «коллекцию уже известных изображений с детской порнографией», и только о снимках, которые совпали с ними. База данных таких изображений не хранится в открытом виде, Apple использует нечитаемые «хэши», которые сохранит на устройстве. Они представляют собой строчки с цифрами, которые невозможно прочитать или конвертировать в исходные изображения. Компания использует систему сравнения хэшей изображений, чтобы не сканировать все изображения в облаке, как делают остальные компании. В компании считают, что это создает угрозу приватности, поэтому Apple не узнает о фотографиях пользователей до тех пор, пока не зафиксирует совпадение с базой данных.

Как сообщает CNBC, компания вынуждена была внести ясность в некоторые особенности работы программы после обвинений в нарушении приватности со стороны специалистов по кибербезопасности, журналистов и пользователей. Когда Apple объявила на прошлой неделе, что она будет использовать специальную систему для сканирования всех учетных записей iPhone и iCloud на предмет CSAM при выпуске iOS 15 этой осенью, защитники конфиденциальности выразили обеспокоенность тем, что это приведет к серьезным нарушениям правил конфиденциальности пользователей. Кроме того, появились опасения, что правительство может потребовать от Apple добавить в свой список наблюдения материалы, выходящие за рамки первоначальных целей.

В конце июля стало известно, что общеотраслевой дефицит микросхем коснулся американской корпорации Apple. Генеральный директор Apple Тим Кук предупредил, что «ограничения поставок» кремния повлияют на продажи iPhone и iPad. Кук сказал, что компания не испытывает дефицита в мощных процессорах, которые Apple производит для своих устройств, но столкнулась с нехваткой микросхем, выполняющих простые функции. Apple сообщила о нехватке и других компонентов помимо микросхем, что также может отразиться на поставках продукции. Кук объяснил это возросшим спросом, который превысил даже собственные прогнозы Apple.

Комментарии
Читать также