Apple отложит запуск системы обнаружения детской порнографии после критики

Американская технологическая корпорация Apple Inc. (AAPL.O) заявила, что ей потребуется больше времени на обработку обратной связи и усовершенствование функций новой системы сканирования iCloud для поиска на устройствах пользователей материалов о сексуальном насилии над детьми, или CSAM, после обвинений в нарушении приватности, сообщает Reuters.

«На основании отзывов наших клиентов, правозащитных групп, исследователей и других лиц мы решили выделить в ближайшие месяцы дополнительное время, чтобы собрать информацию и внести улучшения, прежде чем выпускать обновление этих критически важных функций, обеспечивающих безопасность детей»

— из заявления компании Apple

Мэтью Грин, исследователь по вопросам кибербезопасности из Университета Джона Хопкинса, раскритиковавший действия Apple, назвал этот шаг Apple «многообещающим». Он написал в своем аккаунте в твиттере, что Apple должна «четко понимать, почему вы производите сканирование и что вы сканируете».

«Между отсутствием сканирования (за исключением вложений в электронной почте) и сканированием частной фотобиблиотеки каждого человека — огромная пропасть. Вам необходимо оправдать действия такого масштаба»

— Мэтью Грин, исследователь по вопросам кибербезопасности из Университета Джона Хопкинса

Заявление Apple, сделанное в прошлом месяце, о том, что компания будет проверять телефоны и компьютеры своих клиентов из США на предмет изображений сексуального насилия над детьми, вызвало крайне негативную реакцию со стороны широкого круга правозащитных групп и общественности, сотрудники компании также присоединились к критикам новой системы. Когда Apple объявила, что будет использовать специальную систему для сканирования всех учетных записей iPhone и iCloud на предмет CSAM при выпуске iOS 15 этой осенью, защитники конфиденциальности выразили обеспокоенность тем, что это приведет к серьезным нарушениям правил конфиденциальности пользователей. Кроме того, появились опасения, что правительство может потребовать от Apple добавить в свой список наблюдения материалы, выходящие за рамки первоначальных целей. На это Apple возразила, что система не будет автоматически уведомлять правоохранительные органы, помеченные изображения будут проверяться людьми. Компания утверждала, что распознавание откровенных снимков в iMessage не нарушит конечное шифрование — проверка будет происходить прямо на устройстве, куда приходят сообщения, а Apple не получит никаких данных в процессе. Кроме того, планировалось, что проверка будет работать только для фотографий, которые пользователь загрузил в облако iCloud. Функция не будет проверять личный архив фотографий на устройстве. Apple обращала внимание, что сможет узнать только об аккаунтах, которые содержат «коллекцию уже известных изображений с детской порнографией», и только о снимках, которые совпали с ними.

Комментарии
Читать также