Apple пообещала не превращать алгоритм обнаружения незаконного контента в инструмент слежки

Корпорация Apple выпустила шестистраничный документ с ответами на вопросы о работе технологии сканирования фотографий пользователей на предмет наличия жестокого обращения с детьми.

В компании отрицают возможность перепрофилирования ее инструмента для поиска других видов материалов на телефонах и компьютерах пользователей, кроме CSAM. По словам представителей Apple, они не будут расширять охват возможностей сканирования и откажутся от любых подобных требований со стороны властей.

«Мы и раньше сталкивались с требованиями создать и внедрить санкционированные правительством изменения, которые ухудшают конфиденциальность пользователей, и упорно отказывались от этих требований. Мы продолжим отказываться от них и в будущем», — заявили в компании.

Apple пояснила, что изначально функции запустят только в США. Компания пообещала тщательно проводить юридические оценки для каждой страны перед запуском инструмента во избежание злоупотреблений со стороны властей.

В Apple также уточнили некоторые детали работы инструментов сканирования изображений на предмет жестокого обращения с детьми и обнаружения откровенных фотографий в «Сообщениях»:

  • Для полноценной работы функции обнаружения CSAM необходимо активировать iCloud. Apple выполняет поиск только по контенту, который используется совместно с ее облачной системой. 
  • Apple не загружает на устройство изображения жестокого обращения с детьми для последующего сравнения. Вместо этого алгоритм использует базу данных хешей известных изображений CSAM. Эти коды будут загружены в операционную систему телефона, что позволит автоматически сравнивать фотографии, загруженные в облако, с хешами в базе данных.
  • iCloud отсканирует все имеющиеся в облаке фотографии, а не только новые. В дополнение к сканированию фотографий, которые будут загружены в iCloud в будущем, Apple планирует проверить все хранящиеся фотографии на ее облачных серверах.
  • Функция «Сообщений» для защиты детей от непристойных фотографий не передает данные в Apple или правоохранительные органы. Родителей малолетних детей не станут предупреждать при отправке или получении каждого откровенного снимка. Система сначала спросит у ребенка подтверждение на просмотр. Если он согласится — родители получат уведомление. Функция доступна только для семейных групп и активируется вручную.
  • Система не уведомит о просмотре откровенного контента в «Сообщениях» родителей подростков. Для детей 13—17 лет система размоет фотографии и предупредит об опасности содержимого.
  • Анализ изображений в «Сообщениях» не нарушает оконечное шифрование. Проверка фотографий происходит непосредственно на устройстве, куда приходит письмо. Компания не передает эти данные в облако.

Несмотря на разъяснения со стороны Apple, специалисты и защитники конфиденциальности выразили обеспокоенность по поводу нововведений. Эксперт по безопасности Мэтью Грин предположил, что система имеет уязвимости, которые могут использовать правоохранительные органы.

Напомним, 6 августа Apple рассказала об инструменте для сканирования фотографий пользователей на предмет жестокого обращения с детьми.

В июне Apple представила беспарольную регистрацию с помощью Face ID и Touch ID.

В декабре 2020 года Apple выпустила обновление для iOS, которое позволяет пользователям отключить сбор персональных данных внутри приложений. Новые правила вызвали волну возмущений со стороны разработчиков приложений, в первую очередь Facebook и Google.

Источник: forklog.com

Оцените автора
( Пока оценок нет )
КриптоВики
Добавить комментарий