Apple официально представила "расширенные меры по защите детей". Почему это важно и кому угрожает?

Автор: Юрий Станиславский, 06 августа 2021, 12:50
Apple официально представила "расширенные меры по защите детей". Почему это важно и кому угрожает?

Редакция gg сообщала буквально вчера о планах Apple по внедрению в свою экосистему "расширенных меры по защите детей". Что ж, сегодня это уже реальность, мифологическую опасность которой раздувают разнообразные СМИ. Давайте разбираться, как же устроена эта новая система и чем и кому она реально угрожает.

Довольно подробные сведения Apple разместила на специальной странице, посвященной этой новой системе. Что же там сказано?

1. Безопасность общения в Сообщениях

В приложении "Сообщения" появятся новые инструменты для предупреждения детей и их родителей о получении или отправке фотографий сексуального характера.

При получении такого рода контента фотография будет размыта, а ребенок будет предупрежден, ему будут предложены полезные ресурсы и дано заверение, что все в порядке, если он не хочет просматривать эту фотографию. В качестве дополнительной меры предосторожности ребенку также может быть сказано, что, чтобы убедиться в его безопасности, его родители получат уведомление, если он все же просмотрит эту фотографию.

Аналогичные меры защиты предусмотрены, если ребенок пытается отправить фотографии сексуального характера. Ребенок будет предупрежден перед отправкой фотографии, а родители могут получить сообщение, если ребенок решит ее отправить.

Сообщения используют машинное обучение на устройстве для анализа вложений изображений и определения того, является ли фотография сексуально откровенной. Функция разработана таким образом, что Apple не получает доступ к сообщениям.

2. Обнаружение CSAM (Child Sexual Abuse Material)

Еще одной важной проблемой является распространение в Интернете материалов, связанных с сексуальным насилием над детьми (CSAM). Под CSAM понимается контент, изображающий сексуально откровенные действия с участием ребенка.

Для решения этой проблемы новая технология позволит Apple обнаруживать известные изображения CSAM, хранящиеся в iCloud Photos. Это позволит Apple сообщать о таких случаях в Национальный центр помощи пропавшим и эксплуатируемым детям (NCMEC). NCMEC выступает в качестве всеобъемлющего центра отчетности по CSAM и работает в сотрудничестве с правоохранительными органами по всей территории США.

Метод Apple по обнаружению известных CSAM разработан с учетом конфиденциальности пользователей. Вместо сканирования изображений в облаке, система выполняет сопоставление на устройстве, используя базу данных хэшей известных изображений CSAM, предоставленную NCMEC и другими организациями по детской безопасности. Далее Apple преобразует эту базу данных в нечитаемый набор хэшей, который надежно хранится на устройствах пользователей.

Прежде чем изображение будет сохранено в iCloud Photos, на устройстве выполняется процесс сопоставления этого изображения с известными хэшами CSAM. Этот процесс сопоставления осуществляется с помощью криптографической технологии, называемой пересечением частных множеств, которая определяет наличие совпадения без раскрытия результата. Устройство создает криптографический ваучер безопасности, который кодирует результат совпадения вместе с дополнительными зашифрованными данными об изображении. Этот ваучер загружается в iCloud Photos вместе с изображением.

Используя другую технологию, называемую пороговым обменом секретами, система гарантирует, что содержимое ваучеров безопасности не может быть интерпретировано Apple, пока учетная запись iCloud Photos не пересечет порог известного содержимого CSAM. Пороговое значение устанавливается для обеспечения чрезвычайно высокого уровня точности и гарантирует менее одного шанса из одного триллиона в год на ошибочную пометку данного аккаунта.

Только при превышении порога криптографическая технология позволяет Apple интерпретировать содержимое ваучеров безопасности, связанных с соответствующими изображениями CSAM. Затем Apple вручную проверяет каждый отчет для подтверждения совпадения, отключает учетную запись пользователя и отправляет отчет в NCMEC. Если пользователь считает, что его аккаунт был ошибочно отмечен, он может подать апелляцию, чтобы его аккаунт был восстановлен.

3. Расширенные подсказки в Siri и Поиске

Apple также расширяет руководство в Siri и Поиске, предоставляя дополнительные ресурсы, которые помогут детям и родителям оставаться в безопасности в Интернете и получать помощь в небезопасных ситуациях. Например, пользователи, которые спросят Siri, как они могут сообщить о CSAM или эксплуатации детей, будут направлены к ресурсам, где и как подать заявление.

Siri и Поиск также обновляются, чтобы вмешиваться, когда пользователи выполняют поиск по запросам, связанным с CSAM. Эти вмешательства будут объяснять пользователям, что интерес к этой теме вреден и проблематичен, и предоставлять ресурсы партнеров для получения помощи в решении этой проблемы.

Мнение редакции

Редакция gg хочет обратить ваше внимание на несколько важных моментов:

  1. Речь не идет о сканировании всех фотографий, которые хранятся на устройствах пользователей. Существует база хешей уже известных фотографий с изображением насилия над детьми. Соответственно, сравниваться будут только те фото, в хеше которых обнаружится совпадение с этой базой.
  2. В случае обнаружения совпадения хешей ваше фото действительно отправится на просмотр живому контролеру. Но! Контролеры не увидят полное изображение, а только отдельные элементы, позволяющие судить о совпадении или несовпадении с фото из базы CSAM.
  3. Собственно сканирование происходит на устройстве пользователя, еще до выгрузки фото в библиотеку iCloud.
  4. Отчет о вас, как о правонарушителе, будет отправлен только после превышения некоего порогового значения наличия фотографий с насилием над детьми на вашем устройстве.
  5. Вся эта система начнет работать только с выходом iOS 15 и только в США (пока что). Более того, если медиатека iCloud Photo отключена, сканирование вообще не будет производиться на клиентских устройствах.

Вместо послесловия

Apple давно известна ревностным отношением к защите пользовательских данных. Несколько лет назад компании довелось отбиваться в суде от ФБР, а сейчас Тим Кук находится в открытой конфронтации с главой Facebook Марком Цукербергом. Разумеется, технология хеширования не идеальна, но на данном этапе развития технологий ничего лучше для баланса между защитой персональных данных и необходимостью ужесточить преследование педофилов, к сожалению, не придумали.

Самое главное: Facebook, Dropbox, Google, Microsoft и прочие компании, предоставляющие облачные хранилища для фотографий пользователей, уже давно и надежно сканируют их, используя ту же самую базу, к которой сейчас подключилась Apple. Dropbox сообщала о 21 000 подобных совпадений в 2020 году, а та же Facebook опубликовала ошеломляющую цифру в 15 миллионов совпадений еще в 2019-м. Разница лишь в том, что сканирование фото у всех этих компаний происходит в облаке, а Apple внедряет сканер на уровне операционной системы.

Детальное описание всего процесса Apple выложила в открытый доступ по ссылке (PDF, 2 МБ).

Источник: apple

Для тех, кто хочет знать больше:

Подписывайтесь на наш нескучный канал в Telegram, чтобы ничего не пропустить.

Поделиться