Apple опубликовала FAQ о своей новой системе сканирования фотографий пользователей - «Новости»

  • 10:30, 11-авг-2021
  • Новости / Преимущества стилей / Отступы и поля / Изображения / Ссылки / Самоучитель CSS / Блог для вебмастеров / Линии и рамки
  • Аристарх
  • 0

В ответ на критику компания Apple опубликовала FAQ , в котором отвечает на вопросы, касающиеся новой инициативны компании по поиску изображений, имеющих признаки сексуального насилия над детьми.


Предыстория


В конце прошлой недели весь мир взбудоражила новость о том, что компания Apple скоро начнет искать среди пользовательских изображений признаки сексуального насилия над детьми.


В компании рассказали, что инициатива будет состоять из нескольких частей. Во-первых, Apple будет проверять все сообщения в Messages, полученные и отправленные детьми, в поисках наготы, и оповещать родителей, если обнаружит слишком откровенные фото.


Во-вторых, все изображения на устройствах под управлением iOS и iPadOS, которые синхронизируются с iCloud, будут сличаться с базой CSAM (child sexual abuse materials; англ. материалы, содержащие признаки сексуального насилия над детьми), которую предоставляет Национальный центр пропавших без вести и эксплуатируемых детей (NCMEC).


В-третьих, Siri и Search научатся «вмешиваться, когда пользователи выполняют поиск по запросам, связанным с CSAM», и «объяснят пользователям, что интерес к этой теме вреден и проблематичен, а также предоставят ссылки на ресурсы партнеров для получения помощи в решении этой проблемы».


Как мы уже рассказывали ранее, в ответ на Apple обрушился шквал критики со стороны ИБ-экспертов, правозащитников, ученых и так далее. К примеру, специалисты «Фонда электронных рубежей» (Electronic Frontier Foundation, EFF), писали, что «даже тщательно задокументированный, продуманный и строго ограниченный бэкдор по-прежнему остается бэкдором». А также предупреждали, что в странах с авторитарным режимом эта система может использоваться отнюдь не для защиты детей.


Эрик Рескорла (Eric Rescorla), технический директор Mozilla, и вовсе опубликовал технический анализ новой системы Apple, из которого следует, что безопасность такого сканирования в поисках CSAM-файлов полностью зависит от поведения Apple и доверия к компании. Дело в том, что ранее Apple заявила, что новая функциональность не будет работать, если у пользователей отключена синхронизация с iCloud, и не затронет «частные библиотеки фотографий на устройствах».


«Важно понимать, что в системе нет ничего, что помешало бы Apple сканировать фотографии, которые никогда не покидают устройство; они просто решили этого не делать», — объясняет Рескорла.


Также в сети уже появилось открытое письмо к Apple, которое пописали более 7000 физических лиц и множество организаций. В письме от Apple требуют пересмотреть позицию по поводу развертывания этой технологий и не «подрывать фундаментальные меры защиты конфиденциальности для всех пользователей продуктов Apple».


FAQ


Теперь представители Apple опубликовали FAQ, в котором попытались ответить на многочисленные вопросы, возникающие у специалистов и общественности, а также развеять опасения пользоватлей.


Один из вопросов  гласит: «Могут ли правительства вынудить Apple добавить в список хешей изображения, не относящиеся к CSAM?». И компания отвечает:


«Apple отклонит любые подобные требования. <…> Мы и ранее сталкивались с требованиями создать и внедрить санкционированные правительством изменения, которые ухудшат конфиденциальность пользователей, и упорно отказывались от таких требований. Мы продолжим отказывать им в будущем».


На юристов такой ответ не произвел  впечатления. Например, Элизабет Джо, профессор права Калифорнийского университета в Дэвисе, пишет вTwitter:


 «То есть, по сути, все, что стоит между пользователями и правительствами, требующими [добавления] в список хешей изображений, не относящихся к CSAM, —  это твердый отказ Apple?».


На это бывший заместитель генерального юрисконсульта Google Дафна Келлер, отвечает Джо:


 «Говорю как человек, который судился и проиграл именно по этому вопросу в трех разных странах (Великобритания, Германия, Франция), могу уверенно заявить, что твердый отказ добавлять новые фильтры, не относящиеся к CSAM, не имеет никакого значения перед лицом государственной власти».


 


В ответ на критику компания Apple опубликовала FAQ , в котором отвечает на вопросы, касающиеся новой инициативны компании по поиску изображений, имеющих признаки сексуального насилия над детьми. Предыстория В конце прошлой недели весь мир взбудоражила новость о том, что компания Apple скоро начнет искать среди пользовательских изображений признаки сексуального насилия над детьми. В компании рассказали, что инициатива будет состоять из нескольких частей. Во-первых, Apple будет проверять все сообщения в Messages, полученные и отправленные детьми, в поисках наготы, и оповещать родителей, если обнаружит слишком откровенные фото. Во-вторых, все изображения на устройствах под управлением iOS и iPadOS, которые синхронизируются с iCloud, будут сличаться с базой CSAM (child sexual abuse materials; англ. материалы, содержащие признаки сексуального насилия над детьми), которую предоставляет Национальный центр пропавших без вести и эксплуатируемых детей (NCMEC). В-третьих, Siri и Search научатся «вмешиваться, когда пользователи выполняют поиск по запросам, связанным с CSAM», и «объяснят пользователям, что интерес к этой теме вреден и проблематичен, а также предоставят ссылки на ресурсы партнеров для получения помощи в решении этой проблемы». Как мы уже рассказывали ранее, в ответ на Apple обрушился шквал критики со стороны ИБ-экспертов, правозащитников, ученых и так далее. К примеру, специалисты «Фонда электронных рубежей» (Electronic Frontier Foundation, EFF), писали, что «даже тщательно задокументированный, продуманный и строго ограниченный бэкдор по-прежнему остается бэкдором». А также предупреждали, что в странах с авторитарным режимом эта система может использоваться отнюдь не для защиты детей. Эрик Рескорла (Eric Rescorla), технический директор Mozilla, и вовсе опубликовал технический анализ новой системы Apple, из которого следует, что безопасность такого сканирования в поисках CSAM-файлов полностью зависит от поведения Apple и доверия к компании. Дело в том, что ранее Apple заявила, что новая функциональность не будет работать, если у пользователей отключена синхронизация с iCloud, и не затронет «частные библиотеки фотографий на устройствах». «Важно понимать, что в системе нет ничего, что помешало бы Apple сканировать фотографии, которые никогда не покидают устройство; они просто решили этого не делать», — объясняет Рескорла. Также в сети уже появилось открытое письмо к Apple, которое пописали более 7000 физических лиц и множество организаций. В письме от Apple требуют пересмотреть позицию по поводу развертывания этой технологий и не «подрывать фундаментальные меры защиты конфиденциальности для всех пользователей продуктов Apple». FAQ Теперь представители Apple опубликовали FAQ, в котором попытались ответить на многочисленные вопросы, возникающие у специалистов и общественности, а также развеять опасения пользоватлей. Один из вопросов гласит: «Могут ли правительства вынудить Apple добавить в список хешей изображения, не относящиеся к CSAM?». И компания отвечает: «Apple отклонит любые подобные требования.

Другие новости


Рекомендуем

Комментарии (0)

Комментарии для сайта Cackle



Уважаемый посетитель нашего сайта!
Комментарии к данной записи отсутсвуют. Вы можете стать первым!