Apple ответила на самые популярные вопросы про сканирование фото на iPhone

fbimg.php?img=https%3A%2F%2Fwww.iphones.

Apple ответила на популярные вопросы пользователей, связанные с новой функцией iOS 15, которая автоматически обнаруживает фотографии, содержащие сцены с жестоким обращением с детьми (CSAM)

По словам Apple, её технология обнаруживает только CSAM-фото и не предназначена для поиска других изображений.

Можно ли использовать систему обнаружения CSAM в Фото iCloud для поиска вещей, кроме CSAM?

Наш процесс разработан таким образом, чтобы этого не произошло. Обнаружение CSAM для Фото iCloud построено так, что система работает только с хэшами изображений CSAM, предоставленными NCMEC и другими организациями, занимающихся безопасностью детей. Этот набор хэшей изображений основан на изображениях, полученных и подтвержденных как CSAM организациями по детской безопасности. Автоматическое информирование правоохранительных органов не предусмотрено, и сотрудник Apple проводит дополнительную проверку, прежде чем отправить отчет в NCMEC. В результате система предназначена только для сообщения о фотографиях, которые известны как CSAM в Фото iCloud. В большинстве стран, в том числе и в США, простое хранение таких изображений является преступлением, и Apple обязана сообщать о любых случаях, о которых мы узнаем, в соответствующие органы.

Могут ли правительства заставить Apple добавить изображения, не относящиеся к CSAM, в список хэшей?

Apple откажется от любых подобных требований. Возможности Apple по поиску CSAM созданы исключительно для обнаружения известных изображений CSAM, хранящихся в Фото iCloud, которые были идентифицированы экспертами NCMEC и другими организациями, связанными с безопасностью детей. Мы и раньше сталкивались с требованиями создать и внедрить санкционированные правительством изменения, которые ухудшают конфиденциальность пользователей, и мы категорически отказывались от них. Мы будем продолжать отказываться от них и в будущем. Давайте проясним: эта технология ограничена обнаружением CSAM, хранящихся в iCloud, и мы не будем подчиняться никаким требованиям правительства расширить ее.

Будет ли обнаружение CSAM в Фото iCloud ошибаться и сообщать о невиновных людях в правоохранительные органы?

Нет. Система разработана с высокой точностью, и вероятность того, что она неправильно пометит какую-либо учетную запись, составляет менее одного случая на один триллион в год. Кроме того, каждый раз, когда аккаунт помечается системой, сотрудники Apple проводят дополнительную проверку перед тем, как сообщить NCMEC. Таким образом, системные ошибки или атаки не приведут к тому, что о невиновных людях сообщат в NCMEC.

Функция обнаружения CSAM-фото заработает до конца этого года в США. Затем Apple планирует активировать её в других странах. [Apple]

©  iphones.ru