Apple ругается правительствам не может сопредеть инструменты обзора на злоупотребление ребенком для набл
Apple недавно подтвердила отчет, который утверждал, что он планировал идти на охоту за незаконные материалы на iPhone. Это, от компании, которая давно продвигала свои защиты конфиденциальности. Осуждение было быстрым из групп гражданских свобод, но многие удерживают суждение из-за предполагаемой цели Apple: образы детского сексуального насилия. Apple теперь обратно обратно, чтобы пообещать, что он не позволит правительствам сопредеть этот инструмент для целей наблюдения.
Как подробно описано на прошлой неделе, предстоящие «расширенные защиты Apple для детей» имеют две особенности. Во-первых, IOS 15 сможет отсканировать файлы на устройствах для известного ребенка сексуального материала злоупотребления (CSAM). Система создает хэши файлов на вашем телефоне и сравнивает эти строки для хэшей изображений злоупотребления детей из Национального центра для отсутствия и эксплуатации детей (NCMEC). Эта проверка будет завершена до того, как все будет загружено в iCloud. Другая сторона монеты - это охрана Imessage для дочерних счетов. Использование машинного обучения IOS может определить, является ли входящая фотография сексуально явной. Затем он может предупредить пользователя, прежде чем показывать изображение.
Это деликатная ситуация, потому что «не будет ли кто-то, пожалуйста, думать о детях», использовалась для оправдания большого количества сомнительных мероприятий как онлайн, так и онлайн. С другой стороны, Apple создала инструмент, который может отсканировать ваш телефон для файлов на основе файлов Hashes, и он говорит, что только известный CSAM будет вызвать сигнал тревоги. Тем не менее, теоретически ничего не останавливает Apple от обновления хэшей, чтобы пойти на снимки для не-CSAM-изображений. Ну, ничего, кроме слова Apple.
В своем последнем выступлении (PDF) Apple попыталась успокоить страхи от сканирования файлов перенапряжения. «Возможность обнаружения CSAM Apple построена исключительно для обнаружения известных изображений CSAM, хранящихся в фотографиях iCloud, которые были определены экспертами в группах NCMEC и других детей. Мы столкнулись с требованиями к созданию и развертыванию мероприятий по правительству, которые ухудшают конфиденциальность пользователей раньше, и устойчиво отказались от этих требований. Мы будем продолжать отказываться от них в будущем », - сказал Apple.
Apple также уточнила, что подходящее хеш не направляется в правоохранительные органы немедленно. Вместо этого Apple проведет проверку человека перед отключением учетной записи и пересылания данных в NCMEC. Кроме того, тот же набор хэшей CSAM будет храниться локально на каждом устройстве iOS, поэтому для кого-то будет «невозможно», чтобы кто-то ввести хэш, который вызывает ложное положительное.
Опять же, это то, что Apple говорит о технологии. Ваша готовность верить, что Apple будет зависеть от того, как вы относитесь к отследуете отследующую запись компании. Справедливо сказать, что Apple встала на правоохранительные органы, часто в высокопроизводительных способах. Тем не менее, это все еще компания, которая существует, чтобы зарабатывать деньги, а правительства имеют денежные и юридические инструменты для форсирования компаний, чтобы сделать свои предложения.