Инструменты обнаружения злоупотребления детей Google также могут идентифицировать нелегальные рисунки д

Инструменты обнаружения злоупотребления детей Google также могут идентифицировать нелегальные рисунки д

Apple ударила волной критики в начале этого года, когда она объявила о планах сканировать iPhones, чтобы остановить распределение материала ребенка сексуального насилия (CSAM). Критики раздражали, что система Chash-проверки Apple может быть определена правительствами, чтобы шпионскими законопослушными пользователями iPhone. В ответ на обратную связь Apple может в конечном итоге вносить изменения в эту программу, но у Google есть свой способ обнаружения CSAM, и он может быть еще более навязчивым для тех, кто использует все облачные службы Google.

Особенности на сканировании CSAM Google поставляются в качестве ордера, выданного в начале 2020 года и заметили Forbes. Согласно подаче подачи, Google обнаружил CSAM в Google Drive, его платформу хранения облаков. И вот где все становится немного странно; Ордер, вытекающий от этого доклада целенаправленного цифрового искусства, а не фото или видео, изображающее злоупотребление ребенка.

Система Apple под ее «расширенной защитой для детей» Banner использует хэши для известных материалов злоупотребления детей, сканирующих IDEvices для соответствия хэши. Это должно предотвратить ложные срабатывания, и он не требует, чтобы Apple посмотреть на любой из файлов на вашем телефоне. Проблема скорее всего с таким подходом - это то, что Apple все еще сканирует ваши личные файлы на своем смартфоне, и это может быть кошмаром на конфиденциальность, если кто-то удается заменить разные хэши. Apple говорит, что это невозможно, хотя.

Google, как оказывается, делает что-то похожее. Он использует технику, первоначально разработанную для YouTube для поиска хэши известных CSAM, но он также имеет обучение AI, который был обучен использовать машину, чтобы определить новые изображения злоупотребления ребенка. Неясно, как Google заметил проблемные файлы в 2020 году, но неопознанный человек описывается как художник. Это говорит о том, что он создал эти чертежи, и системы Google определили его как CSAM.

Инструменты обнаружения злоупотребления детей Google также могут идентифицировать нелегальные рисунки д

После того, как система Google заметила чертежи, он отправил данные в Национальный центр для пропавших без вести и эксплуатации детей, и оттуда он отправился в Блок расследования безопасности Главная DHS. Следователи подали ордер, чтобы получить доступ к данным пользователя. Художник не был определен, так как никаких обвинений не было принесено. Тем не менее, законодательство США проводит, что рисунки, как и те, кто изображает злоупотребление ребенком, все еще может быть незаконным, если им не хватает «серьезной литературной, художественной, политической или научной ценности». Это трудно доказать - даже согласие на определение «искусства» может быть проблемой. Это может объяснить, почему в этом случае не было никаких обвинений.

Хотя использование Google AI более агрессивно, чем Apple, также, по-видимому, ограничивается облачными услугами, такими как Gmail и Drive. Итак, Google не настроен для сканирования телефонов Android для хэшей, таких как Apple на iPhone, но подход Google может подместите оригинальные произведения, которые могут или не могут быть незаконно, в зависимости от того, кто вы спрашиваете. Независимо от того, что такое «искусство», Google не делает это, просто чтобы сделать это - есть неоспоримая проблема с CSAM на всех облачных службах. Google говорит, что он сообщил о 3,4 миллиона кусков потенциально незаконного материала в 2021 году, и это с 2,9 млн. Год.

Читать далее

Skydio получает неправильный вид прессы для демонстрации «нелегального» видео Drone
Skydio получает неправильный вид прессы для демонстрации «нелегального» видео Drone

Skydio случайно представила видео-беспилотник, снятый в Йеллоустонском национальном парке, где эксплуатация беспилотников является незаконной, что дало компании мгновенный позор.