Технологія Deepfake тепер може анонімізувати ваше обличчя для захисту

Технологія Deepfake тепер може анонімізувати ваше обличчя для захисту

Відео Deepfake продемонстрували свої програми в розвазі - як прийнятно, так і суперечливо - але ці загальні змагальні мережі (GAN) ще мають довгий шлях, перш ніж вони запропонують переконливі результати. Це призвело до відсутності практичних застосувань та великої кількості параної, але ми починаємо бачити зусилля щодо використання технології глубоких фальшивок способами, які допоможуть людям захистити себе. Недавній документ, опублікований на Міжнародному симпозіумі з візуальних обчислень, демонструє, як глибокі помилки можуть допомогти захистити право на приватність, перш ніж вони стануть інструментом, який застосовується для заподіяння шкоди.

У статті використовується обмін обличчям, щоб анонімізувати зовнішній вигляд оратора. Хоча автори не вперше розглядали цю заявку, початкова робота просто перенесла вирази на існуюче обличчя, яке погодилося на своп. Цей новий метод натомість замінює чиєсь наявне обличчя унікально створеним з набору даних 1,5 мільйона зображень обличчя. Теоретично нове обличчя не відповідає жодному обличчю в реальності.

Кредит зображення: DeepPrivacy
Кредит зображення: DeepPrivacy

Хоча GAN дає відповідні результати для фотографій, вона все ще бореться із заміною облич у відео. Це можливо, тому що мережа повинна генерувати "нове" обличчя для кожного кадру. Підтримувати консистенцію для неіснуючого обличчя - непросте завдання ні в теорії, ні на практиці.

Кредит зображення: DeepPrivacy
Кредит зображення: DeepPrivacy

Для анонімування теми на відео, однак, глюкозний вигляд не має великого значення. Зрештою, цілі цієї GAN не в тому, щоб когось обдурити, а скоріше затьмарити обличчя людини, не втрачаючи виразності. Заблокувавши обличчя людини коробкою (як видно зліва в GIF), ми не можемо їх визначити, але ми також дуже мало знаємо про те, що вони намагаються спілкуватися.

За обставин, коли анонімність є життєво важливою, але вираз може змінити значення, наприклад, анонімізувати появу джерел у новинах чи документальних фільмах, які можуть поставити під загрозу тему, розкривши їхню особу, цей метод може бути дуже корисним і застосовується сьогодні. Єдиними помітними проблемами є глюки, які виникають при поганому освітленні або коли об'єкт робить значні рухи. Подальша робота, ймовірно, вирішить ці проблеми в найближчі роки, але застосування цього методу для очікуваних цілей не зможе легко зіткнутися з цими недоліками. Зрештою, учасники інтерв'ю, як правило, не роблять суттєвих рухів, а умови освітлення частіше керуються. Крім того, якщо мова йде про погану корекцію освітлення, для цього вже є AI.

Ми вже можемо підробляти голоси з достатньою точністю, щоб успішно себе представити іншим людям на суму 243 000 доларів США за крадіжку, тому анонімізація голосів, безумовно, не створює додаткових перешкод. Ми ніколи не потребували штучного інтелекту для зміни голосу, а також існують більш ретельні процеси для анонімності голосу. Тепер ми почали добре із відео. Якщо ви хочете спробувати це самостійно, ви можете отримати доступ до вихідного коду на GitHub.

Читати далі

Google забороняє навчання DeepFake на Colab
Google забороняє навчання DeepFake на Colab

Google тихо прийняв рішення заборонити користувачам створювати Deepfaks на своїй колораторній обчислювальній службі.

ЄС: Meta, Google та Twitter можуть або боротися з Deepfakes, або платити величезні штрафи
ЄС: Meta, Google та Twitter можуть або боротися з Deepfakes, або платити величезні штрафи

Технічні гіганти, які не відповідають новим керівництвом запобігання дезінформації ЄС, повинні будуть сплачувати збори, рівні шести відсоткам їх глобального обороту.

Deepfakes проводить інтерв'ю для технологічних робочих місць
Deepfakes проводить інтерв'ю для технологічних робочих місць

Погані актори представляють себе іншим людям за допомогою Deepfakes, щоб пробути їх у віддалені робочі позиції, згідно з ФБР.

Apple надала патент на Deepfakes на основі довідкових зображень
Apple надала патент на Deepfakes на основі довідкових зображень

Ви або вмираєте героєм, що заважає Deepfake, або живете досить довго, щоб побачити, як станеш їх творцем.