Люди використовують додаток нейронної мережі для створення фальшивого порно знаменитостей
Багато хто з найбільш чарівних частин споживчої технології, який ми маємо сьогодні, є завдяки досягненням у розвитку нейронних мереж та машинного навчання. У нас вже є вражаюче визнання об'єктів у фотографіях та синтезі мовлення, і через кілька років автомобілі зможуть керуватися самим собою. Автоматичне навчання стало настільки просунуте, що кілька розробників створили інструмент під назвою FakeApp, який може створити переконливі відео обміну "обличчям". І, звичайно, вони використовують його для створення порно. Ну, це Інтернет, так що не дивно, що там.
FakeApp базується на роботі, виконаної на основі глибокого алгоритму навчання користувачем Reddit, відомим як Deepfakes. Інструмент доступний для завантаження та віддзеркалення в Інтернеті, але налаштування не є тривіальним. Вам потрібно завантажити та настроїти CUDA платформи Nvidia для запуску коду TensorFlow, тому для додатка потрібен GeForce GPU. Якщо у вас немає потужного графічного процесора, удачі знайти його за прийнятну ціну. Відео, яке ви хочете змінити, також потрібно розділити на окремі кадри, і вам потрібно значна кількість фотографій для тренування FakeApp на обличчя, яке ви хочете вставити.
Кінцевим результатом є відео з оригінальним обличчям, яке замінено новим. Якість обміну обличчя змінюється залежно від того, як навчання нейронної мережі - деякі з них трохи більше, ніж форми у формі особи, однак інші - надзвичайно, майже тривожніше, переконливі. Дивіться нижче для відтворення CGI Принцеса Лея від Rogue One, виконаної в FakeApp. Верхнє зображення з плівки, а дно було зроблено в FakeApp через 20 хвилин, відповідно до плаката. Там не можна заперечувати, що "справжня" версія краще, але підроблена є вражаючою, коли ви вважаєте, як це було зроблено.
Першим імпульсом для тих, хто з часом і схильністю працювати FakeApp, було створення порно з його улюбленою знаменитістю, яку обміняли для дійсного виконавця. Ми не зв'яжемося з жодним з них, але достатньо сказати, що багато цього вмісту з'явилося через два тижні, або FakeApp був доступний. Деякі вже висловлюються рішуче проти використання цієї технології для створення фальшивого порно, але користувачі FakeApp стверджують, що це більше не шкідливо, ніж фальшиві нерухомі зображення, створені в Photoshop протягом десятиліть.
Реальна сила і потенційна небезпека цієї технології - це не порно. Що робити, якщо майбутня версія цього методу настільки потужна, вона стає невиразною від справжніх кадрів? Всі об'єкти обміну з FakeApp мають принаймні трохи спотворень або мерехтіння, але це просто програма, розроблена кількома користувачами на Reddit. З більшою кількістю ресурсів, нейронні мережі можуть бути здатні до деяких диких речей.