DeepFakes проводят интервью для технической работы

DeepFakes проводят интервью для технической работы

Плохие актеры выдают себя за других людей через Deepfakes, чтобы пройти свой путь на отдаленные рабочие должности, согласно последнему объявлению общественной службы агентства. Правозащитник начинается с того, что собирает достаточное количество личной информации своей цели, чтобы убедительно применить работу в качестве этого человека. Затем они приобретают несколько высококачественных фотографий человека, либо через кражу, либо немного повседневного онлайн-ускорения. Когда время собеседования наступит, плохой актер использует фотографии (а иногда и голосовой подделки) для создания и развертывания глубоких разборов, которые часто проходят для цели в видео -среде.

DeepFakes проводят интервью для технической работы

ФБР говорит, что подражание кандидатов на работу часто включают его и программирующие роли, а также любую роль, которая будет «включать доступ к клиенту [лично идентифицируемой информации], финансовые данные, корпоративные базы данных ИТ и/или собственную информацию». Такие детали могут быть использованы для напряжения в краже денег у компании, а также подорвать фондовый рынок, выпускать конкурирующие продукты или услуги или продавать огромные объемы частных данных. Хотя немного менее вероятно, что правонарушители захотят на самом деле работать в своей неправомерной роли в долгосрочной перспективе, есть также шанс, что они хотят заработать нам валюту из-за пределов США-или наслаждаться льготами, связанными с той ролью, которую они иначе не будут не смогу получить. Некоторые даже задаются вопросом, могут ли подражать быть частью более крупной операции, угрожающей национальной безопасности.

Прямо сейчас неясно, попадают ли когда-либо подражание кандидата в кандидатуру на работу в середине интервью. В то время как некоторые глубокофакторы ужасно реалистичны, они, как правило, однонаправленные; Редко они являются частью разговорной двусторонней улицы, что типично для собеседования. В идеале, даже неподготовленный глаз сможет заметить что -то «отключенное» о Deepfake. Но есть также кое -что, что можно сказать о вашем случайном измученном рекрутере, который - в отчаянии, чтобы заполнить роль или десять - не ловить тревожную визуальную задержку и не поднять ее с плохим подключением к Интернету. Таким образом, техническое мастерство и немного удачи могли объединиться, чтобы создать «идеальную» уголовную возможность.

В то время как ФБР не предлагало конкретных стратегий для осторожных рекрутеров, оно смутно предупреждает о несогласованных аудио и визуальных эффектах. «В этих интервью действия и движение губ от человека, которое было проведено опрошенным на камере, не полностью координируются с аудио говорящим человеком»,-говорится в PSA. «Иногда такие действия, как кашель, чихание или другие слуховые действия, не соответствуют тому, что представлено визуально».

Читать далее

Google Bans Deepfake Training на Colab
Google Bans Deepfake Training на Colab

Google тихо принял решение запретить пользователям создание DeepFakes в своем сервисе колабораторных компьютеров.

Apple предоставила патент на DeepFakes на основе эталонных изображений
Apple предоставила патент на DeepFakes на основе эталонных изображений

Вы либо умираете с героем с глубокими чертами, либо живете достаточно долго, чтобы увидеть себя, став их создателем.

ИИ Intel может обнаружить DeepFakes с точностью 96 процентов
ИИ Intel может обнаружить DeepFakes с точностью 96 процентов

Fakecatcher ищет то, что действительно оживляет нас: кровь.

Buzzfeed создал «Deepfake» Обаму PSA Video
Buzzfeed создал «Deepfake» Обаму PSA Video

На видео показан бывший президент Барак Обама, говорящий о том, что он никогда не говорил, и выглядит удивительно правдоподобным.