Deepfakes проводить інтерв'ю для технологічних робочих місць

Deepfakes проводить інтерв'ю для технологічних робочих місць

Погані актори представляють себе іншим людям за допомогою Deepfakes, щоб пробути на віддалені робочі посади, згідно з останнім оголошенням про державну службу агентства. Продажерський починається з того, щоб зібрати достатню кількість особистої інформації своєї цілі, щоб переконливо застосувати робочі місця як цю людину. Потім вони набувають кілька високоякісних фотографій людини, або через крадіжку, або трохи повсякденного в Інтернеті. Коли час інтерв'ю розкочується, поганий актор використовує фотографії (а іноді і голосові підробки) для створення та розгортання Deepfake, яка часто проходить для цілі у відео -носі.

Deepfakes проводить інтерв'ю для технологічних робочих місць

ФБР зазначає, що втілення кандидатів на роботу часто залучають його та ролі програмування, а також будь -яку роль, яка "включатиме доступ до клієнта [особисту інформацію], фінансові дані, корпоративні ІТ -бази та/або фірмова інформація". Такі деталі можуть бути використані для викрадення грошей у компанії безпосередньо, а також підірвати фондовий ринок, випустити конкуруючі товари чи послуги або продавати величезні суми приватних даних. Хоча це трохи менше шансів на те, що правопорушники хочуть фактично працювати у своїй помилково відміченій ролі довгостроково, є також ймовірність, що вони хочуть заробити американську валюту за межами США-або насолоджуватися привілами, пов’язаними з роллю, яку вони інакше не б 'не зможу отримати. Деякі навіть задаються питанням, чи можуть втілення себе бути частиною більшої операції, що загрожує національній безпеці.

Наразі незрозуміло, чи втілення кандидатів на роботу коли-небудь спіймані в середині інтерв'ю. Хоча деякі глибокі палички жахливо реалістичні, вони зазвичай однонаправлені; Рідко вони є частиною розмовної двосторонньої вулиці, що характерно для співбесіди. В ідеалі навіть непідготовлене око зможе помітити щось «з -за» про співбесідника Deepfake. Але також є щось сказати про вашого випадкового розгубленого рекрутера, який - відчайдушно виконати роль чи десять - не спромогуючи неспокійне візуальне відставання, або може спричинити її поганим підключенням до Інтернету. Таким чином, технічна доблесть і трохи удачі можуть поєднатись, щоб створити «ідеальну» злочинну можливість.

Хоча ФБР не пропонував конкретних стратегій для обережних рекрутерів, воно нечітко попереджає про некоординовані аудіо та візуальні засоби. "У цих інтерв'ю дії та рух губ, яку бачили опитані на камері, не повністю координуються з аудіо людини, яка говорить",-йдеться у ПСА. "Часом такі дії, як кашель, чхання чи інші слухові дії, не узгоджуються з тим, що представлено візуально".

Читати далі

Google забороняє навчання DeepFake на Colab
Google забороняє навчання DeepFake на Colab

Google тихо прийняв рішення заборонити користувачам створювати Deepfaks на своїй колораторній обчислювальній службі.

ЄС: Meta, Google та Twitter можуть або боротися з Deepfakes, або платити величезні штрафи
ЄС: Meta, Google та Twitter можуть або боротися з Deepfakes, або платити величезні штрафи

Технічні гіганти, які не відповідають новим керівництвом запобігання дезінформації ЄС, повинні будуть сплачувати збори, рівні шести відсоткам їх глобального обороту.

Apple надала патент на Deepfakes на основі довідкових зображень
Apple надала патент на Deepfakes на основі довідкових зображень

Ви або вмираєте героєм, що заважає Deepfake, або живете досить довго, щоб побачити, як станеш їх творцем.

AI Intel може виявити Deepfakes з 96 -відсотковою точністю
AI Intel може виявити Deepfakes з 96 -відсотковою точністю

Fakecatcher шукає те, що справді нас приводить до життя: кров.