AI Intel може виявити Deepfakes з 96 -відсотковою точністю

AI Intel може виявити Deepfakes з 96 -відсотковою точністю

Deepfakes не витрачала часу, не стаючи проблемою в Інтернеті. Всього за кілька років ці маніпульовані відеоролики розвивалися, щоб взяти участь у веб -комедії, політичній дезінформації, підроблених співбесідах і навіть порнографії, якій не вистачає згоди на зображеної людини. Deepfakes, ймовірно, стануть ще більш переконливими в міру розвитку технологій штучного інтелекту (AI), що призводить до того, що деякі компанії шукають або створюють власні методи виявлення Deepfake.

Система Fakecatcher Intel робить саме це, і з дивовижною точністю теж. Компанія каже, що Fakecatcher здатний розрізняти відео реальних людей від Deepfakes з 96 -відсотковою точністю у питанні мілісекунд. Як це робить? Шукаючи речі, які справді приводять нас до життя: кров.

Fakecatcher шукає мізерні ознаки кровотоку в пікселях потенційного відео Deepfake. Як наші серця перекачують кров, наші вени змінюють колір. Це явище є невід'ємною частиною фотоплетісмографії (PPG), методики, яка зазвичай використовується для моніторингу кровотоку людини. Використовуючи PPG, Fakecatcher фіксує сигнали кровотоку з усього обличчя відео. Потім інструмент переводить ці сигнали на просторово -часові карти, які алгоритми глибокого навчання порівнюють проти діяльності PPG людини, щоб визначити, чи є тема відео реальним чи фальшивим.

Інженери Intel використовували кілька власних програмних продуктів компанії для створення Fakecatcher, як OpenVino як інтерфейс глибокого навчання інструменту для виявлення в режимі реального часу. Fakecatcher працює на масштабованих процесорах 3 -го покоління Intel Xeon, що, за словами Intel, дозволяє інструменту працювати до 72 окремих потоків виявлення в будь -який момент часу. Залежно від того, як і де розгортається Fakecatcher, цей тип потенціалу може допомогти теоріям змови на кабачках, афеам та зловмисно виробленим вмістом для дорослих, перш ніж вони матимуть можливість охопити широку аудиторію. (Intel не уточнив, куди саме піде Факекатчер, коли він пройшов тестування, але згадав, що він може знайти місце в соціальних мережах, новинах та некомерційних веб -сайтах.)

Fakecatcher представляє стрибок Intel у зростаючі зусилля, щоб зупинити Deepfakes у своїх слідах. На початку цього року Google прийняв рішення про заборону навчання DeepFake щодо його послуги Colab на тлі зростання дезінформації та обчислювального споживання ресурсів. Лише через два тижні Європейський Союз оголосив, що вживатиме заходів проти мета, Twitter та інших технологічних гігантів, якщо вони також не докладали зусиль для боротьби з Deelfakes.

Читати далі

Apple дозволяє 50 -відсоткове збільшення ціни на підписку без запитань
Apple дозволяє 50 -відсоткове збільшення ціни на підписку без запитань

Apple робить великі зміни в політиці управління підпискою, яка вимагатиме, щоб користувачі приділяли більше уваги сповіщенням про підвищення цін.

Дзен 4 на підлозі: AMD обіцяє 35-відсотковий стрибок продуктивності для процесорів наступного покоління
Дзен 4 на підлозі: AMD обіцяє 35-відсотковий стрибок продуктивності для процесорів наступного покоління

AMD обіцяє, що його архітектура процесора Zen 4 забезпечить покращення продуктивності на 35 відсотків. Це набагато більший стрибок, ніж компанія раніше говорила.

Новий акумулятор EV досягає 98 -відсоткової ємності менше ніж за десять хвилин
Новий акумулятор EV досягає 98 -відсоткової ємності менше ніж за десять хвилин

Це, здається, не має цінності довговічності - enovix оцінює, що його акумулятор триватиме щонайменше десятиліття.

Sony, Nintendo, Microsoft: не вбивайте консолі з 25-відсотковим тарифом
Sony, Nintendo, Microsoft: не вбивайте консолі з 25-відсотковим тарифом

Sony, Microsoft і Nintendo спільно надіслали листа адміністрації Trump з проханням, щоб їхні ігрові консолі не були спрямовані на наступну хвилю тарифів у поточній ціновій війні, що виникне в найближчому майбутньому.