ИИ Intel может обнаружить DeepFakes с точностью 96 процентов

ИИ Intel может обнаружить DeepFakes с точностью 96 процентов

DeepFakes не теряла времени, становясь в общенациональной проблеме. В течение всего нескольких лет эти манипулируемые видеоролики развивались, чтобы принять участие в веб -комедии, политической дезинформации, поддельных собеседованиях и даже порнографии, в которой не хватает согласия изображенного человека. DeepFakes, вероятно, станут еще более убедительными, поскольку технология искусственного интеллекта (ИИ) развивается, что заставляет некоторые компании искать или создавать свои собственные методы обнаружения глубоководства.

Система Intel Fakecatcher делает именно это, а также с удивительной точностью. Компания говорит, что Fakecatcher может отличить видео реальных людей от DeepFakes с точностью 96 процентов в миллисекунд. Как это делать? Ищите то, что действительно оживляет нас: кровь.

FakeCatcher ищет крошечные признаки кровотока в пикселях потенциального видео с глубоким фарцовым. Поскольку наши сердца перекачивают кровь, наши вены меняют цвет. Это явление является неотъемлемой частью фотоплетизмографии (PPG), методики, обычно используемой для мониторинга кровотока человека. Используя PPG, FakeCatcher захватывает сигналы кровотока через лицу видео. Затем этот инструмент переводит эти сигналы в пространственно -временные карты, которые алгоритмы глубокого обучения сравнивают с человеческой деятельностью PPG, чтобы определить, является ли предмет видео реальным или фальшивым.

Инженеры Intel использовали несколько собственных программных продуктов компании для создания FakeCatcher, таких как OpenVino в качестве интерфейса глубокого обучения инструмента и OpenCV для обнаружения в реальном времени. FakeCatcher работает на масштабируемых процессорах Intel Xeon 3 -го поколения, что, по словам Intel, позволяет инструменту запускать до 72 отдельных потоков обнаружения в любой момент времени. В зависимости от того, как и где развертывается FakeCatcher, этот тип мощности может помочь в сквозне теории заговора, мошенничества и злонамеренно созданного контента для взрослых, прежде чем они смогут охватить более широкую аудиторию. (Intel не указал, куда точно будет Fakecatcher, когда он пройдет тестирование, но упомянула, что может найти место в социальных сетях, новостях и некоммерческих сайтах.)

Fakecatcher представляет прыжок Intel в растущих усилиях, чтобы остановить глубокие флажки в своих треках. Ранее в этом году Google принял решение запретить обучение Deepfake по службе Colab на фоне роста дезинформации и вычислительных ресурсов. Всего две недели спустя Европейский союз объявил, что он будет предпринимать меры против Meta, Twitter и других технических гигантов, если они не предпринимают очевидных усилий для борьбы с глубокими темпами.

Читать далее

Google Bans Deepfake Training на Colab
Google Bans Deepfake Training на Colab

Google тихо принял решение запретить пользователям создание DeepFakes в своем сервисе колабораторных компьютеров.

DeepFakes проводят интервью для технической работы
DeepFakes проводят интервью для технической работы

Плохие актеры выдают себя за других людей через Deepfakes, чтобы пройти свой путь на отдаленные рабочие позиции, согласно ФБР.

Apple предоставила патент на DeepFakes на основе эталонных изображений
Apple предоставила патент на DeepFakes на основе эталонных изображений

Вы либо умираете с героем с глубокими чертами, либо живете достаточно долго, чтобы увидеть себя, став их создателем.

Buzzfeed создал «Deepfake» Обаму PSA Video
Buzzfeed создал «Deepfake» Обаму PSA Video

На видео показан бывший президент Барак Обама, говорящий о том, что он никогда не говорил, и выглядит удивительно правдоподобным.