Борьба с дипфейками во имя демократии
Развитие программного обеспечения для редактирования видео, упростило замену лица одного человека на другое и дало возможность изменять выражение лица. Как утверждают исследователи, многие размещают сфальсифицированные видео, чтобы повлиять на политические или социальные мнения. В этой ситуации способность опознать фейки, очень важна для защиты демократии. Существуют методы, которые могут с достаточной точностью определять, когда лица были заменены на другие. Но идентифицировать лица, на которых были изменено только выражение лица или эмоции, намного сложнее, и на сегодняшний день не существует надежной методики.
«Что делает область исследования дипфейков более сложной, так это конкуренция между созданием, обнаружением и предотвращением дипфейков, которая в будущем будет становиться все более жесткой. Благодаря большему прогрессу дипфейки будет легче синтезировать и труднее отличить от реальных», — сказал соавтор исследования Амит Рой-Чоудхури, профессор электротехники и компьютерной инженерии Борнского инженерного колледжа.
Разработанный метод делит задачу на два компонента. Первый различает мимику и передает информацию об областях, таких как губы, глаза или лоб, во вторую ветвь, известную как кодер-декодер. Архитектура кодер-декодер отвечает за обнаружение и локализацию манипуляций.
Алгоритм под названием «обнаружение манипуляций с мимикой лица» или EMD может обнаруживать и локализовать определенные области изображения, которые были изменены.
Эксперименты показывают, что EMD лучше справляется с обнаружением не только манипуляций с выражением лица, но и в случаях подмены личности. Он безошибочно обнаруживает 99% обработанных видео.
Источник: news.ucr.edu