Искусственный интеллект помогает в создании реалистичных видеофальшивок | Gearmix
08.06.2018 12:27

Искусственный интеллект помогает в создании реалистичных видеофальшивок

Источник перевод для gearmix ()

В интернете появляются отредактированные видеоролики, на которых люди произносят определённые слова (хотя в действительности их не произносили) или совершают какие-то действия (хотя в действительности их не совершали). Благодаря новым разработкам на основе искусственного интеллекта качество подобных видеофальшивок возрастёт в разы.

Сегодня технологии создания поддельных видеороликов не ограничиваются движениями губ и лица человека на исходных кадрах – система на основе искусственного интеллекта способна подготовить реалистичную видеозапись, на которой отредактированное цифровое изображение человека может двигать головой в разные стороны, моргать и проявлять эмоции. Все действия и слова актёра, который снимется в исходном видеоролике, будут перенесены в поддельный видеоролик.

Команда разработчиков сравнила новый алгоритм с существующими системами по изменению видео и фото, к созданию которых имеют отношение Facebook и Google. Новый алгоритм превзошёл существующие техники, а участники эксперимента с трудом могли определить подлинность видеороликов.

Работу исследователей частично профинансировала компания Google. Создатели системы надеются, что с помощью новой технологии удастся улучшить виртуальную реальность. Чтобы приступить к созданию изменённого ролика, искусственному интеллекту необходимо изучить всего несколько минут исходного материала. Поэтому исследователи утверждают, что программы для высококачественного редактирования видео станут более доступными.

Разработчики понимают, что их изобретение может вызвать некоторые опасения в обществе.

Исследователь Юстус Тис сообщил изданию The Register, что переживает по поводу этической стороны вопроса. По словам Тиса, результаты исследования были опубликованы, чтобы предупредить людей о достижениях техники манипуляции.

Учёные в очередной раз «предупредили об опасности», но продолжили совершенствовать подозрительную технологию. В тексте исследования об этической проблеме упомянуто лишь вскользь: разработчики считают, что кто-то должен улучшить систему водяных знаков или придумать другой способ для выявления видеоподделок.

Сами исследователи этим вопросом заниматься не желают, так как они заняты работой над улучшением инструмента для создания поддельных видео.



ПОХОЖИЕ ЗАПИСИ


© Gearmix 2013
Права на опубликованный перевод принадлежат владельцам вебсайта gearmix.ru
Все графические изображения, использованные при оформлении статьи принадлежат их владельцам. Знак охраны авторского права распространяется только на текст статьи.
Использование материалов сайта без активной индексируемой ссылки на источник запрещено.

Комментарии запрещены.