В интернете появляются отредактированные видеоролики, на которых люди произносят определённые слова (хотя в действительности их не произносили) или совершают какие-то действия (хотя в действительности их не совершали). Благодаря новым разработкам на основе искусственного интеллекта качество подобных видеофальшивок возрастёт в разы.

Искусственный интеллект помогает в создании реалистичных видеофальшивок

Сегодня технологии создания поддельных видеороликов не ограничиваются движениями губ и лица человека на исходных кадрах – система на основе искусственного интеллекта способна подготовить реалистичную видеозапись, на которой отредактированное цифровое изображение человека может двигать головой в разные стороны, моргать и проявлять эмоции. Все действия и слова актёра, который снимется в исходном видеоролике, будут перенесены в поддельный видеоролик.

Команда разработчиков сравнила новый алгоритм с существующими системами по изменению видео и фото, к созданию которых имеют отношение Facebook и Google. Новый алгоритм превзошёл существующие техники, а участники эксперимента с трудом могли определить подлинность видеороликов.

Работу исследователей частично профинансировала компания Google. Создатели системы надеются, что с помощью новой технологии удастся улучшить виртуальную реальность. Чтобы приступить к созданию изменённого ролика, искусственному интеллекту необходимо изучить всего несколько минут исходного материала. Поэтому исследователи утверждают, что программы для высококачественного редактирования видео станут более доступными.

Разработчики понимают, что их изобретение может вызвать некоторые опасения в обществе.

Исследователь Юстус Тис сообщил изданию The Register, что переживает по поводу этической стороны вопроса. По словам Тиса, результаты исследования были опубликованы, чтобы предупредить людей о достижениях техники манипуляции.

Учёные в очередной раз «предупредили об опасности», но продолжили совершенствовать подозрительную технологию. В тексте исследования об этической проблеме упомянуто лишь вскользь: разработчики считают, что кто-то должен улучшить систему водяных знаков или придумать другой способ для выявления видеоподделок.

Сами исследователи этим вопросом заниматься не желают, так как они заняты работой над улучшением инструмента для создания поддельных видео.


Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *