Инженер Google разрабатывает инструмент для выявления фальшивых видеосюжетов

В нашу эпоху, переполненную фальшивыми новостями, многие считают, что видеоматериалы заслуживают большего доверия, поскольку обеспечивают более четкую картину реальности. Увы, это ошибочное мнение, по словам инженера компании Google Супарсана Суваджанакорна, который разработал инструмент, способный на основе анализа подлинной исходной видеоинформации создавать реалистичное фальшивое видеоизображение, которое имитирует особенности речи любого человека, обеспечивая идеальную синхронизацию движения губ с заданным фальшивым текстом.

Как и любая технология, новинка обладает огромным потенциалом, причем как в позитивном, так и в негативном направлении. Поэтому Суваджанакорн также сотрудничает с компанией AI Foundation, специализирующейся на проблемах искусственного интеллекта, по созданию приложения «Reality Defender», которое может автоматически встраиваться в интернет-браузеры, чтобы затем обнаруживать и помечать фальшивые фото и видео.

«Я «накормил» свой компьютер материалами с изображением Барака Обамы продолжительностью 14 часов, а затем синтезировал его речь», – рассказал Суваджанакорн в ходе конференции TED (технологии, развлечения, дизайн) в Ванкувере, где он предварительно показал потрясающе убедительные результаты своей работы.

По словам автора, такая технология может быть использована для создания виртуальных версий тех людей, кто уже покинул наш мир: бабушек и дедушек, у которых можно спросить совета; актеров, чьи поклонники готовы на все ради еще одной встречи с кумиром; великих учителей, которые будут давать уроки, а также авторов, читающих собственные произведения.

В частности, он рассказал о проекте «Новые измерения в свидетельствах», который позволяет посетителям музея разговаривать с голографическими изображениям людей, переживших Холокост.

«Результаты оказались интригующими, но в то же время тревожными. Меня всерьез беспокоит потенциал злоупотреблений, – сказал изобретатель. – Поэтому я также работаю над контрмерами для идентификации поддельных фотографий и видеоизображений».

Он обеспокоен, например, тем, что фальшивое видео с изображением одного из мировых лидеров, объявляющего о нанесении ядерного удара по противнику, может спровоцировать мировую войну и катастрофу человечества.

Программа Reality Defender (защитник реальности), которая автоматически сканирует изображения на наличие признаков фальсификации, также позволяет пользователям сообщать о найденной подделке. Таким образом, «сила толпы» подключается к благому делу защиты правды.

«Видео-манипуляция может быть использована в пагубных целях, если не предпринять необходимые контрмеры, – сказал автор в интервью агентству Франс-Пресс. – Мы должны добиться, чтобы создание поддельных видеоизображений стало крайне рискованным и неэффективным с точки зрения издержек.

По словам Суваджаракорна, писать фальшивые новости, возможно, легко и дешево, но манипулирование видеоизображениями без каких-либо следов – гораздо более сложная задача. Видеосюжеты представляют собой потоки, состоящие из тысяч изображений, каждое из которых должно быть безупречно модифицировано для создания хорошей подделки.

«Прежде чем мы сможем эффективно моделировать видеоизображение людей, предстоит пройти еще долгий путь», – заявил Суваджанакорн, чья работа в этой области началась несколько лет назад, когда он был студентом Вашингтонского университета.

«Мы должны быть исключительно осторожны, чтобы этот инструмент не попал в плохие руки», – сказал он корреспонденту Франс-Пресс.


Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *