» Новый вид фейковых новостей, к которым не готов Интернет — поддельное порно
31.01.2018 17:42

Новый вид фейковых новостей, к которым не готов Интернет — поддельное порно

Источник перевод для gearmix ()

С тех пор, как Facebook наконец признал проблему фейковых новостей, компания пыталась с этим бороться. Она наняла тысячи людей, чтобы помочь заблокировать поддельные объявления, стала работать со сторонними организациями по проверке фактов и занялась разработкой алгоритмов для обнаружения фальшивок. Но в то время, когда усилилась борьба с мошеннической рекламой и выдуманными событиями, на горизонте появилась еще одна потенциальная угроза — создание с помощью ИИ поддельных видео.

Издание Motherboard недавно обнаружило новую тревожную тенденцию — пользователи создают сгенерированные ИИ порнографические клипы, заменяя физиономии порнозвезд лицами совершенно других людей. Сообщение об этом появилось месяц назад, когда пользователь Reddit разместил видео с Галь Гадот, лицо которой было совмещено с телом порнозвезды. Видео создано с помощью алгоритмов машинного обучения, легкодоступных библиотек с открытым исходным кодом и изображений Google, фотографий и видео на YouTube.

Подпись к видео: Физиономия порноактрисы в ролике заменена лицом Джессики Альбы с помощью приложения «deepfakes»

Теперь появились приложения, которые помогают десяткам тысяч других людей делать то же самое — и не только со знаменитостями, но и с обычными людьми. Создатель приложения, получившего название «deepfakeapp», сказал журналистам, что в конечном итоге он хочет оптимизировать пользовательский интерфейс, чтобы пользователи могли «выбрать видео на своем компьютере, загрузить нейронную сеть, связанную с определенным лицом из общедоступной библиотеки, и поменять на видео физиономии учаснтиков нажатием одной кнопки». Хотя поддельные видеоролики не идеальны, но некоторые выглядят действительно пугающе реалистичными.

На недавнем круглом столе, посвященном ИИ, в Сан-Франциско эксперты из различных технологических компаний поделились своим мнением о том, как можно защититься от таких вредоносных технологий. Ли Фан, глава инженерного отдела Pinterest, сказал, что в случае замены персонажей во взрослых фильмах блокировка фейковых видео не будет слишком сложной. Можно запустить алгоритм проверки соответствия лица, чтобы отфильтровать определенные базы данных лиц знаменитостей. Но, к сожалению, вероятно, на этом дело не кончится.

Возможно, самый интригующий ответ пришел от Жоакин Куинонеро Кандела, директора по прикладным машинным обучением в Facebook. «Я уверен, что мы можем создавать алгоритмы для обнаружения контрафактного контента», — сказал он, повторив мнения остальной части экспертов, а также согласился с комментарием, что «лучшая защита — это ИИ». Но он согласился с тем, что растущая доступность и эффективность алгоритмов имитации представляет собой довольно серьезную проблему.

Излишне говорить, что это может иметь опасные последствия. Это не только открывает дверь для ужасающего нового вида мести в виде порно, но также открывает ящик Пандоры, когда уже никогда нельзя будет доверять Интернету. Не нужно иметь много воображения, чтобы представить себе мир, в котором иностранные государства будут использовать ИИ для создания и распространения видео политиков или общественных деятелей, говорящих о вещах, о которых они никогда не говорили.

Всего несколько месяцев назад исследовательская группа из Вашингтонского университета смогла создать искусственное видео о президенте Обаме, где тот выступал с речью. Им понадобилось его выступления продолжительностью 14 часов для обучения нейронной сети синхронизировать движения губ с речью. Система даже синхронизирует движения головы и челюсти, чтобы все это выглядело более реалистично. В то время как для такого рода магии раньше требовались часы кропотливой работы, теперь сама нейронная сеть справлялась с этим за несколько часов.

И это еще не все. Несколько лет назад в Стэнфордском университете было разработано программное обеспечение под названием Face2Face, которое позволяло захватывать чье-то лицо с веб-камеры, а затем переставлять его человеку на видео. Команда из Университета штата Алабама в Бирмингеме также работает над созданием синтезированной речи, взятой из аудио и видеороликов и радиопередач YouTube.

ИИ может быть опасным инструментом в руках злоумышленников. И хотя сам ИИ, в свою очередь, может быть использован для обнаружения подделок, этого явно недостаточно в борьбе с человеческими слабостями. И видя, как не удается блокировать вводящие в заблуждение новостные сюжеты, кажется маловероятным, что можно остановить распространение фальшивых видео. Компании, подобные Facebook, должны помнить о том, что одна из их основных обязанностей — действовать в интересах общества. И мы не можем допустить побочный ущерб в игре систем ИИ между собой в «кошки-мышки».



ПОХОЖИЕ ЗАПИСИ


© Gearmix 2013
Права на опубликованный перевод принадлежат владельцам вебсайта gearmix.ru
Все графические изображения, использованные при оформлении статьи принадлежат их владельцам. Знак охраны авторского права распространяется только на текст статьи.
Использование материалов сайта без активной индексируемой ссылки на источник запрещено.

Комментарии запрещены.