Джон Гибсон (фото - скрин из видео YES-2018)

Несколько дней назад директор Национальной разведки США Дэн Коутс получил письмо от трех конгрессменов. Набирающая популярность технология deepfake - алгоритм искусственного интеллекта для редактирования видео - может подорвать мировые демократические устои и аспекты жизни общества, написали в разведку Адам Шифф, Стефани Мерфи и Карлос Курбел. Если раньше технологию использовали ради забавы - к примеру, вставляли лица знаменитостей в порно-ролики, то сейчас инструмент может стать мощнейшим рупором в распространении неправдивой информации. Любой неугодный политик, активист или сосед по подъезду может стать не только главным героем ролика с пикантным сюжетом, но и превратиться в виртуальную марионетку, мимику которой синхронизируют с чужой речью и движениями.

"Deepfake становится все более передовой и доступной широким массам технологией. Реалистичные цифровые подделки людей, изображения которых говорят или делают то, что никогда не происходило, могут использовать для шантажа и распространения дезинформации. Подобные действия могут подорвать устои нашего общества и привести к сложным внутренним и международным последствиям", - отмечают авторы письма.

Директор компании ASI Data Science Джон Гибсон на 15-й ежегодной встрече Ялтинской Европейской Стратегии (YES) рассказал, чего ожидать от использования технологии deepfake, кто ей может воспользоваться и как противостоять распространению дезинформации с помощью того же искусственного интеллекта.

LIGA.net выбрала самое интересное из его выступления.

На пороге новой эры

Технология искусственного интеллекта (AI - Artificial intelligence) – пока что новая и еще не до конца изученная сфера. Но если говорить о дезинформаци, особенно политической, она почти такая же древняя, как и сама политика. Политическая дезинформация и политика все время шли рука об руку. Тому есть яркие примеры в истории: распространение дезинформации влияло не только на судьбы конкретных людей, но и на будущее целых стран. Есть один важный момент - контент, который вы распространяете, должен вызывать у публики доверие.

Появление интернета способствовало зарождению новой эры политической дезинформации. Если раньше в арсенале недоброжелателей одним из самых действенных инструментов были публикации или заметки в печатной прессе, то сейчас нужный им контент, в том числе и видео, они могут мгновенно распространять среди миллионной армии подписчиков соцсетей. И это только начало. Ситуация будет ухудшаться.

Видео-deepfake

Развитие технологии deepfake не стоит на месте. В прошлом году появился алгоритм, который позволяет наложить образ любого человека на живого актера в реальном времени. Причем очень реалистично. Чтобы сделать подобный видеофейк, многого не потребуется. Важно знать специальный код и подобрать актера с похожим тембром голоса.

С последним моментом есть некоторая загвоздка. Ведь найти человека, который сможет реалистично изобразить нужного персонажа, да еще и с одинаковым звучанием голоса, - задача не из легких. Но это только полбеды.

Фото - скрин из видео YES2018

Фото - скрин из видео YES2018

Аудио-ложь

В мире активно генерируется аудио-контент. Например, программа Wavenet (глубокая нейронная сеть для генерации необработанного звука. – Ред.), разработанная Google в 2016 году, позволяет синтезировать речь из напечатанного текста.

Например, ради эксперимента, разработчики создали прототип голоса президента США Дональда Трампа и записали текст, который он читал. Параллельно дали прочитать тот же текст известному пародисту Льюису Маклауду. Опрошенные разработчиками люди в результате практически не отличали машинную речь от живой речи человека.

Алгоритмы со временем будут только улучшаться, поэтому нужда в актерах и пародистах отпадет. Распространять пропаганду станет проще. И тогда использовать подобные технологии смогут не только государственные структуры, но и террористические группировки.

Самое страшное - через два года каждый, кто имеет элементарные навыки программирования, сможет вложить, например, в уста политика любой тест. Это будет новый вектор распространения фейковой информации и это - потенциальная угроза мировому порядку.

Как с этим бороться?

Нужно признать, джинна уже выпустили из бутылки. Код уже существует и очень быстро распространяется. При этом государство пока не в силах регулировать угрожающую тенденцию. Что можно сделать? Нужно принимать решения и разрабатывать технологии, которые смогут уменьшить негативный эффект от подобных фейков.

Во-первых, технологию того же искусственного интеллекта можно использовать для определения фейкового контента. Сейчас существуют определенные алгоритмы, на основе которых можно разработать программы, направленные на отслеживание подобного контента в интернете. И это ключевой момент для выживания и здорового будущего демократии.

Самое важное - подобные инструменты должны быть общедоступными. Тем же журналистам и активистам нужны специальные инструменты, чтобы отслеживать пропаганду.

"Искусственный интеллект может помочь в просветительской деятельности, чтобы у граждан демократических стран была возможность критически относиться к пропаганде. Например, чтобы люди понимали, как просто подделывать видео, им нужно показывать это на практике", - отметил господин [Андерс Фог] Расмуссен (генсек НАТО в 2009-2014 годах. – Ред.).

Именно технология искусственного интеллекта может стать эффективным инструментом в борьбе с дезинформацией. Но ее нужно использовать с умом. Программы обнаружения фейков сработают только в том случае, если они будут доступны для всех граждан, а не только для госорганов или определенных частных корпораций.

Борьбу с неправдивой информацией нужно начинать с самых низов – с населения.