Как искусственный интеллект убьет демократию
Несколько дней назад директор Национальной разведки США Дэн Коутс получил письмо от трех конгрессменов. Набирающая популярность технология deepfake - алгоритм искусственного интеллекта для редактирования видео - может подорвать мировые демократические устои и аспекты жизни общества, написали в разведку Адам Шифф, Стефани Мерфи и Карлос Курбел. Если раньше технологию использовали ради забавы - к примеру, вставляли лица знаменитостей в порно-ролики, то сейчас инструмент может стать мощнейшим рупором в распространении неправдивой информации. Любой неугодный политик, активист или сосед по подъезду может стать не только главным героем ролика с пикантным сюжетом, но и превратиться в виртуальную марионетку, мимику которой синхронизируют с чужой речью и движениями.
"Deepfake становится все более передовой и доступной широким массам технологией. Реалистичные цифровые подделки людей, изображения которых говорят или делают то, что никогда не происходило, могут использовать для шантажа и распространения дезинформации. Подобные действия могут подорвать устои нашего общества и привести к сложным внутренним и международным последствиям", - отмечают авторы письма.
Директор компании ASI Data Science Джон Гибсон на 15-й ежегодной встрече Ялтинской Европейской Стратегии (YES) рассказал, чего ожидать от использования технологии deepfake, кто ей может воспользоваться и как противостоять распространению дезинформации с помощью того же искусственного интеллекта.
LIGA.net выбрала самое интересное из его выступления.
На пороге новой эры
Технология искусственного интеллекта (AI - Artificial intelligence) – пока что новая и еще не до конца изученная сфера. Но если говорить о дезинформаци, особенно политической, она почти такая же древняя, как и сама политика. Политическая дезинформация и политика все время шли рука об руку. Тому есть яркие примеры в истории: распространение дезинформации влияло не только на судьбы конкретных людей, но и на будущее целых стран. Есть один важный момент - контент, который вы распространяете, должен вызывать у публики доверие.
Появление интернета способствовало зарождению новой эры политической дезинформации. Если раньше в арсенале недоброжелателей одним из самых действенных инструментов были публикации или заметки в печатной прессе, то сейчас нужный им контент, в том числе и видео, они могут мгновенно распространять среди миллионной армии подписчиков соцсетей. И это только начало. Ситуация будет ухудшаться.
Видео-deepfake
Развитие технологии deepfake не стоит на месте. В прошлом году появился алгоритм, который позволяет наложить образ любого человека на живого актера в реальном времени. Причем очень реалистично. Чтобы сделать подобный видеофейк, многого не потребуется. Важно знать специальный код и подобрать актера с похожим тембром голоса.
С последним моментом есть некоторая загвоздка. Ведь найти человека, который сможет реалистично изобразить нужного персонажа, да еще и с одинаковым звучанием голоса, - задача не из легких. Но это только полбеды.
Фото - скрин из видео YES2018
Аудио-ложь
В мире активно генерируется аудио-контент. Например, программа Wavenet (глубокая нейронная сеть для генерации необработанного звука. – Ред.), разработанная Google в 2016 году, позволяет синтезировать речь из напечатанного текста.
Например, ради эксперимента, разработчики создали прототип голоса президента США Дональда Трампа и записали текст, который он читал. Параллельно дали прочитать тот же текст известному пародисту Льюису Маклауду. Опрошенные разработчиками люди в результате практически не отличали машинную речь от живой речи человека.
Алгоритмы со временем будут только улучшаться, поэтому нужда в актерах и пародистах отпадет. Распространять пропаганду станет проще. И тогда использовать подобные технологии смогут не только государственные структуры, но и террористические группировки.
Самое страшное - через два года каждый, кто имеет элементарные навыки программирования, сможет вложить, например, в уста политика любой тест. Это будет новый вектор распространения фейковой информации и это - потенциальная угроза мировому порядку.
Как с этим бороться?
Нужно признать, джинна уже выпустили из бутылки. Код уже существует и очень быстро распространяется. При этом государство пока не в силах регулировать угрожающую тенденцию. Что можно сделать? Нужно принимать решения и разрабатывать технологии, которые смогут уменьшить негативный эффект от подобных фейков.
Во-первых, технологию того же искусственного интеллекта можно использовать для определения фейкового контента. Сейчас существуют определенные алгоритмы, на основе которых можно разработать программы, направленные на отслеживание подобного контента в интернете. И это ключевой момент для выживания и здорового будущего демократии.
Самое важное - подобные инструменты должны быть общедоступными. Тем же журналистам и активистам нужны специальные инструменты, чтобы отслеживать пропаганду.
"Искусственный интеллект может помочь в просветительской деятельности, чтобы у граждан демократических стран была возможность критически относиться к пропаганде. Например, чтобы люди понимали, как просто подделывать видео, им нужно показывать это на практике", - отметил господин [Андерс Фог] Расмуссен (генсек НАТО в 2009-2014 годах. – Ред.).
Именно технология искусственного интеллекта может стать эффективным инструментом в борьбе с дезинформацией. Но ее нужно использовать с умом. Программы обнаружения фейков сработают только в том случае, если они будут доступны для всех граждан, а не только для госорганов или определенных частных корпораций.
Борьбу с неправдивой информацией нужно начинать с самых низов – с населения.