Дипфейки и ботофермы Трампа: как искусственный интеллект едва не сорвал президентские выборы в США

12 ноября 2024, 17:00
Читати новину українською

.

Нынешний предвыборный сезон в США, без сомнения, был интересным. Классические элементы гонки – обвинения и словесные нападения друг на друга между кандидатами дополнились технологическими инструментами. В частности, искусственным интеллектом, который использовали для создания мемов и дипфейков.

Через чат-бот Grok от Илона Маска в X запускали множество сгенерированных мемов – от Барака Обамы, который употребляет кокаин, Дональда Трампа с беременной женщиной, которая отдаленно напоминает Камалу Харрис, и до Трампа и Харрис, которые держат пистолеты. Использовали и более опасный элемент – дипфейки, сгенерированные видео с известными персонами, которые трудно отличить от реальных роликов.

24 Канал рассказывает, чьи дипфейки использовались в президентской гонке в США и как ими пытались вмешаться в волеизъявление американцев.

К теме "Проект Аламо" и российские хакеры RaHDit: как Трамп выиграл выборы в 2016 и кто помогает сейчас

Дипфейки от ChatGPT

Во время избирательной кампании многие пользователи пытались воспользоваться генератором изображений DALL-E от OpenAI для создания дипфейков, но компания сообщила об успешном предотвращении этих попыток.

По данным нового отчета, ChatGPT отказался выполнить более 250 000 запросов на создание изображений с президентом Байденом, избранным президентом Трампом, вице-президентом Харрис, избранным вице-президентом Вэнсом и губернатором Уолзом.

OpenAI объяснила, что это стало возможным благодаря ранее внедренным мерам безопасности, которые блокируют создание изображений с реальными людьми, включая политиков.

OpenAI начала подготовку к выборам еще в начале года, разработав стратегию для предотвращения распространения дезинформации через свои инструменты. Компания гарантировала, что пользователи, которые спрашивали ChatGPT о процессе голосования в США, будут перенаправлены на сайт CanIVote.org. За месяц до выборов чат-бот обеспечил 1 миллион таких перенаправлений.

В день выборов и на следующий день ChatGPT предоставил 2 миллиона ответов, направляя пользователей к проверенным источникам, таких как Associated Press и Reuters, для получения официальных результатов. OpenAI также предотвратила возможность выражения любых политических предпочтений или рекомендаций кандидатов со стороны ChatGPT, даже если этого требовали запрашивающие.

К теме "Больной Трамп и Харрис": как ИИ Маска создает фейки на миллионную аудиторию под выборы США

Однако DALL-E – не единственный генератор изображений на базе искусственного интеллекта, и в социальных сетях все равно появлялись дипфейки, связанные с выборами.

Например, одно из измененных видео изображало Камалу Харрис, где она якобы утверждала, что ее выбрали как "лучший вариант для обеспечения разнообразия". Публикацию с этим видео распространил Илон Маск, в результате чего она набрала более 136 миллионов просмотров.

Каким было влияние искусственного интеллекта на выборы в США

ИИ не повлиял на выборы, но углубил раскол между республиканцами и демократами, пишет The Washington Post. Однако мрачные прогнозы о том, что ИИ сорвет выборы, не оправдались.

Специалисты по всей Америке – от Вашингтона до Калифорнии – в течение двух лет перед выборами предупреждали, что быстрый прогресс ИИ усилит дезинформацию, пропаганду и язык вражды. И в конечном итоге это повлияет на результаты президентских выборов.

В отчете Института стратегического диалога (ISD) обнаружили, что быстрый рост количества контента, созданного искусственным интеллектом, создало "полностью загрязненную информационную экосистему", в которой избирателям все труднее различать искусственное от настоящего.

Интересно Как Китай создает боевой искусственный интеллект, чем соответствует армия США и есть ли ИИ в ВСУ

Эксперты считают, что ко времени вступления в должность Трампа, среда соцсетей, особенно X, будет способствовать сплочению его сторонников. В частности, в трудных вопросах вроде массовых депортаций мигрантов или запрета абортов. Созданные искусственным интеллектом фейки могут помочь инфлюенсерам распространять в соцсетях ложные нарративы и укреплять партийные убеждения миллионов людей. Отсутствие модерации ИИ-контента только облегчит это дело.

Среди уже заметных дипфейков – подделка голоса президента Байдена в попытке помешать избирателям Нью-Гемпшира участвовать в праймериз в штате. Оперативник от Демократической партии, утверждавший, что пытался повысить осведомленность об опасности искусственного интеллекта, был оштрафован Федеральной комиссией связи на 6 миллионов долларов за нарушение правил телекоммуникаций.


Камала Харрис / Фото Susan Walsh / AP

Также в распространенных фейках использовали такие нарративы:

  • карикатурные изображения Трампа в нацистской форме;
  • изображения Камалы Харрис в сексуальных позах;
  • поддельные фото толп темнокожих людей, которые якобы поддерживают Трампа, – это демографическая группа избирателей, за которой "ухаживали" обе партии.

Несмотря на то, что в более чем десяти штатах действуют законы, которые наказывают за использование искусственного интеллекта для создания обманчивых видео о политиках, модерация такого контента почти не осуществлялась. Это выявило пробелы в применении как законодательства, так и политик социальных сетей. Набор программ для выявления дипфейков, созданных искусственным интеллектом, не оправдал возложенных на него ожиданий. В результате основное бремя идентификации поддельных изображений и аудио в соцсетях легло на случайную систему фактчекинга и исследователей в ведущих медиа.

ИПСО из-за океана широко использовали ИИ для вбросов о фальсификациях и о призывах украинского президента Владимира Зеленского голосовать за Харрис. Такие случаи зафиксировала организация NewsGuard, которая занимается мониторингом дезинформации.

Однако, несмотря на распространение ИИ-технологий, нет доказательств, что такое вмешательство существенно повлияло на избирательный процесс, говорит Джен Истерли, директор Агентства по кибербезопасности и безопасности инфраструктуры, которое отвечает за защиту избирательной инфраструктуры. Исследователи обнаружили лишь несколько случаев использования ИИ для создания дезинформации о процессе голосования, подтвердила Кейт Старберд, соучредитель Центра информированной общественности Вашингтонского университета, на брифинге для СМИ. Она добавила, что большинство слухов базировались на неправильном толковании реальных фактов, а не на полностью вымышленных историях.

Подобная ситуация наблюдалась и за рубежом. Искусственный интеллект не имел значительного влияния на выборы в Великобритании и Европейском Союзе, согласно отчету Института Алана Тьюринга.

По словам исследователей, во время всеобщих выборов в Великобритании было зафиксировано лишь 16 подтвержденных случаев вирусной дезинформации или дипфейков, в то время как в ЕС – только 11, включая выборы во Франции.

Однако ИИ все же повлиял на общественное мнение. Ультраправые группы массово распространяли дезинформацию, созданную с помощью ИИ, на X. Среди контента был такой:

  • виральные изображения детей, пострадавших от урагана;
  • теории заговора и антисемитские нападки на чиновников администрации Байдена;
  • дипфейк Трампа, где голос избранного президента якобы угрожал убить премьер-министра Канады Джастина Трюдо.

Трамписты же использовали сгенерированные изображения фанатов Тейлор Свифт, которые якобы поддерживали Трампа, что вызвало публичную реакцию певицы в пользу Харрис.

К теме Опасные друзья: как чат-боты ИИ влияют на подростков и почему могут доводить до трагедий

WP приводит прогноз экспертов, что использование искусственного интеллекта для дезинформации в будущем только усилится, усложняя процесс факчекинга и подрывая доверие к достоверным источникам информации.

На кого были нацелены дипфейки

При анализе 582 политических фейков, появившихся во время президентской избирательной кампании, исследователи из Университета Пердью обнаружили, что 33% из них касались Дональда Трампа, пишет WP. Примерно 16% были сосредоточены на Камале Харрис и столько же – на Джо Байдене. Этот контент представлял кандидатов как в положительном, так и в негативном свете.

Согласно данным исследовательницы Кристины Уокер из Университета Пердью, около 40% этих фейков были созданы для "сатирических целей".

Еще 35% распространялись случайными пользователями с незначительным количеством подписчиков, тогда как лишь 8% были опубликованы аккаунтами с более 100 000 подписчиков.

По словам Кейлин Джексон Шифф, доцента кафедры политологии Университета Пердью, эти созданные ИИ мемы провоцировали людей объединяться в сообщества. Например, сторонники Трампа активно обсуждали случай с "белочкой Пинат" – якобы незаконным домашним любимцем, которого конфисковали и усыпили накануне дня выборов.

Такие фейки помогают избирателям формировать положительное отношение или понимание событий, даже если они не верят, что изображение является настоящим,
– объясняет Шифф.

Что известно о белке Пинат

Пинат стала любимицей соцсетей после того, как ее семь лет назад приютил Марк Лонго из Пайн-Сити в Нью-Йорке. Он публиковал видео и фото с белкой, которая ела вафли и носила шляпки. Однако Лонго не имел разрешения на содержание дикого животного, хотя, по его словам, он работал над получением необходимых документов. В конце октября инспекторы провели обыск в его доме, изъяв Пинат и енота, по имени Фред. По данным нью-йоркского департамента экологии, решение конфисковать животных было принято после многочисленных жалоб от местных жителей.

Через несколько дней Пинат и Фреда усыпили для проверки на бешенство, после того как белка укусила одного из инспекторов. Тестирование на бешенство требует исследования мозговой ткани, поэтому животных пришлось убить, хотя белки почти никогда не переносят бешенство. Инцидент вызвал волну возмущения, особенно среди консерваторов, которые расценили это как пример чрезмерного государственного вмешательства. Кампания Дональда Трампа даже пообещала "отомстить за Пинат" на выборах. По данным The New York Times, гневная реакция включала не менее 10 анонимных угроз взрыва в адрес государственных учреждений.


Однако эксперты предупреждают, что искусственный интеллект нанес существенный вред, создавая сомнения относительно реальности и заставляя людей в целом ставить под вопрос правдивость информации. Исследователи Института стратегического диалога (ISD) проанализировали более миллиона сообщений на X, YouTube и Reddit, которые содержали ИИ-контент, связанный с выборами, и обнаружили, что соцсети часто не успевают маркировать или удалять такой контент, даже если он был опровергнут.

Исследование показало, что пользователи неправильно оценивают, был ли контент создан ИИ, в 52% случаев. Чаще люди ошибочно воспринимали настоящий контент как искусственный, чем наоборот.

Многие из ошибочных оценок базировались на устаревших предположениях о том, как распознать ИИ-контент. Даже инструменты для обнаружения ИИ оказались неэффективными: их часто использовали или неверно интерпретировали, что приводило к ложным выводам. Кроме того, 44.8% постов с упоминаниями об ИИ во время выборов намекали, что другая сторона постоянно использует искусственный интеллект, из-за чего ей нельзя доверять. Некоторые пользователи выражали беспокойство, что ИИ заставляет их сомневаться во всем.

Что известно о протрамповской ботоферме

В соцсети X получили распространение аккаунты, которые используют генеративный искусственный интеллект для поддержки Дональда Трампа, сообщила на своей странице в X OSINT-исследовательница дезинформации Элис Томас. Она специализируется на исследовании информационных операций, теорий заговора и политических движений в интернете.

Томас обнаружила несколько десятков аккаунтов, некоторые из которых имели синюю галочку верификации, что является типичным для сетей ботоферм. Эти аккаунты часто выдают себя за ботов, используя старые хэштеги вроде #Trump2020 или даже открыто заявляя: "Я языковая модель ИИ, созданная OpenAI".

По словам Томас, она заметила аккаунты, конфликтующие сами с собой или противоречащие дезинформации, которую распространял Илон Маск. Это свидетельствует о том, что создатели ботов нашли способ обходить защитные механизмы OpenAI, хотя не всегда успешно. Некоторые аккаунты действовали как "центральные узлы", распространяя контент, который затем подхватывали другие боты для увеличения охвата.

Элис Томас передала эти аккаунты для дальнейшего расследования OpenAI, и платформа X быстро их удалила. Однако пока неизвестно, кто именно стоит за этой сетью. Томас подчеркнула, что ИИ существенно усложняет идентификацию ответственных за такие кампании, поскольку все может быть полностью автоматизированным, даже без участия людей.

Это не первый случай использования ИИ-сетей для влияния на выборы в США. Исследователи Клемсонского университета ранее обнаружили 686 аккаунтов, которые использовали большие языковые модели для создания правдоподобного контента. Тем временем пользователи соцсетей самостоятельно раскрывают боты, заставляя их выполнять другие задачи – например, писать стихи.

Хотя до сих пор не видно значительного влияния этих сетей на мнения реальных избирателей, эксперты предупреждают: с ростом мощности ИИ, выявлять подобные боты станет сложнее.