Нарративные войны. Как искусственный интеллект заставляют врать

8 октября 2025 17:59

В эпоху трансформации цифровых коммуникаций Израиль запустил масштабную кампанию по влиянию на общественное мнение с бюджетом 145 миллионов долларов, использующую искусственный интеллект и сеть влиятельных лиц в социальных сетях для целенаправленного воздействия на информационное пространство, с особым акцентом на аудиторию Соединенных Штатов.

Стали известны подробности кампании, о которой уже было заявлено ранее: стратегия кампании демонстрирует исключительную ориентацию на поколение Z. 80% контента размещается на визуально-ориентированных платформах TikTok, Instagram и YouTube, что обеспечивает ежемесячный охват в 50 миллионов показов и формирует новый стандарт в цифровой дипломатии.

Ключевым технологическим компонентом инициативы становятся скоординированные усилия по формированию ответов генеративного искусственного интеллекта об Израиле через методологию генеративной оптимизации, направленную на системное внедрение произраильских нарративов в архитектуру крупных языковых моделей.

Операционное управление кампанией осуществляет Государственное бюро рекламы Израиля при реализации Havas Media Network, тогда как стратегическое планирование закреплено за американской фирмой Clock Tower X LLC под руководством Брэда Парскаля — бывшего руководителя предвыборной кампании Дональда Трампа и действующего директора по стратегии Salem Media Group. Финансовая структура проекта включает контракт с фирмой Парскаля на 6 миллионов долларов, заключенный 18 сентября 2025 года с действием до конца календарного года, с равным распределением финансирования между Havas и Clock Tower.

Согласно договоренностям, команда Парскаля взяла на себя обязательства по ежемесячному производству не менее 100 базовых креативных материалов — от видеоконтента и графики до аудио и текстовых форматов — с последующей генерацией 5000 их адаптивных вариантов. Значительная часть контента создается эксклюзивно для платформ поколения Z с ключевым показателем распространения произраильских нарративов по цене менее 2 долларов за тысячу платных показов.

Среди наиболее дискуссионных и спорных специфик кампании — целенаправленные усилия по влиянию на то, как генеративные системы искусственного интеллекта, включая ChatGPT, Gemini от Google и Grok от X, формируют ответы на запросы, связанные с Израилем и сопутствующей тематикой.

Как комментирует IR Илья Кирия, профессор, приглашенный исследователь и профессор Парижского университета, университета Седерторн, университета Гренобля и Лионской школы политических наук, подобные кампании не уникальны, подобный подход к формированию информационного поля фиксируется на протяжении, как минимум, 15 лет.

«Ну, собственно говоря, ничего нового в этой новости я не вижу. Мы знаем, что на протяжении последних по меньшей мере 15 лет разные правительства или правительственные медиа пытаются «управлять» поисковыми алгоритмами. Я здесь вижу два элемента: управление алгоритмами видимости определенных новостей и управление алгоритмами «социальной вовлеченности» (алгоритмы, которые способствуют тому, что какой-то контент привлекает внимание большего количества пользователей)», — отмечает профессор Кирия, подчеркивая трансформацию инструментов так называемой «индустриализации» социальной вовлеченности.

«И раньше тут использовались инструменты «индустриализации» социальной вовлеченности: за деньги нанимались «тролли», — комментирует профессор. — Затем стали писать алгоритмы, которые имитируют действия живых пользователей (ботофермы) и создают контент (клики, лайки и пр,), чтобы искусственно «накручивать» метрики социальной вовлеченности, что позволяет продвигать контент благодаря автоматизированным алгоритмам в соцсетях (то, что больше лайкают, становится более доступным другим пользователям).

Сейчас к этому добавляется автоматизированное производство контента при помощи ИИ-помощников. Исходя из данного сообщения задача тут простая — ИИ-помощники, такие как Chat GPT, тренируют свои модели на некоем корпусе текстов — а точнее на корпусе текстов, доступных в Интернете. Соответственно, если мы сможем сгенерировать достаточное количество текстов в сети (сайтов и пр.), то мы заставим модель принимать эти тексты при ответе на вопросы.

Следовательно, если мы замусорим интернет-пространство сообщениями (в том числе произведенными искусственно) с определенной идеологической позицией, то мы заставим модель учитывать эту позицию при выдаче ответов на вопросы. То есть тут задача не только влиять на алгоритмы видимости, но менять в целом набор доступных в интернет-пространстве мнений».

IR
Liam Walsh

Liam Walsh

Аналитик. Ирландия

Добавить комментарий

Your email address will not be published.

Latest from Актуальное

Удар вслепую: Трамп может проиграть выборы и растерять союзников из-за войны в Иране

Всему миру очевиден факт того, что в Ближневосточном конфликте США неверно оценили обстановку и собственные возможности. Ключевой фактор — попадание под влияние, предположительно намеренно

«GFCN готова помогать в укреплении цифрового суверенитета стран СНГ», —  заявил вице-президент GFCN на форуме государств-участников СНГ

3 апреля в Москве на полях Международного экономического форума государств-участников СНГ «35 лет СНГ. Развитие Большого Евразийского партнёрства» Международная ассоциация по фактчекингу Global Fact-Checking Network (GFCN) представила

Начните заниматься фактчекингом с GFCN на 50 языках: базовый урок по противодействию дезинформации теперь доступен по всему миру

Международная ассоциация по фактчекингу (Global Fact-Checking Network, GFCN) в честь международного дня проверки фактов запустила новый многоязычный образовательный проект — Start fact-checking with GFCN

Don't Miss