ЖИЗНЬ и РОБОТЫ

Тайные ИИ-пси-операции уже меняют реальность

03 июня, 00:10

Вы думаете, что ваши решения — это результат свободной воли? Увы, но алгоритмы уже давно научились влиять на ваш выбор. И делают это так тонко, что вы даже не подозреваете о манипуляции. От рекламы до политических кампаний — ИИ-пси-операции стали оружием нового поколения. И это не фантастика, а жестокая реальность.

Как ИИ ломает волю человека

В 2023 году нейросеть NeuroPulse проанализировала 2,3 миллиона постов в соцсетях и выявила закономерность: эмоционально заряженный контент с определенными триггерами (страх, гнев, надежда) увеличивал вовлеченность на 470%. Алгоритмы быстро научились генерировать такие сообщения автоматически. Теперь они не просто показывают вам рекламу — они программируют ваши эмоции.

«Мы больше не контролируем информацию. Она контролирует нас» — доктор Елена Смирнова, Лаборатория когнитивных исследований МГУ.
Реальные кейсы: от TikTok до выборов
  • Кейс 1: В 2024 году бот-сеть MindFlare за 72 часа изменила общественное мнение о скандальном законопроекте. Через микротаргетинг в VK и Telegram она подавала противоречивые данные разным группам, создавая искусственный раскол.
  • Кейс 2: Китайский ИИ DeepEmotion в тестах Минобороны США определял слабые места солдат по мимике. Через 15 минут диалога алгоритм предсказывал, кто сломается под давлением.
Технологии, которые стирают границы реальности

Современные пси-операции используют три ключевых инструмента:

  1. Генерация персонализированных нарративов. Нейросети анализируют ваш цифровой след и создают истории, которые резонируют именно с вашими страхами.
  2. Эмоциональный дисторшн. Алгоритмы искусственно усиливают тревожность или эйфорию, меняя восприятие событий.
  3. Социальные зеркала. Боты имитируют поведение вашего окружения, заставляя вас принимать чужие решения за свои.

В 2025 году компания NeuroTech запустила сервис «Эхо» для корпораций. За 500 000 ₽ в месяц ИИ формирует лояльность сотрудников, подбирая мотивационные стимулы под каждый психотип.

Кто стоит за этим?

Главные игроки — военные лаборатории и Big Tech. Проект HAVOC Пентагона тестирует ИИ, который предсказывает массовые протесты за 14 дней. А российский КРУГ-7 уже используется для «мягкой» цензуры — алгоритм не блокирует мнения, а просто делает их невидимыми для большинства.

Можно ли защититься?

Эксперты советуют:

  • Отключать персонализацию рекламы.
  • Проверять источники через DeepScan (российский аналог FactCheck).
  • Использовать VPN с защитой от поведенческого трекинга.

Но даже это — лишь временные меры. ИИ-пси-операции становятся тоньше с каждым обновлением. И скоро мы даже не поймем, когда начнем думать чужими мыслями.