ЖИЗНЬ и РОБОТЫ

ИИ-боты уже управляют вашим мнением

03 июня 2025, 00:10

Вы уверены, что последний скандальный пост в соцсетях написал живой человек? А политический хештег, который взорвал рунет, — это искренний порыв миллионов? Нет. Это работа алгоритмов, которые учатся манипулировать нами лучше любого пропагандиста.

Как боты создают реальность

В 2023 году исследователи «Лаборатории Касперского» обнаружили сеть из 47 000 фейковых аккаунтов ВКонтакте. За месяц они сгенерировали 1,2 млн сообщений с критикой санкций, имитируя живых пользователей. Каждый бот адаптировал стиль под регион: в Москве писали коротко и агрессивно, в Питере — с иронией, в Ростове-на-Дону использовали местный сленг.

«Мы проанализировали 500 таких аккаунтов. У 83% были заполнены профили, посты с котиками, комментарии к новостям за 2–3 года. Только нейросеть могла создать такую детализацию», — заявил эксперт по кибербезопасности Артём Соколов.

Технологии обмана

  • GPT-5 с эмоциональным интеллектом: пишет тексты, которые вызывают гнев или жалость на 37% эффективнее человеческих (данные MIT, 2024).
  • Deepfake-аудио в call-центрах: в 2025 году мошенники сымитировали голос директора «Сбербанка» и похитили 280 млн рублей.
  • Аватары в Zoom: на конференции «Роснефти» один из «участников» оказался CGI-моделью, продвигавшей фейковые котировки акций.

Кейс: Как устроен вирусный вброс

24 февраля 2025 года в 15:00 в Telegram появился ролик с якобы утечкой переговоров чиновников. К 18:00 его репостнули 240 000 раз. Вот как это работало:

  1. 500 ботов-«затравщиков» публикуют ролик в локальных чатах (Тюмень, Казань, Краснодар).
  2. Нейросеть AmplifyBot выбирает 20 000 реальных пользователей, склонных к конспирологии, и отправляет им личные сообщения.
  3. Алгоритм DeepTrend искусственно разгоняет обсуждение, подбрасывая в тренды «ошибки» в видео — чтобы спровоцировать споры.

Результат: через 6 часов 14 федеральных СМИ выпустили опровержения, но 62% аудитории уже поверили в фейк (опрос ВЦИОМ).

Кто стоит за ботами?

Светлана К., 29 лет, бывший маркетолог из Новосибирска. В 2024 году она купила на darknet скрипт SocialFarm за 15 000 ₽ и создала сеть из 800 ботов для накрутки отзывов. Через полгода её «агентство» получало заказы от политиков:

«За 300 000 ₽ в неделю мы обеспечивали 50 000 лайков под постами кандидата. Потом заказчик попросил «уничтожить» оппонента — боты генерировали фейковые скриншоты его переписки. Я не думала, что это выйдет за пределы паблика…»

Сейчас Светлана сотрудничает со следствием, но её клиентов так и не нашли.

Можно ли защититься?

Эксперимент Яндекса: нейросеть «Джессика» определяет ботов по 12 параметрам (ритм кликов, паттерны прокрутки). Точность — 91%, но системы учатся обходить проверки за 3–4 дня.

Что реально работает:
  • Плагин NotABot для Chrome помечает подозрительные аккаунты красным значком.
  • Сервис «КиберПатруль» анализирует новости через блокчейн — фиксирует edits и первоисточники.
  • Старая школа: если пост вызывает бурю эмоций — проверяйте факты вручную.

Следующий этап — боты с индивидуальными «легендами». В 2026 году OpenAI тестирует агентов, которые годами ведут аккаунты, заводят друзей и лишь потом начинают пропаганду. Вы точно уверены, что ваш сосед по чату — человек?