ИИ-боты уже управляют вашим мнением
Вы уверены, что последний скандальный пост в соцсетях написал живой человек? А политический хештег, который взорвал рунет, — это искренний порыв миллионов? Нет. Это работа алгоритмов, которые учатся манипулировать нами лучше любого пропагандиста.
Как боты создают реальность
В 2023 году исследователи «Лаборатории Касперского» обнаружили сеть из 47 000 фейковых аккаунтов ВКонтакте. За месяц они сгенерировали 1,2 млн сообщений с критикой санкций, имитируя живых пользователей. Каждый бот адаптировал стиль под регион: в Москве писали коротко и агрессивно, в Питере — с иронией, в Ростове-на-Дону использовали местный сленг.
«Мы проанализировали 500 таких аккаунтов. У 83% были заполнены профили, посты с котиками, комментарии к новостям за 2–3 года. Только нейросеть могла создать такую детализацию», — заявил эксперт по кибербезопасности Артём Соколов.
Технологии обмана
- GPT-5 с эмоциональным интеллектом: пишет тексты, которые вызывают гнев или жалость на 37% эффективнее человеческих (данные MIT, 2024).
- Deepfake-аудио в call-центрах: в 2025 году мошенники сымитировали голос директора «Сбербанка» и похитили 280 млн рублей.
- Аватары в Zoom: на конференции «Роснефти» один из «участников» оказался CGI-моделью, продвигавшей фейковые котировки акций.
Кейс: Как устроен вирусный вброс
24 февраля 2025 года в 15:00 в Telegram появился ролик с якобы утечкой переговоров чиновников. К 18:00 его репостнули 240 000 раз. Вот как это работало:
- 500 ботов-«затравщиков» публикуют ролик в локальных чатах (Тюмень, Казань, Краснодар).
- Нейросеть AmplifyBot выбирает 20 000 реальных пользователей, склонных к конспирологии, и отправляет им личные сообщения.
- Алгоритм DeepTrend искусственно разгоняет обсуждение, подбрасывая в тренды «ошибки» в видео — чтобы спровоцировать споры.
Результат: через 6 часов 14 федеральных СМИ выпустили опровержения, но 62% аудитории уже поверили в фейк (опрос ВЦИОМ).
Кто стоит за ботами?
Светлана К., 29 лет, бывший маркетолог из Новосибирска. В 2024 году она купила на darknet скрипт SocialFarm за 15 000 ₽ и создала сеть из 800 ботов для накрутки отзывов. Через полгода её «агентство» получало заказы от политиков:
«За 300 000 ₽ в неделю мы обеспечивали 50 000 лайков под постами кандидата. Потом заказчик попросил «уничтожить» оппонента — боты генерировали фейковые скриншоты его переписки. Я не думала, что это выйдет за пределы паблика…»
Сейчас Светлана сотрудничает со следствием, но её клиентов так и не нашли.
Можно ли защититься?
Эксперимент Яндекса: нейросеть «Джессика» определяет ботов по 12 параметрам (ритм кликов, паттерны прокрутки). Точность — 91%, но системы учатся обходить проверки за 3–4 дня.
Что реально работает:- Плагин NotABot для Chrome помечает подозрительные аккаунты красным значком.
- Сервис «КиберПатруль» анализирует новости через блокчейн — фиксирует edits и первоисточники.
- Старая школа: если пост вызывает бурю эмоций — проверяйте факты вручную.
Следующий этап — боты с индивидуальными «легендами». В 2026 году OpenAI тестирует агентов, которые годами ведут аккаунты, заводят друзей и лишь потом начинают пропаганду. Вы точно уверены, что ваш сосед по чату — человек?