Главная Новости HI-tech роботы Невидимая угроза выборам: ИИ уже научился манипулировать мнением миллионов
commentss НОВОСТИ Все новости

Невидимая угроза выборам: ИИ уже научился манипулировать мнением миллионов

Иллюзия поддержки и цифровые манипуляции: ученые предупреждают новый тип воздействия.

22 апреля 2026, 10:08
Поделитесь публикацией:

Искусственный интеллект стремительно меняет не только технологический мир, но и политику. Новое исследование показало: современные ИИ-системы уже способны создавать столь реалистичные онлайн-аккаунты, что они незаметно влияют на мнения людей и могут изменять результаты выборов.

Невидимая угроза выборам: ИИ уже научился манипулировать мнением миллионов

Фейковые "люди" в соцсетях: как искусственный интеллект тихо меняет политическую реальность

Как сообщают " Комментарии ", об этом пишет ScienceDaily.

Цифровые "персоны", которые выглядят как люди

Речь идет о новом поколении так называемых цифровых агентов – аккаунтов, управляемых искусственным интеллектом. Они не просто публикуют однотипные сообщения как классические боты.

Эти системы способны вести диалоги, приспособиться к реакции собеседников и смотреться как настоящие юзеры. Они используют естественный язык, локальные особенности общения и даже эмоциональные реакции.

В результате люди не подозревают, что общаются не с человеком, а с алгоритмом.

Массовый эффект: тысячи "голосов" с одной точки

Самая большая угроза заключается в масштабе. Благодаря современным технологиям, один человек или небольшая группа могут управлять тысячами таких аккаунтов одновременно.

Эти "персоны" действуют согласованно: поддерживают одинаковые идеи, усиливают определенные нарративы и создают иллюзию массовой поддержки.

Для пользователя это выглядит как настоящий общественный консенсус, хотя он искусственно создан.

ИИ учится убеждать

Исследователи отмечают, что такие системы могут производить тысячи и даже миллионы микроэкспериментов. Они тестируют разные формулировки, аргументы и эмоциональные триггеры, чтобы найти самый эффективный способ воздействия.

Это позволяет им быстро адаптироваться и усиливать те сообщения, которые лучше меняют мнение людей.

Фактически речь идет об автоматизированной "машине убеждения", которая работает значительно быстрее и точнее человека.

Уже не теория: первые сигналы

Хотя полноценные сети таких ботов еще только развиваются, исследователи уже фиксируют тревожные тенденции.

Среди них распространение дипфейков и координированных информационных кампаний, которые влияли на обсуждение во время выборов в разных странах мира.

Также оказываются сети аккаунтов, массово продвигающих одинаковые политические месседжи, в том числе пророссийские нарративы.

Чем это чревато демократией

Эксперты предупреждают, что такие технологии могут существенно изменить баланс в демократических обществах.

Если раньше общественное мнение формировалось из-за реальных дискуссий, то теперь оно может быть искусственно смоделировано. Это подрывает доверие к информации и усложняет отличие правды от манипуляции.

В долгосрочной перспективе это может привести к уменьшению доверия к социальным сетям и усилению влияния только крупных известных источников.

Что можно сделать

Ученые отмечают: ключевая задача – научиться быстро обнаруживать такие сети и противодействовать им.

Речь идет как о технологических решениях, так и о повышении медиаграмотности пользователей. Ведь чем раньше общество научится распознавать манипуляции, тем меньше будет их влияние.

Читайте также в "Комментариях", что искусственный интеллект стремительно входит в медицину , но вместе с этим растет и количество тревожных сигналов по его точности. Новые исследования показывают, что в сложных клинических случаях алгоритмы часто дают неправильные ответы, особенно когда речь идет о первичной диагностике.



Читайте Comments.ua в Google News
Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Новости