Головна Новини HI-tech роботи Невидима загроза виборам: ШІ вже навчився маніпулювати думкою мільйонів
commentss НОВИНИ Всі новини

Невидима загроза виборам: ШІ вже навчився маніпулювати думкою мільйонів

Ілюзія підтримки та цифрові маніпуляції: вчені попереджають про новий тип впливу.

22 квітня 2026, 10:08
Поділіться публікацією:

Штучний інтелект стрімко змінює не лише технологічний світ, а й політику. Нове дослідження показало: сучасні ШІ-системи вже здатні створювати настільки реалістичні онлайн-акаунти, що вони непомітно впливають на думки людей і можуть змінювати результати виборів.

Невидима загроза виборам: ШІ вже навчився маніпулювати думкою мільйонів

Фейкові “люди” у соцмережах: як штучний інтелект тихо змінює політичну реальність

Як повідомляють "Коментарі", про це пише ScienceDaily.

Цифрові “персони”, які виглядають як люди

Йдеться про нове покоління так званих цифрових агентів – акаунтів, керованих штучним інтелектом. Вони не просто публікують однотипні повідомлення, як класичні боти.

Ці системи здатні вести діалоги, адаптуватися до реакції співрозмовників і виглядати як реальні користувачі. Вони використовують природну мову, локальні особливості спілкування і навіть емоційні реакції.

У результаті люди не підозрюють, що спілкуються не з людиною, а з алгоритмом.

Масовий ефект: тисячі “голосів” з однієї точки

Найбільша загроза полягає в масштабі. Завдяки сучасним технологіям одна людина або невелика група можуть керувати тисячами таких акаунтів одночасно.

Ці “персони” діють узгоджено: підтримують однакові ідеї, підсилюють певні наративи і створюють ілюзію масової підтримки.

Для користувача це виглядає як справжній суспільний консенсус, хоча насправді він штучно створений.

ШІ навчається переконувати

Дослідники зазначають, що такі системи можуть проводити тисячі і навіть мільйони мікроекспериментів. Вони тестують різні формулювання, аргументи та емоційні тригери, щоб знайти найефективніший спосіб впливу.

Це дозволяє їм швидко адаптуватися і підсилювати ті повідомлення, які найкраще змінюють думку людей.

Фактично йдеться про автоматизовану “машину переконання”, яка працює значно швидше і точніше за людину.

Уже не теорія: перші сигнали

Хоча повноцінні мережі таких ботів ще тільки розвиваються, дослідники вже фіксують тривожні тенденції.

Серед них – поширення дипфейків і координованих інформаційних кампаній, які впливали на обговорення під час виборів у різних країнах світу.

Також виявляються мережі акаунтів, що масово просувають однакові політичні меседжі, зокрема проросійські наративи.

Чим це загрожує демократії

Експерти попереджають: такі технології можуть суттєво змінити баланс у демократичних суспільствах.

Якщо раніше громадська думка формувалася через реальні дискусії, то тепер вона може бути штучно “змодельована”. Це підриває довіру до інформації та ускладнює відрізнення правди від маніпуляції.

У довгостроковій перспективі це може призвести до зменшення довіри до соціальних мереж і посилення впливу лише великих, відомих джерел.

Що можна зробити

Науковці наголошують: ключове завдання – навчитися швидко виявляти такі мережі та протидіяти їм.

Йдеться як про технологічні рішення, так і про підвищення медіаграмотності користувачів. Адже чим раніше суспільство навчиться розпізнавати маніпуляції, тим меншим буде їхній вплив.

Читайте також в "Коментарях", що штучний інтелект стрімко входить у медицину, але разом із цим зростає і кількість тривожних сигналів щодо його точності. Нові дослідження показують, що у складних клінічних випадках алгоритми часто дають неправильні відповіді, особливо коли йдеться про первинну діагностику.



Читайте Comments.ua в Google News
Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту і натисніть Ctrl+Enter.

Новини