Як штучний інтелект може впливати на вибори

Як штучний інтелект може впливати на вибори

У зв’язку з зростаючим впливом штучного інтелекту, існує небезпека, що виборці ніколи не будуть впевнені в тому, що те, що вони бачать і чують під час виборчої кампанії, є реальністю.

Правда вже давно стала жертвою війни та політичних кампаній, але тепер в арсеналі політичної дезінформації з’явилася нова зброя – генеративний штучний інтелект, який може миттєво клонувати голос кандидата, створити фальшивий фільм або вигадати фальшиві наративи, щоб підірвати меседжі опозиції. Це вже відбувається в США.

Як різні країни намагаються регулювати ШІ

Фейкові відео працюють на виборах вже сьогодні

Політична реклама, опублікована Національним комітетом Республіканської партії, показує похмурий сценарій у разі переобрання президента Джо Байдена: Вибухи в Тайбеї під час вторгнення Китаю, хвилі мігрантів викликають паніку в США, а в Сан-Франциско вводиться воєнний стан.

“Мені насправді дуже подобається Рон ДеСантіс. Він саме той, хто потрібен цій країні”, – зізнається Гілларі Клінтон у дивовижному відео, в якому вона, вочевидь, підтримує республіканця.

Обидва відео – фейки, згенеровані штучним інтелектом.

У січні 2024 року на Тайвані відбудуться перші вибори, на яких буде обрано наступника президента Цай Інвень, який не має права балотуватися на третій термін. Результат виборів задасть тон у відносинах Тайбея з Пекіном. Ймовірно, це буде боротьба між правлячою Демократичною прогресивною партією, яка бачить себе бастіоном проти авторитаризму, і Гомінданом, який виступає за тісніші зв’язки з Пекіном.

Очікується, що виборці Тайваню стануть мішенню для грізної китайської армії, яка налічує близько 100 000 хакерів. Враховуючи, що 75% тайванців отримують новини та інформацію через соціальні мережі, онлайн-сфера є ключовим полем битви. На цих виборах ШІ може діяти як мультиплікатор сили, тобто та сама кількість тролів може спричинити більше хаосу, ніж у минулому.

Як повинен регулюватися Штучний Інтелект (AI)?

Демократизація дезінформації

Досі люди, які мали намір завдати шкоди, були обмежені відсутністю досвіду або доступу до складних інструментів, пояснює Одрі Танг, колишня хакерка, а нині міністр цифрових технологій Тайваню. Генеративний ШІ, який створює текст, зображення і відео, копіюючи шаблони існуючих медіа, демократизує “дезінформацію”, роблячи її простішою, дешевшою і переконливішою.

Якщо можливості великої кількості людей, які мають намір завдати шкоди, можуть бути посилені за допомогою часткової автоматизації, “то це створює нову модель загрози”, – каже Танг.

Нескінченне бомбардування пропагандою, що роз’єднує і приносить поразку, навчило тайванське суспільство бути пильним. Медіаграмотність і критичне мислення викладають у школах, а громадяни і “громадські хакери” можуть повідомляти про підозрілі матеріали.

Генеративний штучний інтелект в 2024 році

Такі організації, як група кібермоніторингу Doublethink Labs, що базується в Тайбеї, використовують ШІ для аналізу дезінформаційних кампаній, щоб швидко їх нейтралізувати.

Але Чіхао Ю з Тайванського центру досліджень інформаційного середовища, громадської організації, каже, що ШІ може ускладнити дослідникам виявлення сумнівного контенту, а також може вводити в оману, створюючи сенсаційні матеріали, привабливі для широкого кола читачів, “роблячи інформаційне середовище ще менш функціональним для розумного публічного дискурсу”.

Як штучний інтелект впливає на вибори в Індонезії

Doublethink Labs вже бачила, як штучний інтелект використовується. Коли 700 фейкових акаунтів Комуністичної партії Китаю були заблоковані на Facebook, хакери використовували голосові генератори ШІ, щоб зачитати упереджені тексти на фоні знятого ШІ фону і виклали їх на YouTube. Чихао каже, що звичайними темами дезінформації є те, що уряд Тайваню є нелегітимним, Америка не заслуговує на довіру і просто полює на тайванську індустрію мікросхем, а Китай є хорошим і могутнім.

Ключове питання полягає в тому, чи може матеріал збурити емоції людей, щоб вони поширили повідомлення або навіть змінили свою модель голосування, каже Вей-Пін Лі, науковий співробітник Тайванського центру перевірки фактів. Її турбує здатність штучного інтелекту долати культурні та мовні бар’єри, які зазвичай полегшують виявлення маніпуляцій.

Факт-чекерам буде складніше виявляти повідомлення зі штучним інтелектом, де використання мови наближено до того, як розмовляють люди на Тайвані. Тайванські впливові особи також отримують гроші від Пекіна для посилення своєї пропаганди.

Маск представив xAI “Grok”: відповідь на ChatGPT і Бард

Бомбардування чутками

У США до доленосних президентських виборів залишився рік, і питання про те, який вплив матиме штучний інтелект на результати голосування, залишається відкритим. Але є й тривожні можливості. Кара Онг Уейлі, керівник академічної програми Центру політики Університету Вірджинії, побоюється, що ШІ може примножити масштаби минулих спроб придушити явку виборців.

У 2020 році ультраправі активісти організували тисячі роботизованих дзвінків, щоб перешкодити мешканцям районів меншин на Середньому Заході взяти участь у голосуванні. Уейлі побоюється, що технологія штучного інтелекту може не лише охопити більшу кількість людей, але й додати фальшиві аудіозаписи політиків чи громадських діячів, яким довіряють, у робо-дзвінки, щоб зробити оманливі повідомлення більш достовірними.

Як штучний інтелект може впливати на вибори / Photo:https://www.economist.com/united-states/2023/08/31/ai-will-change-american-elections-but-not-in-the-obvious-way
Як штучний інтелект може впливати на вибори / Photo:https://www.economist.com/united-states/2023/08/31/ai-will-change-american-elections-but-not-in-the-obvious-way

Карл Міллер, науковий директор Центру аналізу соціальних медіа лондонського аналітичного центру Demos, наводить приклади “бомбардувань чутками” в американських штатах, де йшла боротьба, щоб відлякати виборців. Їх засипали фальшивими повідомленнями в соціальних мережах, на кшталт “у кабінці для голосування стріляють, тому дороги перекриті” або “черги тривають понад шість годин, тому не приходьте”. Або навіть, додав Міллер: “Демократи вкрали всі ручки”.

Важко виміряти, наскільки ефективною є така тактика, але додавання ШІ дозволить створювати необмежену кількість різних повідомлень.

Що таке DARPA? Історія секретного технологічного агентства Пентагону

Виборці, що вагаються, які зазвичай приймають рішення в останні дні кампанії, також є мішенню. Даррелл Вест, старший науковий співробітник Інституту Брукінгса, написав у травневій доповіді, що ШІ дозволяє набагато точніше таргетувати аудиторію.

Тепер кампанії можуть отримати доступ до детальних персональних даних про виборців, які вагаються, від того, що вони читають, до того, які телешоу дивляться, щоб визначити проблеми, які їх хвилюють, а потім надіслати їм точно вивірені повідомлення, які можуть вплинути на їхній вибір: “ШІ дозволить учасникам кампаній звертатися до конкретних виборчих блоків із закликами, які підштовхують їх до певних політик і партійних думок”, – підсумував Вест.

Міллер занепокоєна більш підступною формою маніпуляції – текстами, які нібито надходять від друзів і експлуатують почуття спорідненості та приналежності. Якби зловмисники хотіли націлитися на вузьку аудиторію в 10 000 осіб у США, пояснює Міллер, вони б створили згенеровану штучним інтелектом фальшиву американську особистість з гарною онлайн-передісторією, а потім звернулися б до своєї жертви. Можна вести 10 000 паралельних розмов у дискусії, частково опосередкованій штучним інтелектом, при цьому чат-боти виконують важку роботу.

Поступово зловмисники почнуть вставляти інформацію, яку вони хочуть, щоб люди бачили, через на перший погляд нешкідливі посилання. Коли контент, який вони бачать, контролюється, вони можуть створити щось вручну, щоб підкреслити гострішу політичну точку зору, можливо, щоб заохотити людей вийти на марш протесту на такі суперечливі теми, як насильство зі застосуванням зброї або расові питання. Можна використовувати різні тактики, поки вони не знайдуть те, що спрацює.

Попередження шкоди

Жертви навіть не здогадуються, що ними приховано маніпулюють. А оскільки це відбувається в тихих куточках інтернету, цього не знає ніхто інший, наприклад, журналісти чи фактчекери, які могли б бити на сполох.

У Google і YouTube політична реклама з використанням штучного інтелекту незабаром повинна буде містити помітне попередження про можливу шкоду.

Але навіть за таких заходів визначити вплив дезінформаційних атак складно, зважаючи на їхню нематеріальну природу, і ще занадто рано говорити про те, наскільки велику роль штучний інтелект насправді відіграватиме у світових виборах, або про найефективніший спосіб боротьби з ним.

Джерело: https://www.chathamhouse.org

Подібні новини