Як екстремісти використовують інструменти генеративного ШІ

Як екстремісти використовують інструменти генеративного ШІ

Постійно експерти знаходять тисячі прикладів контенту, створеного штучним інтелектом, який може дозволити терористичним угрупованням та іншим екстремістам обійти автоматизовані системи виявлення.

Екстремістські групи почали експериментувати зі штучним інтелектом, зокрема з генеративним ШІ, щоб створити потік нової пропаганди.

Як різні країни намагаються регулювати ШІ

Штучний інтелект ускладнює боротьбу з екстремістами в інтернеті

Експерти побоюються, що зростаюче використання інструментів генеративного ШІ цими угрупованнями перекреслить ту роботу, яку в останні роки провели великі технології, щоб утримати їхній контент поза інтернетом.

“Наше найбільше занепокоєння викликає те, що якщо терористи почнуть використовувати генеративний ШІ для масштабної маніпуляції зображеннями, це цілком може знищити хеш-обмін як рішення, – розповідає WIRED Адам Хедлі, виконавчий директор Tech Against Terrorism. “Це величезний ризик”.

Протягом багатьох років платформи Big Tech наполегливо працювали над створенням баз даних відомого насильницького екстремістського контенту, відомих як хеш-бази даних, які використовуються на різних платформах для швидкого і автоматичного видалення такого контенту з інтернету.

Що таке DARPA? Історія секретного технологічного агентства Пентагону

Але, за словами Хедлі, його колеги щотижня виявляють близько 5000 прикладів контенту, створеного штучним інтелектом. Сюди входять зображення, поширені протягом останніх тижнів групами, пов’язаними з “Хезболлою” і “Хамасом”, які, як видається, покликані вплинути на наратив про війну між Ізраїлем і “Хамасом”.

“За півроку чи близько того, можливість того, що [вони] маніпулюють зображеннями, щоб зламати хешування, дійсно викликає занепокоєння”, – каже Хедлі. “Технологічний сектор так добре попрацював над створенням автоматизованих технологій, що терористи цілком можуть почати використовувати генетичний ШІ, щоб обійти те, що вже зроблено”.

Як екстремісти використовують інструменти генеративного ШІ/ Photo:https://gnet-research.org/
Як екстремісти використовують інструменти генеративного ШІ/ Photo:https://gnet-research.org/

Серед інших прикладів, які дослідники Tech Against Terrorism виявили за останні місяці:

  • Неонацистський канал обміну повідомленнями, в якому неонацисти обмінювалися зображеннями, створеними штучним інтелектом, використовуючи расистські та антисемітські підказки, вставлені в додаток, доступний в магазині Google Play.
  • Ультраправі діячі випускають “посібник з мемової війни”, в якому радять іншим, як використовувати інструменти для створення зображень за допомогою штучного інтелекту для створення мема-екстремістських мемів.
  • Ісламська держава опублікувала посібник технічної підтримки про те, як безпечно використовувати інструменти генеративного ШІ; прихильний до ІД користувач архівного сервісу стверджує, що використовував систему автоматичного розпізнавання мови (ASR) на основі ШІ для транскрибування пропаганди ІД арабською мовою;
  • А також видання, що підтримує Аль-Каїду, опублікувало кілька плакатів із зображеннями, які, найімовірніше, були створені за допомогою платформи генеративного ШІ.

Окрім детального опису загрози, яку становлять інструменти генеративного ШІ, здатні змінювати зображення, Tech Against Terrorism опублікувала новий звіт, в якому наводяться інші способи використання інструментів генеративного ШІ для допомоги екстремістським угрупуванням.

Що таке FPV дрони?

Серед них – використання інструментів автоперекладу, які можуть швидко і легко перекладати пропаганду різними мовами, або можливість створювати персоналізовані повідомлення у великих масштабах для полегшення вербування в Інтернеті.

Але крім нових загроз Штучний інтелект пропонує нові можливості

Але Хедлі вважає, що ШІ також дає можливість випередити екстремістські групи і використати технологію, щоб запобігти тому, для чого вони будуть її використовувати.

“Ми збираємося співпрацювати з Microsoft, щоб з’ясувати, чи є способи використання нашого архіву матеріалів для створення своєрідної системи виявлення генного ШІ, щоб протистояти новій загрозі масштабного використання ШІ для створення терористичного контенту”, – каже Хедлі. “Ми впевнені, що ШІ може бути використаний для захисту від ворожого використання генеративного ШІ”.

“Використання цифрових платформ для поширення насильницького екстремістського контенту є нагальною проблемою з реальними наслідками, – заявив у своїй заяві Бред Сміт, віце-голова і президент Microsoft. “Поєднуючи можливості Tech Against Terrorism зі штучним інтелектом, ми сподіваємося допомогти створити безпечніший світ як в Інтернеті, так і поза ним”.

Хоча такі компанії, як Microsoft, Google і Facebook, мають власні дослідницькі підрозділи в галузі ШІ і, ймовірно, вже використовують власні ресурси для боротьби з цією проблемою, нова ініціатива в кінцевому підсумку допоможе тим компаніям, які не можуть боротися з тероризмом самотужки.

“Це буде особливо важливо для невеликих платформ, які не мають власних дослідницьких центрів ШІ, – каже Хедлі. “Навіть зараз, з базами даних хешування, менші платформи можуть бути просто завалені таким контентом”.

Загроза контенту, створеного за допомогою ШІ, не обмежується екстремістськими угрупованнями. Минулого місяця Internet Watch Foundation, британська некомерційна організація, яка працює над викоріненням контенту, що містить експлуатацію дітей, з інтернету, опублікувала звіт, в якому детально описала зростаючу присутність матеріалів із сексуальним насильством над дітьми (CSAM), створених інструментами штучного інтелекту, в темному інтернеті.

Дослідники виявили понад 20 000 зображень, створених за допомогою штучного інтелекту, розміщених на одному з темних інтернет-форумів CSAM протягом лише одного місяця, причому 11 108 з цих зображень дослідники IWF оцінили як найбільш ймовірні злочинні. Як пишуть дослідники IWF у своєму звіті, “ці ШІ-зображення можуть бути настільки переконливими, що їх неможливо відрізнити від реальних зображень”.

Джерело: https://www.wired.com

Подібні новини