Як глибинний фейк може нашкодити (приклад додатку, який “роздягає” жінок)

Дізнайтеся чому може бути небезпечним глибинний фейк (Deep Fake) на прикладі додатку DeepNude, який створений на основі штучного інтелекту та “роздягає” жінок.

Новітні технології роблять речі, в які часом важко повірити й цим користаються шахраї, щоб заробляти на довірливих людях (чому на справді робот Софія — це не штучний інтелект).

Глибинний фейк (Deep Fake) – що це?

Глибинні фейки (Deep Fakes) — це метод накладення зображення реальної людини на підробні зображення (наприклад — зображення тіла культуриста з вашої головою) і вони можуть завдавати значну шкоду людям. Так фейковий додаток DeepNude, який був створений на основі штучного інтелекту, “роздягав” жінок.

Додаток DeepNude тепер знято з відкритого доступу, але це не останній раз, коли таку технологію глибинних фейків (Deep Fakes) використовують для впливу на цільові групи суспільства.

Приклад – глибинний фейк про Ніка Кейджа

Увага до глибинних фейків та синтетичних медіа (комбінованих зображень та відео) виросла в останні місяці. Але, в той час як увага зосереджена на потенційному впливі на політиків та фейкових компроментуючих відео, декілька експертів з прав людини та технічної етики попереджують про іншу потенційну шкоду – можливі руйнівні наслідки для жінок та інших уразливих груп населення, які стають жертвами цієї технології та не можуть захистити себе.

глибинний фейк

Глибинний фейк, що роздягає – DeepNude

Ось, і останній експеремент глибинного фейку – додаток під назвою DeepNude, який “роздягав” фотографії жінок — підтверджує наші страхи. Він використовував генеративні змагальні мережі або GAN, щоб замінити жіночий одяг на дуже реалістичні оголені тіла. Після появи додатку, в силу великої кількості негативних відгуків, його творець був змушений додаток прибрати.

Додаток DeepNude втілює в життя наші найстрашніші побоювання щодо способів аудіовізуальних інструментів образи проти жінок”, говорить Мутале Нконд, науковий співробітник Інституту досліджень даних і суспільства. Він став ініціатором законопроекту в Конгресі США по створенню механізму захисту потерпілих від таких шкідливих глибинних фейків та можливості отримання компенсації за репутаційний збиток.

Додаток був спеціально орієнтований на жінок. Програмне забезпечення тільки генерувало зображення жіночого тіла. Анонімний творець підтвердив, що він підготував алгоритм GAN лише на фотографіях жінок, в даному випадку було використано більше 10 000 фотографій, тому що їх було легше знайти в Інтернеті. Він, однак, також має намір в кінцевому підсумку зробити чоловічу версію.

глибинний фейк Deep Fake deepnude

Хоча глибинний фейк не зображував фактичні тіла жінок – вони повністю були синтезовані алгоритмом – і були дуже правдоподібні, щоб викликати значні емоційні та репутаційні збитки. Зображення легко можуть бути прийняті за справжні і використані як помста, або потужний інструмент для приниження жінки. Насправді, подібні випадки траплялися раніше з  журналісткою в Індії –  її обличчя було прикріплене на порно відео після того, як вона почала розкривати урядову корупцію. Відео миттєво стало вірусним, спричинивши інтенсивне переслідування журналістки в соцмережах, яка почала отримувати погрози згвалтування. Їй довелося переховуватися протягом декількох місяців.

Image result for Rana Ayyub deep fake
Індійська журналістка – жертва Deep Fake

Глибинний фейк (Deep Fake) – не нова загроза; маніпульовані медіа (відео та зображення) існували задовго до штучного інтелекту. Але технологія штучного інтелекту прискорила і розширила загрозливі тенденції, говорить Сам Грегорі, програмний директор з питань прав людини НУО Witness. Алгоритми значно полегшують можливість звичайним користувачам створювати переконливі фальшиві зображення. Таким чином, все, що використовувалося для маніпулювання медіа в минулому, такі як напади на журналістів, корупція, або заплутування свідчень, стануть дедалі більш поширеними і важкими для виявлення.

Сексуальне насильство над жінками на основі фотографій вже існувало як проблема. Тепер глибинні фейки додають палива до полум’я.

За цією ж логікою, жінки не будуть єдиними уразливими об’єктами глибинних фейків. Меншини, особи ЛГБТ та інші групи, які часто піддаються найтяжчим переслідуванням в Інтернеті, скоріше за все, також стануть жертвами. Під час президентської кампанії США 2016 року, наприклад, російські оперативники використовували фальшиві зображення афро-американських осіб як частину кампанії з дезінформації в Facebook для посилення расової напруженості серед американців.

Blacktivist  deep fake

Це був новий спосіб впливу на виборців, саме через неправомірне присвоєння ідентичності людей в Інтернеті. 

Що нам робити з глибинними фейками?

Отже, куди ми рухаємося? Компанії та дослідники, які розробляють інструменти для глибинних фейків, повинні також інвестувати в контрзаходи для протидії негативним ефектам своїй продуктів, а соціальні медіа та пошукові компанії повинні інтегрувати ці контрзаходи безпосередньо в свої платформи. Регулятори повинні діяти швидко. Якщо уряди не знайдуть способу захисту прав споживачів, такі додатки будуть поширюватися.

deepnude

Ця технологія не є нейтральною. Програма [DeepNude] може використовуватися для зловмисних цілей, і в такому світлі вона стає аморальною.

Нам необхідно дійсно зосередитися на етиці створення та спільного використання генеративних медіа (зображень та відео).

Дізнайтеся також про 10 способів як захистити себе в Інтернеті.

Джерело: www.technologyreview.com

Подібні новини