Узнайте чем может быть опасным глубинный фейк (Deep Fake) на примере приложения DeepNude, которое создано на основе искусственного интеллекта и “раздевает” женщин.
Новейшие технологии делают вещи, в которые порой трудно поверить и этим пользуются мошенники, чтобы зарабатывать на доверчивых людях (почему на самом деле робот София – это не искусственный интеллект).
Глубинный фейк (Deep Fake) – что это?
Глубинные фейки (Deep Fakes) – это метод наложения изображения реального человека на поддельные изображения (например – изображение тела культуриста с вашей головой) и они могут наносить значительный вред людям. Так фейковое приложение DeepNude, которое было создано на основе искусственного интеллекта, “раздевало” женщин.
Приложение DeepNude теперь снято с открытого доступа, но это не последний раз, когда такую технологию глубинных фейков (Deep Fakes) используют для воздействия на целевые группы общества.
Внимание к глубинным фейков и синтетическим медиа продуктам (комбинированных изображений и видео) выросла в последние месяцы. Но, в то время как внимание сосредоточено на потенциальном воздействии на политиков и изготовлении фейковых компроментирующих видео, несколько экспертов по правам человека и технической этики предупреждают о другом потенциальном вреде. Возможны разрушительные последствия для женщин и других уязвимых групп населения, которые становятся жертвами этой технологии, но не могут защитить себя.
Что такое спам звонок? Их виды и способы борьбы
Глубинный фейк, что раздевает – DeepNude
Вот и последний эксперимент глубинного фейка – приложение под названием DeepNude, которое “раздевало” фотографии женщин – подтверждает наши страхи. Оно использовало генеративные сети или GAN, чтобы заменить женскую одежду на очень реалистичные обнаженные тела. После появления приложения, в силу большого количества негативных отзывов, его создатель был вынужден его убрать.
Приложение DeepNude воплощает в жизнь наши самые страшные опасения относительно использования способов аудиовизуальных инструментов против женщин”, говорит Мутала Нконд, научный сотрудник Института исследований данных и общества. Он стал инициатором законопроекта в Конгрессе США по созданию механизма защиты пострадавших от таких вредных глубинных фейков и возможности получения компенсации за репутационный ущерб.
Приложение был специально ориентировано на женщин. Программное обеспечение только генерировало изображение женского тела. Анонимный автор подтвердил, что он подготовил алгоритм GAN только на фотографиях женщин, в данном случае было использовано более 10 000 фотографий, потому что их было легче найти в Интернете. Он, однако, также намерен в конечном итоге сделать мужскую версию.
Синий экран смерти: что делать?
Хотя глубинный фейк ни изображал фактические тела женщин – они полностью были синтезированы – они были очень правдоподобны, чтобы вызвать значительные эмоциональные и репутационные убытки. Изображения легко могут быть приняты за настоящие и использованы как месть, или мощный инструмент для унижения женщины. На самом деле, подобные случаи происходили раньше с журналисткой в Индии – ее лицо было прикреплено на порно видео после того, как она начала раскрывать правительственную коррупцию. Видео мгновенно стало вирусным, вызвав интенсивное преследование журналистки в соцсетях. Она начала получать угрозы изнасилования. Ей пришлось скрываться в течение нескольких месяцев.
Глубинный фейк (Deep Fake) – не новая угроза; манипулируемые медиа (видео и изображения) существовали задолго до искусственного интеллекта. Но технология искусственного интеллекта ускорила и расширила угрожающие тенденции, говорит Сам Грегори, программный директор по правам человека НПО Witness. Алгоритмы значительно облегчают возможность обычным пользователям создавать убедительные фальшивые изображения. Таким образом, все, что использовалось для манипулирования медиа в прошлом, такие как нападения на журналистов, коррупция, или запутывания свидетельств, станут все более распространенными и тяжелыми для обнаружения.
Сексуальное насилие над женщинами на основе фотографий уже существовало как проблема. Теперь глубинные фейки добавляют дрова в пламья.
По этой же логике, женщины не будут единственными уязвимыми объектами глубинных фейков. Меньшинства, ЛГБТ и другие группы, которые часто подвергаются тяжелым преследованиям в Интернете, скорее всего, также станут жертвами. Во время президентской кампании США 2016 года, например, российские оперативники использовали фальшивые изображения афро-американских людей как часть кампании по дезинформации в Facebook для усиления расовой напряженности среди американцев.
Это был новый способ воздействия на избирателей, именно из-за неправомерного присвоения идентичности людей в Интернете.
Что нам делать с глубинными фейком?
Итак, куда мы движемся? Компании и исследователи, которые разрабатывают инструменты для глубинных фейков, должны также инвестировать в контрмеры для противодействия негативным эффектам своих продуктов, а социальные медиа и поисковые компании должны интегрировать эти контрмеры непосредственно в свои платформы. Регуляторы должны действовать быстро. Если правительства не найдут способа защиты прав потребителей, такие приложения будут распространяться.
Эта технология не является нейтральной. Программа [DeepNude] может использоваться для вредоносных целей, и в таком свете она становится аморальной.
Нам необходимо действительно сосредоточиться на этике создания и совместного использования генеративных медиа (изображений и видео).
Узнайте также о 10 способах как защитить себя в Интернете .
Источник: www.technologyreview.com