web analytics

ИИ усугубляет злоупотребления с использованием изображений

CivicTech

Существует много беспокойства и обсуждений вокруг насилия с использованием изображений, осуществляемого с помощью ИИ. ИИ предлагает бесконечные возможности для манипулирования реальными изображениями или создания их с нуля способами, которые могут преднамеренно или иным образом навредить людям, изображенным на изображениях, без их ведома или согласия. Хотя это насилие является еще одним инструментом технопатриархата, наиболее тревожным аспектом является то, что эти технологии уже дешевы или бесплатны, сложны и свободно доступны, поэтому насилие продолжает расти.  Отчет исследовательской фирмы Grafika за 2023 год показывает, что созданные ИИ несогласованные изображения прочно переместились с окраин узкоспециализированных онлайн-форумов в масштабный монетизированный бизнес.  Исследование Оксфордского института Интернета, проведенное в мае 2025 года , выявило около 35 000 общедоступных загружаемых генераторов дипфейков, 96% из которых были нацелены на идентифицируемых женщин, и многие из них были предназначены для создания несогласованных обнаженных или сексуальных изображений. Генераторы были «загружены в общей сложности почти 15 миллионов раз с ноября 2022 года».

Раньше для создания такого сфальсифицированного контента требовалось бы экспертное понимание программного обеспечения для редактирования. Однако с помощью инструментов ИИ теперь можно создавать высококачественные сфальсифицированные изображения и видео человека без его ведома или согласия, используя только одну его фотографию и несколько секунд записи его голоса.

Сексуально откровенные дипфейковые изображения и видео

Большинство жертв откровенных сексуальных фейковых изображений и видео, как правило, являются  женщинами и лицами разного пола. Часто жертвами становятся женщины, которые считаются успешными, откровенными, выразительными или напористыми. В то время как женщины и  журналисты разного пола , активисты,  политики и защитники прав человека обычно подвергаются преследованиям по политическим мотивам, те, кто работает в индустрии развлечений, подвергаются фейковым подделкам ради сексуального удовлетворения, вуайеризма, объективации, онлайн-взаимодействия (просмотров, кликов, подписчиков и подписок) и, как следствие, денежной выгоды.  24-летний цифровой маркетолог , арестованный в прошлом году за создание и публикацию фейкового видео индийской актрисы Рашмики Мадханны, сообщил полиции, что разместил видео, чтобы набрать больше подписчиков в Instagram.  Расследование Channel 4 в 2024 году  обнаружило откровенные сексуальные фейковые видео с участием 4000 известных людей, в то время как другое расследование  India Today обнаружило, что такой контент широко распространяется в X и Instagram.

Приложения GenAI и охват

Приложения и чат-боты «Nudify», «сканер тела» или «голый сканер» легко доступны в магазинах приложений и на таких платформах, как  Hugging Face , позволяя генерировать сексуально откровенные изображения  в масштабе , что позволяет использовать генеративный ИИ для преобразования любой фотографии в обнаженное изображение этого человека. Многие из них бесплатны, описывая себя как предлагающие «раздеть любого бесплатно». Хотя технически возможно, чтобы кто-то использовал общедоступные инструменты редактирования изображений, чтобы изобразить кого-то обнаженным или в сексуально откровенном контексте, эти приложения делают изготовление этих изображений проще, дешевле, быстрее и доступнее для своих пользователей, которые затем используются для оскорблений, преследований или финансовой выгоды с помощью подписок или показа рекламы рядом с ними.

Хотя технически возможно использовать общедоступные инструменты редактирования изображений, чтобы изобразить кого-то обнаженным или в откровенно сексуальном контексте, эти приложения [ИИ] делают создание таких изображений проще, дешевле, быстрее и доступнее для своих пользователей.

Telegram является домом для большой экосистемы ботов, групп и каналов, посвященных исключительно созданию и/или распространению оскорблений на основе изображений, включая контент, созданный искусственным интеллектом. В 2020 году расследование  Wired обнаружило «не менее 50 ботов, которые утверждают, что создают откровенные фотографии или видео людей всего за пару кликов». По данным Wired, у ботов было «более 4 миллионов «ежемесячных пользователей» в общей сложности».  Недавнее расследование 404Media обнаружило бота Telegram, который генерирует несогласованные дипфейковые видео мужчин, эякулирующих на лица женщин. За несколько недель бот собрал более 100 000 активных пользователей. Несмотря на  публичные заявления Telegram о «политике нулевой терпимости» к незаконной порнографии и усилия по удалению миллионов групп и каналов, меры по обеспечению соблюдения непоследовательны, и эти боты продолжают размножаться.

Сиддхарт Пиллаи из индийского фонда RATI Foundation отметил на сессии RightsCon 2025: «Когда несовершеннолетние мальчики использовали приложения для обнажения, чтобы издеваться над другими мальчиками, мы увидели, что они [изображения, созданные приложением] постепенно улучшались. Раньше приложение прикрепляло к [обнаженным] изображениям мужчин женские тела. Затем тела стали крайне аморфными. Затем появились изображения мужских тел с шестью кубиками [пресса]. Итак, вы видите, что предвзятость в технологиях проявилась в том, как мужские тела были втиснуты в приложение для обнажения». Это показатель того, как приложение было обучено поворачиваться к женоненавистническому контенту и, как следствие, к гендерным стереотипам.  Расследование Wired в 2024 году обнаружило веб-сайты для обнажения, которые позволяли пользователям входить в систему, используя  системы единого входа (SSO) от крупных технологических компаний, таких как Google, Apple, Discord, Twitter, Patreon и Line. Эти сайты даже позволяли пользователям делиться обнаженными изображениями на других платформах, включая Telegram и Instagram. Условия обслуживания всех этих компаний гласят, что разработчики не могут использовать эти сервисы для преследования, нарушения конфиденциальности или других видов злоупотреблений.

Разработчиками приложений и ботов для обнажения обычно являются отдельные лица или небольшие организации, часто работающие в правовой серой зоне и остающиеся анонимными или псевдонимными, чтобы избежать юридических или социальных последствий. Эти приложения являются примером инструментов ИИ, существование которых не должно допускаться. Однако разработчики под псевдонимами или однодневки — не единственные боты с такими возможностями.  Недавно сообщалось , что чат-бот Grok из Twitter ответил на многочисленные запросы пользователей «сними с нее одежду» изображениями реальных женщин в нижнем белье или купальниках. На момент написания этой статьи бот,  похоже, прекратил генерировать эти изображения, сославшись на этические и конфиденциальные проблемы.

Обмен лицами

Подмена лиц подразумевает замену или наложение лица одного человека на лицо другого в статических изображениях или видео. Технология, широко используемая в рекламе, кино и индустрии развлечений, теперь доступна бесплатно и публично для всех благодаря ИИ. Репозитории с открытым исходным кодом, такие как  Deep-Live-Cam , и такие сервисы, как Facecam.ai, позволяют своим пользователям загружать фотографию лица любого человека, которая заменяет лицо пользователя в видео в режиме реального времени, сохраняя реалистичные выражения и движения. Это может привести к  мошенничеству , когда лицо мошенника заменяется лицом цели, секс-шантажу, несогласованной порнографии, выдаче себя за другое лицо,  мошенничеству и другим видам обмана. Бесплатная версия Facecam.ai предлагает 2,5 минуты видео, содержащего водяной знак. Платная версия генерирует 10 часов видео без водяного знака за подписку стоимостью 20 долларов США в месяц. 

Любопытно, что Facecam.ai был закрыт его разработчиком в сентябре прошлого года после того, как получил много критики в социальных сетях за его потенциал для злоупотреблений, но теперь он был воскрешен. Эти сервисы также, как правило, обходятся разработчикам недорого, что, возможно, объясняет их широкое распространение в публичном интернете. Хотя фильтры для замены лиц также существуют на таких платформах, как Snapchat, полученные изображения выглядят анимированными, а не фотореалистичными, что дает зрителю понять, что изображения были обработаны.

Разработчиками приложений и ботов для обнажения обычно являются частные лица или небольшие организации, которые часто действуют в «серой» правовой зоне и сохраняют анонимность или псевдонимы, чтобы избежать юридических или социальных последствий.

Существует мало технических мер защиты от неправильного использования этих инструментов. Например, для обнаружения несогласованной порнографии разработчик вводит шаг для выполнения автоматической проверки наготы человека в разные моменты видео, и видео останавливается, чтобы запретить наготу, когда она обнаружена. Современные фильтры наготы человека имеют низкую точность, особенно в отношении огромного разнообразия человеческих тел. Высоки шансы ложноотрицательного результата (фильтры не обнаруживают наготу) или ложноположительного результата (например, тучные люди ошибочно помечаются как нагие из-за физических характеристик, таких как складки или большой объем кожи).

Другим аспектом является то, что нагота в этих видеороликах может служить законной цели, например, если какой-либо порноактриса или секс-работник скрывает свое лицо, чтобы  предотвратить неправомерное использование  видеороликов, которые они создают в профессиональных целях для исключительного использования своими подписчиками и клиентами. 

В отсутствие регулирования, политик и предусмотрительности в вопросах безопасности эти технологии уже стали настолько обычным явлением, что их можно найти с помощью простого поиска в Интернете.

Дезинформация и репутационный вред 

Чтобы обработанные изображения были вредными и имели реальные негативные последствия, они не обязательно должны быть сексуальными или обнаженными по своей природе, и, таким образом, не будут соответствовать гарантиям, юридическим средствам или практикам модерации контента против «злоупотребления интимными изображениями». Несколько инструментов и сервисов (Flux и Vidu, чтобы назвать несколько) позволяют своим пользователям создавать фотореалистичные изображения и видео двух реальных людей в процессе объятий, поцелуев, делающих романтическое предложение и т. д. Из-за социальных и культурных ожиданий или диктата в некоторых частях мира, несогласованного видео или изображения или человека, употребляющего алкоголь, было бы достаточно, чтобы нанести вред их репутации и отношениям и причинить им социальную, физическую, психологическую или финансовую травму. Некоторые изображения могут быть истолкованы как сексуально непристойные, даже если нагота или откровенный сексуальный акт не задействованы, например, полностью одетая женщина без платка. Некоторые службы ИИ предлагают возможность  ремикшировать реальные фотографии в новое изображение или видео, сохраняя при этом оригинальный стиль и качество, и все это жертве будет трудно опровергнуть, поскольку они включают в себя определенную степень реальных фотографий реальных людей и реальных событий. Эти изображения используются для преследования, клеветы или вымогательства у изображенных на них лиц. Что касается инструментов ИИ, которые позволяют создавать реалистичные изображения с помощью текстовых подсказок, некоторые из них имеют защитные ограждения, такие как запрет на создание обнаженных изображений; некоторые нет.

Потенциальным средством правовой защиты являются права личности — законные права человека на свой образ, подобие, имя, голос или другие отличительные личные характеристики, особенно в отношении коммерческой эксплуатации.

Решения

В  недавней статье исследователи МакГлинн и Топарлак предоставляют всесторонний анализ несогласованного контента «порно» с использованием дипфейков, делая акцент на создании и подстрекательстве к дипфейкам и излагая существующее и предлагаемое законодательство, криминализирующее их в разных частях мира. Например, в США ( Закон о запрете , законы в  Калифорнии и предлагаемые законы во  Флориде и  Миннесоте ),  Великобритании ,  Австралии ,  Южной Корее и  Тайване существуют законы, пресекающие несогласованные дипфейковые сексуализированные изображения. Однако большинство стран с преобладающим большинством населения не имеют действенных мер защиты от них. 

Потенциальным средством правовой защиты являются права личности — законные права человека на свой образ, подобие, имя, голос или другие отличительные личные атрибуты, особенно в отношении коммерческой эксплуатации. Это защищает людей от публичного использования или раскрытия их личного образа или личности без согласия, защищая их от нежелательного раскрытия или вторжения. 

Организации, предоставляющие инфраструктуру и услуги Интернета, такие как единый вход, должны гарантировать посредством политики и практики, что их предложения не используются в целях злоупотреблений. Кроме того, магазины приложений и библиотеки платформ, такие как Google, Telegram и другие, должны иметь политики безопасности, условия обслуживания и механизмы отчетности, чтобы предотвратить использование платформы для размещения и распространения обнаженных приложений и ботов, а также для быстрого удаления в случае сообщения о нарушении. 

Статья исследователя Райли Вонга разъясняет некоторые технические средства защиты конфиденциальности от злоупотреблений на основе изображений. Тарунима Прабхакар, соучредитель Tattle Civic Technologies, во время сессии Rightscon 2025 подчеркнула необходимость внедрения  безопасности по проекту в системах ИИ.

Это лишь некоторые из подходов, которые в настоящее время рассматриваются, разрабатываются и внедряются в борьбе с насилием, основанным на изображениях. Единственный способ ограничить это насилие — это рассматривать безопасность как приоритет, а не как нечто второстепенное.

Источник:
https://genderit.org/feminist-talk/ai-exacerbating-image-based-abuse

Оцените статью
( Пока оценок нет )

Добавить комментарий