A Tech Accord to Combat Deceptive Use of AI in 2024 Elections. [Предложен для общественного подписания и объявления технологическими компаниями на Мюнхенской конференции по безопасности 16 февраля 2024 года]
2024 год принесет больше выборов и больше людей, чем любой год в истории, с более чем 40 странами и более чем четырьмя миллиардами людей, выбирающих своих лидеров и представителей через право голоса. В то же время, быстрое развитие искусственного интеллекта, или ИИ, создает новые возможности, а также вызовы для демократического процесса. Все общество должно будет воспользоваться возможностями, предоставляемыми ИИ, и предпринять новые шаги вместе, чтобы защитить выборы и избирательный процесс в этот исключительный год. Целенаправленное и необнародованное создание и распространение обманчивого ИИ-контента на выборах может обмануть общественность способами, которые ставят под угрозу целостность избирательных процессов. В целях данного аккорда обманчивый ИИ-контент на выборах состоит из убедительных ИИ-сгенерированных аудио, видео и изображений, которые обманчиво подделывают или изменяют внешний вид, голос или действия политических кандидатов, избирательных чиновников и других ключевых участников демократических выборов, или предоставляют избирателям ложную информацию о том, когда, где и как они могут законно голосовать. Этот аккорд стремится установить ожидания относительно того, как подписанты будут управлять рисками, возникающими из-за обманчивого ИИ-контента на выборах, созданного через их общедоступные масштабные платформы или открытые основополагающие модели, или распространяемого на их масштабных социальных или издательских платформах, в соответствии с их собственными политиками и практиками, как это относится к обязательствам в аккорде. Модели или демонстрации, предназначенные для исследовательских целей или в основном для бизнес-к-бизнес (или “корпоративного”) использования, которые представляют разные риски и возможности для снижения вреда, не охватываются этим аккордом. Хотя новизна обманчивого ИИ-контента на выборах требует действий в этот исключительный год, этот аккорд признает, что обманчивый ИИ-контент на выборах не одинок в представлении этих рисков, поскольку традиционные манипуляции (“дешевые подделки”) могут использоваться в аналогичных целях. Он также признает, что для подписантов существенно продолжать инвестировать в решение других ключевых рисков выборов, таких как кибербезопасность кампаний и выборов в целом, поскольку они представляют постоянную угрозу безопасности и целостности демократических выборов по всему миру. ИИ также предлагает важные возможности для защитников, стремящихся противостоять злоумышленникам. Он может поддерживать быстрое обнаружение обманных кампаний, позволять командам работать последовательно на широком спектре языков и помогать масштабировать защиту, чтобы опережать объем, который могут создать атакующие. Инструменты ИИ также могут значительно снизить общую стоимость защиты, давая меньшим институтам возможность реализовать более надежные защитные меры. Эти преимущества могут помочь противостоять противникам, использующим технологию ИИ. Как лидеры и представители организаций, ценящих и поддерживающих демократию, мы признаем необходимость ответа всего общества на эти разработки на протяжении года. Мы обязуемся делать свою часть как технологические компании, признавая, что обманные использования ИИ не только техническая задача, но и политическая, социальная и этическая проблема, и надеемся, что другие аналогично обязуются к действиям во всем обществе. Мы подтверждаем, что защита целостности выборов и общественного доверия является общей ответственностью и общим благом, которое превосходит партийные интересы и национальные границы. Мы ценим, что эффективная защита наших выборов и избирательных процессов потребует лидерства правительства, надежных технологических практик, ответственных практик ведения кампаний и отчетности, а также активных образовательных усилий для поддержки осведомленного гражданства. Мы будем продолжать строить на усилиях, которые мы коллективно и индивидуально предпринимали на протяжении многих лет для противодействия рискам от создания и распространения обманчивого ИИ-контента на выборах и его распространения, включая разработку технологий, стандартов, инструментов с открытым исходным кодом, функций информирования пользователей и многого другого. Мы признаем важность продолжения этой работы таким образом, который уважает и поддерживает права человека, включая свободу выражения мнений и конфиденциальность, и который способствует инновациям и способствует ответственности. Мы признаем важность преследования этих вопросов с прозрачностью относительно нашей работы, без партийных интересов или предпочтений отдельным кандидатам, партиям или идеологиям, и через инклюзивные возможности слушать мнения по всему гражданскому обществу, академическим кругам, частному сектору и всем политическим партиям. Мы признаем, что ни одно индивидуальное решение или комбинация решений, включая описанные ниже, такие как метаданные, водяные знаки, классификаторы или другие формы происхождения или методы обнаружения, не могут полностью снизить риски, связанные с обманчивым ИИ-контентом на выборах, и что, соответственно, всем частям общества следует помочь образовать публику об этих вызовах. Мы подписываем этот аккорд как добровольный каркас принципов и действий для продвижения семи основных целей:
- Предотвращение: Исследование, инвестирование и/или внедрение разумных мер предосторожности для ограничения рисков намеренного создания обманчивого ИИ-контента на выборах.
- Происхождение: Прикрепление сигналов происхождения для идентификации источника контента, где это уместно и технически возможно.
- Обнаружение: Попытки обнаружить обманчивый ИИ-контент на выборах или аутентифицированный контент, включая методы, такие как чтение сигналов происхождения на платформах.
- Отзывчивая защита: Обеспечение быстрого и пропорционального реагирования на инциденты, связанные с созданием и распространением обманчивого ИИ-контента на выборах.
- Оценка: Совместные усилия по оценке и извлечению уроков из опыта и результатов работы с обманчивым ИИ-контентом на выборах.
- Осведомленность общественности: Участие в совместных усилиях по обучению общественности лучшим практикам медиаграмотности, в частности, относительно обманчивого ИИ-контента на выборах, и способам, которыми граждане могут защитить себя от манипуляций или обмана этим контентом.
- Устойчивость: Поддержка усилий по разработке и предоставлению защитных инструментов и ресурсов, таких как грамотность в области ИИ и другие общественные программы, решения на основе ИИ (включая инструменты с открытым исходным кодом, где это уместно), или контекстные функции, для защиты публичного дебата, защиты целостности демократического процесса и создания устойчивости всего общества против использования обманчивого ИИ-контента на выборах. В стремлении к этим целям мы обязуемся к следующим шагам на протяжении 2024 года:
- Разработка и внедрение технологии для снижения рисков, связанных с обманчивым ИИ-контентом на выборах, путем: a. Поддержка разработки технологических инноваций для снижения рисков, возникающих из-за обманчивого ИИ-контента на выборах, путем идентификации реалистичных ИИ-сгенерированных изображений и/или сертификации подлинности контента и его происхождения, признавая, что все такие решения имеют ограничения. Эта работа может включать, но не ограничивается разработкой классификаторов или надежных методов происхождения, таких как водяные знаки или подписанные метаданные (например, стандарт, разработанный C2PA или водяные знаки SynthID). b. Продолжение инвестиций в продвижение новых технологических инноваций происхождения для аудио, видео и изображений. c. Стремление к прикреплению машиночитаемой информации, по мере возможности, к реалистичному ИИ-сгенерированному аудио, видео и изображениям, созданным пользователями с моделями, охваченными этим аккордом.
- Оценка моделей, охваченных этим аккордом, для понимания рисков, которые они могут представлять в отношении обманчивого ИИ-контента на выборах, чтобы мы могли лучше понять векторы злоупотреблений для улучшения наших контрольных механизмов против этого злоупотребления.
- Стремление к обнаружению распространения обманчивого ИИ-контента на выборах, размещенного на наших онлайн-платформах распространения, где такой контент предназначен для публичного распространения и может быть принят за реальный. Это может включать использование технологии обнаружения, ввод идентификаторов, основанных на открытых стандартах, созданных компаниями-производителями ИИ, или использование услуг модерации контента, позволяющих создателям раскрывать использование ИИ при загрузке контента, и/или предоставление путей для публики сообщать о подозреваемом обманчивом ИИ-контенте на выборах.
- Стремление к соответствующему реагированию на обманчивый ИИ-контент на выборах, который мы обнаруживаем, размещенный на наших онлайн-платформах распространения и предназначенный для публичного распространения, в соответствии с принципами свободы выражения мнений и безопасности. Это может включать, но не ограничивается принятием и публикацией политик и работой над предоставлением контекстной информации о реалистичном ИИ-сгенерированном аудио, видео или изображениях, где мы можем обнаружить его, чтобы было ясно, что он был ИИ-сгенерирован или изменен. При рассмотрении действий операторы онлайн-платформ обращают внимание на контекст, в частности, на защиту образовательного, документального, художественного, сатирического и политического выражения.
- Содействие межотраслевой устойчивости к обманчивому ИИ-контенту на выборах путем обмена лучшими практиками и изучением путей обмена лучшими инструментами и/или техническими сигналами о обманчивом ИИ-контенте на выборах в ответ на инциденты.
- Обеспечение прозрачности для публики относительно того, как мы реагируем на обманчивый ИИ-контент на выборах, например, публикуя политики, объясняющие, как мы будем реагировать на такой контент, предоставляя обновления о исследованиях происхождения или информируя публику о других действиях, предпринятых в соответствии с этими обязательствами.
- Продолжение взаимодействия с разнообразным набором глобальных организаций гражданского общества, академических кругов и других соответствующих экспертов по предмету через установленные каналы или мероприятия, чтобы информировать компании о глобальном ландшафте рисков как часть независимой разработки их технологий, инструментов и инициатив, описанных в этом аккорде.
- Поддержка усилий по повышению осведомленности общественности и устойчивости всего общества в отношении обманчивого ИИ-контента на выборах, например, посредством образовательных кампаний о рисках, создаваемых для публики, и способах, которыми граждане могут узнать об этих рисках, чтобы лучше защитить себя от манипуляций или обмана этим контентом; через инструменты, интерфейсы или процедуры, которые могут предоставить пользователям полезный контекст о контенте, который они видят в сети; разрабатывая и выпуская инструменты с открытым исходным кодом для поддержки других, пытающихся снизить эти риски; или иным образом поддерживая работу организаций и сообществ, занимающихся реагированием на эти риски.