web analytics

Как бороться за свободу Интернета

Internet Governance

Интернет никогда не был менее свободным, а искусственный интеллект делает его еще хуже. Но есть способы сделать его более безопасным и открытым для всех.


Возможно, вы не будете шокированы, узнав, что правительства используют генеративный искусственный интеллект для манипулирования разговорами и автоматической цензуры в Интернете. Но теперь мы лучше понимаем, как, когда и где это происходит: новый отчет показывает, что политические деятели в 16 странах, включая Пакистан, Нигерию и США, за последний год использовали генеративный искусственный интеллект для усиления воздействия контроль над Интернетом.

На прошлой неделе Freedom House, правозащитная группа, опубликовала свой  ежегодный обзор  состояния свободы Интернета во всем мире; это один из самых важных трекеров, если вы хотите понять изменения в цифровом свободном самовыражении. 

Как я уже писал, отчет показывает, что  генеративный ИИ уже меняет правила игры  в геополитике. Но это не единственная находка. В глобальном масштабе свобода Интернета никогда не была такой низкой, а число стран, заблокировавших веб-сайты с политическими, социальными и религиозными высказываниями, никогда не было таким большим. Кроме того, число стран, арестовавших людей за высказывания в Интернете, достигло рекордного уровня.

Эти вопросы особенно актуальны в преддверии года, когда по всему миру будет проведено более 50 выборов; Как отметила Freedom House, избирательные циклы — это время, когда свобода Интернета часто находится под наибольшей угрозой. Организация выпустила несколько рекомендаций о том, как международному сообществу следует реагировать на растущий кризис, и я также обратился к другому эксперту по политике, чтобы узнать ее точку зрения.

Назовите меня оптимистом, но разговор с ними на этой неделе заставил меня почувствовать, что есть по крайней мере некоторые действенные меры, которые мы могли бы сделать, чтобы сделать Интернет безопаснее и свободнее. Вот три ключевые вещи, которые, по их мнению, должны сделать технологические компании и законодатели:

  1. Повысить прозрачность моделей ИИ.  Одна из основных рекомендаций Freedom House — поощрять более широкое раскрытие информации о том, как создавались модели ИИ. Большие языковые модели, такие как ChatGPT, печально известны своей непостижимостью (вам стоит прочитать  работы моих коллег   по этому поводу), а компании, разрабатывающие алгоритмы, неохотно раскрывают информацию о том, какие данные они использовали для обучения своих моделей.  «Государственное регулирование должно быть направлено на обеспечение большей прозрачности, обеспечение эффективных механизмов общественного контроля и придание приоритета защите прав человека», — говорится в докладе. Поскольку правительства стремятся идти в ногу с быстро меняющимся пространством, комплексное законодательство может оказаться недосягаемым. Но предложения, устанавливающие более узкие требования, такие как раскрытие данных обучения и стандартизированное тестирование на предвзятость результатов, могут найти свое отражение в более целенаправленной политике. (Если вам интересно узнать больше о том, что США, в частности, могут сделать для регулирования ИИ,  я тоже  об этом рассказывал .) Когда дело доходит до свободы Интернета, повышение прозрачности также поможет людям лучше распознавать, когда они видят -спонсируемый онлайн-контент — как в Китае, где правительство требует, чтобы контент, созданный с помощью генеративных моделей искусственного интеллекта, был  благоприятным для Коммунистической партии
  2. Будьте осторожны при использовании ИИ для сканирования и фильтрации контента. Компании, работающие в социальных сетях, все чаще используют алгоритмы для модерации того, что появляется на их платформах. Хотя автоматическая модерация помогает предотвратить дезинформацию, она также рискует нанести вред онлайн-выражению. «Хотя корпорации должны учитывать способы проектирования, разработки и внедрения своих платформ и продуктов, чтобы не усугублять спонсируемые государством кампании по дезинформации, они должны проявлять бдительность, чтобы защитить права человека, а именно свободу выражения мнений и свободу объединений в Интернете», — говорит Мэллори. Кнодель, технический директор Центра демократии и технологий. Кроме того, Кнодел говорит, что когда правительства требуют от платформ сканирования и фильтрации контента, это часто приводит к появлению алгоритмов, которые блокируют даже больше контента, чем предполагалось.В рамках решения, по мнению Кнодела, технологические компании должны найти способы «улучшить функции взаимодействия человека», при которых люди будут участвовать в модерации контента, и «полагаться на пользовательское агентство как для блокировки, так и для сообщения о дезинформации». ». 
  3. Разработать способы более эффективной маркировки контента, созданного ИИ, особенно связанного с выборами . В настоящее время маркировать изображения, видео и аудио, созданные ИИ, невероятно сложно. (Я  немного писал об этом  раньше, особенно о том, как  технологи пытаются добиться прогресса  в решении этой проблемы.) Но здесь нет золотого стандарта, поэтому вводящий в заблуждение контент, особенно в отношении выборов, может нанести большой вред. Элли Фанк, один из исследователей отчета Freedom House, рассказала мне о примере в Нигерии аудиоклипа,  обработанного ИИ. в котором можно было услышать, как кандидат в президенты Атику Абубакар и его команда заявили, что планируют подтасовать бюллетени. Нигерия имеет историю конфликтов, связанных с выборами, и Функ говорит, что подобная дезинформация «действительно угрожает разжечь нарастающие потенциальные беспорядки» и создать «катастрофические последствия». Звук, управляемый искусственным интеллектом, особенно трудно обнаружить. Фанк говорит, что этот пример — лишь один из многих, которые записала группа, и который «говорит о необходимости целого ряда различных типов навешивания ярлыков». Даже если он не будет готов к выборам в следующем году, крайне важно, чтобы мы начали разбираться в этом сейчас.

Что еще я читаю

  • Это совместное расследование Wired и Markup показало, что программное обеспечение для прогнозирования полицейских было  правым менее чем в 1% случаев . Результаты шокируют, но не удивляют: полицейские технологии уже давно считаются наукой-мусором, особенно в криминалистике.
  • MIT Technology Review опубликовал наш первый список компаний, занимающихся климатическими технологиями, за которыми стоит следить, в котором мы выделяем компании, проводящие революционные исследования. Прочтите обзор списка, сделанный моим коллегой  Джеймсом Темплом , в котором объясняется, почему нам нужно обращать внимание на технологии, которые потенциально могут повлиять на наш климатический кризис. 
  • Компании, которые  владеют или используют генеративный ИИ, вскоре смогут оформить страховку  , чтобы снизить риск использования моделей ИИ — вспомните предвзятые результаты и судебные иски об авторских правах. Это захватывающее развитие на рынке генеративного искусственного интеллекта.

Что я узнал на этой неделе

В  новой статье из Стэнфордского  журнала онлайн-доверия и безопасности подчеркивается, почему модерация контента на языках с ограниченными ресурсами, то есть на языках, не имеющих достаточного количества цифровых обучающих данных для создания точных систем искусственного интеллекта, настолько плоха. Это также представляет собой интересный пример того, на что следует обратить внимание, чтобы улучшить ситуацию. В то время как компаниям, занимающимся социальными сетями, в конечном итоге необходим «доступ к большему количеству данных по обучению и тестированию на этих языках», утверждается в докладе, «более висящим плодом» могут стать инвестиции в местные и массовые инициативы по исследованию обработки естественного языка (НЛП) на низком уровне. ресурсные языки.  

«Спонсоры могут помочь поддержать существующие местные коллективы исследовательских сетей НЛП, ориентированных на языки и языковые семьи, которые работают над оцифровкой и созданием инструментов для некоторых языков с наименьшими ресурсами», — пишут исследователи. Другими словами, вместо того, чтобы инвестировать в  сбор большего количества данных с языков с ограниченными ресурсами для крупных западных технологических компаний , спонсорам следует тратить деньги на местные проекты НЛП, которые разрабатывают новые исследования в области ИИ, которые могли бы создать ИИ, хорошо подходящий непосредственно для этих языков.

Источник:
https://www.technologyreview.com/2023/10/09/1081215/how-to-fight-for-internet-freedom/

Rate article
( No ratings yet )

Leave a Reply