ИИ позволяет быстрее и проще определять инновационные стратегии борьбы с насилием и подрывной деятельностью, связанной с выборами, а также укреплять нашу демократию.
«Наша угроза исходит изнутри», — сказал Дональд Трамп своим сторонникам на предвыборном митинге в честь Дня ветеранов в Нью-Гэмпшире. «Мы обещаем вам, что искореним коммунистов, марксистов, фашистов и левых бандитов, которые живут как паразиты в пределах нашей страны».
Эти замечания вызвали возмущение и сравнения с нацистской Германией. Дегуманизация политических оппонентов подрывает общественное доверие к демократической системе, создавая менталитет «мы против них». Опасности – это не просто риторика. Политическое насилие действительно растет в Соединенных Штатах.
Вот почему в GovLab мы обращаемся к искусственному интеллекту, чтобы раскрыть опыт и ноу-хау мировых экспертов. ИИ позволяет быстрее и проще определять инновационные стратегии борьбы с насилием и подрывной деятельностью, связанной с выборами, а также укреплять нашу демократию.
РАЗРЕШЕНИЕ ПРОБЛЕМ С ТЕХНОЛОГИЯМИ
Первый шаг в решении любой сложной задачи — разбить ее на более мелкие и более управляемые проблемы. Подрывная деятельность на выборах, например, включает в себя множество проблем: от разжигаемых СМИ сомнений в честности выборов до насилия в отношении должностных лиц избирательных комиссий и уязвимостей (реальных и предполагаемых) избирательных технологий.
Но выявление этих составляющих проблем обычно требует недель исследований и интервью, за которыми следуют дополнительные месяцы, если не годы, комплексной проверки, чтобы выяснить, что было опробовано, сработало ли то, что было опробовано, и можно ли перенести и, вероятно, использовать то, что сработало в другом месте. работать в дополнительных сообществах.
Но генеративный искусственный интеллект радикально меняет возможности совместного решения проблем. Поскольку технология моделей большого языка обучается на миллиардах параметров языка, она особенно хороша в организации и обобщении контента, а не только в его генерации.
СИНТЕЗ ПОЛИТИКИ: ИСПОЛЬЗОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ДЛЯ УЛУЧШЕНИЯ КОЛЛЕКТИВНОГО ИНТЕЛЛЕКТА
Чтобы ускорить процесс определения проблем и поиска решений по подрывной деятельности на выборах, моя команда в GovLab заручилась опытом исландского предпринимателя в сфере гражданских технологий Роберта Бьярнасона. Бьярнасон разрабатывает платформы, используемые в более чем 10 000 взаимодействиях с гражданами по всему миру с 2008 года.
Находясь в своей хижине на берегу пустынной и красивой реки Уайт-Ривер на юге Исландии, Роберт с радостной прямотой признает, что «даже когда граждане участвуют, правительства, в частности, часто не могут использовать обратную связь».
Вместе мы изобрели Policy Synth, набор инструментов для повышения скорости, точности и масштаба «умного краудсорсинга» с использованием доработанной версии GPT-4, мультимодальной модели большого языка Open AI.
темой было злоупотребление административной и правовой системами.
Отрицатели выборов сознательно подали многочисленные злонамеренные иски с целью отменить результаты выборов или подали необоснованные запросы на публичные отчеты без какой-либо реальной цели, кроме как испортить работу избирательной системы.
Мы быстро собрали 35 специалистов на двухчасовую онлайн-конференцию через Zoom, где они предложили 14 решений проблемы злоупотреблений со стороны закона, таких как инвестирование в профессиональные организации с дисциплинарными полномочиями для наказания злонамеренных юристов и улучшение образования в области профессиональной ответственности в юридических школах. ИИ помог нам обобщить и извлечь информацию из двух часов одновременного разговора и набора текста за минуты, а не за дни. Мы повторяли подобные онлайн-встречи и по другим темам.
Параллельно с опросом людей мы также попросили Policy Synth составить собственный список решений. Агенты GPT провели поиск в Интернете, чтобы найти решения, отвечающие данной проблеме. Создав сотни решений, мы автоматизировали процесс удаления дубликатов и изолировали только те решения, которые актуальны для благотворительной организации (а не для правительства или компании).
Этот процесс фильтрации, который Роберт называет «жатвой», составил список из 60 решений для каждой выявленной проблемы, каждое из которых сопровождалось визуальной иллюстрацией из инструмента генерации изображений StabilityAI в удобочитаемом формате с плюсами и минусами для каждого решения.
Policy Synth предложил те же 14 решений проблем правовых злоупотреблений, что и те, которые были выявлены экспертами-людьми, но также предложил дополнительные решения, такие как создание фонда правовой защиты для административных чиновников и психологическая поддержка для работников избирательных комиссий.
Policy Synth не просто генерирует решения; он также разрабатывает рекомендации с использованием генетического алгоритма. Программное обеспечение объединяет рекомендации, а затем проверяет, насколько хорошо новая версия решения соответствует заявленной проблеме, чтобы определить, следует ли принять улучшение или отклонить его. После пятнадцати раундов таких мутаций и ранжирования Policy Synth составляет окончательный список подходов, адаптированных к решению проблемы.
Недавно компания Deepmind от Google объявила, что она тоже экспериментирует с использованием генетических алгоритмов, чтобы позволить ИИ улучшить собственное быстрое составление проектов.
Policy Synth также использует систему оценки Эло для ранжирования решений. Названная в честь шахматного мастера Арпада Эло, система подсчета очков Эло показывает, насколько опытен шахматист, не только исходя из количества побед, но и исходя из того, была ли победа над более сильным или худшим игроком. Такое парное сравнение помогает людям узнать, насколько они хороши. Аналогичным образом, Policy Synth AI сравнивает каждое решение одно с другим и оценивает их на основе запрошенных критериев, таких как скорость реализации, стоимость, вероятность политических разногласий или влияние на женщин или афроамериканцев.
Таким образом, мы смогли принять рекомендации, сгенерированные ИИ и экспертами-людьми, и использовать одни для оценки и ранжирования предложений другого.
В то время как все большие группы могут застрять в спорах о достоинствах различных предложений, часто в зависимости от того, кто их предложил, генеративный ИИ может быстро отсеивать и ранжировать идеи, ускоряя процесс оценки доказательств.
МАСШТАБИРОВАНИЕ УЧАСТИЯ ЧЕЛОВЕКА В РАЗРАБОТКЕ ПОЛИТИКИ
«Граждане должны участвовать в принятии решений, особенно когда речь идет о деньгах налогоплательщиков, — подчеркивает Роберт». Но обращение к людям за их идеями «требует существенного административного надзора, ограничивающего число участников и круг вопросов, которые можно решить, или снижающего способность понимать то, что люди разделяют.
«Вот что делает ИИ таким революционным», — восклицает он. Способность ИИ выполнять различные задачи «бэк-офиса», такие как исследования и оценка, позволяет нам значительно увеличить количество людей, которые могут участвовать в онлайн-взаимодействии. ИИ может извлекать ценную информацию из текущих разговоров, оценивать вклад участников, уточнять предложения и проводить исследования, чтобы заполнить любые пробелы. Даже когда участвует большое количество участников, автоматизируя эти административные и аналитические задачи, мы можем беспрепятственно сочетать различные этапы взаимодействия с гражданами, такие как выявление проблем и формулирование решений.
Сейчас мы работаем с Центром социальных изменений Бернса, Музеем науки, крупнейшим культурным учреждением Новой Англии, а также с Бостонскими государственными школами, Инновационными государственными школами и Агентством по обучению, чтобы расспросить людей по всей стране о кризисе грамотности в Америке, где только 32% детей имеют базовые навыки чтения.
Policy Synth помог нам выявить 150 возможных коренных причин проблемы низкой грамотности. Теперь выйду на сайт http://unlockingliteracy.ai и попрошу родителей, учащихся и преподавателей оценить эти составляющие проблемы и сказать, какие из них являются наиболее важными.
После того, как мы изучим проблемы, Policy Synth поможет нам спросить сообщества и специалистов о том, что работает, ускоряя процесс разработки кода и реализации решений в быстром взаимодействии между людьми и машинами.
ОПАСНОСТЬ ОБРАЗЦОВ СИЛИКОНА
Поскольку мир сталкивается с таким количеством сложных и неотложных проблем, способность улучшать и ускорять поиск осуществимых решений сложных проблем, от изменения климата до неравенства доходов и продовольственной безопасности, может радикально улучшить управление. Тем не менее, внедрение генеративного ИИ в процесс взаимодействия с гражданами не обходится без проблем.
Наибольший риск будет заключаться в искушении использовать генеративный ИИ для сокращения, а не увеличения участия человека. Было обнаружено, что персонажи ИИ близко соответствуют человеческим реакциям. В одном эксперименте социальный психолог из Университета Северной Каролины в Чапел-Хилл задал 464 этических вопроса людям и «силиконовым образцам» — ИИ-персонажам, заменяющим реальных людей; ответы были почти идентичны. Может возникнуть соблазн вести разговор только с машинами.
Замена человеческого вклада машинами упускает суть совместного решения проблем. Чрезмерное доверие к рекомендациям, созданным ИИ, которые технически обоснованы, но лишены эмоционального интеллекта, может не привести к решениям, которые нужны человеческим сообществам, особенно если они не участвовали в процессе их создания.
Мы все еще учимся эффективно сочетать искусственный и коллективный интеллект. Когда мы сможем объединить машинную точность с человеческой мудростью, это может ускорить решение проблем и углубить демократию. Продвигаясь по этому новому рубежу, давайте не будем забывать: технологии могут информировать, но решают люди.
Бет Симона Новек / Beth Simone Noveck — профессор Северо-Восточного университета, где она руководит Бернским центром социальных изменений и его партнерским проектом The GovLab.
Источник:
https://www.fastcompany.com/91001497/ai-faith-in-democracy