web analytics

Пять вопросов, которые следует задать перед внедрением ИИ в государственном управлении

E-Government

Государственные учреждения на всех уровнях рассматривают, как они могли бы использовать ИИ. Это технология, которая может облегчить работу агентств, занимающихся огромным количеством дел, поскольку она может обрабатывать огромные объемы информации эффективнее, чем человек в одиночку. Она может быть полезна в таких приложениях, как автоматическое удаление записей и помощь в сортировке клиентских запросов и заявлений на общественные блага, а также во многих других вариантах использования.


Но для успеха ИИ необходимо внедрять ответственно . Как и любая новая для правительства технология, ИИ одновременно представляет множество возможностей и проблем. Это может потребовать от ранее разрозненных департаментов координации и сотрудничества в разработке стратегий внедрения. Возможно, командам придется написать новые политики в отношении управления данными и конфиденциальности клиентов. Агентствам придется пробовать пилотные проекты и измерять свой успех, при необходимости меняя стратегию на основе получаемой обратной связи. Попутно им также нужно будет изучать новые проблемы закупок, работая с поставщиками в ходе пилотных и измеряемых проектов ИИ.

Короче говоря: Продумывание внедрения ИИ в правительстве — это большая задача. Итак, вот пять вопросов, над которыми должны подумать правительственные команды, когда они хотят ответственно экспериментировать с ИИ.

Соответствует ли подход потребностям людей и можно ли измерить его успешность?

«Стоит ли нам это делать?» — может показаться очевидным первым вопросом, но это критически важный вопрос. Тот факт, что технология доступна, не означает, что она лучше всего подходит для данной ситуации. Любое применение ИИ должно быть адаптировано к конкретным потребностям государственных служащих, которые будут ее использовать, и людей, которым она будет служить. Чтобы понять, подходит ли ИИ, командам необходимо понять болевые точки процесса, и они могут выяснить это, проведя качественные и количественные исследования, то есть анализируя данные и проводя интервью с социальными работниками, администраторами и другими государственными служащими, а также с людьми, использующими предоставляемые ими услуги. 

Затем, чтобы понять, был ли ИИ успешно развернут для решения этих болевых точек, должен быть план измерения его ценности. Четкое определение метрик в начале проекта — как тех, которые будут определять условие остановки, так и тех, которые будут указывать на успех — означает, что эксперименты с ИИ можно проводить более уверенно. Такого рода измерения гарантируют, что люди, на которых это влияет, будут поставлены в центр при рассмотрении следующих шагов. 

Хотите глубже погрузиться в эти вопросы с единомышленниками? Узнайте больше о наших семинарах по ИИ.

Улучшит ли применение ИИ справедливость? 

Проще говоря: все ли почувствуют выгоду от использования ИИ? Если нет, то кто, скорее всего, выиграет, а кто нет? ИИ обучается на данных, а автоматизация процессов вносит определенный риск того, что предвзятость, заложенная в данные, приведет к предвзятой реализации ИИ. У Управления общих служб есть собственный инструментарий по предвзятости , который правительство на всех уровнях может использовать для изучения источников предвзятости, понимания рисков, с которыми сталкиваются определенные маргинализированные группы, и разработки стратегий по смягчению предвзятости в своих системах. 

Внедрение системы ИИ, которая ставит во главу угла справедливость, означает использование принципов проектирования и предоставления услуг, ориентированных на человека , — так что на каждом этапе пути мы думаем о более широком влиянии, которое это изменение окажет на людей, которым нужны различные государственные услуги. Если внедрение ИИ негативно влияет на определенное сообщество или демографическую группу людей — или если оно обеспечивает непропорционально большую пользу какой-то другой группе — оно не должно продолжаться, пока не будут разработаны стратегии для смягчения этого. Метрики, которые вы определили, также должны помочь вам отслеживать любые потенциальные предубеждения и информировать о ваших следующих шагах.

Существуют ли способы обеспечить прозрачность и контроль за применением ИИ и использованием данных?

Использование данных, собираемых ИИ, может гарантировать, что решения принимаются на основе доказательств. И хотя это невероятно полезно для информирования о стратегии продукта, направления ресурсов и внесения корректировок в процессы, этими данными нужно управлять осторожно. Агентства должны иметь четкие, простые для понимания политики этического управления данными , когда они рассматривают возможность внедрения любой новой технологии. Кроме того, агентства должны также убедиться, что они сохраняют право собственности на свои данные при работе со сторонними поставщиками.

В Code for America мы рассматриваем управление данными в двух различных точках: в источнике и ниже по течению. Управление данными в источнике означает, что мы думаем об обязанностях, связанных со сбором данных людей. Наши клиенты доверяют нам свою личную информацию, и наша обязанность — защищать ее с момента получения. Управление данными в нисходящем направлении означает, что мы защищаем от потенциальных непреднамеренных последствий, таких как предвзятость и нарушения. Правительственные команды могут защитить своих клиентов, строго соблюдая управление данными и используя анализы, которые снижают риск причинения вреда сообществам, которые в прошлом были маргинализированы и пострадали от автоматизированных технологий.

Это звучит нелогично, но сохранение человеческого фактора имеет решающее значение для успеха любой реализации ИИ.

Какие меры предосторожности нам необходимо принять, чтобы обеспечить безопасность применения ИИ?

Это звучит нелогично, но сохранение человеческого фактора имеет решающее значение для успеха любой реализации ИИ. Это означает, что люди проверяют решения, которые принимает ИИ на основе данных, которые мы ему предоставляем, и оценивают выгоды и издержки выполнения этих задач ИИ. 

Один из способов сделать ИИ безопаснее — предоставить резервный вариант, чтобы клиент мог эскалировать свои опасения и получить подтверждение того, что кто-то примет меры. Когда мы разрабатывали бота для ответа на запросы клиентов во время процесса подачи заявки SNAP, мы позаботились о том, чтобы включить понятный способ связи клиентов с нашей службой поддержки. 

Как мы можем обеспечить итеративный и отзывчивый подход к решению любых проблем и как мы создаем циклы обратной связи для быстрого получения этой информации?

Правительственные команды должны иметь правильных людей за столом с самого начала. Это означает, что нужно знать, какие отделы должны быть вовлечены, от управления персоналом до ИТ, от команд по инновациям до социальных работников. Когда все работают совместно над проектированием, внедрением и измерением пилотного проекта ИИ, это облегчает создание циклов обратной связи и определение мест, где вам может потребоваться поворот. Гибкие фреймворки разработки, регулярные стендап-встречи и общие панели данных могут быть некоторыми из методов, которые правительство использует для успешного внедрения новой технологии.

Собираем все вместе

ИИ может показаться пугающим, но это не обязательно так. Методы обеспечения успеха те же, что и в основе любого успешного проекта: установление четких принципов и стратегий для сотрудничества, начало с малого и поворот при необходимости, и сохранение людей в центре всех решений. У ИИ есть огромный потенциал для облегчения работы правительства и улучшения опыта взаимодействия людей с государственными службами. Задавая правильные вопросы с самого начала, мы все можем приблизить этот потенциал к реальности. 

Источник:

https://codeforamerica.org/news/five-questions-to-ask-before-adopting-ai-in-government/

Оцените статью
( Пока оценок нет )

Добавить комментарий