Устойчивое и социально ответственное развитие GovTech на базе ИИ возможно лишь при условии безусловного приоритета принципов «доверенного ИИ» на всех этапах жизненного цикла систем: от концепции и разработки до внедрения, эксплуатации и мониторинга. К таким результатам пришли эксперты Президентской академии в исследовании «Искусственный интеллект в государственном секторе: синергетический эффект и системные риски». Статья опубликована в журнале «Вопросы управления».
Цифровая трансформация госсектора в рамках концепции GovTech стала глобальным трендом. Стремление государств повысить эффективность управления, качество и доступность услуг для граждан, обеспечить прозрачность и снизить операционные издержки проявляется в активном внедрении передовых цифровых технологий. Особое место среди технологических драйверов GovTech занимает искусственный интеллект, включая машинное обучение, обработку естественного языка и компьютерное зрение.
Между тем, стремительное проникновение ИИ в чувствительную сферу госуправления сопряжено со значительными рисками и комплексными социальными, правовыми, техническими и этическими вызовами. Недооценка этих рисков способна не только нивелировать потенциальные выгоды ИИ, но и нанести существенный ущерб общественным интересам и доверию к государственным институтам.
Применение ИИ в сфере госуправления проявляется через такие инструменты, как чат-боты и виртуальные ассистенты, инструменты анализа обращений граждан и комплексного анализа больших данных, направленные на оптимизацию внутренних административных процедур. Это способствует совершенствованию государственной политики и услуг, причем часто возникает синергетический эффект, позволяющий решать разнообразные типы задач в рамках системы ГМУ наиболее эффективно.
В то же время, при реализации возможностей ИИ недопустимо упускать из виду возникновение соответствующих рисков. При этом один и тот же риск, например, «цифровое неравенство» может рассматриваться как социальный и технический одновременно. А «утечку персональных данных» можно рассматривать с четырех сторон, хотя граждане в случае реализации этого риска являются наиболее пострадавшей стороной.
«Системные пробелы в управлении рисками, наряду с тесной взаимосвязью между значимыми возможностями ИИ и присущими им рисками, обусловливают необходимость принципиального изменения подхода к внедрению технологий в государственном секторе», – говорит один из авторов исследования, заведующая кафедрой международных экономических отношений Президентской академии в Ростове-на-Дону Татьяна Подольская.
А отсюда ключевой вывод исследования: устойчивое и социально ответственное развитие GovTech на базе ИИ возможно лишь при условии безусловного приоритета принципов «доверенного ИИ» на всех этапах жизненного цикла систем: от концепции и разработки до внедрения, эксплуатации и мониторинга.
Сегодня данная концепция представляется и как сертифицированная технология, обеспечивающая функциональность и безопасность, и как алгоритм, наделенный доверием человека и общества для выполнения тех или иных функций по аналогии с доверенным лицом. Он соблюдает все подходящие законы и регулятивные нормы («ответственный ИИ»), следует этическим принципам и ценностям («этический ИИ») и обеспечивает устойчивость («полезный ИИ») системы с технической и социальной точек зрения. Механизмами реализации «доверенного ИИ» могут выступать: внедрение обязательного аудита алгоритмов до и в процессе их эксплуатации в госсекторе; создание при ключевых ведомствах этических комитетов, уполномоченных проводить экспертизу проектов на предмет этических рисков; разработка и утверждение единых стандартов качества данных, используемых для тренировки моделей в госсекторе.
Более того, удовлетворяющее этическим принципам ответственное внедрение ИИ в госсекторе должно происходить по шести ключевым измерениям. Это: прозрачность (гибридные модели принятия решений, подход «Человек-во-главе»); справедливость (разработка этических кодексов для ИИ); защита приватности; публичное участие; подотчетность (принцип «экспериментальной пропорциональности», ограниченные тестовые периоды), аудит алгоритмов, раскрытие их работы; обучение и осведомленность (специализированные институты на стыке ИТ, права и этики).
Все это предполагает трансформацию систем управления рисками ИИ-решений. Из факультативной или постфактум-деятельности она должна стать неотъемлемым элементом в госсекторе. Такой подход требует оценки рисков на самых ранних стадиях проектирования; фактического, а не только декларируемого, применения принципов справедливости, объяснимости, безопасности, приватности и подотчетности при внедрении ИИ-решений через совершенствование нормативно-правовой базы.
Стоит также учесть, что на каждом этапе жизненного цикла ИИ-системы в госсекторе будут превалировать риски различных групп. Так, на стадии проектирования ключевыми станут правовые и этические риски (оценка допустимости применения технологии для конкретной задачи, соответствие правовым нормам и этическим принципам). На стадии разработки – технические (корректность архитектуры, качество и репрезентативность используемых при тестировании наборов данных). При внедрении и эксплуатации – социальные (потеря рабочих мест в госсекторе, низкая квалификация госслужащих, цифровое неравенство) и технические риски (неадекватная работа модели в реальных условиях, кибератаки, высокая стоимость внедрения и обновления ИИ-систем). На этапе мониторинга – правовые (несоответствие модели изменяющемуся законодательству) и этические риски (выявление непредвиденных негативных последствий в процессе длительной эксплуатации). Лишь системная интеграция управления рисками в жизненный цикл ИИ обеспечит полноценную реализацию потенциала GovTech при минимизации потенциального вреда.
Результаты комплексного анализа подтверждают: недооценка системных рисков внедрения ИИ в госсекторе может нанести серьезный ущерб как государству, так и отдельным гражданам. Преимущества технологии часто сопряжены с механизмами, потенциально способными принести непоправимый вред, вплоть до подрыва национальной безопасности.
Анализ внедрения ИИ в госсекторе выявил системные проблемы в управлении рисками, включая отставание нормативно-правовой базы от темпа развития технологий, декларативность этических принципов, алгоритмическую предвзятость и дискриминацию, недостаточный уровень объяснимости решений, низкую цифровую грамотность госслужащих, проблемы качества данных и безопасности их сбора. Эти пробелы, наряду с подтвержденной тесной связью возможностей и рисков, обусловили ключевой вывод исследования: устойчивое и социально ответственное развитие GovTech на базе ИИ возможно только при условии безусловного приоритета принципов «доверенного ИИ».
«Суть предложенного решения заключается в трансформации управления рисками из факультативной деятельности в неотъемлемый, встроенный элемент всего жизненного цикла ИИ-решения в госсекторе. Тем самым это исследование вносит вклад в научное осмысление перспектив ответственного внедрения ИИ в государственном секторе, создавая концептуальную основу для дальнейших эмпирических и теоретических изысканий в данной динамично развивающейся области», – отмечает Татьяна Подольская.