Меню категорий
SharesPro
12.02.2020 19:31
0
Государственный сектор Великобритании не может открыто говорить об использовании ИИ

В докладе об использовании искусственного интеллекта государственным сектором в Великобритании содержится предупреждение о том, что правительство не заявляет открыто о технологиях автоматизированного принятия решений, которые могут оказать существенное влияние на жизнь граждан.

Министры были особенно оптимистичны в отношении внедрения новых технологий в здравоохранение, финансируемое налогоплательщиками, - в том числе и министр здравоохранения Мэттом Хэнкоком (Matt Hancock), который в 2018 году сформулировал технологическое видение «профилактической, прогностической и персонализированной помощи», призывающее к коренной и отраслевой цифровой трансформации Национальной службы здравоохранения (NHS) для поддержки передачи данных о пациентах в приложения и сервисы нового поколения «healthtech».

Он также лично поддерживал стартап чат-бота Babylon Health, который использует ИИ для оказания первой медицинской помощи в медицинских учреждениях и который теперь продает услугу в NHS.

Полицейская деятельность является еще одной областью, где ИИ набирает обороты в сфере предоставления государственных услуг в США: ряд полицейских отделений опробует технологию распознавания лиц, а лондонская полиция метрополитена  в прошлом месяце переключилась на живое развертывание технологии ИИ.

Однако стремление государственных служб, испытывающих нехватку денежных средств, обратить внимание на «эффективность» ИИ может привести к замалчиванию ряда этических вопросов, касающихся разработки и внедрения различных автоматизированных систем, от опасений по поводу дискриминации в предоставлении услуг и масштабирования вредных результатов до вопросов  согласие на доступ к базам данных, используемым для построения моделей ИИ, — все это потребуется для обеспечения прозрачности ИИ, если будет предусмотрена ответственность за автоматизированные результаты.

Роль коммерческих компаний в предоставлении услуг ИИ государственному сектору также поднимает дополнительные этические и юридические вопросы.

Только на прошлой неделе суд в Нидерландах подчеркнул, что правительства спешат внедрить ИИ в законодательство после того, как он определил алгоритмическую систему оценки рисков, внедренную правительством Нидерландов для оценки вероятности того, что заявители по социальному обеспечению нарушат льготные или налоговые правила.

Суд возразил против отсутствия прозрачности в отношении того, как функционирует система, а также связанной с этим недостаточной управляемости - приказав немедленно прекратить ее использование.

Парламентский комитет Великобритании, который рассматривает стандарты в общественной жизни, сегодня озвучил аналогичное предупреждение - опубликовав серию рекомендаций по использованию ИИ в государственном секторе и предупредив, что технология бросает вызов трем основным принципам предоставления услуг: открытости, подотчетности и объективности.

«В соответствии с принципом открытости, текущая нехватка информации об использовании правительством ИИ рискует подорвать прозрачность», - говорится в резюме.

«В соответствии с принципом подотчетности существует три риска: ИИ может затенить цепочку организационной подотчетности;  подорвать распределение ответственности за ключевые решения, принимаемые государственными должностными лицами;  и запретить государственным чиновникам давать значимые объяснения решениям, принятым ИИ. Согласно принципу объективности, распространенность смещения данных рискует породить и усилить дискриминацию в повседневной практике государственного сектора».

«Этот обзор показал, что правительство терпит неудачу в отношении открытости», - продолжает он, утверждая: «Организации государственного сектора недостаточно прозрачны в отношении использования ИИ, и слишком сложно определить, где в настоящее время используется машинное обучение в правительстве».

В 2018 году специальный докладчик ООН по вопросам крайней нищеты и прав человека выразил обеспокоенность по поводу стремления Великобритании применять цифровые технологии и инструменты данных для социальной реорганизации предоставления масштабных государственных услуг, предупреждая, что влияние цифрового благосостояния на положение уязвимых людей было бы «огромным», и призывая к принятию более строгих законов и правоприменительной базы, основанной на правах человека, для того, чтобы гарантировать, что использование таких технологий, как ИИ, для предоставления государственных услуг в конечном итоге не наносит вред людям.

По оценке комитета, «еще слишком рано судить, успешно ли органы государственного сектора соблюдают ответственность».

Парламентарии также предполагают, что «опасения по поводу «черного ящика» ИИ… могут быть преувеличены» - и, скорее, называют «объяснимый ИИ» «реалистичной целью для государственного сектора».

Что касается объективности, они пишут, что смещение данных является «вопросом серьезной озабоченности, и необходима дальнейшая работа по измерению и смягчению воздействия смещения».

Согласно обзору комитета, использование ИИ в государственном секторе Великобритании остается ограниченным на этом этапе, и в настоящее время в сфере здравоохранения и полицейской деятельности используются самые развитые программы по ИИ, где эта технология используется, например, для выявления заболеваний глаз и прогнозирования повторного совершения преступлений.

«Большинство кейсов, с которыми Комитет столкнулся в отношении ИИ в государственном секторе, все еще находились в стадии разработки или на стадии проверки концепции», - пишет комитет, отмечая далее, что судебная система, министерство транспорта и министерство внутренних дел «изучают, как ИИ может повысить эффективность предоставления услуг».

Также были перечислены свидетельства того, что местное правительство работает над внедрением систем искусственного интеллекта в таких областях, как образование, социальное обеспечение и социальное обеспечение, - при этом отмечается пример того, как совет графства Хэмпшир рассматривает возможность использования умных динамиков Amazon Echo в домах престарелых, получающих социальную помощь в форме этого инструмента, чтобы сократить разрыв между визитами профессиональных опекунов; кроме того,   приводится статья Guardian, в которой сообщается, что треть Советов Великобритании используют алгоритмические системы для принятия социальных решений.

Но комитет предполагает, что все еще существуют «существенные» препятствия для того, что они называют «широко распространенным и успешным» внедрением систем ИИ в государственном секторе Великобритании.

«Эксперты по государственной политике часто говорили в этом обзоре, что доступ к нужному количеству чистых, качественных данных ограничен и что пробные системы еще не готовы к вводу в эксплуатацию», - говорится в нем. «У нас сложилось впечатление, что многие государственные органы все еще сосредоточены на ранней стадии оцифровки услуг, а не на более амбициозных проектах ИИ».

В отчете также указывается, что отсутствие четкой системы стандартов означает, что многие организации могут еще не чувствовать уверенности в развертывании ИИ.

«Хотя стандарты и правила часто рассматриваются как барьеры для инноваций, Комитет считает, что внедрение четких этических стандартов в отношении ИИ может скорее ускорить, чем отложить их принятие, путем укрепления доверия к новым технологиям среди государственных служащих и пользователей услуг», - предлагается в отчете.

Среди 15 рекомендаций, изложенных в отчете, содержится призыв к созданию четкой правовой основы для использования ИИ в государственном секторе. «Все организации государственного сектора должны опубликовать заявление о том, как их использование ИИ соответствует соответствующим законам и правилам, прежде чем они будут задействованы в предоставлении государственных услуг», - пишет комитет.

Другая рекомендация - для ясности того, какие этические принципы и рекомендации применимы к использованию ИИ в государственном секторе - при этом комитет отмечает, что существует три набора принципов, которые могут применяться к государственному сектору, что вызывает путаницу.

«Общественность должна понимать этические принципы высокого уровня, которые регулируют использование ИИ в государственном секторе.  Правительство должно определить, одобрить и продвигать эти принципы, а также определить цель, сферу применения и соответствующее положение каждого из трех используемых в настоящее время наборов», - рекомендует он.

Комитет также хочет, чтобы Комиссия по вопросам равенства и прав человека разработала руководство по смещению данных и борьбе с дискриминацией, чтобы обеспечить соответствие использования ИИ органами государственного сектора Закону США о равенстве 2010 года.

Комитет не рекомендует создавать новый регулятор для надзора за ИИ, но призывает существующие надзорные органы действовать быстро, чтобы не отставать от темпов изменений, вызванных автоматизацией.

Он также призывает регулирующий орган по обеспечению контроля выявлять пробелы в сфере регулирования и предоставлять рекомендации отдельным регулирующим органам и правительству по вопросам, связанным с ИИ, - поддерживая намерение правительства создать Центр этики и инноваций данных (CDEI),о роли которого было объявлено в  2017 (в недавнем отчете CDEI рекомендовалось ужесточить контроль над тем, как гиганты платформ могут использовать таргетинг рекламы и персонализацию контента).

Другая рекомендация касается закупок: комитет призывает правительство использовать свою покупательную способность, чтобы установить требования, которые «гарантируют, что частные компании, разрабатывающие решения в области ИИ для государственного сектора, должным образом соответствуют государственным стандартам».

«Это должно быть достигнуто путем обеспечения того, чтобы положения об этических стандартах рассматривались на ранних этапах процесса закупок и были четко прописаны в тендерах и договорных соглашениях», - предлагается в нем.

Отвечая на сообщение в заявлении, министр Чи Онвура (Chi Onwurah), депутат парламента, обвинила правительство в том, что оно «ведет вслепую, без контроля над тем, кто находится за рулем машины ИИ».

«Этот серьезный доклад, к сожалению, подтверждает то, что, как мы знаем, имеет место - что консервативное правительство терпит неудачу в открытости и прозрачности, когда дело доходит до использования ИИ в государственном секторе», - сказала она. «Правительство ведет вслепую, без контроля над тем, кто находится за рулем машины ИИ. Правительству необходимо срочно взять контроль на себя, прежде чем дадут о себе знать потенциальные непредвиденные последствия выйдут».

«В прошлом году я заявила в парламенте, что правительство не должно одобрять дальнейшие алгоритмы ИИ в процессах принятия решений без введения дополнительного регулирования. Я буду продолжать подталкивать правительство к дальнейшему обмену информацией о том, как ИИ в настоящее время используется на всех уровнях управления. Как показывает этот отчет, существует острая необходимость в практическом руководстве и принудительном регулировании, которое сработает. Время действовать».

Войдите, чтобы оставлять комментарии.

Получить консультацию