Как в Великобритании планируют регулировать искусственный интеллект

Фото: Shutterstock
Фото: Shutterstock
Законодательные органы пытаются поспевать за проникновением ИИ в нашу жизнь и стараются регулировать новые технологии. Разбираемся, почему у Великобритании пока самый взвешенный подход в этом направлении

А в чем тренд?

Технологии последнего поколения ИИ, например ChatGPT и Midjourney, уже устраивают революцию в работе и быту. ИИ может значительно улучшить ситуацию в сферах образования, здравоохранения, транспорта и помогать в решении повседневных задач. Например, с технологиями ИИ в Великобритании работают 50 тыс. человек, а его использование в 2022 году принесло $4,77 млрд в экономику страны. Но есть и отрицательные стороны: потеря рабочих мест, увеличение объема дезинформации, чрезмерная опора на конкретный инструмент.

Необходимость регуляции ИИ

И политики, и ученые согласны с тем, что сферу искусственного интеллекта необходимо регулировать. ЕС предложил подход, основанный на потенциальных проблемах. У Великобритании другой метод, ориентированный на бизнес. В 2023 году правительство страны опубликовало «Белую книгу» — технический документ, в котором излагаются планы будущего законодательства. Она раскрывает вопросы потенциального регулирования ИИ, при этом акцент делается на гибкости, чтобы избежать задержку развития инноваций. Предлагается добровольно соблюдать пять принципов.

Гипотетические трудности мешают прогрессу

Так как риски ИИ еще не до конца изучены, прогнозирование будущих проблем — это догадки. Законодатели могут использовать гипотетические сценарии и предлагать радикальные и неуместные решения. Например, некоторые американские компании используют алгоритмы для определения пола человека по чертам лица. Технологии показали низкую эффективность при изучении фотографий темнокожих женщин. Этот вывод был приведен в поддержку запрета использования технологии распознавания личности. Однако сложности с гендерной классификацией не означают, что технологию нельзя доработать и использовать без каких-либо проблем для анализа лиц в публичном месте.

Фото:Midjourney
Индустрия 4.0 Преступление и творчество: может ли ИИ обладать правами

Оценка рисков от ЕС

Предложенный ЕС закон запрещает использовать некоторые виды ИИ вроде технологии распознавания лиц в реальном времени. Он также задает строгие стандарты для технологий ИИ с высоким уровнем риска. К ним относятся системы, которые используются для оценки резюме, анализа заявок на поступление в институты и школы, изучения права на получение кредитов и государственных услуг.

Пять британских принципов

Подход Великобритании к регулированию ИИ опирается на существующие правовые рамки вроде законов о неприкосновенности частной жизни, защите данных и ответственности за качество продукции. В отличие от ЕС он не предусматривает введения новых норм, основанных на страхе перед технологиями.

К существующим законам предлагается применить пять добровольных принципов:

  • Безопасность, надежность и устойчивость — приложения ИИ не должны представлять угрозу пользователям, а риски должны тщательно контролироваться.
  • Прозрачность и объяснимость — разработчики и распространители ИИ должны объяснять, какие методы лежат в основе его работы и детализировано рассказывать, как принимать решения с его помощью.
  • Справедливость — ИИ не должен дискриминировать людей или выдавать заведомо нечестные по отношению к группе людей или одному человеку результаты.
  • Подотчетность и управляемость — должен обеспечиваться четкий надзор за использованием ИИ со стороны государственных органов.
  • Состязательность и возмещение ущерба — у людей должны быть способы оспаривать вредные результаты или решения, выданные ИИ.

Децентрализация и гибкость

На первых порах регулирующие органы не будут обязаны обеспечивать соблюдение пяти принципов. Обязательства будут наложены в будущем, если это потребуется. Ожидается, что организации будут следовать общим нормам добровольно.

Исследователь ИИ из Лондонского университета Брунеля Аресс Адими Гикай отмечает: «Британский правовой режим является многообещающим по трем причинам. Во-первых, свидетельства работы ИИ будут использоваться в корректном контексте. Во-вторых, правила могут быть легко адаптированы под новые условия. В-третьих, подход децентрализован, из-за чего он не накладывает всю ответственность на одну государственную организацию».

Обновлено 14.07.2023
Главная Лента Подписаться Поделиться
Закрыть