Что такое Азиломарские принципы и зачем они искусственному интеллекту

Фото: Pexels
Фото: Pexels
Зачем машинам знать, что такое хорошо и что такое плохо? Как «воспитывать» искусственный интеллект и помогают ли в этом своды правил, например Азиломарские принципы?

Что такое Азиломарские принципы

Азиломарские принципы — это 23 рекомендации, которых важно придерживаться в работе с искусственным интеллектом, чтобы использовать его исключительно в позитивном ключе. В 2017 году в Калифорнии прошла конференция Beneficial AI 2017, посвященная безопасному применению искусственного интеллекта для пользы человечества. В ней приняли участие ученые и эксперты в области IT, ИИ-технологий, робототехники и права. Результатом конференции как раз и стали Азиломарские принципы. [1]

Принципы охватывают различные аспекты, например безопасность, исследовательскую этику, равенство, прозрачность. Несмотря на то что документ не имеет юридической силы, он может выступать как этическое руководство для тех, кто участвует в исследованиях и разработке ИИ-технологий.

Азиломарские принципы подписали более 5700 человек, среди которых бизнесмен Илон Маск, физик-теоретик Стивен Хокинг, профессор Калифорнийского университета Стюарт Рассел, сооснователь и главный научный сотрудник OpenAI Илья Суцкевер, основатель DeepMind (позже компанию приобрела Google) Демис Хассабис.

Почему Азиломарские принципы необходимы

Искусственный интеллект обладает огромным потенциалом как для улучшения нашей жизни, так и для создания проблем или усугубления уже существующих. Одна из них — социальная дискриминация. Например, было обнаружено, что система распознавания лиц Rekognition предвзято относится к людям с темной кожей [2]. Алгоритм найма Amazon проявлял дискриминацию по отношению к кандидатам-женщинам [3], а у алгоритма вынесения приговора могут быть расовые предрассудки в отношении темнокожих обвиняемых [4]. Такие кейсы возникают из-за того, что массивы данных, на которых обучаются нейросети, содержат предвзятую информацию (bias), и алгоритмы начинают ее воспроизводить. Азиломарские принципы призваны минимизировать воздействие такой информации.

Кроме этого, нерегулируемое развитие ИИ может лишать людей работы и негативно влиять на экономику регионов. Поскольку роботы и нейросети все лучше и лучше справляются со сложными задачами, есть риск того, что со временем они могут вытеснить реальных сотрудников с их рабочих мест. Это приведет к безработице и экономическому спаду. Принципы диктуют, что любая ИИ-технология должна разрабатываться таким образом, чтобы не просто не отнимать работу, а приносить пользу всем членам общества.

Согласно Азиломарским принципам, ИИ-разработки должны быть прозрачными и подотчетными, так как именно это укрепляет доверие людей к новым технологиям. ИИ-системы часто считают «черными ящиками» — речь идет о сложности понимания и контроля над решениями и действиями, которые производят системы и алгоритмы ИИ. Это порождает скептицизм в отношении искусственного интеллекта, особенно в таких важных областях, как здравоохранение и уголовное правосудие. Системы ИИ должны быть спроектированы таким образом, чтобы суть их работы была ясна каждому. Людям нужно понимать, как принимаются решения, какие в проекте задействованы разработчики и кто несет ответственность за действия искусственного интеллекта.

<p>Кадр из мультфильма&nbsp;&laquo;ВАЛЛ-И&raquo;</p>
Футурология ВАЛЛ-И и R2-D2: должны ли роботы быть похожими на людей в принципе

Ключевые принципы

  • Польза. ИИ-разработки должны нести пользу и благо для всех людей и окружающей среды.
  • Безопасность. Системы ИИ должны проектироваться и эксплуатироваться так, чтобы свести к минимуму риск непреднамеренного причинения вреда людям.
  • Прозрачность. Проектирование, разработка и развертывание систем ИИ должны быть прозрачными; системы ИИ должны объяснять людям свои решения и действия.
  • Конфиденциальность. ИИ-технологии должны сохранять безопасность личных данных, а пользователи должны иметь возможность контролировать, какие из их личных данных ИИ-технологии могут использовать для своей работы.
  • Справедливость. В ИИ-разработках не должны допускаться случаи дискриминации.
  • Человеческий контроль. Люди должны иметь возможность контролировать системы ИИ, чтобы предотвращать причинение ими вреда.
  • Общая выгода. ИИ должен приносить пользу обществу в целом, а не только небольшим группам людей или отдельным организациям.
  • Ответственность. Люди, отвечающие за разработку и развертывание систем ИИ, должны нести ответственность за их влияние на общество.
  • Отсутствие гонки ИИ-вооружений. Необходимо избегать противостояния государств ради достижения превосходства в сфере летального автономного оружия и других военных ИИ-систем.

В то же время ученый Техсин Зия, который руководит исследованиями в области ИИ в Университете Комсатс (Исламабад, Пакистан), отмечает и слабые места документа. Во-первых, принципы носят лишь рекомендательный характер, а значит, никто не обязан их соблюдать. Во-вторых, принципы не предлагают никаких конкретных мер по предотвращению или исправлению неблагоприятных ситуаций, а значит, их практическая ценность вызывает сомнения. В-третьих, принципы составлены довольно абстрактно, а значит, оставляют свободу для интерпретаций, отмечает Зия. [5]

Какие еще были попытки сделать область ИИ этичной

Общественный интерес к теме гуманности и этичности ИИ возник 1960-е годы, всего через несколько лет после того, как появилось само понятие «искусственный интеллект». Первыми, кто поставил и попытался решить вопрос морали в сфере ИИ, стали писатели-фантасты. Они рассуждали о том, нужны ли роботам свои «заповеди» и нравственные принципы — так возникло целое течение под названием «робоэтика».

В романе Карела Чапека «R.U.R.» (1920), где впервые и был предложен термин «робот», существовала Лига гуманности. По ее законам роботы не должны подвергаться бесчеловечному обращению.

Затем в литературных произведениях Айзека Азимова появились «три закона робототехники» плюс «нулевой закон», очень похожие по духу на Азиломарские принципы [6]:

0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред.

1. Робот не может причинить вред отдельному человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат первому закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам.

К теме этичности ИИ вернулись в начале 2000-х годов, когда роботы стали появляться на предприятиях, улицах городов, в домах людей. В 2004 году в итальянском городе Сан-Ремо (Италия) прошел Первый международный симпозиум по робоэтике, а в 2017 году Европарламент принял Европейскую хартию робототехники. [7] Дискуссии о робоэтике вновь обострились из-за массового появления боевых автономных роботов и дронов, а также появления сексоботов.

Новый расцвет нейросетей и моделей глубокого обучения сделал вопрос этики ИИ еще более острым для крупнейших IT-компаний. В 2016 году Microsoft опубликовала «10 законов для искусственного интеллекта» [8]; собственные правила этики ИИ сформулировала и IBM [9]. Свои своды этических норм в области искусственного интеллекта есть у нескольких десятков крупных IT-компаний в мире.

В 2021 году в Москве прошел первый международный форум «Этика искусственного интеллекта: начало доверия». По его итогам был принят российский Кодекс этики в сфере ИИ [10]. Его подписали более 100 российских организаций. В его основе, как и в основе Азиломарских принципов, лежат непричинение вреда, прозрачность, осознание ответственности за действия ИИ и человекоориентированность. Кодекс также носит рекомендательный характер.

<p>Кадр из 3-й&nbsp;серии 6-го сезона &laquo;Черного&nbsp;зеркала&raquo;</p>
Футурология Разбор «Черного зеркала»: роботы-аватары и загрузка сознания

Практическое применение этических принципов

Все больше государственных организаций, коммерческих компаний и НКО стараются внедрять в работу подход ethics by design, согласно которому решать потенциальные этические дилеммы нужно еще на стадии проектирования и создания систем искусственного интеллекта. Такой подход требует дополнительных компетенций от разработчиков.

Еще один подход — AI Localism. Его суть заключается в том, чтобы отталкиваться не от решения глобальных моральных дилемм в теории, а собирать лучшие кейсы реальной работы с этическими вопросами в отдельных странах, городах и компаниях.

Еще один вариант применения этических принципов — собирать обратную связь от самих пользователей, людей, которым ИИ нанесли ущерб, дискриминируемых групп, а также исследователей и некоммерческих организаций, а не только от разработчиков, экспертов и регуляторных органов. Тогда этические нормы будут максимально точными и полезными для целевой аудитории.

Обновлено 04.07.2023
Главная Лента Подписаться Поделиться
Закрыть