Читайте РБК без баннеров

Подписка отключает баннерную рекламу на сайтах РБК и обеспечивает его корректную работу

Всего 99₽ в месяц для 3-х устройств

Продлевается автоматически каждый месяц, но вы всегда сможете отписаться

Как построить доверие между человеком и искусственным интеллектом
По мере того, как искусственный интеллект берет на себя все больше решений и ролей в обществе, растет и недоверие к нему: как мы можем быть уверенными, что он будет отражать наши ценности и не пойдет против человека?

«Человечность» искусственного интеллекта зависит от людей

Передовые технологии могут не только упрощать жизнь, но и представлять серьезную угрозу: заменить людей во многих отраслях, стать гораздо умнее нас и начать определять для себя, что такое «хорошо» и «плохо» в соответствии с личными настройками, которые могут не совпадать с человеческими моральными принципами.

Чтобы этого избежать, необходимо сформулировать новый подход к взаимоотношениям между людьми и искусственным интеллектом, основанный на сопереживании и доверии.

И, как заявляла ранее главный исполнительный директор и соучредитель компании Affectiva Рана Эль-Калиуби, это доверие должно быть взаимным. Почему? В качестве примера можно взять полуавтономные транспортные средства. Эти автомобили пока еще предполагают, что водитель должен быть готов вернуть себе контроль над управлением, если ИИ по каким-то причинам не сможет безопасно сориентироваться в ситуации. Но как он может быть уверенным, что человек в этот момент не занят, не рассеян, не чувствует сонливость? Системы ИИ должны по-настоящему понимать наше эмоциональное и когнитивное состояние в моменте, чтобы принимать правильные решения. Таким образом, по мнению Раны, эмпатия является ключом к пониманию и доверию между ИИ и людьми. Кроме этого, необходимо развивать эмоциональный интеллект у самой команды, работающей с ИИ, особенно у специалистов по данным, которые пишут модели: «человечность» искусственного интеллекта зависит от людей, сидящих по ту сторону экрана.

Заставь машину думать: как развивают искусственный интеллект у роботов Фото: Bloomberg

Объективный искусственный интеллект

Пока ИИ в отдельных случаях может показывать предвзятость. Чаще всего это происходит из-за данных, которые используются для его обучения: если они были в чем-то дискриминационными по отношению к людям определенных рас, полов или национальностей, таковым будет и ИИ. Команды разработчиков должны состоять из широкого круга людей: как заявлял руководитель исследований в IBM Research Грэди Буч, одна из причин, почему ИИ все еще показывает необъективность, состоит в том, что сотрудники, которые строят такие системы, все еще в основном «белые молодые мужчины».

Системы ИИ должны приносить пользу людям

Для этого их нужно привести в соответствие с человеческими принципами и ценностями. Разработкой стандартов, которые бы гарантировали использование ИИ в благих целях, занимаются многие: MIT и Гарвард, Партнерство по ИИ, Еврокомиссия, но единой, общепризнанной этической системы для ИИ не существует. Есть несколько методов, с которыми экспериментируют специалисты сферы ИИ, чтобы привить системам необходимые принципы. Наиболее сильный результат показывает обучение с подкреплением. Этот метод позволяет системам наблюдать за тем, как мы ведем себя в различных ситуациях, и принимать решения в соответствии с нашими ценностями.

Не навреди: семь проблем правового регулирования робототехники

Отношения, построенные на доверии

Лидеры сферы отмечают, что ключевым фактором построения доверия между человеком и ИИ является прозрачность. Конечные пользователи иногда не понимают, почему система приняла то или иное решение, из-за чего могут сомневаться в точности результатов. Чтобы доверять технологиям, людям нужно понимать, как система приходит к выводам и чем руководствуется, давая рекомендации.

Разработчики также должны открыто говорить о том, что на самом деле делает система, взаимодействуя с нами: собирает информацию о нас, наблюдает за выражением лица через камеру, чтобы прочитать эмоции и т.д. Об этом необходимо сообщать пользователям. И люди должны иметь возможность отключать некоторые из этих функций.

Границы разумного: как регулировать искусственный интеллект

Еще один важный принцип, помогающий в установлении доверия человека к искусственному интеллекту, заключается в воспроизводимости: мы должны иметь возможность отследить каждый результат, генерируемый системой ИИ. На него могут влиять алгоритмы, артефакты, системные параметры, разные версии кода и различные наборы данных, поэтому обеспечение воспроизводимости может быть чрезвычайно сложной задачей.

Некоторые эксперты подчеркивают: чтобы уменьшить недоверие людей к технологиям, нужно донести до них мысль о том, что ИИ призван не заменить человека, а помочь ему.

«ИИ не будет успешным, если не уменьшит человеческий стресс, не успокоит и не позволит им насладиться опытом», — заявил изданию Fast Company Джон Роуз, руководитель и CTO по продуктам и операциям Dell Technologies.

Нужно подготовить людей к тому, что они будут использовать возможности ИИ и не должны бояться его. Технологии возьмут на себя рутину и помогут нам сосредоточиться на более важных задачах.

И, наконец, нельзя забывать, что за всем стоят люди. Компаниям, разрабатывающим и внедряющим ИИ, нужно чаще выводить из тени ученых и технологов, стоящих за всеми этими процессами, пишет Fast Company. Образ реальных специалистов, которые заботятся о том, чтобы технологии работали на благо человека, и несут ответственность за результат, поможет «очеловечить» безликие алгоритмы и помочь перестать их бояться.


Подписывайтесь и читайте нас в Яндекс.Дзене — технологии, инновации, эко-номика, образование и шеринг в одном канале.

Следующий материал: