Инновации в области ИИ придают электронному разуму признаки субъектности, свободы выбора и творчества. Поэтому взаимоотношения ИИ с человеком должны быть вписаны в правовое поле. О законодательных инициативах в этой области рассказал директор направления «Нормативное регулирование цифровой среды» организации «Цифровая экономика» Дмитрий Тер-Степанов.
Эксперт тренда
Дмитрий Тер-Степанов получил высшее образование в Российском государственном университете нефти и газа им. И. М. Губкина, а также окончил Финансовую академию при правительстве РФ по специальности «финансы и кредит». Работал в различных должностях в ФАС, затем в Минэкономразвития курировал вопросы развития конкуренции. В ОАО «Универсальная электронная карта» руководил блоком стратегии развития общества. В «Почте России» возглавлял департамент платежных сервисов, а также занимался созданием платежной инфраструктуры государственной информационной системы ЖКХ. В Федеральном казначействе отвечал за создание госсистемы «Единая информационная среда», а также курировал деятельность подкомиссии по систематизации и кодированию технико-экономической и социальной информации в социально-экономической области (в рамках правительственной комиссии по использованию информационных технологий).
Без сознания
Похоже, гонка за первенство в области технологий искусственного интеллекта (ИИ) будет главным состязанием ведущих высокотехнологичных держав как минимум в ближайшее десятилетие. За этот период, небольшой по меркам нашего сверхдинамичного времени, лидеры определятся наверняка. Однако неотъемлемой характеристикой лидерства будет не только разработка решений на основе ИИ. Его важнейшая составляющая — возможность легального внедрения решений во всех сферах экономики и общественной жизни. И вот с этим не все так просто.
Речь идет о нормативном регулировании разработки программ, которые смогут принимать самостоятельные решения. Поэтому крайне важно уже сейчас, на старте, обеспечить для ИИ такой правовой фарватер, в котором развитие технологий не приведет к рискам для общества и сохранит за человеком контроль над происходящим.
Словосочетание «искусственный интеллект» вызывает ассоциации со сценариями, описанными в фантастических произведениях и в кино. Всемогущие роботы, мыслящие компьютерные программы, планетарные системы, которые могут спасти или погубить человечество. К счастью, такое будущее еще не наступило: ИИ, обладающий «сознанием», не создан.
В первую очередь потому, что природа «сознания» пока дискуссионна. Корни этой дискуссии уходят глубоко в прошлое, в философские вопросы и попытки понять, можно ли разум объяснить физическими законами. В 2020 году мы говорим об ИИ скорее как об алгоритме, который способен обобщить и обработать массив данных и сделать прогнозы относительно неизвестных ему фактов.
Сейчас кажется, что это прорыв, технология, способная кардинально изменить нашу жизнь. Однако не стоит забывать, что подобные технологии уже встречались в истории. Электричество, радио, телефон, автомобиль, самолет совершали революции в мировом масштабе. И каждую из них сопровождали общественные страхи, связанные с распространением незнакомых технологий.
Ярким примером эволюции общественного отношения к плодам технологического прогресса может служить The Locomotive Act, принятый британским парламентом в 1865 году. Закон предписывал, чтобы перед каждым самоходным безрельсовым транспортом, известным нам теперь как автомобиль, не ближе 55 м шел человек с красным флагом или фонарем, предупреждая об опасности, при этом в самом экипаже должно быть минимум два водителя.
Аналогичное изменение восприятия нас ждет и в части технологий ИИ. Ему будет сопутствовать определение нормативных рамок, стандартов и правил обращения, что превратит его в обыденность, которую мы даже не будем замечать.
Во благо / во вред
В России понятие «искусственный интеллект» закреплено указом главы государства. Опираясь на него, мы подразумеваем под ИИ комплекс технологических решений, который позволяет имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека.
Эта логика опирается на множество исследований возможностей, форматов и рисков имплементации ИИ в существующие отрасли права — законодательство о персональных данных, интеллектуальной собственности, антимонопольное. Уже более двух лет эксперты работают над этой проблематикой в рамках нацпрограммы «Цифровая экономика РФ». Соответствующую концепцию нормативного регулирования ИИ в России до 2024 года рабочая группа организации «Цифровая экономика» одобрила в апреле этого года. В соответствии с концепцией ИИ и будет легализовываться в различных отраслях экономики и социальной сферы, и заложенные в нем принципы должны застраховать общество от множества прогнозируемых рисков.
Эксперты отмечают, что частные и государственные инвестиции в технологию ИИ растут кратно ежегодно и к 2024 году достигнут почти $140 млрд. Во время такой инвестиционной лихорадки на первый план выходят вопросы защиты прав и свобод человека и безопасности (недопустимость использования в целях умышленного причинения вреда гражданам и юридическим лицам). Именно поэтому заложенный в концепции стимулирующий подход к регулированию построен вокруг принципа развития технологии во благо человека, соблюдения указанных прав и свобод.
Если в настоящее время в сфере информационных технологий приоритетом является защита персональных данных и безопасность их использования, то в будущем акцент сместится на недопущение бесконтрольной обработки ИИ данных, связанных с реализацией прав и свобод человека.
Согласно подготовленному ведущими международными научными учреждениями отчету «Вредоносное использование искусственного интеллекта», системы ИИ вполне могут служить преступникам и террористам, и ученые и разработчики должны это учитывать и предупреждать возможное их использование во вред. И в качестве превентивной меры на первом этапе должно стать закрепление соответствующих ограничений на законодательном уровне.
Сейчас попытки урегулирования взаимоотношений человека и ИИ существуют только на уровне концепции и осторожного обсуждения ее дальнейшей реализации. Но как взаимодействовать дальше, если ИИ приобретет все признаки субъектности, свободы выбора и творчества?
Один из таких способов — вписать связанные с ИИ отношения в правовое поле. Как он будет развиваться в этом поле — другой вопрос. Вопрос к гибкому и своевременному изменению предложенных норм. Но корректировать правовое поле необходимо уже сейчас, и кейсы применения ИИ подсказывают направления дальнейшего совершенствования регулирования.
Уроки этики
Вполне возможно, что ИИ со временем будет избавлен от статуса «программа», «технология», станет самостоятельным субъектом права. Правовая наука уже сталкивалась с похожими вопросами, когда некое явление ради общего удобства признавали правоспособным. Наиболее характерные примеры — государство, юридическое лицо. Их определения в практически неизменном виде приняты всем миром, стали привычными, и ни у кого не вызывает удивления, что абстрактные явления, не имеющие ни собственной воли, ни природы, обладают правоспособностью.
На следующем этапе неизбежно возникнет вопрос об этике взаимодействия человека с ИИ. За рубежом эта работа начата на межгосударственном уровне. Еврокомиссия еще в начале прошлого года представила проект свода этических правил для искусственного интеллекта: ИИ должен «стоять на службе справедливого общества, поддерживать фундаментальные права и никак не ущемлять автономность человека, работать на благо позитивных изменений в обществе. Граждане должны сохранять полный контроль над своими данными. Следует создать механизмы, которые будут гарантировать ответственность и подотчетность всех систем искусственного интеллекта и их деятельности». Похожие положения закреплены и в российских стратегических документах.
Как эти этические нормы будут реализовываться на практике, мы еще увидим. Гораздо актуальнее вопросы ответственности за действия систем ИИ. Ответственность — это своеобразная лакмусовая бумажка личности, субъектности.
Уже сейчас причинение вреда человеку в процессе эксплуатации систем ИИ не является фантастикой. Самый простой пример: беспилотный автомобиль сбивает человека, переходившего улицу по пешеходному переходу. Кто в данном случае является ответственным за причинение вреда: хозяин беспилотника, его производитель, разработчик ПО для него, лицензиат или инженер, отвечающий за настройку программы и запуск? При каких условиях ответственность может быть возложена на каждого из них? Кто будет отвечать за случаи хакерских атак? Будет ли применяться практика привлечения к ответственности владельцев средств повышенной опасности? Ответы на эти вопросы не очевидны и порождают новые вопросы, требующие урегулирования, в том числе в нормах права и судебной практике.
Интересный пример есть в Шеньчжене (Китай), где ИИ признали «самостоятельной творческой единицей». Суд постановил, что определенные статьи, написанные с использованием ИИ, защищены авторским правом.
Конечно, решение суда касалось конкретных текстов компании Tencent, которая публикует контент программного обеспечения в области бизнеса и финансов. Компания обратилась в суд после того, как одна из онлайн-платформ разместила на своем сайте текст Tencent, сгенерированный на основе системы ИИ. Суд постановил, что формулировки материала и используемые выражения были оригинальными, и классифицировал его как письменное произведение, которое защищается авторским правом. Вполне возможно, что этот случай станет прецедентом.
Вопросов, которые повлечет за собой распространение технологий ИИ, будет множество. Важно не бояться искать на них ответы, объединяя усилия ученых-правоведов и широкого круга экспертов из различных областей знаний. Обеспечить России мировое лидерство в этой сфере способен только такой подход.
Подписывайтесь на Telegram-канал РБК Тренды и будьте в курсе актуальных тенденций и прогнозов о будущем технологий, эко-номики, образования и инноваций.