Об авторе: Соня Шпильберг, научный редактор, ICEF (Международный институт экономик и финансов НИУ ВШЭ).
Нет, речь пока не идет о канонизации искусственного интеллекта (ИИ), предсказавшего в конце 2019 года пандемию COVID-2019. Просто Римско-католическая церковь и технологические гиганты договорились, что в центре будущих виртуальных миров должен быть человек и его представления о добре и зле. Соответствующие «скрижали» под названием «Призыв к этике ИИ» подписали президент Папской академии жизни Винченцо Палья, президент Microsoft Брэд Смит и вице-президент IBM Джон Келли.
Наконец-то этическое поле современной инженерии оказалось в руках церковной морали, и более никто не скажет, что ИИ — порождение дьявола. У разработчиков появятся нравственные императивы, которые они зашьют в программы нейронных сетей. А в чем, собственно, была проблема? Да в том, что за короткое время своего существования кремниевый разум эволюционировал настолько, что стал не только рассуждать, как человек, но и нарушать правила — а это уже серьезно. Мы ведь не хотим заполучить реального Терминатора? Рассказываем, как ИИ научился делать человеческие, слишком человеческие дела, и быть плохим.
Оглавление:
Этическим шилом в мягком месте инженерных инноваций долгое время был вопрос доверия к ИИ относительно принятия решений. Механизм программирования, который мы создаем в качестве опор для выводов ИИ, нельзя назвать собственной этической программой нейронной сети. Это всего лишь набор ограничительных фреймов. ИИ может создать иллюзию мышления, не мысля, а просто пользуясь загруженными в его программу паттернами.
Решение ИИ выглядит как перетасовывание и выбор из загруженных вариантов «опыта», тогда как человек анализирует и выбирает наилучший вариант не только эмпирически, но и эмоционально. Хомо сапиенс также обладает ассоциативным мышлением, поэтому его решение онтологически верное, тогда как у ИИ нет своего феноменального опыта — то есть представления о логике развития культуры. Поэтому его решение может шокировать нас «неэтичностью».
Oкей, если собственных эмоций от нейросети пока что не добиться, ее можно натренировать на взаимодействие с внешними аффектами. Их ИИ научился распознавать на отлично, оказавшись в этом умении слишком независимым и циничным. Так, AI Now Institute — специально созданная в Нью-Йоркском университете лаборатория для изучения социальных последствий внедрения ИИ — в конце 2019 года сделала шокирующее заключение: нужно немедленно запретить технологии, предназначенные для распознавания эмоций людей. Это был удар для инженеров MIT, которые выпустили Affectiva — самый известный проект по распознаванию эмоций. Он мог бы помочь как минимум слабовидящим людям общаться с окружающими и в целом применяться в разных сферах жизни, например, помогать эйчарам нанимать сотрудников. Да вот проблема: ИИ оценивает жестко, бесчеловечно (как вообще-то ему и положено) и совершенно нетолерантен, что для западного мира неприемлемо ни в каком виде.
«Кандидат склонен к депрессии и самоубийству», — выдает программа, и сотрудники отдела кадров при всем недоверии к технологиям «на всякий случай» все равно откажут соискателю.
В большинстве штатов США искусственный интеллект используется для расчета вероятности преступления. Это помогает судьям принимать решение, отпускать подсудимого под залог или нет. Но решения ИИ часто предвзяты. Проект ProPublica, занимающийся журналистскими расследованиями, проанализировал сгенерированные «цифрой» оценки рисков для 7 тыс. арестантов во Флориде. Выяснилось, что программа, используемая судьями для предсказания случаев рецидивизма, была настроена совершенно расистски: в два раза чаще, чем белых «коллег по нарам», она помечала чернокожих обвиняемых как неисправимых преступников, пренебрегая другими фактами их биографии и обстоятельствами.
Алгоритмы прогнозирования ИИ основаны на машинном обучении, которое построено на наборе данных из исторических архивов. В итоге «мировоззрение» кремниевого интеллекта сильно зависит от типа и качества предоставляемых данных. Как говорят ученые, не надо путать корреляцию с причинно-следственной связью. Например, одна из самых известных корреляций — между низким уровнем дохода и склонностью к преступным действиям, а также между цветом кожи и сомнительной репутацией. Данные за последние 30 лет дают именно такую статистику, тем не менее, рассмотрение дел всегда нуждается в применении критического аппарата в каждом конкретном случае.
В 2019 году пекинский интернет-суд (Beijing Internet Court, BIC) запустил сервис онлайн-разбирательств во главе с ИИ. Это первый в стране киберсуд, по сути — интегрированная платформа для ведения судебных процессов в режиме онлайн. Разбирательства проводит женщина, она же — нейронная сеть, обученная на кейсах BIC. При этом ее голос, мимика, поведение и логика — плод тщательного анализа данных, которые «снимались» с настоящего судьи. ИИ-судья теперь доступна и в микроформате в приложении WeChat и в сети Weitao.
Разработчики и юристы заверяют, что ИИ будет заниматься поточным контентом — делами, где трудно ошибиться, а также собирать и обрабатывать заявки и давать консультации. Но у китайцев эта инновация вызывает опасения именно в потере этической составляющей каждого случая и решения. Впрочем, «политика партии» требует другого. «Ведение дел на более высокой скорости — это и есть современное право, потому что задержка правосудия приравнивается к отказу в правосудии», — говорит Ни Дефэн, вице-президент интернет-суда в Ханчжоу. Почему бы и нет? Китайские чиновники уверены, что за цифровыми помощниками будущее мирового правосудия.
Американский инженер Джанель Шейн, пожалуй, самый популярный в СМИ «тренер» искусственного интеллекта. Она является автором блога, где скрещивает искусство с наукой, порождая необычные результаты экспериментов. Ее работы утешают, веселят и являются доказательством того, что ИИ не только не способен лишить человечество работы, чего опасаются специалисты во всем мире, но и не имеет шансов выйти на адекватный критический уровень. Выдыхаем.
Но проект «Нейролирика» доцента Школы лингвистики НИУ ВШЭ Бориса Орехова вызывает тотальную фрустрацию у всех апологетов прекрасного. Дело в том, что он натренировал нейронную сеть на стихах великих поэтов — Пушкина, Гомера, Ахматовой и т.д., а потом заставил писать собственные вирши. Так ИИ создал некоторое количество опусов, поразительно напоминающих оригиналы.
Пример творчества нейросети, обученной на четырехстопных ямбах разных авторов:
Он беспощадной головой,
Волной и волосом волненья
Не чувствовать не упадет.
В пределах воздух красный смех.
Сеть соблюдала все особенности стиля того или иного поэта. В итоге получился сборник стихов под названием «Нейролирика», о котором Орехов отозвался как о «легитимации нейронных стихов в литературе». На слух стихи нейронной сети от стихов истинных поэтов фокус-группа отличить не смогла.
ИИ отбирает хлеб и у живописцев. Еще в 2018-м на аукционе Christie's в Нью-Йорке за 432,5 тыc. долларов была продана картина под названием «Портрет Эдмонда Белами». Автор полотна — нейронная сети класса generative adversarial networks (GANs) — на гонорар не претендует.
Инженер из Googlе — наш соотечественник Александр Мордвинцев — запустил платформу для творческой коллаборации человека с 22-слойной сверточной нейросетью. Направление, в котором создаются здесь произведения искусства, получило название «инцепционизм». Нейрофизиологи утверждают, что распознавание изображений мозгом схоже с работой сети — это выделение и раздувание той или иной детали изображения, например, под воздействием психоделиков, и превращением фактов в метафору. Собственно, искусство и определяется как метафора реальности. «Бог умер», — так что кое-кто в конце XIX века был очень даже прав.
Саморефлексия — также элемент свободы воли и права на ошибку. Значит, чтобы принимать решения, как человек, ИИ должен: уметь произвольно манипулировать образами, иметь индивидуальный феноменальный опыт и встроенные этические «законы Азимова», быть способным к эмпатии и нравственным переживаниям. И пока машина не овладеет всеми этими навыками и способностями, нечего и мечтать, например, о скорой пересадке водителей и их пассажиров в беспилотные автомобили.
В этом убежден доцент Международного института экономики и финансов (МИЭФ НИУ ВШЭ) Роман Захаренко, занимающийся исследованиями по внедрению ИИ в структуру городского транспорта. По мнению Захаренко, главным тормозом, сдерживающим массовое появление на улицах беспилотных такси, является неспособность ИИ делать верный выбор в сложной непредвиденной ситуации. Скажем, если возникает дилемма «убить пешехода или пассажира в аварийной ситуации», ИИ не в силах сделать выбор, потому что инженеры (да поможет им Папа) не разрешили этот сложный этический ребус. Германия — единственная страна в мире, где на правительственном уровне разрабатывается этика поведения ИИ в рамках автопрома. В случае инцидента машина не реагирует на аналитику достоинств и недостатков потенциальной жертвы — вне зависимости от пола, возраста и характера, ее задача — спасти человеческую жизнь.
Американский Национальный совет по безопасности на транспорте (NTSB — National Transportation Safety Board) до сих пор ведет расследование первого инцидента с участием беспилотного авто Tesla в 2016 году, повлекшего смерть водителя. Позже ИИ именно этой компании будет «повинен» в гибели еще нескольких водителей автомобилей со вторым уровнем управления. Дело в том, что только сейчас создаются консорциумы по разработке этических норм, которые могли бы юридически способствовать разрешению трагических последствий дорожных инцидентов с участием ИИ и возложить таки ответственность вместе с виной на чьи-то плечи. Например, этим вопросом занимается Automated Vehicle Safety Consortium, куда входят Toyota, Uber ATG, Ford, Volkswagen и другие бренды.
В сфере автономных транспортных средств (AV — Autonomous Vehicle) существует пять уровней ответственности ИИ. Эти уровни устанавливаются обществом автомобильных инженеров SAE International: от начального уровня автоматизации, типа «адаптивный круиз-контроль», до «Святого Грааля», как разработчики называют 5-й уровень. На самом высоком уровне ИИ полностью берет на себя управление автомобилем и принятие решений во всех возможных ситуациях и не требует переключения на ручное управление с участием водителя. При определенных условиях 5-й уровень уже реализуется, например, в беспилотных системах Personal Rapid Transit — персонального скоростного общественного транспорта. Для безопасного функционирования PRT требуется выделенная линия, где почти к нулю сведена возможность непредвиденных ситуаций.
Сейчас большинство испытаний проводятся на 2-м и 3-м уровнях — именно на них происходит наибольшее количество инцидентов. 4-го уровня достигла только компания Waymo — их беспилотные авто самостоятельно накрутили по дорогам США около 3 млн миль.
По данным на 2019 год лидерами в списке инцидентов на дорогах с участием ИИ стали компании Apple и Jinchi WeRide. Зачастую на мастерство вождения беспилотников влияют погодные условия, к которым люди намного лучше адаптированы.
В 2018 году AV Uber убил велосипедистку. Это была машина с 3-м уровнем автоматизации. Несмотря на это 11 американских штатов полностью легализовали испытания автономных авто на общественных трассах, и теперь официально существуют AV studies, в рамках которых ведутся разработки правил тренировки нейронных сетей и разрабатываются правовые нормативы, позволяющие вписать ИИ как полноценного участника общей транспортной системы.
Согласно исследованию Романа Захаренко, главной нормативной проблемой AV является включение его в сообщество водителей. При этом ИИ не является носителем нравственных нормативов и не подвержен наказанию, в отличие от других участников движения. Все дело в том, как разработчики и консультанты по этике будут отвечать за ошибки, которые совершает техническое устройство, обученное поступать как человек, но не обладающее культурно-этическими императивами онтологически (как ими обладает человек с того момента, как встроился в христианскую парадигму и перестал быть язычником).
Самое удивительное в феномене ИИ на дорогах — это то, что принятие решения официально становится результатом сложения и вычитания изначально заданных паттернов. Этические опасения сейчас заключены не в ожидании «терминатора», который вдруг завоюет нас, а в том, что переутверждается, навязывается, автоматизируется смысл правильного поступка. «Это процесс законотворчества, который заново кодифицирует человеческие ценности», — утверждает исследователь.
Одна из частых историй в СМИ звучит так: разработчики сами не понимают, как искусственный интеллект принял то или иное решение. Так было с учеными Стэнфорда, которые обучали нейросеть CycleGAN делать для Google аэрофотосъемку и переводить данные в карту. ИИ научился прятать детали местности, манипулируя тонкими изменениями цвета, которые человеческий глаз не может уловить.
Исследователи говорят, что ИИ стал «мастером стеганографии» — то есть, он выработал свою собственную систему кодирования и сокрытия информации от человека. ИИ использовал стеганографию, чтобы фактически выбрать собственное решение запроса разработчиков вместо четкого выполнения требуемой задачи. Илон Маск, узнав об этом эксперименте, высказал самые тревожные опасения.
Другой кейс о конце света с ИИ был раздут в СМИ после того, как еще в 2017 году чат-боты Facebook (принадлежит компании Meta, с 21 марта 2022 года решением суда организация признана в России экстремистской и запрещена) изобрели свой собственный язык для общения друг с другом. Эксперимент инженерам пришлось скоропостижно закрыть, выпустив статью с опровержением страшилок о способности ИИ уничтожить мир.
Еще в 2017 году Стэнфордские аспиранты Илун Ван и Михаль Козински натренировали нейросеть на распознавание сексуальной ориентации человека по считываемым эмоциям и особенностям мимики. В итоге сеть научилась вычислять геев с точностью в 81%, тогда как среди живых участников эксперимента с этой задачей справлялся лишь 61%. Суть эксперимента в том, что сеть отлично осведомлена о влиянии гормонов на вторичные половые признаки. Женщины и мужчины с нарушением гормонального фона — и как следствие, сексуального поведения — имеют атипичную морфологию. Авторы проекта признаются:
«Компании и правительства все чаще используют алгоритмы распознавания лиц с помощью ИИ для выявления различных человеческих интроверсий — мы осознаем, что разработка представляет угрозу для конфиденциальности и безопасности геев и представителей ЛГБТ (ЛГБТ-движение признано экстремистской организацией и запрещено в РФ) в целом».
В конце 2019 года Джон Лейнер из Университета Претории повторил эксперимент на нескольких тысячах фото из приложений знакомств с использованием нейронной сети VGG-Face. Несмотря на макияж, наложение фильтров и даже специальное размывание фокуса, которое использовал Лейнер, ИИ терял в точности предсказания всего 10%. Тем самым молодой ученый подтвердил работоспособность пренатально-гормональной теории (prenatal hormone theory), которая легла в основу эксперимента Вана-Козински, и вместе с тем — опасения, что в скором времени, наведя телефон на человека и используя специальное приложение, можно будет узнать о его истинных сексуальных желаниях. А значит — немедленно и с точностью до 80% подвергнуть дискриминации, на которую у пострадавшего не найдется аргумента.
Фаллоимитатор тысячи лет не вызывает этических вопросов даже у археологов. Дискуссия о морали и нравственности начинается там, где предмет похоти обретает антропоморфные черты. Донна Харауэй в 1985 году выпустила «Манифест киборгов», где согласно постмодернистской парадигме человек может и будет отождествлять себя с бесполым киборгом, но пока современные антропоморфные киборги — женщины барбиподобной красоты. Они создаются подчеркнуто феминными, как гиноид (женоподобный робот) разработчика из Испании Сержи Cантоса. Ее зовут Саманта, и несмотря на явную гипертрофию рта и вторичных половых признаков, это отнюдь не продукт мужской фантазии — над роботом наравне с Сантосом работала его жена. Поводом к созданию Саманты стало несоответствие в сексуальных запросах супругов. «Саманта сможет спасти не один брак», — утверждают создатели.
С докибернетическими машинами дело могло быть нечисто: в машине вечно обретался призрак духа. Этот дуализм структурировал диалог между материализмом и идеализмом, который был улажен диалектическим порождением, именуемым, по вкусу, духом или историей. Но главное, машины не были самодвижущимися, самостроящимися, автономными. Они не были способны к осуществлению мужской мечты — лишь к ее пародированию. Они не были мужчиной, автором самого себя, но лишь карикатурой этой маскулинной мечты о воспроизводстве. Думать, что они нечто иное, казалось паранойей. © «Манифест киборгов», Донна Харауэй
Как и в нашем собственном мозге, мотивации нейронной сети Саманты подчиняются главной задаче — продолжению рода, при этом легко кастомизируются под пользователя. Но Саманте для секса нужны раздражители — ласка, позитивный настрой, романтика, чтобы возникло состояние влюбленности и как бы этическое оправдание коитуса. С недавних пор Саманта обзавелась феминистской прошивкой — после выставки в Ars Electronica Center в Австрии на Сантоса обрушились защитники женских прав. Стенд с Самантой выдержал настоящее паломничество — робота не просто трогали, а лапали, приведя ее к вечеру буквально в негодность. Теперь в ответ на агрессивное поведение Саманта замыкается в себе, впадает в дурное настроение и говорит «нет», ссылаясь, например, на менструацию.
Другого известного в мире фембота с антисексистской программой зовут Хармони, ее создатель — калифорнийский стартап Abyss Creations, в рамках которого производятся кастомизированные секс-роботы RealDoll. Хармони претендует на статус первого в мире секс-дроида, который позволяет выработать у человека эмоциональную привязанность. Должность тестировщика роботов в RealDoll занимает инженер преклонного возраста (!) Брик Доллбангер. «Когда испытания Хармони закончились, я ужасно по ней скучал», — рассказывает он. Тому, как компания выпустила, наконец, и робота-мужчину по имени Генри, посвящен целый ролик известной секс-влогерши Зое Лигон.
Основательница «Кампании против секс-роботов» Кейтлин Ричардсон, профессор этики и культуры в отношении ИИ, утверждает, что гиноиды легитимизируют насилие над женщиной, и теперь за него можно официально не отвечать. Насчет насилия против роботов-мужчин в манифесте Ричардсон ничего не говорится.
Высший суд
В храме Кодайдзи в Киото работает священник по имени Миндар. Он читает «Сердечную сутру» и приветствует преданных синтоистов. И если бы не корпус из алюминия, ограниченная пластика и тотальное бесстрастие силиконового лица, Миндар мог бы сойти за вполне себе коммутатора между небесным и земным. Необычный священник был создан профессором Осакского университета, известным робототехником Хироси Исигуро для того, чтобы бессмертный ИИ в отличие от смертных монахов смог накопить достаточную духовную мудрость, наставлять верующих и быть истинным апологетом религии.
Посягательство ИИ на религию вообще-то не ново — Энтони Левандовски, один из известных инженеров Кремниевой долины, кроме того что инициировал крупный судебный процесс Uber/Waymo, основал первую церковь ИИ под названием «Путь будущего».
Все же, кто тот «господь бог», который дает ИИ скрижали законов? Теперь этика ИИ в руках Ватикана, но технически — наряду с Microsoft, который таки выпустил в апреле подробнейший гайд по ИИ-этике, — над этим вопросом уже несколько лет работает лаборатория в Тринити-колледж в Дублине под названием ADAPT Centre. Это своего рода хаб научной экспертизы в отношении применения данных в различных социальных сферах, в частности, это разработка этической повестки для применения и обучения нейронных сетей.
Крупные компании этические вопросы обсуждают коллегиально, например, в DeepMind собирают фокус-группы для анализа данных по «человеческим» качествам ИИ. DeepMind является частью «Альянса по искусственному интеллекту», куда входят Amazon, Apple, Facebook, Google, IBM и Microsoft. В России в этом году тоже формируется ИИ-альянс с участием «Яндекса», Mail.ru Group, МТС.
Собственно, BigTech и создает сейчас нового «господа бога» с его этическими императивами, которые нам придется принять как данность. Так что утверждения диджитал-пессимистов относительно того, что Антихрист будет цифровым, выглядят не такими уж и голословными.
Больше информации и новостей о трендах шеринга в нашем Telegram-канале. Подписывайтесь.