Этика искусственного интеллекта: почему нельзя очеловечивать роботов

Фото: Unsplash
Фото: Unsplash
Рассуждения о том, как машины могут изменить нашу жизнь, десятилетиями были одним из основных элементов научной фантастики. Но какие риски стоят за антропоморфизацией роботов?

В 1940-х, когда широкое взаимодействие между людьми и искусственным интеллектом все еще казалось отдаленной перспективой, американский писатель-фантаст Айзек Азимов сформулировал знаменитые три закона робототехники, которые были предназначены для того, чтобы роботы не причиняли людям вреда:

  • робот не должен причинять вред человеку или своим бездействием допустить, чтобы человеку был причинен вред;
  • робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат первому закону;
  • робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам.

В 1938 году, еще до того, как эти законы были сформулированы, свет увидел рассказ Лестера дель Рея «Хелен О’Лой» о женщине-роботе, которая полюбила своего создателя и стала для него идеальной женой. А в 1939 году Эндо Биндер опубликовал рассказ «Я, робот» о судьбе робота Адама Линка, которым движет любовь и принципы чести.

В реальной жизни такое проявление чувств невозможно, считает ректор научно-технологического университета «Сириус», представитель РФ в Рабочей Группе ЮНЕСКО по разработке рекомендаций по этике ИИ Максим Федоров. Он подчеркивает, что искусственный интеллект — это лишь набор алгоритмов.

Фото:Pexels
Индустрия 4.0 Заменит ли искусственный интеллект пиарщиков и журналистов

Гораздо острее стоит вопрос антропоморфизации, то есть очеловечивания людьми роботов, компьютеров и машин.

«Людям свойственно антропоморфизировать все вокруг. В Японии, например, подход очеловечивания предметов порой выходит за пределы разумного: там имена дают даже домам и деревьям. Это часть человеческой природы — одушевлять предметы. Но хорошо ли это? Антропоморфизм — это иллюзия, потому что люди перестают общаться с людьми и начинают общаться с роботами, с алгоритмами, а это ведет к разного рода социальным проблемам. Мы и так стали предпочитать живому общению чаты в соцсетях и мессенджерах. Качество общения полностью меняется, что не могло не отразится на демографии, на социальных и на семейных связях», — считает Максим Федоров.

С ним согласна практический психолог Нина Волонтэй: «Чрезмерное сопереживание и очеловечивание роботов может грозить нежеланием людей вкладываться в построение отношений в реальности. Иногда отношения с живыми людьми могут быть сложными и болезненными, но замена их искусственным разумом может порождать депрессию».

Фото:Shutterstock
Футурология Каким станет секс в будущем: VR, роботы и улучшение тел

Роботы среди нас

Они уже говорят, как люди, двигаются, как люди, и работают, как люди. Роботы становятся умнее и больше похожи на людей. В США уже существует Общество по предотвращению жестокости по отношению к роботам (ASPCR), и нейробиологи утверждают, что у них будут социальные права, как у животных. Это не научная фантастика. Наше сосуществование с машинами уже началось, и этические дебаты тоже.

Люди очень легко приписывают объектам ментальные свойства и сопереживают им, особенно когда внешний вид этих объектов подобен внешнему виду живых существ. Опасность состоит в том, что это можно использовать в манипулятивных целях: заставлять людей приписывать роботам и системам искусственного интеллекта большее интеллектуальное или даже эмоциональное значение, чем они того заслуживают.

Один из самых известных робототехников в сфере создания человекоподобных машин — профессор Осакского университета Хироси Исигуро. В 2018 году он создал робота в виде десятилетнего мальчика Ибуки. В его мимике заложено не только проявление эмоций, но и «непроизвольные» движения, которые только добавляют андроиду реалистичности — Ибуки может моргать, двигать головой и глазами.

Робот Ибуки

Всемирную известность получила и гиноид София, разработанная гонконгской компанией Hanson Robotics. Гиноидами стали называть разновидность андроида, которая имеет подчеркнуто женскую внешность со всеми гендерными отличиями.

Актер Уилл Смит на свидании с Софией

София даже стала подданной Саудовской Аравии в 2017 году и по совместительству первым роботом, получившим гражданство какой-либо страны. Эта новость положила конец дискуссии в ASPCR о правах роботов на правосубъектность. Там посчитали, что в будущем машины и роботы должны будут платить налоги и отчислять взносы на социальное обеспечение. Таким образом, общество перейдет к экономическим отношениям с машинами, чтобы компенсировать, например, потерю рабочих мест.

Жестокость людей по отношению к роботам

Более острый вопрос — это социальные права роботов, сравнимые с правами животных и, в конечном счете, с правами человека. Но это в том случае, если роботы разовьют определенную степень сознания. Хотя степень сознания самих людей до сих пор вызывает вопросы. Например, в 2014 году в США от рук неизвестного вандала пострадал робот HitchBOT. Злоумышленник оторвал ему руки и обезглавил. Голову потом так и не нашли. Новость об этом инциденте на местных телеканалах вызвало настоящее возмущение во всем мире. Робота разработали два канадских инженера как автостопного робота для социального эксперимента по анализу реакции человека на андроидов. HitchBOT стоял на обочинах дорог, всегда с поднятым большим пальцем, пока водитель не осмеливался взять его пассажиром. Лицо железного автостопщика, нарисованное на экране, усеянном красными пикселями, всегда улыбалось.

Робот HitchBOT

HitchBOT создали как симпатичного попутчика, который способен поддержать простую беседу и фиксировать на фото путешествие. Но путешествие самого HitchBOT закончилось в Филадельфии, куда он попал после Канады, Голландии и Германии. Неизвестный водитель на темной пустынной улице разбил робота с особой жестокостью. Эксперимент завершился, и человек в отношении андроида показал себя с самой плохой стороны.

Фото:Shutterstock
Экономика образования Ученые придумали, как найти новую профессию, если вас заменили роботом

Атака на hitchBOT — не единичный случай. На YouTube можно найти достаточно роликов, где люди, в том числе, дети, вымещают злость на беспомощных роботах. По мнению психологов, человек, причиняющий вред роботу, проверяет не только пределы возможностей машины, но свои собственные и окружающих, чтобы понять, что приемлемо, а что нет.

Хотя, казалось бы, если хочется уничтожить робота, достаточно просто перерезать его кабели. Но нет, избиение машины уже есть антропоморфизм. Эксперты в области психологии считают, что жестокое поведение по отношению к андроидам — способ дистанцироваться, показать, что он отличается и он аутсайдер. А это может означать, что у людей есть определенный страх того, что роботы однажды могут присоединиться к их социальной группе. Хотя изначально создание антропоморфных роботов должно было, наоборот, вызывать симпатию.

«По подобию человека роботов делают, видимо, для того чтобы вызывать у людей доверие. Внешняя схожесть вызывает приятные чувства, — считает практический психолог Нина Волонтэй. — Если искусственный интеллект выглядит как какой-то абстрактный объект, думаю, он будет вызывать у людей меньше чувств и интереса. Ведь мало кто из нас испытывает любовь, например, к своему компьютеру или пылесосу. Мы воспринимаем эту технику функционально».

С этой точкой зрения не согласна психолог Оксана Козырева: «Начиная с каменного века, человеку было свойственно наделять близкими себе чертами любой предмет и даже погодные явления. Суть была в том, чтобы приблизить к себе это явление, чтобы оно стало более понятным. Как только человек придумал имя Солнцу или ветру, как только начал разговаривать с ним, воображая, что это некое божество, то оно стало понятнее и его можно было, например, больше не бояться. То же самое с роботами. Есть соблазн их очеловечить, придумать им человеческие имена и проецировать на них межчеловеческие отношения. Но в то же время слишком похожий на человека робот кажется жутким. «Жуткое» — это название статьи Зигмунда Фрейда. Основная его идея была в том, что именно жутко нам становится не от встречи с чем-то или кем-то неведомым и чужеродным, а, наоборот, с тем, что нам хорошо знакомо».

Фото:Jamie Squire / Getty Images
Экономика образования З — зооморфизм: роботы как братья наши меньшие

В 1919 году в свет вышла статья австрийского психоаналитика Зигмунда Фрейда «Жуткое». В своей работе он ссылался на статью психолога Эрнста Йенча, который анализировал рассказ Э. Т. А. Гофмана «Песочный Человек», где есть реалистичная кукла Олимпия. Анализируя текст художественного произведения, Фрейд выделил основные механизмы для создания эффекта «жуткого»: куклы, восковые фигуры, двойники, призраки. Все эти объекты объединяет одна и та же черта: мы не в состоянии сказать, жив этот объект или мертв. Все они, так или иначе, напоминают нам человека, но есть и что-то, что выдает в них «нечеловеческое» или «неживое». Именно на этом эффекте выстроена почти вся индустрия фильмов ужасов. Фрейд в своей работе даже приводит цитату Фридриха Шеллинга: «Жуткое — то, что должно было бы быть скрытым, но обнаружило себя».

Эффект «Зловещей долины»

Эффект «зловещей долины» — гипотеза, сформулированная японским ученым-робототехником и инженером Масахиро Мори. Она подразумевает, что робот или другой объект, выглядящий или действующий примерно как человек, но не точно так, как настоящий, вызывает неприязнь и отвращение у людей. В 1970 году Мори провел опрос и выяснил, что похожая на человека машина перестает восприниматься как техника. Антропоморфный робот начинает казаться нездоровым или неживым человеком, ожившим трупом, вызывая страх смерти у человека.

Максим Федоров: «Человекоподобный робот воспринимается как нежить, как бы он ни копировал мимику и движения людей, мозг человеческий не сможет воспринять робота за живое существо. По большому счету, делать роботов внешне похожими на нас, дорого и бесполезно. Их главная суть в функциональности. В Японии, к примеру, давно развита социальная робототехника. Андроиды есть в аэропортах для транспортировки багажа пассажиров или для патрулирования. Роботов-медсестер и роботов-сиделок используют в больницах. И все они в большинстве своем не человекоподобны. Антропоморфизация здесь и не нужна. Главное, что робот-помощник выполняет свою функцию».

Опасные эксперименты

Психологи и социологи уверены, что наше взаимодействие с роботами может изменить саму человеческую природу. И, возможно, совсем не в лучшую сторону. Очевидно, что внешний вид и способности различных форм искусственного интеллекта решающим образом обуславливают наше отношение к ним. Если робот способен двигаться, мы воспринимаем его, как существо, у которого есть какое-то намерение или цель, которые, вероятно, отражают его внутренний разум. Люди устроены так думать и реагировать на это. Может быть именно поэтому нам кажутся безобидными голосовые помощники, ведь они замкнуты в своих колонках и капсулах.

Но пытливому человеческому сознанию хочется пойти дальше, и многие эксперименты способны по-настоящему испугать. В начале 2022 года стало известно о программисте из Пермского края Александре Осиповиче. Мужчина создал на 3D-принтере копию Терминатора и вживил в него сознание своего умершего дедушки. Видеозапись эксперимента мужчина выложил на своем YouTube-канале. Журналистам Осипович рассказал, что технология сможет пригодиться людям, которые тяжело переживают утрату близкого человека.

Изобретатель общается с роботом, задает ему вопросы, а тот отвечает на них голосом дедушки.

Психологи по поводу такого метода переживания смерти близкого человека настроены скептически.

Оксана Козырева уверена, что интегрировать сознание умерших людей в роботов — это опасная затея прежде всего для самого пользователя. У каждого в жизни наступает момент, когда мы теряем кого-то из близких нам людей. «Конечно, хочется зацепиться за какую-то соломинку, чтобы еще раз увидеть или услышать дорогого человека, но это все обман и иллюзия. Утрату необходимо пережить естественным путем. Пусть захлебываясь в слезах и горе, пусть с депрессией. Но все это пройдет. А подобные изобретения этот процесс будут сильно замедлять. Это как искусственно поддерживать жизнь у больного, мозг которого уже умер, а сердце еще бьется. Искажать реальность очень вредно. Так можно и с ума сойти. Психика человека попросту начнет раздваивать реальность. В психологии известны тяжелые случаи, когда человек не может пережить потерю даже спустя десятилетия, что приводит к сложным проблемам со здоровьем. А создавать такого робота — значит манипулировать и использовать людей в момент, когда они разбиты горем».

Ученые настаивают: прежде чем запустить производство подобных изобретений, необходимо многое взвесить. Максим Федоров добавляет: «Здесь нужно длительное научное исследование. Сложно сразу дать моральную оценку. После потери близкого человека людям порой свойственно разговаривать с фотографиями умерших, с их вещами. Но фотографии же не отвечают. Вопрос в том, кто создал тот алгоритм, который будет отвечать пользователю. И кто впоследствии будет нести ответственность за то, что будет выдавать этот алгоритм. В качестве аналога этому изобретению из Пермского края можно привести в пример чат-боты. С ними также можно вести диалог. Это маркетинговые, так называемые «липкие» технологии, которые заставляют удерживать внимание на конкретном товаре или услуге. Это же тоже вроде как манипуляция. Поэтому при развитии технологий искусственного интеллекта возникает масса не только философско-этических, но и нормативных вопросов».

Фото:Unsplash
Футурология Работа для робота: сможет ли искусственный интеллект заменить человека

Кодекс этики

Регулирование искусственного интеллекта активно обсуждается во всем мире. «Россия одной из первых приняла кодекс этики в этой области. Он подписан ведущими российскими организациями, работающими в этой сфере, — говорит директор Центра технологий искусственного интеллекта Сколковского института науки и технологий Иван Оселедец. — Также идут обсуждения в Евросоюзе и США. Отдельные сферы, такие как, например, видеонаблюдение, уже регулируются на разных уровнях. К примеру, запрет определения нарушений по камерам видеонаблюдения в отдельных американских городах. Использование искусственного интеллекта тесно связано с использованием данных, и европейский Общий регламент о защите данных (General Data Protection Regulation, GDPR) также оказывает влияние на развитие технологий искусственного интеллекта. Однако именно этические вопросы являются ключевыми. Очень сложно на данный момент выработать единую позицию по развитию и применению методов искусственного интеллекта, которая, с одной стороны, уменьшит риски, а с другой — не будет мешать развитию технологий».

В международной группе экспертов ЮНЕСКО, которая занимается подготовкой первых глобальных рекомендаций по этике искусственного интеллекта, куда входят Максим Федоров и Иван Оселедец, идут острые дискуссии. Россия была единственной среди 178 стран, которая четко заявляла, что в принятии решений по вопросам этики искусственного интеллекта нужен исключительно научный подход. Наши специалисты предложили использовать вычислительные мощности и всевозможные программные продукты, которые позволяют моделировать миллионы сценариев событий, на основе которых можно будет делать какие-либо выводы и принимать решения. В конце 2021 года российская рекомендация по этике искусственного интеллекта была одобрена ЮНЕСКО.

Фото:Shutterstock
Индустрия 4.0 Интернет как роскошь: что такое цифровое неравенство и как его преодолеть

Цифровое неравенство

Кажется очевидным, что искусственный интеллект и робототехника приведут к значительному повышению производительности и, следовательно, положительно повлияют на общее благосостояние. Попытка повысить производительность часто была характерной чертой экономики. Однако повышение производительности за счет автоматизации обычно означает, что для получения того же результата требуется меньше людей. Серьезные потрясения на рынке труда происходили и в прошлом, например, в 1800 году в сельском хозяйстве было занято более 60% рабочей силы в Европе и Северной Америке, а к 2010 году в нем было занято около 5% в ЕС, и еще меньше в самых богатых странах мира.

Классическая автоматизация заменила человеческую силу, тогда как цифровая автоматизация заменяет человеческое мышление или обработку информации. А это может означать более радикальные изменения на рынке труда. Подобный этический момент РБК Тренды уже обсуждали с Максимом Федоровым в одной из статей. Это так называемое цифровое неравенство подразумевает разный доступ к технологиям на уровне отдельных лиц, компаний или государств.

Фото:из личного архива
Индустрия 4.0 Максим Федоров — РБК: «Перекладывание функций на ИИ — опасный тренд»

«Цифровое неравенство особенно заметно на платформе ЮНЕСКО, потому что там присутствуют представители различных государств, в том числе Северной Африки и Ближнего Востока, — подчеркивает Максим Федоров. — Их взгляды на проблему отличаются от взглядов представителей технологически развитых государств, к числу которых я отношу Россию. Они говорят: какой вообще может быть вопрос, связанный с ИИ, когда у нас во многих местах интернета нет, учебников в школах не хватает? Проблема неравного доступа к технологиям касается не только искусственного интеллекта. Подобные вопросы можно поднять и в технологиях аграрной области. Известно, что во многих странах сельскохозяйственные корпорации вытеснили локальных производителей, что привело к большому количеству экологических, социальных и других проблем».

Обновлено 06.07.2022
Главная Лента Подписаться Поделиться
Закрыть