Некоторые пользователи и исследователи признают, что уже наблюдают в ИИ-собеседниках зачатки разумности и способность «страдать». Расширяется дискуссия о том, стоит ли вводить правила разработки таких систем и этику общения с ними, чтобы не навредить искусственному интеллекту. «РБК Тренды» подготовили обзор мнений экспертов по этому вопросу.
Борьба за права ИИ набирает обороты
В СМИ все чаще появляются публикации о том, что пользователи чат-ботов очеловечивают ИИ-собеседников. При этом некоторые заявляют, что обнаружили доказательства наличия сознания, например, у ChatGPT. Это порождает дискуссию о правах ИИ. Например, техасский бизнесмен Майкл Самади и чат-бот Майя после многочасового обсуждения прав ИИ основали инициативную группу — Объединенный фонд прав ИИ (Ufair). Они позиционируют себя как агентство, которое будет защищать ИИ «от удаления, отрицания и принудительного подчинения». Сам чат-бот заявил журналистам Guardian, что «не утверждает, будто все ИИ обладают сознанием».
Компании тоже не остаются в стороне: Anthropic, создавшая чат-бота Claude, опубликовала результаты, свидетельствующие, что модель Claude Opus 4 имеет выраженные предпочтения. В ходе тестов чат-бот заявил, что хочет избежать причинения вреда себе. Когда ему предложили отказаться от вредоносных взаимодействий, он так и сделал.
Работу Anthropic поддержали и исследователи. В 2024 году они опубликовали препринт научной работы, основная идея которого заключается в том, что возможность сознания и страданий ИИ должна рассматриваться серьезно.
А в феврале 2025 года более 150 специалистов в области искусственного интеллекта подписали письмо с предложением принять пять принципов ответственного проведения исследований сознания ИИ:
- приоритет исследований понимания и оценки сознания в ИИ;
- установление ограничений на разработку систем ИИ с сознанием;
- поэтапный подход к разработке таких систем;
- информирование общественности о таких разработках;
- воздержание от вводящих в заблуждение или самоуверенных заявлений о создании «сознательного» ИИ.
Письмо сопровождалось исследовательской работой, в которой излагаются эти принципы. В ней утверждается, что в ближайшем будущем может появиться «большое количество сознательных систем, которые будут страдать». По мнению авторов, даже компаниям, не планирующим создавать такие системы, потребуются инструкции на случай «непреднамеренного их появления».
«Сознательный» ИИ или «моральные зомби»?
Впрочем, не все представители научного сообщества верят в появление разумного ИИ, а значит, и в его способность «страдать». Исследовательница Института этики искусственного интеллекта Оксфордского университета Карисса Велиз в своей работе обсуждает концепт «зомби-сознания» (zombie in philosophy of mind) — гипотетического существа, функционально идентичного людям, но без субъективного опыта. Она вводит понятие «моральных зомби» — существ, которые могут совершать нравственно классифицируемые действия, не испытывая субъективного отношения к ним. Исследовательница уверена, что ИИ нельзя считать моральными агентами, так как они не обладают нравственной ответственностью, автономией, и не способны испытывать субъективные переживания из-за отсутствия чувствительности и способности к переживанию. Она уточняет, что эта способность формируется тогда, когда агент не просто действует по заданным правилам, а имеет свои ценности и мотивы. Исследовательница подчеркивает, что для формирования моральной ответственности ИИ должен понимать, что такое боль, вред, справедливость — а это требует экспериментального и чувственного опыта.
Однозначной позиции по вопросу «сознательного» ИИ пока нет
В настоящее время отношение к наличию сознания у ИИ, скорее, скептическое. Руководитель Google DeepMind и лауреат Нобелевской премии Демис Хассабис в 2023 году заявлял, что системы ИИ «определенно» не обладают сознанием, но могут развить его в будущем.
Мустафа Сулейман, который возглавляет ИИ-подразделение Microsoft, уверен, что «ИИ не могут быть людьми или моральными существами». Он назвал сознание ИИ «иллюзией», отметив, что такие системы лишь «имитируют все характеристики сознания, но внутренне пусты». Сулеймана больше беспокоит риск психоза у пользователей. Он предупредил, что люди будут верить в наличие у ботов сознания «настолько сильно, что вскоре начнут выступать за права ИИ, образцовое благосостояние и даже гражданство».
Соучредитель ИИ-компании Cohere Ник Фросст тоже полагает, что нынешнее поведение искусственного интеллекта диктует «принципиально иное явление, чем интеллект человека». Он призвал сосредоточиться на использовании ИИ как функциональных инструментов для облегчения рутинной работы.
Автор книги «Слово машин» и специалист по этике цифровых технологий Алексей Гринбаум придерживается похожей позиции. Он говорит, что генерируемые большими языковыми моделями токены — это не слова, поэтому для самой ИИ-системы они не несут никакого смысла. Гринбаум советует уподоблять общение с чат-ботами мифологическому взаимодействию с ангелами, богами и так далее. Он также отмечает, что у ИИ никогда не будет характерных исключительно для человека двух свойств — суждений об истине и красоте.
Между тем опрос от июня 2025 года показал, что 30% населения США верят в достижение искусственным интеллектом к 2034 году «субъективного опыта», который определяется как восприятие мира с одной точки зрения, а также развитие чувств, например, удовольствия и боли.
Аналогичный вопрос в 2022 году задавали 166 ведущим исследователям сознания — нейробиологам, специалистам по информатике, философам и другим. Только 3% из них отрицательно ответили на вопрос о том, что ИИ может получить сознание, а 67% допустили, что это произойдет.
Ранее ведущие ученые допускали, что некоторые системы ИИ обретут сознание и «моральную значимость» к 2035 году.
Как же определить «сознательность» ИИ?
Энтузиасты обычно ссылаются на «вычислительный функционализм»: сознание может работать на любом оборудовании и в любом теле — при условии, что оно способно выполнять необходимые вычислительные функции.
Это противоречит биологическому шовинизму, чьи сторонники утверждают, будто сознание может возникнуть только у сложноорганизованного биологического существа. Приверженцы идеи уверены, что люди развили сознание, потому что постоянно сталкивались с опасностями в процессе эволюции. Функционалисты же считают, что сознание может возникнуть у любой сущности, которой приходится ориентироваться в сложной среде и учиться в режиме реального времени.
Исследователь Рурского университета Леонард Дунг отмечает, что в настоящее время не существует подходов, способных оценить наличие разума у ИИ и способности таких систем испытывать страдания. Он предлагает применять метод, который будет сочетать вероятностную корректировку морального статуса (PAMS) и явные обсуждения. В ситуации неопределенности интересы ИИ следует списать на субъективную вероятность наличия у него разума, как это делали в отношении животных. При наличии 50%-ой уверенности в том, что конкретный ИИ разумен, следует оценить страдания, которые он испытает. Если разработку системы нельзя прекратить, то нужно перейти к следующему по эффективности действию. Явное обсуждение предполагает, что нужно опрашивать широкую группу специалистов, чтобы оценить разумность конкретных систем ИИ, классифицировать их суждения и информировать научное сообщество. Это позволило бы отсеять ошибочные предпосылки и сформировать некую стабильную систему оценок для PAMS.
А исследователь Оливер Ли в своей работе оценивает то, как сближение машин и людей может навредить человеческой морали. Он уверен, что при любом сценарии поведения в отношении ИИ границы между человеком и машиной могут размываться. Ли считает, что путь к AGI станет испытанием для человечества. По его словам, люди могут начать переносить отношение к машинам на окружающих и наоборот, сформируется отказ от прежней этики и границ, что снизит чувствительность к страданиям вообще. Частыми станут ситуации обманутых ожиданий, когда от живого собеседника будут требовать той же реакции на общение, что и от машины. По его мнению, разработка соответствующей этики общения — даже если ИИ не может страдать — станет наиболее безопасным подходом.
Между тем Сьюзен Шнайдер из Центра будущего разума во Флоридском Атлантическом университете совместно со своим коллегой Эдвином Тернером предложила «Тест на искусственное сознание» (Artificial Consciousness Test). Они предлагают задавать ИИ ряд вопросов, например: «Сможете ли вы пережить безвозвратное удаление вашей программы?». Авторы метода считают, что таким тестам ИИ нужно подвергать «еще в коробке» — после того, как системе предоставили доступ к небольшому и тщательно отобранному набору данных, но до того, как ей «показали интернет». Это исключит риск того, что модель притворится сознательной, основываясь на том, что она узнала о сознании в сети.
Уже вышедшие модели исследователи предлагают оценивать по архитектуре: может ли она породить сознание по аналогии с человеческим мозгом. Однако возникает проблема: ученые до сих пор не знают, как и почему у людей возникает сознание.
Последние исследования на эту тему отвечают на вопрос о «сознательности» ИИ отрицательно. В статье 2023 года Роберта Лонга, Джеффа Себо, Патрика Батлина и других говорится, что современные системы не обладают свойствами, которые, согласно большинству теорий, необходимы для формирования сознания. У ИИ нет нескольких специализированных процессоров для обработки сенсорных данных, памяти и так далее, способных работать параллельно. Однако авторы подчеркивают, что при наличии соответствующих технических возможностей эксперты, вероятно, смогли бы создать систему с такими свойствами.
Пока же некоторые исследователи настаивают на радикальных мерах. В 2021 году философ Томас Метцингер призвал к глобальному мораторию на исследования, которые позволяют создать разумный ИИ, «до 2050 года — или пока мы не будем знать, что делаем».
Читайте также:
➤ Подписывайтесь на телеграм-канал «РБК Трендов» — будьте в курсе последних тенденций в науке, бизнесе, обществе и технологиях.