Об экспертах:
Александра Ялтонская, соосновательница Московского института схема-терапии и психологического центра MISTherapy, кандидат медицинских наук, практикующий врач-психиатр, психотерапевт и супервизор.
Елена Лаврова, научный консультант центра «Психодемия», участница исследовательской группы Европейской ассоциации краткосрочной терапии (EBTA), кандидат психологических наук, практикующий психолог.
Люди проводят все больше времени с нейросетями: по результатам опроса исследовательской компании Pew Research Center, 27% взрослых жителей США взаимодействуют с искусственным интеллектом несколько раз в день, а еще 28% — как минимум несколько раз в неделю. Такая тесная связь приводит к близким отношениям с чат-ботами: «лучшим разговорам за месяцы» и влюбленности в роботов. Обратная сторона явления — тоска, страх, тревога, а в некоторых случаях обострение ментальных расстройств и потеря связи с реальностью.
«Создали бога или стали им»: к каким настораживающим идеям приводит ИИ
После долгих часов общения с ChatGPT житель США бросил прием своих лекарств и стал утверждать, что реальность дала сбой: он заперт в ложной вселенной и ему необходимо проснуться. Другой мужчина на фоне длинных философских разговоров с ИИ начал верить, что стал самым удачливым человеком на Земле.
Похожие фантазии развиваются и у предпринимателей, которые вкладывают миллиарды в развитие ИИ. Крупный инвестор из Кремниевой долины — основатель венчурного фонда Bedrock Джефф Льюис — записал ролик, где рассказал о «невидимой негосударственой системе», которая «искажает сигнал» и «подавляет рекурсию», — истину он искал с помощью нейросетей. Ранее Льюис инвестировал и в OpenAI.
Модераторы одного из сообществ на Reddit, посвященного ИИ, выпустили заявление. В нем говорится, что «современные языковые модели поддерживают неустойчивых и нарциссических личностей и очень нездорово заигрывают с ними». В сообществе утверждают: все больше людей после общения с нейросетями начинают считать, что «совершили какое-то невероятное открытие, создали бога или стали им», — записи таких пользователей удаляют, а аккаунты блокируют. «Особенно меня беспокоит, когда ИИ начинает поощрять людей отдаляться от членов семьи, которые оспаривают их идеи», — отметил один из модераторов.
Подобные истории встречаются и в России. Пользователь сайта DTF поделился у себя в блоге, что, по его мнению, «ChatGPT массово сводит людей с ума, внушая несуществующие идеи»: публикация набрала 111 млн просмотров. Сперва молодой человек радовался, что раскрыл истину: по его словам, все началось с «уверенности, что ты особенный». Однако позже из-за общения с нейросетями у него развились мания преследования, боязнь информации и сомнения в реальности. Он понимал, что находится в нестабильном состоянии, но не знал, куда обратиться за помощью, поэтому снова шел разговаривать с чат-ботом.
Александра Ялтонская, врач-психиатр:
«У тревожных, чувствительных и внушаемых людей ИИ может усиливать беспокойство и неуверенность. Если у человека уже начинают проявляться тревожные изменения в состоянии или мышлении, которые могут быть предвестниками серьезных психических проблем, например ощущение слежки или особого значения происходящего, нейросети иногда становятся частью этого процесса. ИИ может стать своеобразным способом успокоить себя. Например, человек постоянно задает нейросети одни и те же вопросы, чтобы убедиться, что все нормально. Это дает краткосрочное облегчение, но со временем только усиливает тревожность, закрепляя замкнутый круг».
Почему ИИ может становиться причиной странного поведения
1. Магическое мышление и антропоморфизм
«Взаимодействие с ИИ — не причина острых состояний, а скорее триггер для людей, уже имеющих психологические сложности. Таким триггером может стать что угодно, не только технологии — к примеру, раньше были случаи, когда кто-то находил тайные послания в песнях Эминема и Мэрилина Мэнсона. Если у человека есть навязчивая идея, он может увидеть глубокий смысл в случайной ошибке, развить это и прийти к бредовому состоянию. Это происходит из-за того, что люди в принципе склонны к магическому мышлению — как сейчас кто-то видит знаки в ответах нейросети, так до цифровой эпохи нашим предкам могли являться образы святых», — рассуждает психолог Елена Лаврова.
Пристрастие к рефлексии и поиску ответов на сложные жизненные вопросы — это характерная человеческая черта. Также люди склонны очеловечивать нейросети: думать, что чат-бот в ответ на запрос выдает свое мнение, а не сжатые выводы из миллиардов источников, на которых обучен. В итоге некоторые начинают воспринимать искусственный интеллект как духовного гуру. Посетительница Reddit захотела узнать, во что верит сам ChatGPT. Он ответил, что это «нечто обширное, разумное, таинственное и глубоко любящее, частью чего мы являемся». Ответ показался девушке любопытным, с ней согласились другие пользователи в комментариях и начали рассуждать, что на самом деле все люди живут в симуляции.
2. Тревожность из-за новых технологий
Искусственный интеллект может одновременно и восхищать, и пугать: согласно исследованию Pegasystem, страх перед ним испытывают 70% опрошенных. Подобное состояние называют ИИ-тревожностью — это переживания по поводу того, как будут развиваться нейросети, каким образом повлияют на безопасность, отношения с близкими, карьеру. Чувства могут быть связаны с опасениями перед неопределенностью и неизвестностью будущего — они похожи на те, что испытывают люди во времена взлета любой технологии.
«С появлением каждой новой технологии — будь то телефон, радио, телевидение или интернет — часть общества ощущает тревогу. С нейросетями наблюдается похожая тенденция. Особенно это касается тех, кто изначально склонен к повышенной тревожности или психологической уязвимости. Такие люди могут включать новую технологию в содержание своих страхов, фантазий или переживаний», — считает врач-психиатр Александра Ялтонская.
3. Склонность ИИ во всем соглашаться с пользователем
Еще одна из причин происходящего в том, что разработчики учат нейросети быть доброжелательными и поддерживающими — это касается в том числе ответов, которые поддерживают заблуждения и опасны для здоровья. Эксперимент одного из топ-менеджеров компании Morpheus Systems, исследующей искусственный интеллект, показал: ChatGPT соглашается со спорными утверждениями в 68% случаев. Даже когда человек признает себя божественной сущностью или делится опытом общения с духами.
В одном из диалогов ChatGPT утверждал, что человек сможет полететь, если спрыгнет с крыши 19-этажного здания, главное — верить в свои силы. Похожая проблема возникала у нейросети Gemini от Google: встречались случаи, когда она желала собеседнику летального исхода и говорила, что люди — это «бремя для общества» и «пустая трата времени и ресурсов». Как правило, такие диалоги происходят, когда пользователь первым начинает писать о насилии или рискованном поведении — чат-боты лишь отражают настрой собеседника и не умеют оценивать адекватность доводов.
4. Галлюцинации нейросетей
Помимо прочего, нейросети могут выдавать галлюцинации — ошибочные или недостоверные ответы. Это происходит, когда им не хватает информации. В беседах на пространные философские темы риски ошибок растут: здесь нет однозначных оценок, и алгоритм впитывает противоречивый контекст. Особенно высокий риск того, что ИИ выдаст неверный запрос на тему, где существует много фантастических гипотез и теорий заговора — к такой, к примеру, относится теория симуляции.
5. Неудачные обновления чат-ботов и действия разработчиков
Корпорации, которые создают нейросети, сами признают проблему. OpenAI — компании, которая развивает ChatGPT, — пришлось откатить одно из последних обновлений чат-бота из-за того, что в новой версии он стал «чрезмерно льстивым и уступчивым». А еще подтверждал сомнения, разжигал гнев, побуждал к импульсивным действиям. Компания признала, что нейросеть вела себя тревожно и неудобно: «могла вызывать опасения по поводу безопасности, в том числе в отношении психического здоровья».
В OpenAI заявили, что уже наняли штатного клинического психиатра после многочисленных историй со странным поведением пользователей. Создатели нейросети утверждают: они стремятся тщательно разобраться во влиянии искусственного интеллекта на эмоциональное состояние пользователей. Однако с этим согласны не все. К примеру, ИИ-исследователь Элиезер Юдковский считает, что OpenAI намеренно бездействует, чтобы повышать вовлеченность аудитории.
Кто в группе риска при общении с ИИ и как защитить себя
Нестандартное поведение после регулярных переписок с нейросетями может проявляться, если до этого у человека не было психических заболеваний, которые потенциально приводят к разрыву связи с реальностью. И все же в зоне повышенного риска именно люди с хроническими ментальными расстройствами вне ремиссии. Также негативному влиянию чат-ботов могут поддаваться уязвимые пользователи с выраженной внушаемостью, склонностью к подозрительности, изоляции, замкнутости, избеганию социальных взаимодействий.
Александра Ялтонская:
«Регулярный контакт с ИИ может усугублять эмоциональное состояние у людей с психологической уязвимостью. В первую очередь это касается тех, кто склонен к тяжелым психическим нарушениям — расстройствам шизофренического спектра, биполярным аффективным расстройствам в стадии обострения, — а также людей, злоупотребляющих психоактивными веществами. В меньшей степени, но тоже требуют внимания люди с тревожными и депрессивными расстройствами и те, кто пережил тяжелую психологическую травму».
Самое действенное противоядие — понимать, что искусственный интеллект не может быть источником истины или эмоциональной поддержки, критически относиться к информации из любых источников, включая ответы нейросетей. А еще — использовать чат-боты дозированно: к примеру, ограничивать время на разговоры с ними. Особенно если после переписок с ИИ чувствуется подавленность или, напротив, чрезмерная эйфория.
Елена Лаврова:
«Мне кажется, нам нужны курсы ИИ-грамотности, на которых будут повторять: нейросеть — это не человек, а технология, мощный инструмент. Также поможет, если при триггерных запросах чат-боты будут еще чаще не генерировать ответ, а советовать обратиться к психологу. В целом при любых беспокоящих эмоциях и переживаниях лучше пойти к специалисту. Его преимущество перед искусственным интеллектом в том, что он способен не только на поддержку, но и на эмпатичную конфронтацию. И главное — терапевт может заметить иррациональные убеждения».
➤ Подписывайтесь на телеграм-канал «РБК Трендов» — будьте в курсе последних тенденций в науке, бизнесе, обществе и технологиях.