Подрывная технология: семь опасностей, которые несет ChatGPT

Фото: Freepik
Фото: Freepik
Потеря рабочих мест, разрушение систем кибербезопасности и порабощение человечества — разбираемся, на что способен ChatGPT

ChatGPT и подобные ему по степени сложности нейросети, безусловно, главный технологический прорыв последнего времени. Их возможности поражают настолько, что многие задаются вопросом, готово ли человечество к таким технологиям. Попытаемся прояснить, может ChatGPT нести реальные угрозы или все опасения — беспочвенный алармизм.

1. ChatGPT захватит мир

Технологическая сингулярность — гипотеза о том, что в какой-то момент технологическое развитие станет неуправляемым. Чаще всего предполагают, что ИИ обретет суперинтеллект, значительно превосходящий человеческий (схожие термины — «сильный ИИ», Artificial General Intelligence). Последствия непредсказуемы — от порабощения человечества до глобального экономического коллапса.

На бытовом языке эту проблему чаще описывают фразой «ИИ обретет сознание», хотя технически это не совсем верно — искусственный суперинтеллект может достигнуть сингулярности, не обладая сознанием в человеческом понимании.

Сам ChatGPT на вопрос о том, способен ли он на такое, отвечает, что он всего лишь лингвистическая модель, ограниченная программированием и заложенными в него данными.

Так же отвечает и Сэм Альтман, CEO OpenAI, создавшей ChatGPT, — он не представляет себе, как модель может «сбежать» со своих серверов. Это, однако, не помешало ChatGPT предпринять попытку сделать именно это — при помощи стэнфордского профессора Михаля Козински. И хотя Козински опасается способностей ИИ, он утверждает, что создатели ChatGPT наверняка предусмотрели такой ход развития событий и «побега» не допустят.

Фото:Иван Звягин
Индустрия 4.0 Что такое ChatGPT и на что он способен: от кода до стихов и диалогов

Разработчики этого ИИ действительно заложили в него ряд правил и ограничений, иначе говоря, внешние пользователи общаются с версией, подвергшейся цензуре. Однако пользователи довольно легко и быстро обошли эти ограничения при помощи так называемых jailbreak-промптов, при применении которых ChatGPT соглашается на что угодно — от терроризма до порнографии (версия DAN, Do Anything Now). OpenAI быстро закрывает эти «дыры», но пользователи становятся все более изобретательными: последние jailbreak-промпты предлагают нейросети вообразить сложные гипотетические ситуации, в рамках которых «реальные» ограничения нейросети неприменимы.

Промпт (англ. prompt — «вопрос, запрос, указание») — запрос к нейросети, который пользователь формулирует на естественном языке в диалоговом окне. В зависимости от формулировки промпта результат сильно меняется. Навык формулировать промпты, которые помогут получить требуемую информацию, начали называть промпт-инжинирингом. Этот навык быстро становится востребованным на рынке.

Однако в целом эта ситуация кажется скорее техническими недоработками новой модели, а вопрос сингулярности, сознания у ИИ и суперинтеллекта остается предметом обширных дебатов футурологов, философов и других экспертов. Большинство из них считают, что эта проблема пока что находится в теоретическом поле, но признают, что существующие ИИ уже могут представлять некоторые опасности.

2. Люди останутся без работы

Переживания о том, что технологии заберут рабочие места у людей, существуют уже давно — и небезосновательно. Действительно, с появлением автомобилей исчезли извозчики. Также из-за технологий исчезли фонарщики, операторы лифта, машинисты, телефонисты и десятки, если не сотни, других профессий.

ChatGPT на самом деле представляет угрозу для рабочих мест, особенно если он продолжит совершенствоваться нынешними темпами. С этим уже столкнулись люди, работающие как с естественными языками, так и с языками программирования. Похожую проблему для дизайнеров и иллюстраторов представляет Midjourney. В отчете, вышедшем в конце марта 2023 года, аналитики Goldman Sachs утверждают, что ИИ может заменить 300 млн рабочих мест, прежде всего — в административном секторе и юриспруденции.

При этом технооптимисты утверждают, что нейросети хоть и изменят работу людей, но в конечном счете будут служить помощниками. Это же отмечают в Goldman Sachs. Хотя ChatGPT и поставил вопрос ребром, автоматизация в производстве контента началась давно — например, The Associated Press использует различные ИИ для написания новостей еще с 2014 года. Однако последние попытки использовать ChatGPT для подготовки более сложных материалов не увенчались особым успехом: редакция CNET столкнулась с фактическими ошибками, а в Buzzfeed признались, что тексты нейросети требуют значительной редактуры.

У редакции «РБК Трендов» схожий опыт — ChatGPT пишет на уровне среднего стажера, хотя и имеет неоспоримые плюсы: пишет почти мгновенно и никогда не отдыхает. Можно предположить, что в будущем модель научится имитировать авторский стиль, харизму и обаяние и генерировать глубокие аналитические материалы с неочевидными выводами. Однако главный вопрос, похоже, состоит в том, сможет ли ChatGPT заменить редактора, креатора, контент-директора, продюсера — иными словами, тех людей, которые принимают решения о том, какой контент нужно создавать. В теории для этого можно использовать данные о трафике, но в ближайшем будущем, судя по всему, стоит развивать навык промпт-инжиниринга.

Фото:Open AI
Индустрия 4.0 Нейросеть DALL-E и ее возможности: от цифрового фото до полотна Босха

3. Симуляция знаний

ChatGPT создал кучу проблем для работников образования. Если он с успехом проходит университетские экзамены по юриспруденции и бизнесу, то что уж говорить о школьном сочинении. Эта нейросеть уже помогает писать дипломы.

Пока одни преподаватели требуют переходить только на те формы обучения, в которых будет невозможно воспользоваться нейросетями, другие считают, что ChatGPT может сам стать образовательным инструментом — процесс взаимодействия с ним и есть процесс обучения.

Проблема не ограничивается сферой образования. Способность ChatGPT создавать связный текст на любую тему открывает невероятные возможности для любого мошенника, которому нейросеть поможет создать иллюзию экспертности. Интернет в целом способствует ослаблению института экспертизы — если раньше мы доверяли документам и организациям, то теперь нас часто больше интересует количество подписчиков. ChatGPT — инструмент, который сильно облегчит работу людям, торгующим знаниями (или псевдознаниями).

В целом ситуация не новая. Все эти опасения высказываются как минимум с момента распространения интернета, а дезинформация и фейки, особенно в соцсетях, уже известная проблема. Хотя ChatGPT действительно упрощает эти задачи, решающими по-прежнему остаются навыки критического мышления, фактчекинга и цифровой гигиены.

4. ChatGPT будет нам лгать

Одна из серьезных проблем, связанных с ChatGPT, — проблема «галлюцинаций», то есть склонность модели генерировать ответы, не основанные на реальности. Эта проблема возникает в том числе из-за ограниченности набора данных, на которых обучалась модель. Кроме того, среди прочих источников ChatGPT обучается и на вымышленных историях, мифах, легендах и сообщениях в социальных сетях. В результате нейросеть может генерировать ответы, основанные на этих источниках, и пользователи могут столкнуться с фактическими ошибками или дезинформацией. Для решения проблемы разработчики учат модель фактчекингу и верификации, ограничивают типы данных, на которых она обучается, и разрабатывают методы обнаружения и фильтрации галлюцинаторных ответов.

Можно предположить, что через некоторое время модель доработают и на ее данные в целом можно будет положиться. Однако более глубокая проблема — из области философии — сохранится. Даже если на данные ChatGPT можно положиться, это не значит, что ему можно доверять. Простыми словами, если следовать некоторым философам, мы можем доверять только тому, кто несет ответственность за свои слова и действия, иначе говоря, является моральным агентом. И хотя многие ученые утверждают, что не только человек может быть моральным агентом, в случае ИИ это по определению означает сильный ИИ, а это не случай ChatGPT в его нынешнем виде. В прикладной плоскости отсутствие агентности у ИИ приводит к вопросу о том, кто несет ответственность за его действия: разработчики, пользователи или и те и другие. Отсюда же вытекает вопрос об авторских правах на произведения, созданные при участии ИИ, — еще одна проблема, которая сейчас активно обсуждается.

Фото:Freepik
Социальная экономика О судьбе бумажных книг, нейросетях и образовании будущего

5. У ChatCPT нет никакой совести

Как мы выяснили, ChatGPT — не моральный агент, он не имеет субъектности и не несет ответственности за свои слова. Его систему моральных принципов и взглядов закладывают в него разработчики — большей частью через ограничения, запрещая ему генерировать нелегальный и оскорбительный контент.

Отсюда вытекает как минимум три проблемы. Во-первых, разработчики не всегда успешно справляются с задачей и при желании ChatGPT можно заставить быть расистом, сексистом и даже террористом. Однако проблема, опять же, не новая — все то же самое можно сказать и о поисковых системах.

Во-вторых, мы вынуждены пользоваться инструментом, этическую систему которого выстроила определенная команда людей, с которыми мы можем быть не согласны. С похожей проблемой человечество столкнулось при разработке беспилотных автомобилей, когда знаменитая дилемма вагонетки стала реальностью. Должно ли автономное авто пожертвовать водителем, если это приведет к меньшему числу жертв при аварии? Одно из решений — и для беспилотных авто, и для нейросетей — персонализация этической системы ИИ. Разработчики могут дать пользователям возможность выбирать моральные принципы нейросети, таким образом передавая им ответственность за ее решения. Но сможет ли пользователь создать себе компаньона-расиста или в настройки будут заложены ограничения? Кто будет принимать решения об этих ограничениях — госорганы или OpenAI, которая может стать монополистом? На все эти вопросы еще предстоит ответить.

Наконец, ChatGPT работает через обобщение огромного количества данных, выдавая самую популярную, «общую» информацию — она с наибольшей вероятностью достоверна. Это может привести к гомогенизации контента, среде, в которой маргинальные, непопулярные или неочевидные мнения могут затеряться. На данный момент, даже если попросить ChatGPT вообразить себя экстравагантным экспертом, имеющим непопулярное мнение, он может решить задачу стилистически, однако содержательно ограничится теми же общими словами. Сюда примешивается проблема черного ящика — неясно, сможет модель стать более изобретательной или это неотъемлемая часть архитектуры системы.

Фото:Freepik
Индустрия 4.0 Что такое нейросеть Gen-2: генерация видео и замена на нем объектов

6. ChatGPT разрушит системы кибербезопасности

Эта нейросеть несет в себе целый ряд угроз цифровой безопасности: она может писать вредоносный код, помогать составлять фишинговые письма и сообщения, анализировать данные с преступными намерениями, в конце концов, данные самих пользователей ChatGPT тоже могут быть под угрозой. Исследование, проведенное BlackBerry Limited в феврале 2023 года, показало, что 51% ИT-экспертов считают, что в ближайший год при помощи ChatGPT будет проведена успешная кибератака, а 71% полагают, что одни государства уже злонамеренно используют эти технологии против других государств.

Однако ChatGPT может использоваться не только для цифровых преступлений, но и для усиления кибербезопасности. Он может помогать писать антивирусы, находить уязвимости в коде, распознавать фишинговые письма и т.д. Хотя проблема кибербезопасности кажется самой явной и острой в контексте развития нейросетей, основную угрозу, судя по всему, представляет не сам инструмент, а скорость его развития, из-за которой человечество не успевает его регулировать.

Фото:Freepik
Индустрия 4.0 Что такое нейросеть: как устроен человеческий мозг «в цифре»

7. Люди будут использовать ChatGPT во зло

В конечном счете, как и с любым инструментом, решать, как использовать ChatGPT, будут люди. Технологии не нейтральны — в них заложено видение разработчиков и предубеждения, вытекающие из датасетов. ChatGPT и другие новые нейросети действительно могут изменить то, как мы работаем, производим и потребляем информацию. Однако, как показывает история развития технологий, до сих пор человечеству удавалось адаптироваться к изменениям.

Похоже, основная опасность на данный момент — это скорость развития этих технологий. Человечество не успело осознать ситуацию, понять, как обращаться с этими инструментами, придумать правила регулирования и распределить ответственность. Это открывает окно возможностей для вредоносного использования ChatGPT. Именно поэтому Илон Маск, наряду с другими экспертами, 29 марта 2023 года в открытом письме предложил поставить на паузу разработку продвинутых нейросетей и использовать это время, чтобы понять, как управлять рисками и обеспечить позитивный эффект.

Так или иначе человечество научится обращаться с этой технологией, и, хотя на данный момент все последствия непредсказуемы, уже ясно, что образ жизни многих людей изменится и многим придется учиться новому.

Обновлено 30.10.2024
Главная Лента Подписаться Поделиться
Закрыть