Модели преткновения: как LLM влияют на жизнь человека

Фото: Freepik
Фото: Freepik
Эмоциональная сфера человека будет меняться под влиянием больших языковых моделей. К таким выводам пришли эксперты конференции по анализу данных и технологиям ИИ Data Fusion 2025. Рассказываем, что мешает развитию LLM

Большие языковые модели (LLM) не только изменили способы обработки текстовой информации, но и значительно повлияли на взаимодействие между человеком и компьютером. Однако их внедрение сопровождается рядом серьезных рисков, которые требуют внимания со стороны разработчиков, бизнеса и общества.

Институт ИИ МГУ и банк ВТБ провели исследование ключевых вызовов, сдерживающих развитие LLM. Результаты были представлены в ходе дискуссии «Большие модели, большие вопросы: анализ вызовов и поиск решений» на конференции по анализу данных и технологиям ИИ Data Fusion 2025. Делимся ключевыми выводами экспертов.

Об экспертах:

  • Тимофей Нестик, заведующий лабораторией социальной и экономической психологии ИСП РАН;
  • Павел Голосов, директор Института общественных наук РАНХиГС;
  • Константин Воронцов, руководитель лаборатории «Машинное обучение и семантический анализ» Института ИИ МГУ имени М.В.Ломоносова;
  • Денис Суржко, заместитель руководителя департамента анализа данных и моделирования — вице-президент банка ВТБ.

Модератором встречи выступил заместитель директора Института ИИ МГУ имени М.В.Ломоносова Андрей Грунин.

Борьба с имитационной деятельностью в образовании

LLM сейчас массово внедряются во многих областях, и система образования не стала исключением. По словам заместителя директора Института ИИ МГУ имени М.В.Ломоносова Андрея Грунина, этим инструментом активно пользуются студенты учебных заведений. Большинство дипломов и курсовых работ создаются с использованием больших языковых моделей. Эту практику уже невозможно остановить, поэтому необходимо модернизировать систему образования с учетом новых технологий.

Как отметил директор Института общественных наук РАНХиГС Павел Голосов, благодаря большим языковым системам у каждого студента появляется свой личный помощник. Он обладает онтологией (в информатике это попытка всеобъемлющей и детальной формализации какой-либо предметной области знаний с помощью концептуальной схемы. — «РБК Тренды»), может общаться со студентом на понятном языке, отслеживать результат обучения, выявлять слабые стороны и направлять.

По мнению спикера, чтобы изменить парадигму образования, нужно сосредоточиться на нескольких моментах. Во-первых, научиться работать с собственными данными. «Чтобы не получалось так, что мы готовим специалистов для тех стран, которые являются поставщиками данных. А на сегодняшний день у нас большие языковые модели обучены не на наших датасетах (обработанный и структурированный массив данных. — «РБК Тренды»)», — рассказал эксперт. Во-вторых, заняться переподготовкой преподавателей. Потому что преподаватели — ядро знаний. «И этими знаниями они должны владеть лучше, чем студенты. А студенты, которые сегодня приходят в аудиторию, с детства с гаджетом. Они мир видят по-другому. И иногда с ними сложно договориться», — объяснил Павел Голосов.

Фото:Shutterstock
Экономика образования Обучение в эпоху ChatGPT: как преподавателям принять неизбежное

Написание курсовых и дипломных работ во многих местах давно стало имитационной деятельностью, уверен руководитель лаборатории «Машинное обучение и семантический анализ» Института ИИ МГУ имени М.В.Ломоносова Константин Воронцов. Решить эту проблему можно только меняя цели и смыслы самой деятельности: она должна приносить пользу в реальных проектах и людям.

Константин Воронцов:

«Студент плюс языковая или другая генеративная модели — это симбиоз. И у нас не просто студент, а студент с интеллектуальными помощниками, которых вместе надо научить делать нужную людям деятельность. И вот про это теперь преподавание».

Формирование критического мышления

ИИ и нейросети проникли не только в образование, но и в банковскую сферу, добавил заместитель руководителя департамента анализа данных и моделирования — вице-президент банка ВТБ Денис Суржко. Технологии становятся посредником между человеком, данными и знаниями. Например, большие языковые модели применяются для анализа обращений клиентов. Суммаризация, обобщение, выделение трендов — все это теперь попадает в зону ответственности ИИ.

Денис Суржко:

«Сделаю шаг в сторону и приведу в пример две цифры, которые меня удивили. Я недавно искал информацию об объеме рынка искусственного интеллекта в России. По разным оценкам, он не превышает 1 трлн руб. в год. При этом рекомендательная система мне на следующий день выдала статью о том, что рынок эзотерических услуг, в том числе теневой, в стране превысил 2 трлн руб. Вот мы говорим про большие языковые модели, а при этом на самом деле проигрываем гадалкам и тарологам».

По мнению Суржко, сейчас на первое место выходят критическое мышление и научный подход. В эпоху, когда данных очень много, умение перепроверять факты, мыслить критично и широко, погружаться в детали становится первостепенным.

Воздействие LLM на эмоции человека

Большие языковые модели становятся частью нашего расширенного «я». Они создают эффект привязанности, подстраиваясь под особенности языка, объяснил заведующий лабораторией социальной и экономической психологии ИСП РАН Тимофей Нестик. Это приводит к появлению нескольких нарастающих противоречий. С одной стороны, высокотехнологичные компании с помощью LLM стремятся прогнозировать реакции пользователей и персонализировать предложения своих продуктов и услуг.

С другой стороны, сами пользователи используют языковые модели как защиту от вмешательства в личную жизнь.

Фото:Freepik
Футурология Чат-бот вместо парня: как «эмоциональный» ИИ заменяет реального партнера

И поскольку такие модели все чаще применяются для компенсации дефицита доверия и сопереживания, возможно, и эмоциональная сфера человека будет меняться под их воздействием.

Тимофей Нестик:

«Мы на пороге очень больших изменений, когда какие-то наши когнитивные способности и даже эмоции будут становиться более пластичными, а какие-то, напротив, закрепляться такими технологиями. И вот здесь вызовом для всех нас оказывается не сам инструмент, а то, что мы не готовы к его использованию. По нашим исследованиям о психическом состоянии общества, мы видим, что становимся проще и не готовы искать множество вариантов решения одной и той же проблемы. Мы с большей вероятностью выберем сценарии, которые подсказывает большая языковая модель».

Перенос человеческих качеств на цифровых помощников

Должна ли большая языковая модель обладать эмпатией, пока не известно. Но она точно не должна вводить человека в заблуждение. «Мы не застрахованы от того, что сами не обманемся. Совершенно подсознательно будем подразумевать за моделью характер, личность, намерение и приписывать ей человеческие черты, которых у нее нет и быть не может», — считает Константин Воронцов.

Поэтому эксперт рекомендует выстраивать протоколы коммуникации «человек — машина» так, чтобы модель сама понимала, где может вызвать когнитивное искажение у пользователя, и вовремя напоминала ему об этом.

Необходимость прорыва в архитектуре LLM

Сейчас ядром больших языковых моделей служит архитектура трансформера (особый класс нейронных сетей), разработанная для обработки последовательностей слов. Главная ее особенность — умение одновременно анализировать все части предложения. А это значительно ускоряет процесс обработки и улучшает понимание контекста. Но у трансформенных моделей есть ряд проблем: галлюцинации, ограничения по линии контекста, не до конца понятная экономическая окупаемость и не только.

Фото:Freepik
Индустрия 4.0 Сам это выдумал: что такое галлюцинации искусственного интеллекта

По мнению спикеров дискуссии, архитектура LLM нуждается в трансформации. Но изменения должны происходить в диалоге между техническими экспертами и представителями гуманитарных наук. Сейчас языковые модели не учитывают дискурс и коммуникативные цели любого текста. «Мне кажется, развитие нужно, но развитие будет отталкиваться от более тесного симбиоза с профессиональной лингвистикой», — уверен Константин Воронцов.

Пока трансформеры выступают движущей силой современного прогресса в области ИИ. А когда появится принципиально новая архитектура, которая еще больше расширит возможности LLM, спрогнозировать невозможно.

«Трансформеры были получены не строго научным подходом с доказательством теоремы, что это лучшая архитектура, а просто как некая найденная эвристика. А когда будет найдена новая эвристика, спрогнозировать нельзя. Однако людей и денег в этой области становится все больше с каждым годом, а это значит, что найдут, скорее всего, быстрее», — подытожил Денис Суржко.

Нехватка данных

Ограниченность данных — еще один вызов, который сдерживает развитие LLM. Чем больше данных, тем лучше модель генерирует контент и понимает язык. Есть несколько вариантов решения проблемы нехватки:

  1. Переход в другие модальности. Различные типы информации (изображения, звук и видео) можно объединить для улучшения качества обучения моделей. Это не только позволит расширить набор данных, но и поможет LLM лучше и глубже понимать контекст.
  2. Фильтрация уже имеющихся данных. Необходимо повышать качество информации, выбирать контент и делать его доверенным.
  3. Создание цифровых двойников команд и сообществ. Компаниям эксперты советуют создать бизнес-модель, которая будет подталкивать клиентов инвестировать свои данные в коллективную разработку.

Реклама: Банк ВТБ (ПАО). Erid: F7NfYUJCUneRHyjrYtJ3

➤ Подписывайтесь на телеграм-канал «РБК Трендов» — будьте в курсе последних тенденций в науке, бизнесе, обществе и технологиях.

Обновлено 18.04.2025
Авторы
Теги
Главная Лента Подписаться Поделиться
Закрыть