Корпоративное образование, 02 дек, 15:41

Как ИИ помогает хранить знания бывших сотрудников

Читать в полной версии
Фото: Shutterstock
Во многих компаниях рабочие данные хранятся в разных системах — от таск-трекеров до мессенджеров. Корпоративная память помогает собрать фрагменты знаний в единую систему и сделать их доступными для всей команды

Об авторе: Алексей Халезов, бизнес-лидер компании Kaiten.

Под корпоративной памятью подразумевают знания и опыт, накопленные организацией. Это принятые решения, их аргументация и связанные с ними артефакты, которые помогают воспроизводить практики и не собирать процессы с нуля при смене сотрудников. Такие данные часто остаются в разных источниках и теряют свой контекст и ценность без системной обработки.

В менеджменте корпоративную память рассматривают как часть структурного капитала — тех практик и процессов, которые сохраняются в компании, даже если персонал меняется. В отличие от базы знаний, она фиксирует не только сделанные шаги, но и причины решений. Это помогает понимать логику действий и не повторять ошибок.

Где начинаются проблемы

Согласно исследованию Американского центра производительности и качества (APQC), большинство организаций оценивают зрелость своих систем управления знаниями как начальную (20%) или развивающуюся (36%). Только 2% опрошенных уже достигли уровня, где управление знаниями встроено в бизнес-модель и связано с показателями эффективности.

У большинства компаний информация рассредоточена по разным каналам: в таск-трекерах задачи закрываются без итогов, рабочие обсуждения остаются в чатах и почте. По данным Microsoft Work Trend Index, 62% сотрудников считают, что тратят слишком много времени на поиск информации, а активные пользователи почты проводят в ней до 8,8 часа в неделю. Для отдельного сотрудника это кажется мелочью, но в масштабах компании превращается в сотни потерянных человеко-часов и дополнительные расходы.

Последствия ожидаемые: компании тратят больше на обучение новых сотрудников и исправление повторяющихся ошибок. Запуск проектов откладывается, потому что нужной информации нет под рукой, — приходится заново согласовывать детали и восстанавливать контекст решений. Все это повышает операционные расходы. Поэтому корпоративную память стоит рассматривать как финансовый актив. При системном управлении она снижает издержки и ускоряет процессы. А при отсутствии — становится источником дополнительных затрат. Компании, которые выстраивают корпоративную память как часть инфраструктуры, быстрее адаптируются к изменениям и сохраняют устойчивость даже при смене команды.

Кто такой менеджер по управлению знаниями и как им стать
Индустрия 4.0 

Как может помочь ИИ

Бизнес все чаще использует ИИ-агентов для объединения данных из разных систем и формирования готовых ответов с подтвержденными источниками. На практике эту задачу решает умный поиск, основанный на подходе Retrieval-augmented generation (RAG). Он работает на базе генеративных моделей (LLM), которые дообучаются на внутренних данных компании. Благодаря этому система понимает корпоративный контекст, извлекает релевантные сведения из документов, задач и переписок и формирует связный ответ с подтверждающими ссылками.

Таким образом можно быстро восстановить цепочку событий, не теряя при этом прозрачности: пользователь видит, откуда взята информация, и может при необходимости проверить ее. Руководитель может, например, запросить данные о рисках проекта и вместо списка файлов получить краткое резюме с цитатами из протоколов и задач. Это значительно сокращает время работы с данными и упрощает принятие решений.

Анна Буланова, руководитель направления Kaiten AI:

«ИИ помогает восстанавливать контекст и находить нужные знания и постепенно становится инструментом стратегического анализа. Уже сейчас он способен предлагать инсайты и выявлять пробелы в корпоративной памяти.

Например, если проект буксует, агент может подсказать, какие решения уже принимались в похожих кейсах и почему они оказались успешными или не сработали. В долгосрочной перспективе такие системы будут не просто искать информацию, а помогать компаниям лучше понимать собственный опыт и строить на нем новые управленческие практики».

Производительность и масштабирование

Когда система работает с тысячами документов и сотнями задач в день, важно обеспечить скорость обработки данных. Большинство LLM-проектов используют для этого векторные базы: они переводят текстовую информацию в компактные числовые представления. Например, тысяча статей может весить сотни мегабайт, но после преобразования в векторы объем сокращается в десятки раз. Это позволяет модели обращаться к данным не напрямую, а к их «векторным следам» — так поиск и генерация ответов происходят значительно быстрее.

Анна Буланова:

«Если говорить про разработку, то все LLM работают на векторных базах. Мы, например, переводили собственную базу статей в векторный формат — это позволило ускорить обработку данных в десятки раз. У каждой LLM есть предел пропускной способности, и его важно тестировать. Если нагрузка растет, можно просто реплицировать модель — распределить запросы между серверами и обеспечить линейное масштабирование».

С точки зрения инфраструктуры принципы те же, что и у других корпоративных сервисов. Всегда должен быть резервный вариант: если один сервер или LLM-сервис временно недоступен, второй подхватывает работу. Это позволяет избежать простоев и не терять доступ к корпоративной памяти.

Также при масштабировании важно учитывать пропускную способность модели: сколько запросов она способна обработать одновременно. Для этого проводят нагрузочное тестирование: измеряют предел производительности и при необходимости добавляют новые вычислительные узлы. Обычно это делается через репликацию — создаются несколько серверов с копиями модели, и запросы распределяются между ними. Так можно обеспечить линейное масштабирование и стабильную работу даже при росте нагрузки.

Когда данные подводят: как хаос в информации мешает бизнесу расти
Индустрия 4.0 

Вопрос безопасности

Безопасность — один из ключевых аспектов при внедрении ИИ-агентов в корпоративную среду. Базовое правило здесь — четко разграничивать права доступа.

Анна Буланова:

«Вопрос прав доступа решается алгоритмически и лежит в плоскости инфраструктуры. Главное — не путать безопасность с ограничением возможностей. Когда система ролей и доступов выстроена заранее, ИИ не мешает работе, а делает ее прозрачнее».

Вот как это решается на уровне инфраструктуры:

  • ИИ-агента интегрируют с корпоративными системами, где уже действуют политики аутентификации и распределения ролей;
  • система определяет, кто обращается с запросом, и формирует ответ из тех источников, к которым у пользователя есть доступ.

Такой подход позволяет применять искусственный интеллект, не нарушая конфиденциальность данных.

Есть смысл размещать модели на собственных серверах. Это снижает зависимость от внешних провайдеров и исключает передачу данных сторонним системам. При выборе решения важно учитывать политику конфиденциальности поставщика. Например, Anthropic в корпоративных продуктах по умолчанию не использует клиентские данные для обучения своих моделей, тогда как OpenAI сохраняет часть пользовательских запросов для улучшения сервисов, если человек самостоятельно не отключил эту опцию.

Стоит учитывать и человеческий фактор, и особенности работы с конфиденциальной информацией — клиентскими, финансовыми и стратегическими данными. Когда ИИ-агенты подключаются к нескольким каналам — почте, чатам или документам, — управлять правами и контролировать доступы становится сложнее. Поэтому нужно заранее продумать, какие источники действительно понадобятся ИИ для обучения, а какие ему знать необязательно.

Ограничения инструментов

Модели все еще несовершенны. Иногда они «галлюцинируют» — формулируют ответы, которые выглядят правдоподобно, но не соответствуют фактам. Это связано с особенностями работы контекстного окна — области памяти, где хранится история диалога. Когда в нем накапливается слишком много информации, вероятность ошибок растет. Поэтому при длительном взаимодействии полезно обновить сессию и начать новую, чтобы сохранить точность ответов.

Сам это выдумал: что такое галлюцинации искусственного интеллекта
Индустрия 4.0 

Снизить риск ошибок помогает правильная постановка задачи. Стоит назначить модели конкретную роль — например, аналитика или редактора — и четко описать, какой результат и в каком формате требуется. Абстрактные формулировки вроде «сделай выводы» увеличивают риск искажений. Если заранее определить цель запроса, система выдаст более точный и структурированный результат.

Анна Буланова:

«Важно не бороться с «галлюцинациями», а выстраивать вокруг них процессы контроля. Четкие правила взаимодействия, назначение ролевых моделей и корректное формулирование запросов значительно снижают риск искажений».

Разные модели могут по-разному интерпретировать одни и те же данные. ChatGPT и Claude при обработке одного Excel-файла показали различие в подсчетах около 0,5%. Это небольшая, но показательная разница: любые результаты генеративных моделей требуют проверки человеком, особенно если они касаются управленческих или финансовых решений.

Чтобы использование ИИ действительно повышало эффективность, необходимо инвестировать время в обучение сотрудников. Они должны понимать, как формулировать запросы, какие ограничения учитывать и как проверять полученные результаты. Тогда технология станет реальным помощником, а не источником ошибок.

➤ Подписывайтесь на телеграм-канал «РБК Трендов» — будьте в курсе последних тенденций в науке, бизнесе, обществе и технологиях.

Корпоративное образование Навыки Управление проектами Цифровая трансформация Внедрение инноваций Управление командой
Главное