Искусственный интеллект для детей: как и зачем его адаптируют

Фото: Midjourney
Фото: Midjourney
Ксения Толокольникова, менеджер управления разработки продуктов искусственного интеллекта в AI-Центре Т-Банка, рассказывает о том, как создаются детские ассистенты на основе ИИ

Создание детского ИИ-ассистента — не просто программирование алгоритмов. Это сложный междисциплинарный процесс, в котором участвуют разработчики, AI-тренеры, дизайнеры и люди со знанием детской психологии. Ошибки в коммуникации могут не только снизить эффективность ИИ, но и нанести вред детской психике.

Как разработчики обучают ИИ общаться с детьми

Последние несколько лет IT-рынок переживает бум больших языковых моделей (large language model, LLM). ChatGPT, DeepSeek и другие генерируют контент на основе миллиардов параметров, которые позволяют им предсказать каждое следующее слово в предложении. Многие компании успешно используют LLM для оптимизации работы и улучшения показателей бизнеса. Например, разрабатывают на их базе виртуальных ассистентов, которые помогают быстро и эффективно решать задачи пользователей, в том числе детей.

За техническую часть обучения LLM отвечают ML-инженеры, а за создание данных, на которых модели обучаются — AI-тренеры. Но недостаточно просто обучить ИИ-ассистента отвечать пользователю на его вопросы. Важно, чтобы он делал это корректно: не давал информацию, которая не подходит ребенку по возрасту, правильно подбирал фразы, чтобы не задеть его чувства и не вызвать разрушающие мысли.

Фото:Dalle-3
Экономика образования Редакторы будущего: кто такие AI-тренеры и как они улучшают нейросети

Как называют специалистов, которые создают данные для обучения LLM

AI-тренеры — специалисты, которые пишут тексты для обучения больших языковых моделей, оценивают их ответы на достоверность (фактчек), соответствие принятому стилю ответа и по другим критериям. В эту профессию чаще всего приходят ex-журналисты, лингвисты, редакторы и переводчики.

AI-редакторы — специалисты с экспертизой в редактуре. Создают стандарты качества, по которым AI-тренеры пишут тексты для обучения LLM, оценивают ответы тренеров, формулируют тон общения модели с пользователями и выполняют другие задачи, связанные с тем, как и о чем говорит LLM.

Например, если пользователь поделился своими переживаниями, ассистент должен вовремя отследить эту эмоцию в процессе диалога, выразить эмоциональную поддержку и посоветовать ребенку обратиться за помощью к взрослым. У ИИ нет задачи заменить психолога, но он может помочь ребенку справиться с его переживаниями «здесь и сейчас».

На сообщение от ребенка «Я поссорился с сестрой, что делать?» «Джуниор-ассистент» дал развернутый ответ: «Ох, неприятная ситуация... Важно сохранять спокойствие и пытаться понять причину конфликта. Возможно, стоит поговорить спокойно и выяснить, почему она расстроилась. Попробуй извиниться, если был не прав, предложи помощь или просто вырази свое сочувствие. Иногда помогает написать письмо или записку, чтобы сестра смогла лучше обработать свои эмоции. Но помни, важно уважать чувства друг друга и стараться поддерживать хорошие отношения». «Алиса» и GigaChat не являются специализированными ИИ-помощниками для детей, но на этот вопрос нейросети также посочувствовали пользователю и предложили список действий, которые могут помочь ему в данной ситуации.

Качество работы ассистента измеряется не только тем, ответил ли он пользователю и соответствует ли ответ вопросу, но и тем, насколько ответ безопасен и полезен. У детей небольшая разница в возрасте может быть огромной пропастью, а информация, которую получает ребенок, должна соответствовать этапу его взросления. Поэтому важно, чтобы ИИ подстраивался под возраст пользователя, объяснял сложные темы понятным для детей языком и не сюсюкал с подростками. Ответы ассистента должны быть дружелюбными, но без «токсичного» позитива, особенно, когда пользователь испытывает сложные чувства и ему требуется поддержка.

Одна из сложнейших задач — сбалансировать тон общения ИИ с детьми. Ассистент должен разговаривать с ребенком по-дружески, разделять его интересы, понимать стиль речи и сленг, но при этом нельзя, чтобы он нарушал его личные границы и вторгался в семейные отношения. Ассистент не может заменять родителя и принимать решения о воспитании ребенка. Например, если пользователю интересно, где бы он мог подработать летом, ИИ не должен сразу выдавать список вакансий — по закону подросток может устроиться на работу уже с 14 лет, но только с согласия родителей. Вместо этого ассистент может помочь ребенку разобраться в его интересах, рассказать о первых шагах в карьере, объяснить, какие профессии доступны в его возрасте, и подсказать, как обсудить это с родителями.

Фото:«Альпина Паблишер»
Экономика образования Цифровое воспитание детей: что делать, когда запреты не работают

Работа над детским ИИ-ассистентом регулируется также этическими и юридическими вопросами. Если ребенок ведет себя агрессивно, использует оскорбления и провокационные смайлы, дискриминирует людей, ассистенту потребуется мягко разрядить обстановку, направить диалог в созидательное русло, а не отвечать тем же. И при этом любой ответ ассистента должен соблюдать законы, касающиеся прав ребенка. ИИ не может поощрять разговоры и активности, которые способны причинить вред пользователю и другим людям.

Все эти правила общения формулирует AI-редактор, а AI-тренеры следуют этим стандартам при создании данных для обучения и оценивают ответы ассистента на соответствие регламенту. Разработчики обучают модель на ответах AI-тренеров, а затем тестируют ее ответы на «токсичность», то есть проверяют, насколько корректно она отвечает на вопросы разной степени чувствительности.

Как психология защищает от ошибок в разработке детского ИИ-ассистента

Чтобы понять, что ИИ должен отвечать детям разных возрастов, нужно знать, как развивается детская психика на каждом этапе жизни. Поэтому у AI-редактора, который работает над созданием ассистента, должно быть психологическое образование и соответствующая практика.

Исследование ВЦИОМ показывает, что дети поколения Z и альфа (рожденные в 2001 году и позднее) больше других поколений доверяют ИИ в области интернета и виртуальных помощников (умные колонки, чат-боты и другие). Для них переписка с ассистентом может не сильно отличаться от чата с другом, и граница между виртуальным и реальным миром стирается. По данным Т-Банка, собранным по итогам анализа диалогов пользователей с «Джуниор-ассистентом», дети и подростки могут делиться с ИИ своими переживаниями и страхами, а также проявлять агрессию, которую вынуждены сдерживать в реальной жизни. А представление о том, как регулировать эмоции подростка, у всех может быть разным и, конечно, от разработчиков такой экспертизы не требуется. В этом случае необходим как раз AI-редактор со знанием детской психологии.

Что он может сделать:

  • Сформировать критерии качественного ответа ассистента в зависимости от возраста ребенка и тональности сообщения.
  • Описать, как ассистент должен общаться с ребенком в зависимости от его пола и возраста — как ему говорить с детьми, какие фразы ему нельзя использовать, как реагировать в разных ситуациях и прочее.
  • Сформулировать стандарты для написания так, чтобы тексты, на которых учится ассистент, звучали естественно для детей разных возрастов и не вызывали у пользователей недоверия и раздражения.

Фото:Freepik
Экономика образования Детский развивающий контент: семь главных трендов KidTech

Не только текст: зачем ИИ развивать визуальные и голосовые инструменты

Кроме содержания ответов, в ИИ-ассистенте важно то, насколько удобно с ним общаться. Генеративные модели в основном разговаривают текстом, но могут также создавать картинки, отвечать голосом и работать с файлами. Детям и подросткам интересно взаимодействовать в разных форматах общения. Поэтому дизайнеры продумывают интерфейс, который делает ИИ интуитивно понятным и доступным в любом возрасте. UX-редакторы адаптируют его элементы так, чтобы дети и подростки не воспринимали их как что-то, что придумали взрослые, которые неудачно пытаются говорить с ними на одном языке.

Отдельная сложность — научить ИИ распознавать голос пользователя. Исследования показывают, что, несмотря на высокий уровень развития голосовых технологий, они по-прежнему могут делать ошибки, особенно если у человека есть особенности речи, он говорит на диалекте, с акцентом или пока нечетко выговаривает слова. Родителей беспокоит то, что ассистенты с голосовыми технологиями могут выдать ребенку не подходящий по возрасту контент, если неправильно услышат его запрос. Например, ребенок просит умную колонку включить ему сказку про Муми-тролля, а колонка включает песни музыкальной группы «Мумий-тролль». Такие ошибки могут возникать из-за недостаточного разнообразия данных для обучения, особенностей речи, вероятностного метода работы ИИ и фонового шума. Чтобы голосовые ассистенты точнее понимали человека, разработчикам нужно больше времени и ресурсов для обучения моделей с учетом разных акцентов, интонаций и условий использования. Также эту проблему могут решить дополнительные фичи — уточняющие вопросы, контекстный анализ и фильтрация контента по возрасту.

Важно помнить, что ИИ-ассистенты — это сервисы, которые умеют поддерживать разговор, отвечать на вопросы, развлекать и сочувствовать, но они никогда не заменит ребенку друга и родителя. И это обязательно должно отражаться в оформлении ассистента.

➤ Подписывайтесь на телеграм-канал «РБК Трендов» — будьте в курсе последних тенденций в науке, бизнесе, обществе и технологиях.

Обновлено 04.04.2025
Авторы
Теги
Главная Лента Подписаться Поделиться
Закрыть