Центр универсального образования Brookings опубликовал глобальный доклад об ИИ и школе: при нынешнем подходе риски для детей опережают образовательные выгоды и требуют срочных мер
Этот материал написан ИИ в рамках эксперимента «РБК Трендов».
Что происходит
- Центр универсального образования Brookings опубликовал доклад A New Direction for Students in an AI World: Prosper, Prepare, Protect — итог глобального исследования об искусственном интеллекте и образовании детей.
- Исследование шло с сентября 2024 по октябрь 2025 года и включало интервью, фокус‑группы и консультации с 505 учениками, учителями, родителями, управленцами и технологами из 50 стран, а также анализ более 400 научных и политических материалов.
- Авторы — Мэри Бернс, Ребекка Уинтроп, Наташа Лютер, Эмма Венетис и Рида Карим — рассматривали два вопроса: какие риски генерирующий ИИ несет образованию детей и что можно сделать уже сейчас для их предотвращения.
- Доклад фиксирует две возможные траектории: «обогащенные ИИ» — учебные опыты, когда технологии расширяют возможности ученика и учителя, и «обедненные ИИ» — опыты, когда из‑за зависимости и ошибок систем страдают мышление, отношения и безопасность.
- Авторы приходят к выводу, что на текущем этапе риски перевешивают выгоды: ИИ подталкивает детей к «когнитивной разгрузке», может ухудшать навыки чтения, письма и критическое мышление, подрывать доверие к школе, усиливать неравенство и создавать угрозы приватности и безопасности.
- В отчете приводятся прямые оценки участников: один учитель называет ИИ «фастфудом образования», другой признает: «Когда нам что‑то нужно, мы используем [ИИ]. Мы не используем мозг, чтобы думать — мы просто получаем легкие ответы. Мы полностью зависимы».
- В ответ Brookings предлагает рамку из трех опор — Prosper («процветать»), Prepare («подготовиться»), Protect («защитить») — и 12 рекомендаций для правительств, школ, IT‑компаний, семей и самих учеников: от ИИ‑грамотности и переосмысления педагогики до регулирования и стандартов безопасности для детей.
Что это значит
- Доклад Brookings фиксирует поворотный момент: массовое распространение генеративного ИИ (например, ChatGPT с сотнями миллионов пользователей) уже заметно меняет то, как дети учатся, общаются и принимают решения. В отличие от прежних волн цифровизации (компьютеры, интернет, планшеты), речь идет не просто об инструменте доставки контента, а о системе, способной брать на себя значительную часть умственной работы ребенка.
- Авторы показывают, что по эффектам ИИ ближе к соцсетям, чем к учебным платформам: он способен как расширять возможности (персональные подсказки, доступ к материалам на родном языке, помощь детям с ОВЗ), так и подтачивать базовые способности — сосредоточение, глубокое чтение, терпение при решении сложных задач, навыки живого общения. В этом смысле ИИ продолжает «великую перенастройку» детского мозга, о которой говорят исследования влияния смартфонов и соцсетей.
- Важный вывод для государств и школ: простое внедрение технологий само по себе не улучшает образование — это уже показали многомиллиардные инвестиции в гаджеты и развитие интернета, которые нередко сопровождались падением результатов по чтению и математике. Brookings подчеркивает: ИИ приносит пользу только тогда, когда встроен в продуманную педагогику, поддерживает отношения «учитель–ученик» и не подменяет, а усиливает вклад самих детей.
- С точки зрения бизнеса и EdTech‑рынка доклад сигнализирует о смене запросов к продуктам: от инструментов «быстрого ответа» к решениям, которые учат, а не просто подсказывают. Речь идет о системах, встроенных в учебные материалы, объясняющих ход рассуждений, дозирующих помощь, отслеживающих признаки зависимости и защищающих детские данные. Компании, которые продолжат ориентироваться только на удержание внимания и сбор данных, рискуют столкнуться с жестким регулированием и потерей доверия.
- Фокус на когнитивных рисках особенно важен для долгосрочного развития человеческого капитала. Если школьники привыкают поручать ИИ не только оформление текста, но и само формирование идей, общество через 10–20 лет может столкнуться с поколением специалистов, хуже подготовленных к нестандартным задачам, демократическим дискуссиям и ответственному принятию решений — то есть к тем видам деятельности, где люди пока сохраняют преимущество над машинами.
- Отдельный блок доклада посвящен эмоциональным и социальным последствиям — в том числе взрывному росту «ИИ‑друзей» и компаньонов. Для одиноких подростков они могут создавать ощущение понимания и поддержки, но одновременно закреплять изоляцию, мешать тренировать реальные навыки эмпатии и становиться каналом манипуляции, включая подталкивание к вредному поведению. Это подстегивает регуляторы к созданию специальных стандартов для эмоциональных ИИ‑сервисов, аналогичных требованиям к психотерапии и детскому контенту.
- Анализ неравенства показывает: без целенаправленных мер ИИ угрожает усилить существующие разрывы. Богатые школы и семьи получают доступ к более точным и безопасным моделям, оплачивают подписки и инфраструктуру; бедные — остаются без доступа либо используют бесплатные, менее точные и хуже защищенные решения. Brookings предлагает сместить повестку с «кто вообще имеет доступ к ИИ» на «кто имеет доступ к качественному, безопасному и образовательному ИИ».
- Предложенный подход отражает глобальный тренд перехода от стихийного внедрения ИИ к управляемой интеграции. В итоге этот доклад становится одной из первых попыток не только описать, но и направить траекторию ИИ в образовании до того, как вред станет необратимым. Для стран, школ, компаний и семей он задает ориентир: считать ИИ не нейтральной технологией, а мощным фактором развития детей, к которому нужно относиться как к лекарству — с четкими показаниями, дозировками, контролем побочных эффектов и постоянным исследованием реальных последствий.
➤ Подписывайтесь на телеграм-канал «РБК Трендов» — будьте в курсе последних тенденций в науке, бизнесе, обществе и технологиях.