
Содержание:
Бум нейросетей начался в 2023 году с выходом ChatGPT-4 и стремительным ростом популярности других генеративных моделей. Всего за год ИИ-инструменты вроде ChatGPT, Gemini, Yandex GPT, DeepSeek и множество других перестали быть технологической диковинкой и стали частью повседневной жизни.
Довольно скоро стало понятно, что генеративные модели активно проникают в академическую среду. Пожалуй, самым громким стал случай Александра Жадана, студента РГГУ, который в начале 2023 года написал дипломную работу с помощью ChatGPT. Он сгенерировал черновик за считанные часы, отредактировал текст вручную, успешно прошел антиплагиат и защитил диплом. Эта история вызвала бурную реакцию — от одобрения «научного эксперимента» до призывов ограничить использование ИИ в вузах.
Сегодня применение нейросетей в учебе скорее правило, чем исключение. Согласно исследованию Ассоциации организаторов студенческих олимпиад «Я — профессионал», проведенному в феврале 2025 года, нейросетями в той или иной форме пользуются 85% студентов. Почти каждый второй — 43% — применяет их для написания эссе, курсовых и дипломных работ.
Однако широкое распространение нейросетей поставило перед академическим сообществом новые вопросы: можно ли считать диплом самостоятельным, если в его создании помогал ИИ? Где заканчивается допустимая помощь, а где начинается подмена авторства? Пока однозначных ответов нет — университеты реагируют по-разному, а студенты продолжают экспериментировать.
В этой статье разберемся, как именно вузы сегодня трактуют использование ИИ, где пролегают этические границы и как применять нейросети так, чтобы это было и полезно, и честно.
Что говорят университеты
На фоне массового внедрения генеративных ИИ-инструментов университеты в России начали формировать собственные подходы к их использованию. Единых стандартов пока нет, но можно выделить несколько устойчивых трендов — от попыток регламентации до этического сопровождения и адаптации образовательной среды под новые реалии.
От полного запрета — к ограниченному допущению
Если раньше использование нейросетей в учебной работе воспринималось как нарушение, то сегодня все больше вузов признают: запретить не значит контролировать. На смену жестким ограничениям приходит политика ограниченного разрешения. Университеты допускают использование ИИ в рамках четких условий — с указанием модели, объема сгенерированного текста и целью его применения.
Например, в Школе философии и культурологии НИУ ВШЭ нейросети официально разрешены, но при этом результат их применения должен составлять не более 20% от всей работы и быть явно выделен. Похожий подход действует и в Северном арктическом федеральном университете (САФУ): здесь студенты могут их использовать при написании дипломов, но только в объеме до 40% и преимущественно для обзорных разделов. Такая модель создает компромисс между академической добросовестностью и актуальностью цифровых инструментов.
Этика и прозрачность становятся новой нормой
Вместо универсальных запретов некоторые университеты делают ставку на развитие этической культуры и критического мышления. Так, в НИУ ВШЭ действует «Декларация этических принципов создания и использования ИИ», утвержденная ученым советом. Она закрепляет принципы прозрачности, уважения к авторству и подчеркивает: ИИ не должен подменять самостоятельную мысль. Европейский университет в Санкт-Петербурге идет еще дальше: здесь допускается использование генеративных моделей только при прямом указании в тексте, а преподаватель имеет право запросить у студента историю общения с ИИ. Такие практики направлены на формирование доверия к студенческим работам и сохранение академических стандартов.
Университеты адаптируют процедуры оценки
Третий тренд — изменения в форматах контроля знаний. Все больше вузов осознает: автоматические детекторы генерации несовершенны, а нейросети трудно выявить по формальным признакам. В ответ на это акцент смещается на очную проверку понимания, защиту с устной частью и персонализированную обратную связь.
Так, в ряде университетов студенты, чьи дипломы содержат явно сгенерированные части, сталкиваются с повышенным вниманием на защите. Как подчеркивают в САФУ, если студент решается использовать ИИ, он должен быть готов ответить на дополнительные вопросы и отлично знать содержание своей работы. В Московском городском педагогическом университете такую стратегию оформили в официальной позиции: университет разрешает использование ИИ, но требует переработки информации и критической оценки. Упор делают не на контроль, а на развитие навыков осмысленной работы с данными.
Сегодня университетское сообщество ищет баланс между возможностями технологий и требованиями академической честности. Формируется новая этика взаимодействия с ИИ: студенты учатся не просто использовать нейросети, но делать это открыто, ответственно и вдумчиво.
Как можно использовать ИИ честно и эффективно
Современные ИИ-инструменты дают широкие возможности — от генерации черновиков до стилистической правки и структурирования мыслей. Вопрос в том, как пользоваться ими осознанно.
Как можно использовать ИИ
Ключевой принцип честного использования — нейросеть не должна подменять собственное мышление. ИИ — это прежде всего помощник. Например, студент может сгенерировать предварительный план диплома, а затем доработать с учетом требований научного руководителя или использовать нейросеть, чтобы задать направление для введения, которое потом будет расширено вручную.
Нейросети могут помочь с академическим стилем — переформулировать разговорную фразу в более научной форме или предложить синонимы, характерные для научной лексики. Многие студенты используют ИИ и для преодоления страха «чистого листа» — когда не знают, с чего начать раздел или как переформулировать громоздкое предложение. Главное, не выдавать эти фрагменты за полностью авторские, если они не были доработаны.
Прозрачность прежде всего
Еще одно правило — быть открытым в использовании ИИ. Многие вузы уже требуют явно указывать, где и каким образом применялись генеративные модели. Это может быть сноска, специальный раздел или пояснение во введении.
Например, на кафедре цитологии и генетики Новосибирского государственного университета предлагают такие формулировки: «финальный текст диплома редактировали при помощи ChatGPT для устранения синтаксических, пунктуационных и стилистических ошибок» или «код был написан с помощью редактора Cursor с ИИ-поддержкой». Такой подход делает использование нейросети прозрачным и показывает, что студент осознает границы допустимого.
Только проверенные знания
Генеративные модели склонны к «галлюцинациям» — могут придумывать несуществующие источники или искажать факты. Поэтому ИИ не подходит для бездумного цитирования и компиляции литературы. Если нейросеть предлагает научную статью, нужно обязательно проверить, существует ли она. Так же стоит относиться и к авторам, терминам и статистике, даже если все звучит убедительно.
Зато нейросети хорошо справляются с обобщением содержимого настоящих источников: можно вставить научную статью на английском и получить краткий пересказ, который поможет быстрее разобраться. Это удобно для подготовки обзоров и объяснения сложных понятий, особенно в гуманитарных и социальных науках.
ИИ и техническая помощь
Для студентов технических и прикладных направлений нейросети особенно полезны в программировании, работе с данными и визуализациями. ChatGPT может помочь с написанием кода, объяснить, почему возникает ошибка, или предложить подход к задаче. Он может сгенерировать шаблон таблицы или формулу в LaTeX.
Однако даже работающий код без понимания его структуры не гарантия успешной защиты. Поэтому принцип остается прежним: использовать можно, но понимать обязательно.

Правки и улучшение текста допустимы, но не в ущерб «живому языку»
ИИ хорошо справляется с вычиткой, исправлением грамматических и стилистических ошибок. Он может предложить более четкие формулировки или унифицировать стиль. Это особенно полезно на финальных этапах, когда нужно привести текст к единому уровню читаемости. Однако чрезмерная автоматизация часто делает его «плоским» и безликим — студенческие работы начинают звучать одинаково.
Важно не потерять в этом процессе индивидуальный голос: ИИ корректирует, но не пишет за вас.

➤ Подписывайтесь на телеграм-канал «РБК Трендов» — будьте в курсе последних тенденций в науке, бизнесе, обществе и технологиях.