Как использовать искусственный интеллект так, чтобы он помогал, а не подменял самостоятельное мышление, в интервью радио Sputnik рассказал эксперт Александр Никифоров.
Искусственный интеллект (ИИ) должен быть прозрачным, верифицируемым и работать в связке с критическим мышлением человека, подчеркивают в ЮНЕСКО. Во всем мире формируется культура ответственного применения технологий: студенты учатся использовать ИИ осознанно, преподаватели учитывают это в обучении и оценке, а университеты формулируют и закрепляют прозрачные правила применения нейросетей, рассказал в интервью радио Sputnik генеральный директор Edtech-компании "Лань" Александр Никифоров.
«
"На старте работы — при подготовке реферата, курсовой или диплома — нейросети помогают уточнить направление, собрать источники, обработать данные. Но именно студент формулирует проблему, выстраивает аргументацию и делает выводы. В любых исследовательских проектах ИИ позволяет обрабатывать массивы информации, выявлять скрытые связи и подсказывать новые подходы. И это не подмена мышления, а инструмент для более глубокого анализа. А преподаватель здесь — не контролер, а наставник, который учит сомневаться, копать глубже и не верить без подтверждения данных ссылками на авторитетные источники даже алгоритму", — уточнил Александр Никифоров.
По его словам, при использовании студентами ИИ могут встречаться недостоверные материалы, искаженные изображения или эффект "эхо-камеры", когда алгоритм предлагает только одну точку зрения.
«
"Университеты уточняют механизмы контроля. Так, в 2024-2025 годах НИУ ВШЭ вместе с "Яндекс Образованием" запустил пилот: более 500 студентов из 11 вузов при подготовке дипломов применяли ИИ и на защите объясняли, на каких этапах он помог, а где человек работал сам. В МГПУ внутренняя политика диктует: если при написании использован ИИ, студент обязан это отметить прямо в работе. Важно, чтобы и студент, и преподаватель ясно видели, где алгоритм помог, а где заменил человека", — рассказал Александр Никифоров.
С возможностями ИИ меняется и роль библиотек. Они перестают быть простым "книгохранилищем" и становятся навигаторами по верифицированным знаниям, продолжил эксперт.
«
"Разрабатываются инструменты, которые формируют ответы только на основе проверенной базы источников и всегда дают ссылки. Это превращает нейросеть из "черного ящика" в прозрачный инструмент: преподаватель или студент всегда может перепроверить вывод. Сегодня библиотека — это не только доступ к информации, но и площадка для формирования культуры работы с ИИ. Здесь учат корректно задавать вопросы, проверять ответы и выходить за пределы "информационного пузыря", — подчеркнул эксперт.
По его мнению, частое обращение к нейросетям может вести к снижению самостоятельности мышления, но практика подтверждает, что все зависит от того, как именно применять ИИ.
«
"При использовании с критичным подходом ИИ не снижает самостоятельность, а помогает анализировать, сравнивать и делать выводы. При соблюдении трех условий: прозрачность (расскажи, где ИИ помог), верифицируемость (каждый факт — с доказательством) и человеческий контроль — нейросети станут надежными помощниками в высшем образовании. Не заменой мышления, а его катализатором", — заключил Александр Никифоров.
Такого Telegram-канала, как у нас, нет ни у кого. Он для тех, кто хочет делать выводы сам.

