Site icon Granite of science

Почему университеты боятся ИИ больше, чем студенты

Университетские запреты на ИИ на самом деле не про честность. Они сигнализируют о более глубоком кризисе: высшее образование с трудом может чётко определить, чему оно учит и что именно измеряют его экзамены.


Это эссе — совместная работа Милы Агиус и Сэма Иллингворта, профессора и поэта, автора популярной рассылки Slow AI. Он пишет о рефлексивном, осознанном и человеко-центричном подходе к искусственному интеллекту, который сопротивляется бессмысленному ускорению и гонке за всё более быстрыми, но менее продуманными технологиями.

Ниже — перевод статьи. Оригинал на английском языке можно изучить по ссылке


Эта статья не защищает списывание. Она утверждает, что массовые запреты ИИ вскрывают более глубокий институциональный сбой. Проблема не в студентах, а в системе — системе, которая больше не может ясно объяснить, чему она учит и что именно проверяет.

В январе 2023 года французский Sciences Po стал одним из первых громких европейских примеров жёсткой позиции. Университет объявил, что использование ChatGPT и других ИИ-инструментов без прозрачного указания источника будет считаться академическим нарушением с дисциплинарными последствиями вплоть до исключения.

После этого по высшему образованию прокатилась не единая универсальная блокировка, а быстро распространяющаяся волна строгих ограничений — в основном для оценочных работ и экзаменов. Некоторые университеты запрещали ИИ по умолчанию, если курс явно его не разрешал. Другие вводили отдельные категории нарушений. Третьи обновляли формулировки об авторстве, оригинальности и нечестном преимуществе.

В Дании Орхусский университет объяснил проблему экзамена простыми словами: экзамен должен выполняться самостоятельно, а с ИИ вы уже не работаете один. Технический университет Дании установил аналогичное базовое правило: генеративный ИИ запрещён на письменных экзаменах, если формат явно его не допускает.

В Литве Вильнюсский университет, как сообщалось, отчислил около десяти студентов за неправильное использование ИИ — ключевым нарушением считалось не наличие инструмента, а отсутствие раскрытия факта его применения.

Это распространилось как бюрократическая паника. Но если присмотреться внимательнее, картина меняется. Это не только борьба за академическую честность. Это защитный рефлекс системы, внезапно обнаружившей, насколько хрупки некоторые её ритуалы оценки.


Раунд первый: официальные причины против реальных эффектов

Логика запретов

Университеты обычно строят аргументацию вокруг трёх угроз: плагиата, неравного доступа и деградации навыков.

На практике это превращается в правило примерно такого типа: если ИИ явно не разрешён, то сдача текста, созданного ИИ, как собственного — нарушение. Birkbeck формулирует это прямо: студентам нельзя сдавать работу, созданную чат-ботом ИИ, если задание прямо не разрешает этого; отсутствие раскрытия использования может рассматриваться как академическое правонарушение, аналогичное плагиату или заказной работе.

Контрудар

Но запреты создают скрытность. Вместо обучения ответственному использованию они заставляют студентов прятаться.

И это не теория. Наблюдения за поведением студентов снова и снова показывают одну и ту же динамику: студенты боятся спрашивать, что разрешено, потому что любое признание использования ИИ может привести к обвинению в мошенничестве. Итог — молчание, догадки и растущая серая зона.

Итог раунда: запрет порождает скрытое использование вместо ответственного. Счёт 1:0 в пользу интеграции.


Раунд второй: проблема невидимого базового навыка

Аргумент сторонников запрета

Университеты настаивают, что ИИ угрожает критическому мышлению, письму и аргументации.

Контрудар

Вот неудобный парадокс: если один промпт способен разрушить экзамен, это часто говорит меньше о силе ИИ и больше о слабости экзамена.

Многие формы оценки всё ещё вознаграждают воспроизведение информации и аккуратную упаковку — именно то, что ИИ делает быстро. Проблема не в знаниях. Проблема в том, что многие экзамены по-прежнему вознаграждают воспроизведение и полировку результата. Когда система оценивает результат больше, чем суждение, ИИ мгновенно вскрывает разрыв.

Это приводит к вопросу, которого университеты избегают:
какой базовый навык тренирует каждая дисциплина и как университет на самом деле его проверяет?

Примеры:

Итог раунда: ИИ не разрушает сильное образование. Он разрушает иллюзию того, что механическое воспроизведение знаний ценно само по себе. Счёт 2:0.


Раунд третий: контроль как рефлекс

Логика запрета

Когда политика не успевает за реальностью, система хватается за самый привычный рычаг — контроль. Больше надзора, жёстче санкции, более закрытые форматы экзаменов. Сообщается о возвращении очных экзаменов, прокторинга, ограниченных браузеров и подозрительности по умолчанию.

Контрудар

Это выглядит не как адаптация, а как защитный спазм. Университеты — тяжёлые структуры: аккредитации, стандарты, кредиты, комитеты. Настоящая реформа тащит за собой бюрократическую цепь. Поэтому проще запрещать, наказывать и ужесточать правила, чем перепроектировать оценивание так, чтобы оно проверяло навыки более высокого уровня.

Итог раунда: замороженная структура лучше справляется с рефлекторной обороной, чем с трансформацией. Счёт 3:0.


Раунд четвёртый: двойные стандарты, которые разрушают доверие

Логика запрета

Многие преподаватели инстинктивно видят в ИИ короткий путь для студентов, чтобы избежать чтения и заданий.

Одновременно возникает другое напряжение. Взрослые используют ИИ для своих задач, а студентам говорят не трогать его или объясняют правила так, что безопасное использование становится невозможным.

Контрудар

Это не заговор. Это групповое сопротивление, защищающее старый порядок. Система обороняет роли, ритуалы и символический статус. ИИ отвечает быстрее, доступен всегда, адаптируется к уровню студента и не читает нотаций.

Студенты воспринимают это как простое противоречие: если инструмент действительно полезен, почему их заставляют делать вид, что его не существует?

Итог раунда: двойные стандарты разрушают доверие быстрее любого чат-бота. Счёт 4:0.


Нокаут: альтернативная модель уже существует

Некоторые университеты уже движутся в другом направлении, но настоящий сдвиг — не просто разрешить ИИ, а замедлить саму логику обучения и оценки.

Оксфорд подчёркивает безопасное и ответственное использование вместо отрицания. UC Riverside рассматривает ИИ как партнёра мышления, проверяющего рассуждение, а не производящего ответы. Европейские инициативы вроде проекта AI Leaders фокусируются на общих рамках, раскрытии использования и этической практике.

Общее между этими подходами — сдержанность. ИИ не рассматривается как путь к эффективности, а как намеренно ограниченный инструмент. Студенты обязаны объяснять:

Фокус оценки смещается с поверхностного качества результата на качество принятия решений.

Это и есть практическое воплощение подхода Slow AI. Он сознательно вводит трение. Он ценит размышление больше скорости, отслеживаемость больше гладкости, ответственность больше беглости. Когда ИИ используется медленно, он перестаёт быть угрозой обучению и становится инструментом, раскрывающим мышление, а не заменяющим его.

Именно поэтому запреты не работают. Они отвечают на скорость запретом вместо того, чтобы отвечать на хрупкость редизайном.


Вердикт

Университеты сталкиваются не с проблемой ИИ. Они сталкиваются с проблемой оценивания, которую ИИ сделал видимой.

Когда система опирается на ритуалы авторства, оформления и формального соответствия, она становится хрупкой. ИИ легко ломает эти ритуалы. Ответом стал контроль: больше правил, больше подозрений, больше закрытых форматов. Этот путь сохраняет видимость порядка, пока доверие размывается.

Альтернатива сложнее, но яснее: перепроектировать оценивание так, чтобы в центре были суждение, ответственность и объяснение. Требовать от студентов демонстрации того, как они думают, а не только того, что они сдают. Использовать ИИ медленно, прозрачно и критически, чтобы его ограничения становились частью обучения, а не тем, что нужно скрывать.

Настоящий вопрос не в том, как университетам защититься от ИИ. Вопрос в том, готовы ли они замедлиться настолько, чтобы учить тому, что автоматизация не может выполнить: рефлексии, контексту, последствиям и ответственности за решения.

Если высшее образование избежит этого пересмотра, ИИ не сделает его устаревшим. Он лишь покажет, как мало из текущих практик вообще было необходимо.


Источники


[1] “Top French university bans use of ChatGPT to prevent plagiarism” (Reuters, 27 Jan 2023).

[2] “Ny kunstig intelligent chatbot kan besvare alle dine spørgsmål – løste AU-lektors opgave til et 7-tal” (Omnibus AU)

[3] “Use of aids and materials at written exams” (DTU Student).

[4] “Vilnius University expels ten students for improper AI use” (LRT).

[5] “AI guidance” (Birkbeck, University of London).

[6] “AI like ChatGPT and Grammarly blur the lines of cheating. Here’s how schools are trying to keep up” (AP News).

[7] “Cambridge University introduces new AI-related academic misconduct category” (Varsity).

[8] “ChatGPT is wreaking havoc on education. Schools are scrambling to catch up” (Business Insider, Aug 2023).

[9] “Guidance for the safe and responsible use of generative AI tools” (University of Oxford, Sept 2025).

[10] “Customer stories: Gemini” (Google Blog, Sinha, 20 Mar 2025).

[11] “AI Leaders Project” (Global Focus Magazine, Cetina-Presuel, 17 Jun 2025).

Exit mobile version