Как обучается ИИ — и где здесь риски

Автор: Дмитрий Нерсесян
Дата: 23 июля 2025
ИИ всё чаще становится частью образовательных процессов — от автоматической оценки до работы с абитуриентами. Но прежде чем доверять ему важные решения, стоит разобраться: как он обучается, как формирует ответы — и какие риски с этим связаны.

Почему искусственный интеллект может звучать убедительно, но ошибаться всерьёз
Сегодня искусственный интеллект — это уже не экзотика, а повседневный инструмент. Мы используем его в образовании, медицине, маркетинге и даже при отборе студентов. Но за впечатляющими результатами скрываются принципы работы, которые важно понимать, особенно если вы планируете внедрение ИИ в свои процессы.

ИИ учится не как человек
ИИ не читает книги и не задаёт уточняющих вопросов. Он не понимает смысла так, как это делает человек. Вместо этого он анализирует огромные объёмы текстов и изображений, выявляя закономерности.
Представьте, что ИИ обучают распознавать опухоли на рентгеновских снимках. Ему показывают десятки тысяч изображений с подписями: «здоров» или «патология». Модель не «понимает», где именно опухоль — она ищет повторяющиеся визуальные элементы, которые чаще встречаются на снимках с диагнозом.
И здесь возникает риск.
Если на снимках с опухолью чаще встречался, например, штамп одной клиники, ИИ может решить, что именно этот штамп — признак болезни. То есть он не анализирует суть, а просто подмечает совпадения.

Галлюцинации: уверенность без понимания
Один из самых известных эффектов в работе ИИ — галлюцинации. Это когда система выдаёт неправду, звучащую абсолютно уверенно.
Например, вы спрашиваете у ChatGPT, кто изобрёл рентген. И получаете ответ: «Исаак Ньютон». Почему? Потому что модель не «знает» — она угадывает, основываясь на паттернах из текстов, на которых обучалась.
ИИ не может отличить правду от вымысла. Он не врёт — но и не проверяет достоверность. А звучит при этом убедительно.

Когда плохие данные = плохие решения
ИИ становится отражением тех данных, на которых его обучили. Если они неполные, устаревшие или предвзятые — результат будет таким же.
Пример из США. Один университет использовал ИИ-систему для анализа интервью с абитуриентами. Через некоторое время выяснилось: кандидаты афроамериканского происхождения получали от системы стабильно более низкие оценки. Причина — в обучающем наборе данных: он включал информацию за 70+ лет, включая эпоху сегрегации, когда к таким студентам применялись дискриминационные практики.
ИИ не осуждал — он просто повторял историческую предвзятость.

Почему ИИ всегда отвечает — даже когда не должен
ИИ не говорит: «Я не знаю». Он будет пытаться ответить в любом случае. Иногда это работает. Но иногда — нет.
И чем более уверенно звучит такой ответ, тем выше риск, что человек примет его за правду.
Рекомендуем всегда спрашивать в своих промптах, есть ли вопросы по данному поводу у вашего ИИ-помощника.

К чему это нас подводит?
🔹 ИИ учится через повторение, а не понимание
🔹 Он масштабирует ошибки — если они были в обучении
🔹 Он может быть убедительным даже в своих заблуждениях
🔹 И он никогда не признается, что «не знает»

Поэтому ИИ нельзя пускать на самотёк. Он требует настройки, проверки и экспертной поддержки — особенно там, где цена ошибки высока.

Что делать?
Если вы внедряете ИИ в образовательные процессы — важно:
  • Понимать, на чём обучена система
  • Обеспечивать актуальные и качественные данные
  • Поддерживать участие человека-эксперта
  • Не бояться задавать ИИ уточняющие вопросы и проверять его ответы
ИИ — это не опасный враг, а неразумный помощник. Но именно поэтому он нуждается в чётких границах и мудром руководстве.
Вам также может быть интересно
Дмитрий Нерсесян рассказывает о поддержании лояльности компаний-рекрутеров российским вузам — что важно для совместной эффективной работы, и какова реальность на сегодняшний день.
Дмитрий Нерсесян раскрывает тему повышения значимости роли подготовительных факультетов вузов с точки зрения адаптации иностранных студентов в нашей стране.