Исследования показывают, что 82% молодых людей от 18 до 24 лет осведомлены о нейросетях с текстовыми функциями, причем многие активно применяют их для выполнения учебных заданий и написания академических работ. О рисках использования ИИ в образовательном процессе в пятницу, 5 апреля, рассказала руководитель ИТ-подразделения агентства «Полилог», автор Telegram-канала «ГОС ИТ Богатырева» Людмила Богатырева в беседе с «Газета.Ru».
Как указала эксперт, вузы всё чаще выражают обеспокоенность тем, что ИИ превращается в стандартный инструмент обучения. Многие университеты уже внедряют системы обнаружения ИИ-текстов и устанавливают правила их использования.
Однако, по словам Богатыревой, эти меры часто оказываются неэффективными — студенты находят способы их обойти. Популярный метод — использование специальных сервисов («хьюменайзеров»), которые перефразируют ИИ-текст так, что детекторы не могут отличить его от человеческого. Специалист отметила, что запрещать ИИ бессмысленно.
«Вместо этого важно учить студентов критически мыслить, проверять факты и осознавать ограничения нейросетей», — объяснила она.
Богатырева утверждает, что ключевое ограничение ИИ — это так называемые галлюцинации, когда система генерирует ложную или вымышленную информацию. Это происходит из-за недостаточности обучающих данных, неправильной интерпретации запросов и других факторов, уточнила эксперт.
Она рассказала, что даже самая совершенная на сегодня модель ChatGPT-4.5 демонстрирует «галлюцинации» в 37% случаев, что является лучшим показателем среди всех версий. Несмотря на это, согласно опросу НИУ ВШЭ, около 31% студентов доверяют ИИ поиск источников для своих работ, пишут "Известия".
Феномен «галлюцинаций» ИИ представляет серьезную угрозу для академической среды, добавила Богатырева.
«Но еще опаснее, если ошибка останется незамеченной, а работа будет опубликована в интернете — тогда другие ИИ-модели могут использовать ее в обучении, распространяя неверную информацию дальше», — заключила эксперт.