Я нашел ошибку
Главные новости:
Наверх
Самара  +9 °C, Тольятти  +8 °C
Курсы валют ЦБ РФ:
USD 85.02
-1.07
EUR 94.6
-0.49
  • Персональные данные

Эксперт предупредил студентов о рисках использования ИИ

6 апреля 2025 10:38
652
Эксперт предупредил студентов о рисках использования ИИ

Исследования показывают, что 82% молодых людей от 18 до 24 лет осведомлены о нейросетях с текстовыми функциями, причем многие активно применяют их для выполнения учебных заданий и написания академических работ. О рисках использования ИИ в образовательном процессе в пятницу, 5 апреля, рассказала руководитель ИТ-подразделения агентства «Полилог», автор Telegram-канала «ГОС ИТ Богатырева» Людмила Богатырева в беседе с «Газета.Ru».

Как указала эксперт, вузы всё чаще выражают обеспокоенность тем, что ИИ превращается в стандартный инструмент обучения. Многие университеты уже внедряют системы обнаружения ИИ-текстов и устанавливают правила их использования.

Однако, по словам Богатыревой, эти меры часто оказываются неэффективными — студенты находят способы их обойти. Популярный метод — использование специальных сервисов («хьюменайзеров»), которые перефразируют ИИ-текст так, что детекторы не могут отличить его от человеческого. Специалист отметила, что запрещать ИИ бессмысленно.

«Вместо этого важно учить студентов критически мыслить, проверять факты и осознавать ограничения нейросетей», — объяснила она.

Богатырева утверждает, что ключевое ограничение ИИ — это так называемые галлюцинации, когда система генерирует ложную или вымышленную информацию. Это происходит из-за недостаточности обучающих данных, неправильной интерпретации запросов и других факторов, уточнила эксперт.

Она рассказала, что даже самая совершенная на сегодня модель ChatGPT-4.5 демонстрирует «галлюцинации» в 37% случаев, что является лучшим показателем среди всех версий. Несмотря на это, согласно опросу НИУ ВШЭ, около 31% студентов доверяют ИИ поиск источников для своих работ, пишут "Известия".

Феномен «галлюцинаций» ИИ представляет серьезную угрозу для академической среды, добавила Богатырева.

«Но еще опаснее, если ошибка останется незамеченной, а работа будет опубликована в интернете — тогда другие ИИ-модели могут использовать ее в обучении, распространяя неверную информацию дальше», — заключила эксперт.

Добавить комментарий

Допускаются тэги <b>, <i>, <u>, <p> и ссылки на YouTube (http://youtube.com/watch?v=VIDEO_ID)
Добавляя свой комментарий Вы автоматически соглашаетесь с Правилами модерации.
Прикрепить файл
Прикрепить фотографии (jpg, gif и png)
Код с картинки:*
Используя сайт www.niasam.ru, вы соглашаетесь с использованием файлов cookie. Подробнее