МУИВ и РАН в рамках "Малышевских чтений" организовали обсуждение применения ИИ в образовании
Москва. 28 марта. ИНТЕРФАКС – Взаимодействие искусственного и естественного интеллекта в образовательных технологиях, алгоритмах мышления и научных подходах стало главной темой XXI Международного конгресса "Малышевские чтения – 2025", который состоялся в Москве 27 марта.
Организатором мероприятия выступил Московский университет имени С.Ю. Витте (МУИВ) и Федеральный исследовательский центр "Информатика и управление" РАН (ФИЦ ИУ РАН).
Искусственный интеллект - одно из самых обсуждаемых и активно развивающихся сегодня направлений. Применение ИИ в самых разных сферах открывает большие возможности, но также несет определенные угрозы, потому что многие последствия использования новых технологий еще невозможно предсказать. Эксперты считают, что сфера разработки и применения ИИ нуждается в регулировании, однако оно не должно тормозить научный прогресс.
"Искусственный интеллект - инструмент не только технологического, но и геополитического лидерства нашей страны, - заявил ректор Московского университета им. С. Ю. Витте Александр Семенов. – Но его нельзя рассматривать отдельно от естественного интеллекта. Напротив, интеграция ИИ с когнитивными возможностями человека может привести к новым методам обучения, эффективному развитию профессиональных навыков и решению комплексных междисциплинарных проблем".
Фото пресс-службы Московского университета им.Витте
Нужно ли бояться "восстания машин"?
ИИ сегодня применяется в медицине, образовании, разных сферах экономики, управлении, спорте. Но как любое новшество эта технология несет в себе вызовы, в частности, связанные с безопасностью. Поэтому со стороны бизнеса, образования, ученых звучат призывы ограничить развитие ИИ.
Проректор Московского госуниверситета геодезии и картографии, профессор Андрей Белоцерковский считает это не очень хорошей идеей.
"Наука похожа на сообщающиеся сосуды. Любые ограничения тормозят ее развитие. А вот элемент соревнования наоборот позволяет быстрее двигаться вперед, выхватывать лучшее, создавая свое. Конечно, как и в любой сфере для ИИ нужно законодательное регулирование или координационный центр, комитет специалистов, чтобы рассматривать последствия, в том числе негативные, которые надо будет ограничивать", - сказал Белоцерковский.
Как отметил директор учебно-научного центра гуманитарных и социальных наук Московского физико-технологического института Григорий Консон, искусственный интеллект пока еще не является "разумным" в полном смысле этого слова и ограничен теми данными, которые в него загружает человек.
"Это пока даже не интеллект, не разум. Это некая технология, ограниченная загружаемыми в базу данными. Очень многое зависит от экспертов, которые выступают генераторами информации для машины, и которые сообщают ей, "что такое хорошо и что такое плохо". Возможно лет через 50-70 у машины начнут появляться какие-то разумные проблески, но только в тех границах, в которых это позволит сделать человек. Но даже тогда перспектив, что машина будет принимать решения, основанные на человеческом опыте, я не вижу", - заявил Консон.
Вкалывают роботы: заменит ли ИИ учителей
Специалисты согласились, что ИИ со временем сможет заменить ряд профессий, где работа не требует эмпатии и "человеческого подхода". А вот, к примеру, учителей ИИ заменить не сможет, считает заместитель директора центра бизнес-образования и аналитики Центрального университета Сергей Панфилов.
"С внедрением ИИ в процесс производства и управления (а сегодня порядка 40% из топ-100 компаний уже внедряют решения на базе ИИ), возникла необходимость трансформации образования. Теперь основная задача для образования – не дать ИИ учиться вместо студента. Поэтому роль преподавателя под влиянием ИИ не исчезнет, а наоборот станет еще более важной. Именно наставник должен дать студенту прожить его собственный опыт, сделать что-то руками, а не просто прочитать какой-то ответ ИИ", - считает Панфилов.
По его мнению, ИИ стоит отдать проверку студенческих текстов и тестов. В дальнейшем технологию можно будет применять для распознавания списывания и для анализа поведения студентов: контролировать посещаемость, а также в режиме онлайн подсвечивать лектору, кто из обучающихся отвлекается и кого нужно вовлечь в образовательный процесс.
Как отметил президент компании "Антиплагиат" Юрий Чехович, сегодня наука и образование столкнулись с проблемой перефразирования текста генеративными сервисами. Такой материал не выявляется как плагиат (потому что не обладает формальным сходством с исходным), но и новым он не является.
"В 2024 году мы проанализировали летнюю сессию. И 20% студенческих работ, которые прошли через "Антиплагиат", содержали в себе искусственно созданный текст. В 2025 году, скорее всего, таких работ будет больше", - сказал Чехович.
Он добавил, что если сравнивать количество этичных способов применения генеративных моделей и неэтичных, то цифры получаются неутешительные.
"В 80% случаев генеративный ИИ используется для того, чтобы замаскировать плагиат", - заключил Чехович.
© Интерфакс. Марина Леонова
Поймать и обезвредить: цифровой УК против кибермошенников
Однако плагиат – не самое страшное преступление, совершенное при помощи ИИ. Новыми технологиями активно пользуются кибермошенники. Решить эту проблему поможет создание цифрового уголовного кодекса, в который определит, что такое киберпреступление и какое цифровое наказание за него может быть назначено, считает заведующий кафедрой уголовного права и адвокатуры РГУ им. А.Н. Косыгина Семен Лебедев.
"Мы не можем отказаться от технологии ИИ, потому что это нам дает массу преимуществ. Но порог ощущения безопасности снижается с каждым новым витком развития этой технологии. Тех средств, которые применяются для обеспечения безопасности при использовании продуктов ИИ, явно недостаточно. Для того, чтобы сферу ИИ ввести в правовое поле, мы с коллегами создали цифровой уголовный кодекс, но он пока не принят специалистами по уголовному праву. Вот и получается, что любого киберпреступника по цифровым следам в сети можно обнаружить, идентифицировать и забанить навсегда при помощи программ, а правового основания для этого пока нет", - заявил Лебедев.
Научный руководитель Федерального исследовательского центра "Информатика и управление" РАН Игорь Соколов считает, что проблемы ИИ лежат совсем "в другой плоскости".
"Конечно, нужна и нормативная база, и регулирование проблем этики ИИ. Но это не тот случай, когда нужно все бросить и заниматься только регулированием. Проблемы ИИ лежат не в плоскости применения, а в плоскости развития самих технологий. Для этого нужно развивать методы вычислительной математики, которые позволяют работать с большими объемами информации. Кроме того, надо иметь технику, на которой эти математические методы можно успешно реализовать", - заключил Соколов.