Фонд «Интеллект»

Факультет ВМК МГУ провел презентацию Академической программы по искусственному интеллекту

16.09.2024

Академическая программа по искусственному интеллекту реализуется на факультете ВМК МГУ с 2021 года при поддержке фонда «Интеллект». Ее цель – подготовить специалистов в области научного и практического применения искусственного интеллекта в разных сферах будущей карьеры. Презентация прошла для студентов вторых и третьих курсов факультета вычислительной математики и кибернетики МГУ.

 

В 2023 году на программе было 8 выпускников, в 2024 году – 16. Руководитель академической программы Василий Владимирович Фомичев уверен, что это цифра будет увеличиваться каждый выпуск, так как программа актуальна.

Координатор программы, младший научный сотрудник лаборатории математических методов обработки изображений ВМК МГУ Александр Хвостиков рассказал, что АП по ИИ – это набор курсов по тематике искусственного интеллекта, встроенных в общую образовательную программу обучения. Студент получает базовую фундаментальную математическую подготовку с правильно поставленным алгоритмическим мышлением, со знаниями и в математике, и в области компьютерных наук. И в то же время студент в рамках своей учебы без дополнительных курсов может получить все необходимые глубокие знания в области ИИ, став ценным специалистом на рынке труда.

Преподаватели программы также рассказали подробнее о своих курсах и что они своевременно обновляются в соответствии с запросами и временем.

Фонд поддерживает три курса Виктора Владимировича Китова, доцента кафедры математических методов прогнозирования ВМК МГУ – «Методы машинного обучения», «Глубокое машинное обучение» и «Нейросетевые методы обработки изображений». Важно отметить, что Виктор Владимирович со своим курсом «Методы машинного обучения» стал победителем конкурса VK среди курсов IT- направленности

Андрей Серджевич Крылов, доктор физико-математических наук, профессор, заведующий лабораторией математических методов обработки изображений ВМК МГУ читает курс по выбору: «Нейросетевые методы численного решения дифференциальных уравнений»:

«Часто при решении практических задач, с которыми уже не один год боролись ученые-прикладники, возникает следующая ситуация: берется набор данных (например, снимков с медицинского прибора, с имеющимися результатами диагностики врачами), на этих данных обучается какая-нибудь нейронная сеть (трансформер, …). И на данных, слабо отличающихся от тренировочных, эта сеть очень успешно решает задачу. Намного лучше, чем это получалось у «классических» алгоритмов без машинного обучения. Но, в реальности, устойчивости у нейросетевого решения нет. Для аналогичных данных сеть дает неправильные ответы («шаг-влево, шаг-вправо»– и все становится очень плохо). Более того, любую сеть можно заставить ошибаться очень маленькими изменениями в данных. Этого нет у «классических» алгоритмов – они более устойчивы (на самом деле из-за мало-параметричности используемых моделей). В связи с этим, очень перспективна идея объединить нейронные сети, позволяющие делать тонкую настройку на специфику конкретных данных, с алгоритмами, созданными ранее и основанными на математических моделях, например, удовлетворяющих законам сохранения. Последние несколько лет характеризуются очень быстрым развитием нейросетевых методов, использующих, в том числе, математические модели, построенные для описания анализируемого процесса или объекта. Примером являются нейронные сети, учитывающие физику процесса PINN (Physics-Informed Neural Networks), которые позволяют строить нейросетевое решения для нелинейных уравнений в частных производных. При этом, при обучении в функции потерь учитывается требование удовлетворения дифференциального уравнения на сетке и его начальных и краевых условий.

Более перспективным по мнению многих авторов является новый подход, основанный на использовании так называемых нейронных операторов. Наиболее часто используемыми на практике являются нейронный оператор Фурье FNO и нейронный оператор DeepONet. Нейронные операторы основываются на использовании теоремы об аппроксимации персептроном произвольного непрерывного нелинейного оператора с любой заданной точностью. Отметим, что обычно нейронные операторы применяются для моделирования операторов, основанных на использовании дифференциальных уравнений. Однако на практике они могут быть эффективны и для решения широкого круга задач, для которых в предыдущие годы были предложены нелинейные операторы (алгоритмы), решающие задачу, например, в компьютерном зрении, анализе изображений и т. д. Крайне интересен также метод построения нейронных операторов, возникший в этом году и основанный на использовании теоремы о представлении Колмогорова-Арнольда.

Все это мы попытались включить в лекционный курс «Нейросетевые методы численного решения дифференциальных уравнений», читаемый на факультете ВМК МГУ, входящий в Академическую программу по искусственному интеллекту для бакалавров при поддержке фонда «Интеллект». В магистратуре это уже курс «Использование математических моделей в глубоком обучении». Нельзя, конечно, не отметить объективные проблемы таких курсов, обусловленные очень быстрым развитием области (например, поиск в Google Scholar «Kolmogorov Arnold neural network» за 2024 год около 1000 ссылок). Курсы сопровождаются практическим заданиями, разработка которых осуществлена нашим молодым сотрудником - Яковом Пчелинцевым, кандидатом физико-математических наук, специалистом лаборатории математических методов обработки изображений факультета ВМК МГУ (от также является победителем конкурса молодых ученых МГУ 2024) и аспирантом Максимом Пенкиным. Как следствие этих трудностей, мы не смогли найти аналогов таких курсов в российских и зарубежных вузах».

По итогам презентации, студенты задали вопросы, получили мерч от фонда «Интеллект» и определись со своей учебной траекторией.