diff --git a/README.rst b/README.rst index c82ec08..6600b81 100644 --- a/README.rst +++ b/README.rst @@ -14,8 +14,8 @@ Machine Learning Seminars - `Почта для связи. `_ - `Группа в тг 2024. `_ -Осений семестр -============== +Осенний семестр +=============== Курсовое домашнее задание: -------------------------- @@ -35,11 +35,11 @@ Machine Learning Seminars - Выполнить препроцесинг данных: - Преобразовать категориальные признаки в вещественные. - Отнормировать признаки. - - Провести эксперимент для предложеных методов: + - Провести эксперимент для предложенных методов: - Выполнить подбор гиперпараметров. - Подобрать регуляризаторы. - Получить итоговые модели. - - Описать полученые результаты: + - Описать полученные результаты: - Какая модель лучше и почему. - С какими проблемами столкнулись во время выполнения, возможно недочеты стандартных библиотек. - Совпадают ли полученные результаты с ожидаемыми результатами. @@ -70,23 +70,23 @@ Machine Learning Seminars Вводный семинар ************************************************ - `Семинар `_: - - Теореотическая часть: + - Теоретическая часть: - Общие идеи оптимизации, функции ошибки и тд. - Практическая часть: - При помощи sklearn показать пример Ирисов Фишера. - Понятие модели алгоритмов, алгоритм обучения, процесс оптимизации для конкретной задачи. - Переход от бинарной к многоклассовой. - - Переобучение. Борьба с переобучениям (начало). + - Переобучение. Борьба с переобучением (начало). - Немного о типах задач машинного обучения: прикладные и исследовательские - Домашнее задание: - - В задаче по переходу от бинарной классификации к многоклассовой добавить константу и скорректировать соответстветсвующие разделяющие гиперплоскости. - - Подсказка: в LogisticRegresion нужно добавить специальный параметр fit_intercept=False, чтобы внутри черного ящика своя константта не добавлялась(влият на результат). + - В задаче по переходу от бинарной классификации к многоклассовой добавить константу и скорректировать соответствующие разделяющие гиперплоскости. + - Подсказка: в LogisticRegresion нужно добавить специальный параметр fit_intercept=False, чтобы внутри черного ящика своя константа не добавлялась(влияет на результат). Линейные методы классификации и регрессии: метод стохастического градиента ******************************************************************************* - `Семинар `_: - - Теореотическая часть: + - Теоретическая часть: - Анализ стохастического градиента на сходимость. - Задача линейной регрессии, МНК в общем случае. - Постановка задачи линейной регрессии через правдоподобие, вероятностные предположения о данных + регуляризаций. @@ -104,14 +104,14 @@ Machine Learning Seminars Нейронные сети: Autograd ******************************************************************************* - `Семинар `_: - - Теореотическая часть: - - Автоматическое диференцирование. + - Теоретическая часть: + - Автоматическое дифференцирование. - Практическая часть: - Разбор домашнего задания. - Построение простой нейросетевой модели: многослойный персептрон. - Обучение персептрона на выборке MNIST. - Подбор гиперпараметров модели. - - Пррореживание сетей (без кода, только графики). + - Прореживание сетей (без кода, только графики). - Домашнее задание: - Проделать то, что было на семинаре для выборки FashionMnist: подбор гиперпараметров модели (выполнить более подробно чем на семинаре), также провести анализ полученных результатов. - Указать какие минусы вы увидели в подборе гиперпараметров на семинаре (их как минимум 3). @@ -149,14 +149,14 @@ Machine Learning Seminars - Многомерная линейная регрессия. - Сингулярное разложение. - Регуляризация для многомерной регрессии: используя SVD. - - Зависимость качества аппроксимации от числа обусловлености. + - Зависимость качества аппроксимации от числа обусловленности. - Метод главных компонент: визуализация MNIST. - Метод главных компонент: для изображений. - Домашнее задание: - Доказать лемму из семинара. - - Для синтетически сгенерированной выборки (beta=2, mu=0.01) построить график зависимости качества аппроксимации контрольной вбыорки от коэффициента регуляризации. Сравнить скорость работы в случае использования SVD разложения и без него. + - Для синтетически сгенерированной выборки (beta=2, mu=0.01) построить график зависимости качества аппроксимации контрольной выборки от коэффициента регуляризации. Сравнить скорость работы в случае использования SVD разложения и без него. -Нелинейная регрессия. Обощенные линейные модели. Нестандартные функции потерь. +Нелинейная регрессия. Обобщенные линейные модели. Нестандартные функции потерь. ******************************************************************************* - `Семинар `_: - Практическая часть: @@ -172,7 +172,7 @@ Machine Learning Seminars ******************************************************************************* - `Семинар `_: - Практическая часть: - - Оценка качества моделе: внешний и внутрений критерии. + - Оценка качества моделей: внешний и внутренний критерии. - Отбор признаков: полный перебор, алгоритм Add, алгоритм Add-Del. - Качество классификации: Precision, Recall. - Пример задачи information retrieval. @@ -186,27 +186,27 @@ Machine Learning Seminars - `Семинар `_: - Практическая часть: - Логический классификатор реализация. - - Примеры задач для решения логичеким классификатором. + - Примеры задач для решения логическим классификатором. - Критерии информативности. - Решающий список, простая реализация. - Решающее дерево. - Случайный лес. - Домашнее задание: - - в реализованый метод построение логистического классификатора добавить возможность оптимизации по критерию Джини. + - в реализованный метод построение логистического классификатора добавить возможность оптимизации по критерию Джини. Поиск ассоциативных правил. ******************************************************************************* - `Семинар `_: - Практическая часть: - Постановка задачи ассоциативных правил. - - Синтетичекий пример. + - Синтетический пример. - Пример реальных данных из kaggle. - Алгоритм APriory. - Алгоритм FP-growth. - Обобщение для вещественных данных. - Обобщенные ассоциативные правила. - Домашнее задание: - - выполнить анализ ассоциативных правил, которые получены алгоримом FP-growth. Расмоттреть только те правила, которые содержат более 3 элементов + - выполнить анализ ассоциативных правил, которые получены алгоритмом FP-growth. Рассмотреть только те правила, которые содержат более 3 элементов Композиции классификаторов. ******************************************************************************* @@ -237,8 +237,8 @@ Machine Learning Seminars - `Семинар `_: - Практическая часть: - Принцип максимума правдоподобия: визуализация. - - Востановление плотности по империческим данным. - - LOO для ввыбора ширины окна. + - Восстановление плотности по эмпирическим данным. + - LOO для выбора ширины окна. - Наивный байесовский классификатор. - Домашнее задание: - Получить оценку параметров нормального распределения из принципа максимума правдоподобия. @@ -258,8 +258,8 @@ Machine Learning Seminars - Домашнее задание: - Самому сравнить разные методы кластеризации для трех концентрических окружностей. -Весений семестр -=============== +Весенний семестр +================ Курсовое домашнее задание: -------------------------- @@ -339,7 +339,7 @@ Attention is all you need. Трансформеры. ******************************************************************************* - `Семинар `_: - Практическая часть: - - Базовые понятие. + - Базовые понятия. - Пример задачи ранжирования. - Пример рекомендательной системы. - Обучение поисковика на базе pyserini. @@ -357,7 +357,7 @@ Attention is all you need. Трансформеры. ******************************************************************************* - `Семинар `_: - Практическая часть: - - Авторегрессионая модель. + - Авторегрессионная модель. - Экспоненциальное сглаживание. - Кластерный анализ временных рядов. @@ -378,7 +378,7 @@ Attention is all you need. Трансформеры. ******************************************************************************* - `Семинар `_: - Практическая часть: - - Активное обучение со случайным добавлчющим элементом. + - Активное обучение со случайным добавляющим элементом. - Активное обучение с добавлением элемента с максимальной дисперсией. Заключительное занятие.