-
Notifications
You must be signed in to change notification settings - Fork 142
Commit
This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.
Merge pull request #2 from d3phys/fix-typos
Fix typos
- Loading branch information
Showing
1 changed file
with
27 additions
and
27 deletions.
There are no files selected for viewing
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
|
@@ -14,8 +14,8 @@ Machine Learning Seminars | |
- `Почта для связи. <[email protected]>`_ | ||
- `Группа в тг 2024. <https://t.me/+IDTQVoUaqatmNGYy>`_ | ||
|
||
Осений семестр | ||
============== | ||
Осенний семестр | ||
=============== | ||
|
||
Курсовое домашнее задание: | ||
-------------------------- | ||
|
@@ -35,11 +35,11 @@ Machine Learning Seminars | |
- Выполнить препроцесинг данных: | ||
- Преобразовать категориальные признаки в вещественные. | ||
- Отнормировать признаки. | ||
- Провести эксперимент для предложеных методов: | ||
- Провести эксперимент для предложенных методов: | ||
- Выполнить подбор гиперпараметров. | ||
- Подобрать регуляризаторы. | ||
- Получить итоговые модели. | ||
- Описать полученые результаты: | ||
- Описать полученные результаты: | ||
- Какая модель лучше и почему. | ||
- С какими проблемами столкнулись во время выполнения, возможно недочеты стандартных библиотек. | ||
- Совпадают ли полученные результаты с ожидаемыми результатами. | ||
|
@@ -70,23 +70,23 @@ Machine Learning Seminars | |
Вводный семинар | ||
************************************************ | ||
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem1/main.ipynb>`_: | ||
- Теореотическая часть: | ||
- Теоретическая часть: | ||
- Общие идеи оптимизации, функции ошибки и тд. | ||
- Практическая часть: | ||
- При помощи sklearn показать пример Ирисов Фишера. | ||
- Понятие модели алгоритмов, алгоритм обучения, процесс оптимизации для конкретной задачи. | ||
- Переход от бинарной к многоклассовой. | ||
- Переобучение. Борьба с переобучениям (начало). | ||
- Переобучение. Борьба с переобучением (начало). | ||
- Немного о типах задач машинного обучения: прикладные и исследовательские | ||
- Домашнее задание: | ||
- В задаче по переходу от бинарной классификации к многоклассовой добавить константу и скорректировать соответстветсвующие разделяющие гиперплоскости. | ||
- Подсказка: в LogisticRegresion нужно добавить специальный параметр fit_intercept=False, чтобы внутри черного ящика своя константта не добавлялась(влият на результат). | ||
- В задаче по переходу от бинарной классификации к многоклассовой добавить константу и скорректировать соответствующие разделяющие гиперплоскости. | ||
- Подсказка: в LogisticRegresion нужно добавить специальный параметр fit_intercept=False, чтобы внутри черного ящика своя константа не добавлялась(влияет на результат). | ||
|
||
|
||
Линейные методы классификации и регрессии: метод стохастического градиента | ||
******************************************************************************* | ||
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem2/main.ipynb>`_: | ||
- Теореотическая часть: | ||
- Теоретическая часть: | ||
- Анализ стохастического градиента на сходимость. | ||
- Задача линейной регрессии, МНК в общем случае. | ||
- Постановка задачи линейной регрессии через правдоподобие, вероятностные предположения о данных + регуляризаций. | ||
|
@@ -104,14 +104,14 @@ Machine Learning Seminars | |
Нейронные сети: Autograd | ||
******************************************************************************* | ||
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem3/main.ipynb>`_: | ||
- Теореотическая часть: | ||
- Автоматическое диференцирование. | ||
- Теоретическая часть: | ||
- Автоматическое дифференцирование. | ||
- Практическая часть: | ||
- Разбор домашнего задания. | ||
- Построение простой нейросетевой модели: многослойный персептрон. | ||
- Обучение персептрона на выборке MNIST. | ||
- Подбор гиперпараметров модели. | ||
- Пррореживание сетей (без кода, только графики). | ||
- Прореживание сетей (без кода, только графики). | ||
- Домашнее задание: | ||
- Проделать то, что было на семинаре для выборки FashionMnist: подбор гиперпараметров модели (выполнить более подробно чем на семинаре), также провести анализ полученных результатов. | ||
- Указать какие минусы вы увидели в подборе гиперпараметров на семинаре (их как минимум 3). | ||
|
@@ -149,14 +149,14 @@ Machine Learning Seminars | |
- Многомерная линейная регрессия. | ||
- Сингулярное разложение. | ||
- Регуляризация для многомерной регрессии: используя SVD. | ||
- Зависимость качества аппроксимации от числа обусловлености. | ||
- Зависимость качества аппроксимации от числа обусловленности. | ||
- Метод главных компонент: визуализация MNIST. | ||
- Метод главных компонент: для изображений. | ||
- Домашнее задание: | ||
- Доказать лемму из семинара. | ||
- Для синтетически сгенерированной выборки (beta=2, mu=0.01) построить график зависимости качества аппроксимации контрольной вбыорки от коэффициента регуляризации. Сравнить скорость работы в случае использования SVD разложения и без него. | ||
- Для синтетически сгенерированной выборки (beta=2, mu=0.01) построить график зависимости качества аппроксимации контрольной выборки от коэффициента регуляризации. Сравнить скорость работы в случае использования SVD разложения и без него. | ||
|
||
Нелинейная регрессия. Обощенные линейные модели. Нестандартные функции потерь. | ||
Нелинейная регрессия. Обобщенные линейные модели. Нестандартные функции потерь. | ||
******************************************************************************* | ||
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem7/main.ipynb>`_: | ||
- Практическая часть: | ||
|
@@ -172,7 +172,7 @@ Machine Learning Seminars | |
******************************************************************************* | ||
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem8/main.ipynb>`_: | ||
- Практическая часть: | ||
- Оценка качества моделе: внешний и внутрений критерии. | ||
- Оценка качества моделей: внешний и внутренний критерии. | ||
- Отбор признаков: полный перебор, алгоритм Add, алгоритм Add-Del. | ||
- Качество классификации: Precision, Recall. | ||
- Пример задачи information retrieval. | ||
|
@@ -186,27 +186,27 @@ Machine Learning Seminars | |
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem9/main.ipynb>`_: | ||
- Практическая часть: | ||
- Логический классификатор реализация. | ||
- Примеры задач для решения логичеким классификатором. | ||
- Примеры задач для решения логическим классификатором. | ||
- Критерии информативности. | ||
- Решающий список, простая реализация. | ||
- Решающее дерево. | ||
- Случайный лес. | ||
- Домашнее задание: | ||
- в реализованый метод построение логистического классификатора добавить возможность оптимизации по критерию Джини. | ||
- в реализованный метод построение логистического классификатора добавить возможность оптимизации по критерию Джини. | ||
|
||
Поиск ассоциативных правил. | ||
******************************************************************************* | ||
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem10/main.ipynb>`_: | ||
- Практическая часть: | ||
- Постановка задачи ассоциативных правил. | ||
- Синтетичекий пример. | ||
- Синтетический пример. | ||
- Пример реальных данных из kaggle. | ||
- Алгоритм APriory. | ||
- Алгоритм FP-growth. | ||
- Обобщение для вещественных данных. | ||
- Обобщенные ассоциативные правила. | ||
- Домашнее задание: | ||
- выполнить анализ ассоциативных правил, которые получены алгоримом FP-growth. Расмоттреть только те правила, которые содержат более 3 элементов | ||
- выполнить анализ ассоциативных правил, которые получены алгоритмом FP-growth. Рассмотреть только те правила, которые содержат более 3 элементов | ||
|
||
Композиции классификаторов. | ||
******************************************************************************* | ||
|
@@ -237,8 +237,8 @@ Machine Learning Seminars | |
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem13/main.ipynb>`_: | ||
- Практическая часть: | ||
- Принцип максимума правдоподобия: визуализация. | ||
- Востановление плотности по империческим данным. | ||
- LOO для ввыбора ширины окна. | ||
- Восстановление плотности по эмпирическим данным. | ||
- LOO для выбора ширины окна. | ||
- Наивный байесовский классификатор. | ||
- Домашнее задание: | ||
- Получить оценку параметров нормального распределения из принципа максимума правдоподобия. | ||
|
@@ -258,8 +258,8 @@ Machine Learning Seminars | |
- Домашнее задание: | ||
- Самому сравнить разные методы кластеризации для трех концентрических окружностей. | ||
|
||
Весений семестр | ||
=============== | ||
Весенний семестр | ||
================ | ||
|
||
Курсовое домашнее задание: | ||
-------------------------- | ||
|
@@ -339,7 +339,7 @@ Attention is all you need. Трансформеры. | |
******************************************************************************* | ||
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem21/main.ipynb>`_: | ||
- Практическая часть: | ||
- Базовые понятие. | ||
- Базовые понятия. | ||
- Пример задачи ранжирования. | ||
- Пример рекомендательной системы. | ||
- Обучение поисковика на базе pyserini. | ||
|
@@ -357,7 +357,7 @@ Attention is all you need. Трансформеры. | |
******************************************************************************* | ||
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem23/main.ipynb>`_: | ||
- Практическая часть: | ||
- Авторегрессионая модель. | ||
- Авторегрессионная модель. | ||
- Экспоненциальное сглаживание. | ||
- Кластерный анализ временных рядов. | ||
|
||
|
@@ -378,7 +378,7 @@ Attention is all you need. Трансформеры. | |
******************************************************************************* | ||
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem26/main.ipynb>`_: | ||
- Практическая часть: | ||
- Активное обучение со случайным добавлчющим элементом. | ||
- Активное обучение со случайным добавляющим элементом. | ||
- Активное обучение с добавлением элемента с максимальной дисперсией. | ||
|
||
Заключительное занятие. | ||
|