Skip to content

Commit

Permalink
Merge pull request #2 from d3phys/fix-typos
Browse files Browse the repository at this point in the history
Fix typos
  • Loading branch information
andriygav authored Oct 3, 2024
2 parents 69a9c04 + b6520ef commit 44f2979
Showing 1 changed file with 27 additions and 27 deletions.
54 changes: 27 additions & 27 deletions README.rst
Original file line number Diff line number Diff line change
Expand Up @@ -14,8 +14,8 @@ Machine Learning Seminars
- `Почта для связи. <[email protected]>`_
- `Группа в тг 2024. <https://t.me/+IDTQVoUaqatmNGYy>`_

Осений семестр
==============
Осенний семестр
===============

Курсовое домашнее задание:
--------------------------
Expand All @@ -35,11 +35,11 @@ Machine Learning Seminars
- Выполнить препроцесинг данных:
- Преобразовать категориальные признаки в вещественные.
- Отнормировать признаки.
- Провести эксперимент для предложеных методов:
- Провести эксперимент для предложенных методов:
- Выполнить подбор гиперпараметров.
- Подобрать регуляризаторы.
- Получить итоговые модели.
- Описать полученые результаты:
- Описать полученные результаты:
- Какая модель лучше и почему.
- С какими проблемами столкнулись во время выполнения, возможно недочеты стандартных библиотек.
- Совпадают ли полученные результаты с ожидаемыми результатами.
Expand Down Expand Up @@ -70,23 +70,23 @@ Machine Learning Seminars
Вводный семинар
************************************************
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem1/main.ipynb>`_:
- Теореотическая часть:
- Теоретическая часть:
- Общие идеи оптимизации, функции ошибки и тд.
- Практическая часть:
- При помощи sklearn показать пример Ирисов Фишера.
- Понятие модели алгоритмов, алгоритм обучения, процесс оптимизации для конкретной задачи.
- Переход от бинарной к многоклассовой.
- Переобучение. Борьба с переобучениям (начало).
- Переобучение. Борьба с переобучением (начало).
- Немного о типах задач машинного обучения: прикладные и исследовательские
- Домашнее задание:
- В задаче по переходу от бинарной классификации к многоклассовой добавить константу и скорректировать соответстветсвующие разделяющие гиперплоскости.
- Подсказка: в LogisticRegresion нужно добавить специальный параметр fit_intercept=False, чтобы внутри черного ящика своя константта не добавлялась(влият на результат).
- В задаче по переходу от бинарной классификации к многоклассовой добавить константу и скорректировать соответствующие разделяющие гиперплоскости.
- Подсказка: в LogisticRegresion нужно добавить специальный параметр fit_intercept=False, чтобы внутри черного ящика своя константа не добавлялась(влияет на результат).


Линейные методы классификации и регрессии: метод стохастического градиента
*******************************************************************************
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem2/main.ipynb>`_:
- Теореотическая часть:
- Теоретическая часть:
- Анализ стохастического градиента на сходимость.
- Задача линейной регрессии, МНК в общем случае.
- Постановка задачи линейной регрессии через правдоподобие, вероятностные предположения о данных + регуляризаций.
Expand All @@ -104,14 +104,14 @@ Machine Learning Seminars
Нейронные сети: Autograd
*******************************************************************************
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem3/main.ipynb>`_:
- Теореотическая часть:
- Автоматическое диференцирование.
- Теоретическая часть:
- Автоматическое дифференцирование.
- Практическая часть:
- Разбор домашнего задания.
- Построение простой нейросетевой модели: многослойный персептрон.
- Обучение персептрона на выборке MNIST.
- Подбор гиперпараметров модели.
- Пррореживание сетей (без кода, только графики).
- Прореживание сетей (без кода, только графики).
- Домашнее задание:
- Проделать то, что было на семинаре для выборки FashionMnist: подбор гиперпараметров модели (выполнить более подробно чем на семинаре), также провести анализ полученных результатов.
- Указать какие минусы вы увидели в подборе гиперпараметров на семинаре (их как минимум 3).
Expand Down Expand Up @@ -149,14 +149,14 @@ Machine Learning Seminars
- Многомерная линейная регрессия.
- Сингулярное разложение.
- Регуляризация для многомерной регрессии: используя SVD.
- Зависимость качества аппроксимации от числа обусловлености.
- Зависимость качества аппроксимации от числа обусловленности.
- Метод главных компонент: визуализация MNIST.
- Метод главных компонент: для изображений.
- Домашнее задание:
- Доказать лемму из семинара.
- Для синтетически сгенерированной выборки (beta=2, mu=0.01) построить график зависимости качества аппроксимации контрольной вбыорки от коэффициента регуляризации. Сравнить скорость работы в случае использования SVD разложения и без него.
- Для синтетически сгенерированной выборки (beta=2, mu=0.01) построить график зависимости качества аппроксимации контрольной выборки от коэффициента регуляризации. Сравнить скорость работы в случае использования SVD разложения и без него.

Нелинейная регрессия. Обощенные линейные модели. Нестандартные функции потерь.
Нелинейная регрессия. Обобщенные линейные модели. Нестандартные функции потерь.
*******************************************************************************
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem7/main.ipynb>`_:
- Практическая часть:
Expand All @@ -172,7 +172,7 @@ Machine Learning Seminars
*******************************************************************************
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem8/main.ipynb>`_:
- Практическая часть:
- Оценка качества моделе: внешний и внутрений критерии.
- Оценка качества моделей: внешний и внутренний критерии.
- Отбор признаков: полный перебор, алгоритм Add, алгоритм Add-Del.
- Качество классификации: Precision, Recall.
- Пример задачи information retrieval.
Expand All @@ -186,27 +186,27 @@ Machine Learning Seminars
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem9/main.ipynb>`_:
- Практическая часть:
- Логический классификатор реализация.
- Примеры задач для решения логичеким классификатором.
- Примеры задач для решения логическим классификатором.
- Критерии информативности.
- Решающий список, простая реализация.
- Решающее дерево.
- Случайный лес.
- Домашнее задание:
- в реализованый метод построение логистического классификатора добавить возможность оптимизации по критерию Джини.
- в реализованный метод построение логистического классификатора добавить возможность оптимизации по критерию Джини.

Поиск ассоциативных правил.
*******************************************************************************
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem10/main.ipynb>`_:
- Практическая часть:
- Постановка задачи ассоциативных правил.
- Синтетичекий пример.
- Синтетический пример.
- Пример реальных данных из kaggle.
- Алгоритм APriory.
- Алгоритм FP-growth.
- Обобщение для вещественных данных.
- Обобщенные ассоциативные правила.
- Домашнее задание:
- выполнить анализ ассоциативных правил, которые получены алгоримом FP-growth. Расмоттреть только те правила, которые содержат более 3 элементов
- выполнить анализ ассоциативных правил, которые получены алгоритмом FP-growth. Рассмотреть только те правила, которые содержат более 3 элементов

Композиции классификаторов.
*******************************************************************************
Expand Down Expand Up @@ -237,8 +237,8 @@ Machine Learning Seminars
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem13/main.ipynb>`_:
- Практическая часть:
- Принцип максимума правдоподобия: визуализация.
- Востановление плотности по империческим данным.
- LOO для ввыбора ширины окна.
- Восстановление плотности по эмпирическим данным.
- LOO для выбора ширины окна.
- Наивный байесовский классификатор.
- Домашнее задание:
- Получить оценку параметров нормального распределения из принципа максимума правдоподобия.
Expand All @@ -258,8 +258,8 @@ Machine Learning Seminars
- Домашнее задание:
- Самому сравнить разные методы кластеризации для трех концентрических окружностей.

Весений семестр
===============
Весенний семестр
================

Курсовое домашнее задание:
--------------------------
Expand Down Expand Up @@ -339,7 +339,7 @@ Attention is all you need. Трансформеры.
*******************************************************************************
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem21/main.ipynb>`_:
- Практическая часть:
- Базовые понятие.
- Базовые понятия.
- Пример задачи ранжирования.
- Пример рекомендательной системы.
- Обучение поисковика на базе pyserini.
Expand All @@ -357,7 +357,7 @@ Attention is all you need. Трансформеры.
*******************************************************************************
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem23/main.ipynb>`_:
- Практическая часть:
- Авторегрессионая модель.
- Авторегрессионная модель.
- Экспоненциальное сглаживание.
- Кластерный анализ временных рядов.

Expand All @@ -378,7 +378,7 @@ Attention is all you need. Трансформеры.
*******************************************************************************
- `Семинар <https://github.com/andriygav/MachineLearningSeminars/blob/master/sem26/main.ipynb>`_:
- Практическая часть:
- Активное обучение со случайным добавлчющим элементом.
- Активное обучение со случайным добавляющим элементом.
- Активное обучение с добавлением элемента с максимальной дисперсией.

Заключительное занятие.
Expand Down

0 comments on commit 44f2979

Please sign in to comment.