Skip to content

Latest commit

 

History

History
161 lines (156 loc) · 8.91 KB

课程目录.md

File metadata and controls

161 lines (156 loc) · 8.91 KB
  • 1_神经网络与深度学习

    • 第一周-深度学习概论-1.1-欢迎
    • 第一周-深度学习概论-1.2-什么是神剧网络
    • 第一周-深度学习概论-1.3-用神经网络进行监督学习
    • 第一周-深度学习概论-1.4-为什么深度学习会兴起
    • 第一周-深度学习概论-1.5-关于这门课程
    • 第一周-深度学习概论-1.6-课程资源
    • 第二周-神经网络基础-2.1-二分类
    • 第二周-神经网络基础-2.2-logistic回归
    • 第二周-神经网络基础-2.3-logistic回归损失函数
    • 第二周-神经网络基础-2.4-梯度下降法
    • 第二周-神经网络基础-2.5-导数
    • 第二周-神经网络基础-2.6-更多导数的例子
    • 第二周-神经网络基础-2.7-计算图
    • 第二周-神经网络基础-2.8-计算图的导数计算
    • 第二周-神经网络基础-2.9-logistic回归的梯度下降法
    • 第二周-神经网络基础-2.10-m个样本的梯度下降
    • 第二周-神经网络基础-2.11-向量化
    • 第二周-神经网络基础-2.12-向量化的更多例子
    • 第二周-神经网络基础-2.13-向量化logistic回归
    • 第二周-神经网络基础-2.14-向量化logistic回归的梯度输出
    • 第二周-神经网络基础-2.15-python中的广播
    • 第二周-神经网络基础-2.16-关于python/numpy向量的说明
    • 第二周-神经网络基础-2.17-jupyter/Ipython笔记本的快速指南
    • 第二周-神经网络基础-2.18-logistic损失函数的解释
    • 第三周-浅层神经网络-3.1-神经网络概览
    • 第三周-浅层神经网络-3.2-神经网络表示
    • 第三周-浅层神经网络-3.3-计算神经网络的输出
    • 第三周-浅层神经网络-3.4-多个例子中的向量化
    • 第三周-浅层神经网络-3.5-向量化实现的解释
    • 第三周-浅层神经网络-3.6-激活函数
    • 第三周-浅层神经网络-3.7-为什么需要非线性激活函数
    • 第三周-浅层神经网络-3.8-激活函数的导数
    • 第三周-浅层神经网络-3.9-神经网络的梯度下降
    • 第三周-浅层神经网络-3.10-(选修)直观理解反向传播
    • 第三周-浅层神经网络-3.11-随机初始化
    • 第四周-深层神经网络-4.1-深层神经网络
    • 第四周-深层神经网络-4.2-深层网络的前向传播
    • 第四周-深层神经网络-4.3-核对矩阵的维数
    • 第四周-深层神经网络-4.4-为什么使用深层表示
    • 第四周-深层神经网络-4.5-搭建深层神经网络块
    • 第四周-深层神经网络-4.6-前向和反向传播
    • 第四周-深层神经网络-4.7-参数VS超参数
    • 第四周-深层神经网络-4.8-这和大脑有什么关系
  • 2_改善深层神经网络:超参数调试、正则化以及优化

    • 第一周-深层学习的实用-1.1-训练/开发/测试集
    • 第一周-深层学习的实用-1.2-偏差/方差
    • 第一周-深层学习的实用-1.3-机器学习基础
    • 第一周-深层学习的实用-1.4-正则化
    • 第一周-深层学习的实用-1.5-为什么正则化可以减少过拟合
    • 第一周-深层学习的实用-1.6-DropOut正则化
    • 第一周-深层学习的实用-1.7-理解DropOut
    • 第一周-深层学习的实用-1.8-其他正则化方法
    • 第一周-深层学习的实用-1.9-正则化输入
    • 第一周-深层学习的实用-1.10-梯度小时与梯度爆炸
    • 第一周-深层学习的实用-1.11-神经网络的权重初始化
    • 第一周-深层学习的实用-1.12-梯度的数值逼近
    • 第一周-深层学习的实用-1.13-梯度校验
    • 第一周-深层学习的实用-1.14-关于梯度校验实现的标记
    • 第二周-优化算法-2.1-Minibath梯度下降法
    • 第二周-优化算法-2.2-理解Minibath梯度下降法
    • 第二周-优化算法-2.3-指数加权平均
    • 第二周-优化算法-2.4-理解指数加权平均
    • 第二周-优化算法-2.5-指数指数加权平均的偏差修正
    • 第二周-优化算法-2.6-动量梯度下降法
    • 第二周-优化算法-2.7-RMSprop
    • 第二周-优化算法-2.8-Adam 优化算法
    • 第二周-优化算法-2.9-学习率衰减
    • 第二周-优化算法-2.10-局部最优问题
    • 第三周-超参数调试&正则化&框架-3.1-调试处理
    • 第三周-超参数调试&正则化&框架-3.2-为超参数选择合适的范围
    • 第三周-超参数调试&正则化&框架-3.3-超参数训练的实践:pandas VS Caviar
    • 第三周-超参数调试&正则化&框架-3.4-正则化网络的激活函数
    • 第三周-超参数调试&正则化&框架-3.5-将Batch Norm拟合进神经网络
    • 第三周-超参数调试&正则化&框架-3.6-Batch Norm为什么凑效
    • 第三周-超参数调试&正则化&框架-3.7-测试时的Batch Norm
    • 第三周-超参数调试&正则化&框架-3.8-Softmax回归
    • 第三周-超参数调试&正则化&框架-3.9-训练一个Softmax分类器
    • 第三周-超参数调试&正则化&框架-3.10-深度学习框架
    • 第三周-超参数调试&正则化&框架-3.11-TensorFlow
  • 3_结构化机器学习项目

    • 第一周-机器学习策略上-1.1-什么是ML策略
    • 第一周-机器学习策略上-1.2-正交化
    • 第一周-机器学习策略上-1.3-单一数字评估指标
    • 第一周-机器学习策略上-1.4-满足和优化指标
    • 第一周-机器学习策略上-1.5-训练/开发/测试集划分
    • 第一周-机器学习策略上-1.6-开发集和测试集的大小
    • 第一周-机器学习策略上-1.7-什么时候该改变开发集/测试集和指标
    • 第一周-机器学习策略上-1.8-为什么是人的表现
    • 第一周-机器学习策略上-1.9-可避免偏差
    • 第一周-机器学习策略上-1.10-理解人的表现
    • 第一周-机器学习策略上-1.11-超过人的表现
    • 第一周-机器学习策略上-1.12-改善你的模型表现
    • 第二周-机器学习策略下-2.1-进行误差分析
    • 第二周-机器学习策略下-2.2-清楚标记错误的数据
    • 第二周-机器学习策略下-2.3-快速搭建你的第一个系统并迭代
    • 第二周-机器学习策略下-2.4-在不同数据划分上进行训练并测试
    • 第二周-机器学习策略下-2.5-不匹配数据划分的偏差和方差
    • 第二周-机器学习策略下-2.6-定位数据不匹配
    • 第二周-机器学习策略下-2.7-迁移学习
    • 第二周-机器学习策略下-2.8-多任务学习
    • 第二周-机器学习策略下-2.9-什么是端到端的深度学习
    • 第二周-机器学习策略下-2.10-是否要使用端到端的深度学习
  • 4_卷积神经网络

    • 第一周-卷积神经网络-1.1-计算机视觉
    • 第一周-卷积神经网络-1.2-边缘检测示例
    • 第一周-卷积神经网络-1.3-更多边缘检测内容
    • 第一周-卷积神经网络-1.4-Padding
    • 第一周-卷积神经网络-1.5-卷积步长
    • 第一周-卷积神经网络-1.6-卷积中"卷"的体现之处
    • 第一周-卷积神经网络-1.7-单层卷积网络
    • 第一周-卷积神经网络-1.8-简单卷积网络示例
    • 第一周-卷积神经网络-1.9-池化层
    • 第一周-卷积神经网络-1.10-卷积神经网络示例
    • 第一周-卷积神经网络-1.11-为什么使用卷积?
    • 第二周-深层卷积神经网络实例探究-2.1-为什么要进行实例探究
    • 第二周-深层卷积神经网络实例探究-2.2-经典网络
    • 第二周-深层卷积神经网络实例探究-2.3-残差网络
    • 第二周-深层卷积神经网络实例探究-2.4-残差网络为什么有用?
    • 第二周-深层卷积神经网络实例探究-2.5-网络中的网络以及1X1网络
    • 第二周-深层卷积神经网络实例探究-2.6-谷歌Inception网络简介
    • 第二周-深层卷积神经网络实例探究-2.7-Inception网络
    • 第二周-深层卷积神经网络实例探究-2.8-使用开源的实现方案
    • 第二周-深层卷积神经网络实例探究-2.9-迁移学习
    • 第二周-深层卷积神经网络实例探究-2.10-数据扩充
    • 第二周-深层卷积神经网络实例探究-2.11-计算机视觉现状
    • 第三周-目标检测-3.1-目标定位
    • 第三周-目标检测-3.2-特征点检测
    • 第三周-目标检测-3.3-目标检测
    • 第三周-目标检测-3.4-卷积的滑动窗口实现
    • 第三周-目标检测-3.5-BoundingBox预测
    • 第三周-目标检测-3.6-并交化
    • 第三周-目标检测-3.7-非极大值抑制
    • 第三周-目标检测-3.8-Anchor Boxes
    • 第三周-目标检测-3.9-YOLO算法
    • 第三周-目标检测-3.10-(选修)RPN网络
    • 第四周-人脸识别和神经风格转换-4.1-什么是人脸识别?
    • 第四周-人脸识别和神经风格转换-4.2-One-Shot学习
    • 第四周-人脸识别和神经风格转换-4.3-Siamese网络
    • 第四周-人脸识别和神经风格转换-4.4-Triplet损失
    • 第四周-人脸识别和神经风格转换-4.5-面部特征与二分类
    • 第四周-人脸识别和神经风格转换-4.6-什么是神经风格转换
    • 第四周-人脸识别和神经风格转换-4.7-深度卷积网络在学什么
    • 第四周-人脸识别和神经风格转换-4.8-代价函数
    • 第四周-人脸识别和神经风格转换-4.9-内容代价函数
    • 第四周-人脸识别和神经风格转换-4.10-风格损失函数
    • 第四周-人脸识别和神经风格转换-4.11-一维到三维推广