-
1_神经网络与深度学习
- 第一周-深度学习概论-1.1-欢迎
- 第一周-深度学习概论-1.2-什么是神剧网络
- 第一周-深度学习概论-1.3-用神经网络进行监督学习
- 第一周-深度学习概论-1.4-为什么深度学习会兴起
- 第一周-深度学习概论-1.5-关于这门课程
- 第一周-深度学习概论-1.6-课程资源
- 第二周-神经网络基础-2.1-二分类
- 第二周-神经网络基础-2.2-logistic回归
- 第二周-神经网络基础-2.3-logistic回归损失函数
- 第二周-神经网络基础-2.4-梯度下降法
- 第二周-神经网络基础-2.5-导数
- 第二周-神经网络基础-2.6-更多导数的例子
- 第二周-神经网络基础-2.7-计算图
- 第二周-神经网络基础-2.8-计算图的导数计算
- 第二周-神经网络基础-2.9-logistic回归的梯度下降法
- 第二周-神经网络基础-2.10-m个样本的梯度下降
- 第二周-神经网络基础-2.11-向量化
- 第二周-神经网络基础-2.12-向量化的更多例子
- 第二周-神经网络基础-2.13-向量化logistic回归
- 第二周-神经网络基础-2.14-向量化logistic回归的梯度输出
- 第二周-神经网络基础-2.15-python中的广播
- 第二周-神经网络基础-2.16-关于python/numpy向量的说明
- 第二周-神经网络基础-2.17-jupyter/Ipython笔记本的快速指南
- 第二周-神经网络基础-2.18-logistic损失函数的解释
- 第三周-浅层神经网络-3.1-神经网络概览
- 第三周-浅层神经网络-3.2-神经网络表示
- 第三周-浅层神经网络-3.3-计算神经网络的输出
- 第三周-浅层神经网络-3.4-多个例子中的向量化
- 第三周-浅层神经网络-3.5-向量化实现的解释
- 第三周-浅层神经网络-3.6-激活函数
- 第三周-浅层神经网络-3.7-为什么需要非线性激活函数
- 第三周-浅层神经网络-3.8-激活函数的导数
- 第三周-浅层神经网络-3.9-神经网络的梯度下降
- 第三周-浅层神经网络-3.10-(选修)直观理解反向传播
- 第三周-浅层神经网络-3.11-随机初始化
- 第四周-深层神经网络-4.1-深层神经网络
- 第四周-深层神经网络-4.2-深层网络的前向传播
- 第四周-深层神经网络-4.3-核对矩阵的维数
- 第四周-深层神经网络-4.4-为什么使用深层表示
- 第四周-深层神经网络-4.5-搭建深层神经网络块
- 第四周-深层神经网络-4.6-前向和反向传播
- 第四周-深层神经网络-4.7-参数VS超参数
- 第四周-深层神经网络-4.8-这和大脑有什么关系
-
2_改善深层神经网络:超参数调试、正则化以及优化
- 第一周-深层学习的实用-1.1-训练/开发/测试集
- 第一周-深层学习的实用-1.2-偏差/方差
- 第一周-深层学习的实用-1.3-机器学习基础
- 第一周-深层学习的实用-1.4-正则化
- 第一周-深层学习的实用-1.5-为什么正则化可以减少过拟合
- 第一周-深层学习的实用-1.6-DropOut正则化
- 第一周-深层学习的实用-1.7-理解DropOut
- 第一周-深层学习的实用-1.8-其他正则化方法
- 第一周-深层学习的实用-1.9-正则化输入
- 第一周-深层学习的实用-1.10-梯度小时与梯度爆炸
- 第一周-深层学习的实用-1.11-神经网络的权重初始化
- 第一周-深层学习的实用-1.12-梯度的数值逼近
- 第一周-深层学习的实用-1.13-梯度校验
- 第一周-深层学习的实用-1.14-关于梯度校验实现的标记
- 第二周-优化算法-2.1-Minibath梯度下降法
- 第二周-优化算法-2.2-理解Minibath梯度下降法
- 第二周-优化算法-2.3-指数加权平均
- 第二周-优化算法-2.4-理解指数加权平均
- 第二周-优化算法-2.5-指数指数加权平均的偏差修正
- 第二周-优化算法-2.6-动量梯度下降法
- 第二周-优化算法-2.7-RMSprop
- 第二周-优化算法-2.8-Adam 优化算法
- 第二周-优化算法-2.9-学习率衰减
- 第二周-优化算法-2.10-局部最优问题
- 第三周-超参数调试&正则化&框架-3.1-调试处理
- 第三周-超参数调试&正则化&框架-3.2-为超参数选择合适的范围
- 第三周-超参数调试&正则化&框架-3.3-超参数训练的实践:pandas VS Caviar
- 第三周-超参数调试&正则化&框架-3.4-正则化网络的激活函数
- 第三周-超参数调试&正则化&框架-3.5-将Batch Norm拟合进神经网络
- 第三周-超参数调试&正则化&框架-3.6-Batch Norm为什么凑效
- 第三周-超参数调试&正则化&框架-3.7-测试时的Batch Norm
- 第三周-超参数调试&正则化&框架-3.8-Softmax回归
- 第三周-超参数调试&正则化&框架-3.9-训练一个Softmax分类器
- 第三周-超参数调试&正则化&框架-3.10-深度学习框架
- 第三周-超参数调试&正则化&框架-3.11-TensorFlow
-
3_结构化机器学习项目
- 第一周-机器学习策略上-1.1-什么是ML策略
- 第一周-机器学习策略上-1.2-正交化
- 第一周-机器学习策略上-1.3-单一数字评估指标
- 第一周-机器学习策略上-1.4-满足和优化指标
- 第一周-机器学习策略上-1.5-训练/开发/测试集划分
- 第一周-机器学习策略上-1.6-开发集和测试集的大小
- 第一周-机器学习策略上-1.7-什么时候该改变开发集/测试集和指标
- 第一周-机器学习策略上-1.8-为什么是人的表现
- 第一周-机器学习策略上-1.9-可避免偏差
- 第一周-机器学习策略上-1.10-理解人的表现
- 第一周-机器学习策略上-1.11-超过人的表现
- 第一周-机器学习策略上-1.12-改善你的模型表现
- 第二周-机器学习策略下-2.1-进行误差分析
- 第二周-机器学习策略下-2.2-清楚标记错误的数据
- 第二周-机器学习策略下-2.3-快速搭建你的第一个系统并迭代
- 第二周-机器学习策略下-2.4-在不同数据划分上进行训练并测试
- 第二周-机器学习策略下-2.5-不匹配数据划分的偏差和方差
- 第二周-机器学习策略下-2.6-定位数据不匹配
- 第二周-机器学习策略下-2.7-迁移学习
- 第二周-机器学习策略下-2.8-多任务学习
- 第二周-机器学习策略下-2.9-什么是端到端的深度学习
- 第二周-机器学习策略下-2.10-是否要使用端到端的深度学习
-
4_卷积神经网络
- 第一周-卷积神经网络-1.1-计算机视觉
- 第一周-卷积神经网络-1.2-边缘检测示例
- 第一周-卷积神经网络-1.3-更多边缘检测内容
- 第一周-卷积神经网络-1.4-Padding
- 第一周-卷积神经网络-1.5-卷积步长
- 第一周-卷积神经网络-1.6-卷积中"卷"的体现之处
- 第一周-卷积神经网络-1.7-单层卷积网络
- 第一周-卷积神经网络-1.8-简单卷积网络示例
- 第一周-卷积神经网络-1.9-池化层
- 第一周-卷积神经网络-1.10-卷积神经网络示例
- 第一周-卷积神经网络-1.11-为什么使用卷积?
- 第二周-深层卷积神经网络实例探究-2.1-为什么要进行实例探究
- 第二周-深层卷积神经网络实例探究-2.2-经典网络
- 第二周-深层卷积神经网络实例探究-2.3-残差网络
- 第二周-深层卷积神经网络实例探究-2.4-残差网络为什么有用?
- 第二周-深层卷积神经网络实例探究-2.5-网络中的网络以及1X1网络
- 第二周-深层卷积神经网络实例探究-2.6-谷歌Inception网络简介
- 第二周-深层卷积神经网络实例探究-2.7-Inception网络
- 第二周-深层卷积神经网络实例探究-2.8-使用开源的实现方案
- 第二周-深层卷积神经网络实例探究-2.9-迁移学习
- 第二周-深层卷积神经网络实例探究-2.10-数据扩充
- 第二周-深层卷积神经网络实例探究-2.11-计算机视觉现状
- 第三周-目标检测-3.1-目标定位
- 第三周-目标检测-3.2-特征点检测
- 第三周-目标检测-3.3-目标检测
- 第三周-目标检测-3.4-卷积的滑动窗口实现
- 第三周-目标检测-3.5-BoundingBox预测
- 第三周-目标检测-3.6-并交化
- 第三周-目标检测-3.7-非极大值抑制
- 第三周-目标检测-3.8-Anchor Boxes
- 第三周-目标检测-3.9-YOLO算法
- 第三周-目标检测-3.10-(选修)RPN网络
- 第四周-人脸识别和神经风格转换-4.1-什么是人脸识别?
- 第四周-人脸识别和神经风格转换-4.2-One-Shot学习
- 第四周-人脸识别和神经风格转换-4.3-Siamese网络
- 第四周-人脸识别和神经风格转换-4.4-Triplet损失
- 第四周-人脸识别和神经风格转换-4.5-面部特征与二分类
- 第四周-人脸识别和神经风格转换-4.6-什么是神经风格转换
- 第四周-人脸识别和神经风格转换-4.7-深度卷积网络在学什么
- 第四周-人脸识别和神经风格转换-4.8-代价函数
- 第四周-人脸识别和神经风格转换-4.9-内容代价函数
- 第四周-人脸识别和神经风格转换-4.10-风格损失函数
- 第四周-人脸识别和神经风格转换-4.11-一维到三维推广