我想说:
可能一直关注我更新文章的童鞋,可能看出我的布局,基本是先搭一个框架然后挖坑去填,这可能是我做事情一个优点,当接触到新事物总是能快速建立一个框架,然后去慢慢填,可能刚开始建立的框架是错的,但是没关系,后面随着认知的加深慢慢去改,这可能与我数学比较好有点关系(又开始了...对你无语!!!),跟着清华宁向东老师学习管理学半年,感觉在宁老师上课方式跟我学习知识有点相似(当然应该是我跟宁老师相似),框架搭好挖坑去填,然后多问为什么?另外我也一直反对老师上课用ppt,为什么不用板书,由以前的事半功倍,变成现在事倍功半,反而让学生课后要花更多时间去自己琢磨学习,爱学习的还好,就像我这种不爱学习的简直是大坑。清华老校长梅贻琦先生的话:大学者,非有大楼之谓也,而有大师之谓也。
今天我们来研究cnn的源码,不用dl框架,前边文章已经对卷积、池化、全连结、前向传播、后向传播等做了铺垫,还少了激活函数(稍微提一下,使解决非线性成为可能,同时选择不当会导致梯度后向传播失败的问题)、BN(解决训练过程中数据弥散、加速训练,抗过拟合、弥补激活函数造成梯度后向传播失败的问题)等文章,后面会慢慢填起来。
又是截图哈哈,个人观点:好代码是敲出来的;从来不是搬出来的;
开始顺代码:
推荐阅读:
3. MachinLN之dl
4. DeepLN之CNN解析
版权声明:本文为博主原创文章,未经博主允许不得转载。有问题可以加微信:lp9628(注明CSDN)。