Skip to content

Latest commit

 

History

History
111 lines (55 loc) · 6 KB

机器学习-017:MachineLN之逻辑回归.md

File metadata and controls

111 lines (55 loc) · 6 KB

我想说:

其实....整天其实,感觉没啥好说的了,好好GAN吧。

逻辑回归可以这样理解: 和感知机比较着来看或许更好,将感知机的表达式中的sign函数换成sigmoid就是逻辑回归的表达式,但是这一换不要紧,导致后边参数更新的方式完全不同,因为逻辑回顾的损失函数是参数连续可导的,还记得我们说过感知机的损失函数是参数连续不可导的吗? :MachineLN之感知机

还是一如既往:

说起逻辑回归,那么我的问题:(根据MachineLN之三要素:模型、策略、算法)

(1)什么是逻辑回归?(模型)

(2)逻辑回归是如何学习的?(策略)

(3)逻辑回归学习算法?(算法)

看到这里你的答案是什么?下面是我的答案:

1. 什么是逻辑回归?

前面有提到,逻辑回归是来解决分类问题的,而不是回归问题,想想问什么呢?就是因为sigmoid。说起sigmoid应该很熟悉吧:MachineLN之激活函数

直接看一下二项逻辑回归表达式吧:可以理解为事件发生的概率和事件不发生的概率:

image

2. 逻辑回归是如何学习的?

逻辑回归可以通过极大似然估计(什么是极大似然估计,简单说利用已知的样本结果,反推有可能(最大概率)导致这样结果的参数值(模型已知,参数未知))来估计模型参数:

设:

image

那么似然函数可表示为:

image

为了后面求导,这里取对数似然函数:

那么对数似然函数,也就是损失函数为:

image

接下来我们要求其最大值,其最大值的要用梯度上升法,如果想用梯度下降只需要加一个负号,利用梯度下降法求最小值。

(3)逻辑回归学习算法?

还是用手撕一下吧:

image

下一节的源代码解析你会看到就是按照这个更新公式来做的,但是加了一些优化。

另外可以考虑一下:逻辑回归和softmax回归的关系? 多项逻辑回归是softmax吗? 答案是肯定的!

看下面逻辑回归表达式:

image

在看softmax表达式:

image

有人说,啊,完全不一样,不要急化简一下看看:

image

推荐阅读:

1. 机器学习-1:MachineLN之三要素

2. 机器学习-2:MachineLN之模型评估

3. 机器学习-3:MachineLN之dl

4. 机器学习-4:DeepLN之CNN解析

5. 机器学习-5:DeepLN之CNN权重更新(笔记)

6. 机器学习-6:DeepLN之CNN源码

7. 机器学习-7:MachineLN之激活函数

8. 机器学习-8:DeepLN之BN

9. 机器学习-9:MachineLN之数据归一化

10. 机器学习-10:MachineLN之样本不均衡

11. 机器学习-11:MachineLN之过拟合

12. 机器学习-12:MachineLN之优化算法

13. 机器学习-13:MachineLN之kNN

14. 机器学习-14:MachineLN之kNN源码

15. 机器学习-15:MachineLN之感知机

16. 机器学习-16:MachineLN之感知机源码

17. 机器学习-17:MachineLN之逻辑回归

18. 机器学习-18:MachineLN之逻辑回归源码

image

版权声明:本文为博主原创文章,未经博主允许不得转载。有问题可以加微信:lp9628(注明CSDN)。