## 回归问题
## 线性回归
### 统计量:描述数据特征
#### 集中趋势衡量
- 均值(平均数、平均值)
- 中位数:排序,求中间数
- 众数:出现次数最多的数
#### 离散程度衡量
- 方差
- 标准差
### 简单线性回归
- 一个字变量、一个应变量
### 非线性回归
- 概率
## 逻辑回归
### 激活函数
#### Sigmoid函数
Sigmoid函数的定义:
![Sigmoid函数](https://img.zeekling.cn/images/2020/04/25/0df3d7ca7bcb0a4659502a5f6f63f6246b60af620198d7c0968827fa.png)
;导数为:
![sigmoid函数导数](https://img.zeekling.cn/images/2020/04/25/64380cd7912397dde41ab3095182b2b7d0a2875f4989e2f5b1bf96b7.png)
### 梯度上升算法
![梯度上升算法](https://img.zeekling.cn/images/2020/04/25/b5bf154051a65b231970f551bed57191.png)
此式便是梯度上升算法的更新规则,α是学习率,决定了梯度上升的快慢。可以看到与线性回归类似,只是增加了特征到结果
的映射函数。
### 梯度下降算法
### 非线性回归问题
### 回归中的相关度和决定系数
#### 皮尔逊相关系数(Pearson Correlation Coefficient)
1. 衡量两个值线性相关强度的量
2. 取值范围:[-1,1]:正向相关:大于0,负向相关:小于 0,无相关性:=0
![计算公式](https://img.zeekling.cn/images/2020/04/25/0717a879f120b57862cebaeace46f5e4.jpg)
#### R平方值
1. 决定系数,反应因变量的全部变异能通过回归关系被自变量解释的比例
2. 如R平方为0.8,则表示回归关系可以解释因变量80%的变异;即如果自变量不变,则因变量的变异程度会减少80%
3. 简单线性回归:R^2=r*r
![ss](https://img.zeekling.cn/images/2020/04/25/32fd78dadf2891ceb2f29cb3030f1133.jpg)
![多元线性回归](https://img.zeekling.cn/images/2020/04/25/80015e9235614e88696e556dd624e75b.jpg)
##### R平方局限性
R平方随着自变量的增大会变大,R平方和样本量是有关系的。所以,需要对R平方进行修正,修正方法为:
![R平方局限性](https://img.zeekling.cn/images/2020/04/25/4c11e41fb2a2ee3f6560af6e9d37afa9.jpg)