🐺本博主博客:ζั͡ ั͡雾 ั͡狼 ั͡✾的博客
🎀专栏:机器学习
🎀专栏:爬虫
🎀专栏:OpenCV图像识别处理
🎀专栏:Unity2D
⭐本节课理论视频:P23-P25 正规方程
⭐本节课推荐其他人笔记:正规方程(Normal equations)推导过程_momentum_的博客
🐺机器学习通过文字描述是难以教学学会的,每一节课我会推荐这个理论的网课,一定要看上面的理论视频!一定要看上面的理论视频!一定要看上面的理论视频!所以我只是通过代码实现,并通过注释形式来详细讲述每一步的原因,最后通过画图对比的新式来看结果比较。
⭐机器学习推荐博主:GoAI的博客_CSDN博客-深度学习,机器学习,大数据笔记领域博主
😊如果你什么都不懂机器学习,那我推荐GoAI的入门文章:机器学习知识点全面总结_GoAI的博客-CSDN博客_机器学习笔记
在线性回归中实际就是求代价函数对系数变量求导,导数为0的时候,即代价函数最小的时候,系数矩阵的值。以多元一次函数为例
使用前提:1.X特征数量小于样本数量
2.X矩阵中不存在线性相关的量
缺点:n很大时候(n>10000),比起梯度下降法,运行远远慢
-
import numpy
as np
-
-
# 全局变量
-
-
# 生成数据
-
# X中每一行代表一条数据i,代表着一个等式,其中列数代表着变量数,每个变量的系数是不知道的
-
# 每一行数据是y=k0x0+k1x1+k2x2+k3x3+k4x4,
-
# k是我们要回归的系数向量,x1,x2,x3,x4是每一行数据其中
-
# k0代表常数,x0恒为1
-
X = np.array([[
5,
100,
58, -
3],
-
[
7,
120,
59, -
3],
-
[
3,
140,
50, -
5],
-
[
10,
80,
45, -
1],
-
[
6,
96,
55, -
7],
-
[
15,
200,
52, -
11],
-
[
11,
125,
65, -
5],
-
[
12,
63,
100, -
3],
-
[
20,
500,
66, -
10]])
-
# 假设K系数为这个,咱们的算法就是逼近这个结果,当然,如果有自己的数据就更好了
-
preK = [
12, -
1,
2,
8] + np.random.random((
1,
4))
-
# Y中的数据量等于X矩阵的行数
-
Y = (np.dot(preK, X.T) + np.random.random() *
15).ravel()
# 加的一项是随机常数项,最后将矩阵转换成数组向量
-
-
-
# X矩阵中第一列加入x0=1参数
-
X = np.insert(X,
0, np.ones((
1,
len(X))), axis=
1)
-
# 数据个数
-
m =
len(X)
-
# 参数个数
-
n =
len(X[
0])
-
# 输出
-
print(
f"有{n}个参数,就是X列数算上常数项所乘的单位1")
-
print(
f"有{m}条数据,就是加常数后X行数")
-
# 系数变量K矩阵就是多元参数的系数,就是我们要递归的重点变量,先给这个矩阵的每个值都赋予初始值1
-
K = np.ones(n)
-
-
#正规方程,固定公式详细推导见吴恩达P23
-
def
NorEq():
-
global X,Y,K
-
m1=np.dot(X.T,X)
-
m2=np.matrix(m1).I
-
m3=np.dot(m2,X.T)
-
K=np.dot(m3,Y.T)
-
-
if __name__ ==
"__main__":
-
print(
"X",X)
-
print(
"Y",Y)
-
NorEq()
-
print(
"K",K)
-
print(
"preK",preK)
可见结果完全一致
转载:https://blog.csdn.net/qq_54263076/article/details/127458807
查看评论