小言_互联网的博客

线性回归keras实现

435人阅读  评论(0)

线性回归keras实现

#线性回归

import keras
import numpy as np 
import matplotlib.pyplot as plt 
#按顺序构成的模型
from keras.models import Sequential
from keras.layers import Dense

#使用numpy生成100个随机点
x_data = np.random.rand(100)
#添加噪音
noise = np.random.normal(0,0.01,x_data.shape)

y_data = x_data *0.1 + 0.2 +noise

#构建一个顺序模型
model = Sequential()
#在模型中添加一个全连接层
model.add(Dense(units = 1 ,input_dim = 1))
#sgd(Stochastic gradient) 随机分布下降法   
#mse(Mean Squared Error):均方误差
model.compile(optimizer = 'sgd', loss = 'mse')

#训练3001个批次
for step in range(3001):
    #每次训练一个批次
    cost = model.train_on_batch(x_data, y_data)
    #每500个batch打印一次cost值
    if step % 500 ==0:
        print('cost:',cost)
#打印权值和偏置值
W,b = model.layers[0].get_weights()
print('W:',W,'b:',b)


#把x_data输入网络中,得到预测值

y_pred = model.predict(x_data)

#显示随机点
plt.scatter(x_data,y_data)
#显示预测结果
plt.plot(x_data, y_pred,'r-',lw = 3)
plt.show()

结果显示

没有添加噪音,使用随机生成数值点,经过训练迭代3001次,得到结果

添加噪音并经过与上图同样训练


转载:https://blog.csdn.net/Yyl0718/article/details/102249193
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场