在本章中,将重点介绍使用TensorFlow进行线性回归实现的基本示例。逻辑回归或线性回归是用于对离散类别进行分类的监督机器学习方法。在本章中的目标是构建一个模型,用户可以通过该模型预测预测变量与一个或多个自变量之间的关系。
这两个变量之间的关系是线性的。如果y
是因变量x
的变化而变化,那么可将x
认为是自变量,那么两个变量的线性回归关系将如下式所示:
Y = Ax+b
接下来将设计一种线性回归算法。需要了解以下两个重要概念 -
线性回归的示意图如下所述 -
线性回归方程的图形视图如下所述 -
我们现在来看看设计线性回归算法的步骤。
第1步
导入绘制线性回归模块所需的模块非常重要。开始导入Python库NumPy和Matplotlib。
import numpy as np import matplotlib.pyplot as plt
第2步
定义逻辑回归所需的系数数量。
number_of_points = 500 x_point = [] y_point = [] a = 0.22 b = 0.78
第3步
迭代变量以在回归方程周围生成300
个随机点 -
Y = 0.22x + 0.78
for i in range(number_of_points): x = np.random.normal(0.0,0.5) y = a*x + b +np.random.normal(0.0,0.1) x_point.append([x]) y_point.append([y])
第4步
使用Matplotlib查看生成的点。
fplt.plot(x_point,y_point, 'o', label = 'Input Data') plt.legend() plt.show()
逻辑回归的完整代码如下 -
import numpy as np import matplotlib.pyplot as plt number_of_points = 500 x_point = [] y_point = [] a = 0.22 b = 0.78 for i in range(number_of_points): x = np.random.normal(0.0,0.5) y = a*x + b +np.random.normal(0.0,0.1) x_point.append([x]) y_point.append([y]) plt.plot(x_point,y_point, 'o', label = 'Input Data') plt.legend() plt.show()
输入的点数视为输入数据 -