欢迎

可视化

在学习莫烦可视化的过程中,有一个不懂得函数 ,大概了解了一下:

    fig = plt.figure()
    ax = fig.add_subplot(111)

 

import matplotlib.pyplot as plt
 
x = [1, 2, 3, 4, 5]
y = [1, 4, 9, 16, 20]
fig = plt.figure()
fig.add_subplot(111)
plt.scatter(x, y)
plt.show()

 

 

 然后我们修改函数里面的参数将111改为221

 

 

可以看到图片里面的画布位置移动了而且画布大小也相应变小了。

所以我来解释下这个参数是什么意思,比如221,指的就是将这块画布分为2×2,然后1对应的就是1号区,如下所示:

 

 博客:https://blog.csdn.net/wyf2017/article/details/109297737

fig.add_subplot(xyz)是fig.add_subplot(ROW,COLUMN,POSITION)的简写形式,其第一个参数表示行数,第二个参数表示列数,第三个参数表示你正在绘制图的位置

scatter函数是 绘制散点图得,其参数x,y的序列 必须 一样长

最重要的是:我在pycharm中 运行可视化代码,可是红色的拟合线出不来,更别说动态显示,错误提示是:

 Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2

下载新版tf很多代码会报错,所以不想下载

于是在弹幕中找到了方法,Pycharm无法显示动态拟合过程的解决办法:取消Settings | Tools | Python Scientific | Show plots in toolwindow勾选项

终于解决

我想这个能出来是因为用了pycharm的GUI包

 

拟合过程中的截图

import tensorflow as tf
import numpy as np
import matplotlib.pylab as plt
def add_layer(inputs,in_size,out_size,activation_function=None):
    #Weights是一个矩阵,[行,列]为[in_size,out_size]
    Weights=tf.Variable(tf.random_normal([in_size,out_size]))#正态分布
    #初始值推荐不为0,所以加上0.1,一行,out_size列
    biases=tf.Variable(tf.zeros([1,out_size])+0.1)
    #Weights*x+b的初始化的值,也就是未激活的值
    Wx_plus_b=tf.matmul(inputs,Weights)+biases

    #激活

    if activation_function is None:
        #激活函数为None,也就是线性函数
        outputs=Wx_plus_b
    else:
        outputs=activation_function(Wx_plus_b)
    return outputs

"""定义数据形式"""
# (-1,1)之间,有300个单位,后面的是维度,x_data是有300行(300个例子)
x_data=np.linspace(-1,1,300)[:,np.newaxis]
# 加噪声,均值为0,方差为0.05,大小和x_data一样
noise=np.random.normal(0,0.05,x_data.shape)
y_data=np.square(x_data)-0.5+noise

xs=tf.placeholder(tf.float32,[None,1])
ys=tf.placeholder(tf.float32,[None,1])

"""建立网络"""
#定义隐藏层,输入1个节点,输出10个节点
l1=add_layer(xs,1,10,activation_function=tf.nn.relu)
#定义输出层
prediction=add_layer(l1,10,1,activation_function=None)

"""预测"""
#损失函数,算出的是每个例子的平方,要求和(reduction_indices=[1],按行求和),再求均值
loss=tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),reduction_indices=[1]))

"""训练"""
#优化算法,minimize(loss)以0.1的学习率对loss进行减小
train_step=tf.train.GradientDescentOptimizer(0.1).minimize(loss)

init=tf.global_variables_initializer()

with tf.Session() as sess:
    sess.run(init)

    fig=plt.figure()
    #连续性的画图
    ax=fig.add_subplot(1,1,1)
    ax.scatter(x_data,y_data)
    # 不暂停
    plt.ion()
    # plt.show()绘制一次就会暂停
    # plt.show() #也可以用plt.show(block=False)来取消暂停,但是python3.5以后提供了ion的功能,更方便
    for i in range(1000):
        sess.run(train_step,feed_dict={xs:x_data,ys:y_data})
        if i%50==0:
            # print(sess.run(loss,feed_dict={xs:x_data,ys:y_data}))
            #尝试先抹除,后绘制第二条线
            #第一次没有线,会报错,try就会忽略错误,然后紧接着执行下面的步骤
            try:
                # 画出一条后抹除掉,去除第一个线段,但是只有一个,也就是抹除当前的线段
                ax.lines.remove(lines[0])
            except Exception:
                pass
            prediction_value=sess.run(prediction,feed_dict={xs:x_data})
            lines=ax.plot(x_data,prediction_value,'r-',lw=5) #lw线宽

            # 暂停0.1s
            plt.pause(0.1)

 通过拟合曲线 可以看出,机器学习的预测还是有一定的误差 ,不能完美地预测

 

posted @ 2022-10-25 23:13  bokeyuan-aa  阅读(208)  评论(0)    收藏  举报