【韦德国际1946手机版】行使TensorFlow陶冶轻易的二

作者: 韦德国际1946手机版  发布:2019-06-02

应用TensorFlow达成《神经互连网与机械和工具学习》壹书中肆.7形式分类练习

行使TensorFlow练习轻易的二分类神经网络模型的措施,tensorflow神经网络

使用TensorFlow达成《神经网络与机械和工具学习》1书中四.柒情势分类练习

实际难点是将如下图所示双月牙数据集分类。

韦德国际1946手机版 1

采用到的工具:

python3.5    tensorflow1.2.1   numpy   matplotlib

一.发生双月环数据集

def produceData(r,w,d,num): 
  r1 = r-w/2 
  r2 = r w/2 
  #上半圆 
  theta1 = np.random.uniform(0, np.pi ,num) 
  X_Col1 = np.random.uniform( r1*np.cos(theta1),r2*np.cos(theta1),num)[:, np.newaxis] 
  X_Row1 = np.random.uniform(r1*np.sin(theta1),r2*np.sin(theta1),num)[:, np.newaxis] 
  Y_label1 = np.ones(num) #类别标签为1 
  #下半圆 
  theta2 = np.random.uniform(-np.pi, 0 ,num) 
  X_Col2 = (np.random.uniform( r1*np.cos(theta2),r2*np.cos(theta2),num)   r)[:, np.newaxis] 
  X_Row2 = (np.random.uniform(r1 * np.sin(theta2), r2 * np.sin(theta2), num) -d)[:,np.newaxis] 
  Y_label2 = -np.ones(num) #类别标签为-1,注意:由于采取双曲正切函数作为激活函数,类别标签不能为0 
  #合并 
  X_Col = np.vstack((X_Col1, X_Col2)) 
  X_Row = np.vstack((X_Row1, X_Row2)) 
  X = np.hstack((X_Col, X_Row)) 
  Y_label = np.hstack((Y_label1,Y_label2)) 
  Y_label.shape = (num*2 , 1) 
  return X,Y_label

个中r为月环半径,w为月环宽度,d为上当月环距离(与书中同样)

二.使用TensorFlow搭建神经网络模型

贰.一 神经互连网层加多

def add_layer(layername,inputs, in_size, out_size, activation_function=None): 
  # add one more layer and return the output of this layer 
  with tf.variable_scope(layername,reuse=None): 
    Weights = tf.get_variable("weights",shape=[in_size, out_size], 
                 initializer=tf.truncated_normal_initializer(stddev=0.1)) 
    biases = tf.get_variable("biases", shape=[1, out_size], 
                 initializer=tf.truncated_normal_initializer(stddev=0.1)) 

  Wx_plus_b = tf.matmul(inputs, Weights)   biases 
  if activation_function is None: 
    outputs = Wx_plus_b 
  else: 
    outputs = activation_function(Wx_plus_b) 
  return outputs 

二.贰 利用tensorflow建设构造神经网络模型

输入层大小:2

隐藏层大小:20

输出层大小:1

激活函数:双曲正切函数

学习率:0.一(与书中略有不一致)

(具体的搭建进程可参看莫烦的摄像,链接就不依据了机动物检疫索吧......)

###define placeholder for inputs to network 
xs = tf.placeholder(tf.float32, [None, 2]) 
ys = tf.placeholder(tf.float32, [None, 1]) 
###添加隐藏层 
l1 = add_layer("layer1",xs, 2, 20, activation_function=tf.tanh) 
###添加输出层 
prediction = add_layer("layer2",l1, 20, 1, activation_function=tf.tanh) 
###MSE 均方误差 
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction), reduction_indices=[1])) 
###优化器选取 学习率设置 此处学习率置为0.1 
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) 
###tensorflow变量初始化,打开会话 
init = tf.global_variables_initializer()#tensorflow更新后初始化所有变量不再用tf.initialize_all_variables() 
sess = tf.Session() 
sess.run(init) 

2.三 练习模型

###训练2000次 
for i in range(2000): 
  sess.run(train_step, feed_dict={xs: x_data, ys: y_label}) 

【韦德国际1946手机版】行使TensorFlow陶冶轻易的二分拣神经互连网模型的情势,TensorFlow磨练神经互联网。三.运用演习好的网络模型寻觅分类核定边界

三.壹 发生2维空间随机点

def produce_random_data(r,w,d,num): 
  X1 = np.random.uniform(-r-w/2,2*r w/2, num) 
  X2 = np.random.uniform(-r - w / 2-d, r w/2, num) 
  X = np.vstack((X1, X2)) 
  return X.transpose() 

三.二 用陶冶好的模型采撷决策边界周边的点

向网络输入1个贰维空间随机点,计算输出值大于-0.伍稍低于0.伍即感到该点落在裁决边界周围(双曲正切函数)

def collect_boundary_data(v_xs): 
  global prediction 
  X = np.empty([1,2]) 
  X = list() 
  for i in range(len(v_xs)): 
    x_input = v_xs[i] 
    x_input.shape = [1,2] 
    y_pre = sess.run(prediction, feed_dict={xs: x_input}) 
    if abs(y_pre - 0) < 0.5: 
      X.append(v_xs[i]) 
  return np.array(X) 

三.3用numpy工具将征集到的边界左近点拟合成决策边界曲线,用matplotlib.pyplot画图

###产生空间随机数据 
  X_NUM = produce_random_data(10, 6, -4, 5000) 
  ###边界数据采样 
  X_b = collect_boundary_data(X_NUM) 
  ###画出数据 
  fig = plt.figure() 
  ax = fig.add_subplot(1, 1, 1) 
  ###设置坐标轴名称 
  plt.xlabel('x1') 
  plt.ylabel('x2') 
  ax.scatter(x_data[:, 0], x_data[:, 1], marker='x') 
  ###用采样的边界数据拟合边界曲线 7次曲线最佳 
  z1 = np.polyfit(X_b[:, 0], X_b[:, 1], 7) 
  p1 = np.poly1d(z1) 
  x = X_b[:, 0] 
  x.sort() 
  yvals = p1(x) 
  plt.plot(x, yvals, 'r', label='boundray line') 
  plt.legend(loc=4) 
  #plt.ion() 
  plt.show() 

4.效果

韦德国际1946手机版 2

伍.附上源码Github链接

里的PatternClassification.py文件

另注:分类难点依然用softmax去做吧.....笔者只是用那做书上的演练而已。

(初学者水平有限,不平常请提议,各位大佬轻喷)

上述就是本文的全体内容,希望对大家的读书抱有帮衬,也冀望大家多多援救帮客之家。

利用TensorFlow完成《神经网络与机具学习》壹书中4.柒方式分类演练具...

上一篇小说,不佳意思笔者又跳票了,幸亏周天,周贰安家乐业。抽那二日时间把上一篇小说的TensorFlow入门剩下的知识点补充完整。

TensorFlow援救同步练习和异步磨炼两种模型练习方法。

具体难点是将如下图所示双月牙数据集分类。

  • 明日趁平息时间整理了1个基于TensorFlow的样例。依然出色难点MNSIT数据识别难题。但和tensorflow官英特网的有一点点分歧。当中蕴藏了如下知识知识点将会透过代码的方法在别的章节中张开表达:

    • 激活函数达成去线性化
    • 损失函数
    • 梯度下落算法
    • 学习率的安装
    • 过拟合处理
    • 滑动平均模型

异步磨炼

韦德国际1946手机版 3

先上代码,此代码运维在TensorFlow壹.0 版本以上。

异步陶冶即TensorFlow上各种节点上的职分为单身磨炼格局,无需执行和谐操作,如下图所示:***

使用到的工具:

#!/usr/bin/env python
# coding=utf-8
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data

# MNIST 数据集相关的常数
INPUT_NODE = 784     #输入层的节点数,对于MNIST数据集,这就等于图片的像素
OUTPUT_NODE = 10     #输出层的节点数,这个等于类别的数目,因为在MNIST数据集中需要区分的是0-9这个10个数据,所以这里输出层的节点数为10


#配置神经网络的参数
LAYER1_NODE = 500   #隐藏层节点数,这里使用只有一个隐藏层的网络结构作为样例,这个隐藏层有500个节点
BATCH_SIZE = 100    #一个训练batch中的训练数据个数。数字越小时,训练过程越接近随机梯度下降;数字越大时,训练就越接近梯度下降


LEARNING_RATE_BASE = 0.8 #基础学习率
LEARNING_RATE_DECAY = 0.99 #学习率的衰减率


REGULARIZATION_RATE = 0.0001 # 描述模型复杂度的正则化项在损失函数中的系数
TRAINING_STEPS = 30000 #训练轮数
MOVING_AVERAGE_DECAY = 0.99 #滑动平均衰减率

#一个辅助函数,给定神经网络的输入和所有参数,计算神经网络的前向传播结果,在这里定义一个使用
#RelU激活函数的三层全连接神经网络。通过加入隐藏层实现多层网络结构,通过RelU激活函数实现去线性化。
#在这个函数中也支持传入用于计算参数平均值的类,这样方便在测试时使用滑动平均模型

def inference(input_tensor, avg_class, weights1, biases1,
              weights2, biases2):
    if avg_class == None:
        layer1 = tf.nn.relu(tf.matmul(input_tensor,weights1)   biases1)
        return tf.matmul(layer1, weights2)   biases2
    else:
        layer1 = tf.nn.relu(
            tf.matmul(input_tensor,avg_class.average(weights1))   avg_class.average(biases1)
            )
        return tf.matmul(layer1,avg_class.average(weights2)   avg_class.average(biases2))

#训练模型的过程
def train(mnist):
    x = tf.placeholder(tf.float32, [None, INPUT_NODE], name='x-input')
    y_ = tf.placeholder(tf.float32,[None,OUTPUT_NODE], name='y-input')

    #生成隐藏层
    weights1 = tf.Variable(
        tf.truncated_normal(shape=[INPUT_NODE,LAYER1_NODE], stddev=0.1))

    biases1 = tf.Variable(
        tf.constant(0.1, shape=[LAYER1_NODE])
        )


    #生成输入层
    weights2 = tf.Variable(
        tf.truncated_normal(shape=[LAYER1_NODE,OUTPUT_NODE],stddev=0.1)
        )

    biases2 = tf.Variable(
            tf.constant(0.1,shape=[OUTPUT_NODE])
            )
    #计算在当前参数下神经网络前向传播的结果,这里给出的用于计算滑动平均类为None,所以函数不会使用参数滑动平均值
    y = inference(x, None, weights1,biases1,weights2,biases2)

    #定义存储训练轮数的变量。这个变量不需要计算滑动平均值,所以这里指定这个变量为不可训练的变量。在使用TensorFlow
    #训练神经网络时,一边会将代表训练轮数的变量指定为不可训练的变量
    global_step = tf.Variable(0, trainable=False)


    #给定滑动平均衰减率和训练数的变量,初始化滑动平均类。给定训练轮数的变量可以加快训练早起变量的更新速度
    variable_averages = tf.train.ExponentialMovingAverage(
        MOVING_AVERAGE_DECAY,global_step
        )


    #在所谓代表神经网络参数的变量上使用滑动平均。其他辅助变量(如global_step)不需要了。tf.trainable_variables
    #返回的就是图上集合GraphKeys.TRANINABLE_VARIABLES 中的元素。这个集合的元素所有没有指定trainable=False的参数
    variable_averages_op = variable_averages.apply(
        tf.trainable_variables(
        ))

    #计算使用滑动平均之后的前向传播结果。滑动平均不会改变变量本身的取值,而是会维护一个影子变量来记录其滑动平均值。
    #所以当需要使用这个滑动平均值时,需要明确调用average函数
    averages_y = inference(x,variable_averages,weights1,biases1,weights2,biases2)

    #计算交叉熵作为刻画预测值和真实值之间差距的损失函数。这里使用了TensorFlow中提供的sparse_softmax_cross_entroy_with_logits
    #函数。当分类问题只有一个正确答案时,可以使用这个函数来加入交叉熵的计算。MNIST问题的图片中只包含了0~9中的数字,所以可以使用
    #这个函数来计算交叉熵损失。这个函数的二个参数是神经网络不包含softmax的前向传播结果,第-个训练数据的正确答案是训练数据的正确答案,
    #所以要使用tf.argmax函数来得到正确答案对应的编号。
    cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=tf.argmax(y_,1),logits=y)
    #计算在当前batch中所有样例的交叉熵平均值。
    cross_entropy_mean = tf.reduce_mean(cross_entropy)

    #计算L2正则化损失函数
    regularizer = tf.contrib.layers.l2_regularizer(REGULARIZATION_RATE)
    #计算模型的正则化损失。一般只计算神经网络边上权重的正则化损失,而不使用偏置项
    regularization = regularizer(weights1)   regularizer(weights2)
    #总损失等于交叉熵损失和正则化损失的和
    loss = cross_entropy_mean   regularization

    #设置指数衰减的学习率
    learning_rate = tf.train.exponential_decay(LEARNING_RATE_BASE, #基础的学习率,随着迭代的进行,更新变量时使用的学习率在这个基础上递减。
                                               global_step,#当前迭代的轮数
                                               mnist.train.num_examples/BATCH_SIZE,#过完所有的训练数据需要的迭代次数
                                               LEARNING_RATE_DECAY)#学习率衰退速度

    #使用tf.train.GradientDescentOptimizer 优化算法来优化损失函数。注意这里损失函数包含了交叉熵损失和L2正则化损失
    train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss, global_step=global_step)

    #在训练神经网络模型时,每过一遍数据既需要通过反向传播来更新神经网络中断参数,又要更新每一个参数的滑动平均值。为了
    #一次完成多个操作,TensorFlow提供了Tensorflow提供了tf.control_dependencieshe tf.group两种机制。下面两行程序和
    #train_op = tf.group(train_step,variable_averages_op)是等价的
    with tf.control_dependencies([train_step,variable_averages_op]):
        train_op = tf.no_op(name='train')

    #检验使用了滑动平均模型的神经网络前向传播结果是否正确。tf.argmax(averages_y,1)计算每一个样例的预测答案。其中averages_y
    #是一个batch_size * 10的二维数组,每一行表示一个样例的前向传播结果。tf.argmax的第二个参数"1"表示选取最大值的操作仅在第一个维度
    #中进行,也就是说,只在每一行选取最大值对应的下标。于是得到结果是一个长度为batch的一维数组,这个一维数组中的值就表示了每一个样例
    #对应的数字识别结果。tf.equal判断两个张量的每一维是否相等,如果相等返回True,否则返回False
    correct_prediction = tf.equal(tf.argmax(averages_y,1),tf.argmax(y_,1))

    #这个运算首先将一个布尔型的数值转为实数型,然后计算平均值。这个平均值就是模型在这一组数据上的概率
    accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

    #初始化会话并开始训练过程
    with tf.Session() as sess:
        tf.initialize_all_variables().run()

        #准备验证数据。一般在神经网络的训练过程中会通过验证数据来大致判断停止的条件和评判训练的效果
        validate_feed = {x:mnist.validation.images,
                         y_:mnist.validation.labels}
        #准备测试数据。在真实的应用中,这部分数据在训练时是不可见的,这个数据只是作为模型优劣的最后评价标准。
        test_feed = {x:mnist.test.images, y_:mnist.test.labels}
        #迭代地训练神经网络
        for i in range(TRAINING_STEPS):
            # 每1000论输出一次在验证数据集上的测试结果
            if i % 100000 == 0:
            #计算滑动平均模型在验证数据上的结果。因为MNIST数据集比较小,所以一次可以处理所有的验证数据。为了计算方便,
            #本样例程序没有将验证数据划分为更小的batch。当神经网络模型比较复杂或者验证数据比较大时,太大的batch会导致
            #计算时间过长甚至发生内存溢出的错误
                validata_acc = sess.run(accuracy, feed_dict=validate_feed)
                print("After %d training step(s), validata accuracy"
                     "using averages model is %g" % (i,validata_acc))
            # 产生这一轮使用的一个batch的训练数据,并运行训练过程。
            xs,ys = mnist.train.next_batch(BATCH_SIZE)
            sess.run(train_op,feed_dict={x:xs,y_:ys})
        #训练结束后,在测试数据上检验神经网络模型的最终正确率
        test_acc = sess.run(accuracy,feed_dict=test_feed)
        print("After %d traing step(s), test accuracy"
              "model is %g" % (TRAINING_STEPS,test_acc))
#主程序入口
def main(argv=None):
    mnist = input_data.read_data_sets("../mnist/MNIST_data/",one_hot=True)
    train(mnist)

#Tensorflow提供的一个的主函数入口。tf.app.run会调用上面定义的main函数
if __name__ == '__main__':
    tf.app.run()

python3.5    tensorflow1.2.1   numpy   matplotlib

韦德国际1946手机版 4

一.发出双月环数据集

同台练习

def produceData(r,w,d,num): 
  r1 = r-w/2 
  r2 = r w/2 
  #上半圆 
  theta1 = np.random.uniform(0, np.pi ,num) 
  X_Col1 = np.random.uniform( r1*np.cos(theta1),r2*np.cos(theta1),num)[:, np.newaxis] 
  X_Row1 = np.random.uniform(r1*np.sin(theta1),r2*np.sin(theta1),num)[:, np.newaxis] 
  Y_label1 = np.ones(num) #类别标签为1 
  #下半圆 
  theta2 = np.random.uniform(-np.pi, 0 ,num) 
  X_Col2 = (np.random.uniform( r1*np.cos(theta2),r2*np.cos(theta2),num)   r)[:, np.newaxis] 
  X_Row2 = (np.random.uniform(r1 * np.sin(theta2), r2 * np.sin(theta2), num) -d)[:,np.newaxis] 
  Y_label2 = -np.ones(num) #类别标签为-1,注意:由于采取双曲正切函数作为激活函数,类别标签不能为0 
  #合并 
  X_Col = np.vstack((X_Col1, X_Col2)) 
  X_Row = np.vstack((X_Row1, X_Row2)) 
  X = np.hstack((X_Col, X_Row)) 
  Y_label = np.hstack((Y_label1,Y_label2)) 
  Y_label.shape = (num*2 , 1) 
  return X,Y_label

协助进行演习为TensorFlow上每一个节点上的职务急需读入共享参数,实践并行化的梯度总计,然后将装有共享参数实行联合,如下图所示:***

中间r为月环半径,w为月环宽度,d为上前些时间环距离(与书中同样)


2.运用TensorFlow搭建神经互联网模型

韦德国际1946手机版 5

贰.一 神经互连网层加多

本文由韦德国际1946发布于韦德国际1946手机版,转载请注明出处:【韦德国际1946手机版】行使TensorFlow陶冶轻易的二

关键词: 日记本 TensorFlow传习 TensorF...