tensorflow实现简单的卷积神经网络

(3)代码实现(来自TensorFlow的开源实现):

/ 导入tensorflow,创建路径,载入数据集/

from tensorflow.examples.tutorials.mnist import input_data

import tensorflow as tf

mnist = input_data.read_data_sets(“MNIST_data”,one_hot = True)/ 第一个参数是路径/

/ 创建默认的Interactive session,之后的运算默认跑在这个session中,不同的session中的运算和数据是相互独立的/

sess = tf.InteractiveSession()

/ 卷积神经网络有很多的权重和偏置需要创建,需要先定义好初始化函数,方便重复使用,越复杂的神经网络,初始化函数越复杂,也越重要。给权重制造一些随机的噪声打破完全对称,如截断的正态分布噪声,标准差设为0.1,给偏置增加小的正值,避免死亡节点/

def weight_variable(shape):

initial = tf.truncated_normal(shape, stddev=0.1)

return tf.Variable(initial)

def bias_variable(shape):

initial = tf.constant(0.1, shape = shape)

return tf.Variable(initial)

/ 定义卷积层和池化层的函数,tf.nn.conv2d是tensorflow中的2维卷积函数,参数中,x是输入,W是卷积的参数,如[5,5,1,32],前面两个数字代表卷积核的尺寸,第3个是通道(channel)的数量,如果是灰度单色,就是1,如果是RGB,就是3,最后一个数字代表卷积核的数量,即这个卷积核会提取多少类的特征。strides代表卷积模板移动的步长,都是1代表会划过图片的每一个点。padding代表边界的处理方式,SAME代表给边界加上padding,使输入和输出保持同样的尺寸。tf.nn.max_pool是tensorflow的最大池化函数,使用2X2的最大池化,将2X2的像素块将为1X1的,最大池化会保留原始像素块中灰度值最高的那个像素,即保留 《大厂前端面试题解析+Web核心总结学习笔记+企业项目实战源码+最新高清讲解视频》无偿开源 徽信搜索公众号【编程进阶路】 最显著特征/

def conv2d(x, W):

return tf.nn.conv2d(x, W, strides = [1,1,1,1], padding = ‘SAME’)

def max_pool_2X2(x):

return tf.nn.max_pool(x, ksize = [1,2,2,1], strides = [1,2,2,1], passing = ‘SAME’)

/ 先创建输入数据的地方placeholder,第一个参数是数据类型,第二个[None, 784],代表tensor的shape,即数据尺寸。x是特征,y_是真实的label/

x = tf.placeholder(tf.float32, [None,784])

y_ = tf.placeholder(tf.float32, [None,10])

/ 卷积神经网络要用到空间结构信息,因此要把1维的输入向量转为2维的图片结构,即从1X784–>28X28,-1代表样本数量不固定,最后的1是指通道数量为1/

x_image = tf.reshape(x, [-1,28,28,1])

/ 定义第一个卷积层,ReLU为激活函数,进行非线性处理/

W_conv1 = weight_variable([5,5,1,32])

b_conv1 = bias_variable([32])

h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)

h_pool1 = max_pool_2X2(h_conv1)

/ 定义第二个卷积层,卷积核数量变成了64,其他一样/

W_conv2 = weight_variable([5,5,1,64])

b_conv2 = bias_variable([64])

h_conv2 = tf.nn.relu(conv2d(x_image, W_conv2) + b_conv2)

h_pool2 = max_pool_2X2(h_conv2)

/ 前面使用两次2X2的最大池化,现在边长为之前的1/4,即28X28 –> 7X7,两次卷积之后,输出的tensor尺寸为7X7X64,使用tf.reshape函数对输出进行变形处理,转为1维向量,然后连接一个全连接层,隐含结点为1024,最后使用relu激活函数/

W_fc1 = weight_variable([7 * 7 * 64, 1024])

b_fc1 = bias_variable([1024])

h_pool2_flat = tf.reshape(h_pool2,[-1,7 * 7 * 64])

h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat,W_fc1) + b_fc1)

/ 使用Dropout层,减轻过拟合/

keep_prob = tf.placeholder(tf.float32)

h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)

/ 最后将dropout的输出连接到Softmax层,得到概率输出/

W_fc2 = weight_variable([1024,10])

Original: https://blog.csdn.net/m0_70273331/article/details/124477797
Author: m0_70273331
Title: tensorflow实现简单的卷积神经网络

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/497324/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球