项目简介

本文将使用python,并借助TensorFlow框架搭建一个最简单的CNN框架,来实现对手写数字的识别。

本文搭建的CNN框架结构

【1】输入层(本文的输入是一个2828且为单通道的图片,所以输入层有784个节点)
【2】第一个卷积层(该卷积层包含了32个不同的5
5的卷积核,即该卷积层提取了32种不同图形特征,【5,5,1,32】表示卷积核尺寸为55,1个颜色通道,32个不同的卷积核)
【3】第一个卷积层后的最大池化层
【4】第二个卷积层(该卷积层包含了64个不同的5
5的卷积核,即该卷积层提取了32种不同图形特征,【5,5,32,64】表示卷积核尺寸为5*5,64个不同的卷积核)
【5】第二个卷积层后的最大池化层
【6】全连接层
【7】一个Dropout层(为了减轻过拟合,在训练时,我们随机丢弃一部分节点的数据来减轻过拟合,预测是则保留全部数据来追求最好的预测性能)
【8】Softmax层,得到最后的概率输出。
【9】定义损失函数为交叉熵(cross entropy),优化器使用Adam
【10】得到模型的预测精度

项目代码

导入相应的库

from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf

导入手写数字数据集

mnist = input_data.read_data_sets(“MNIST_data/“,one_hot = True)
sess = tf.InteractiveSession()

定义生成权重的函数

def weight_variabel(shape):

1
initial = tf.truncated_normal(shape,stddev = 0.1)return tf.Variable(initial)

定义生成偏重的函数

def bias_variable(shape):

1
initial = tf.constant(0.1,shape = shape)return tf.Variable(initial)

定义生成卷积层的函数

卷积层

def conv2d(x,W):

1
return tf.nn.conv2d(x,W,strides=[1,1,1,1],padding='SAME')

池化层

定义生成最大池化层函数

def max_pool_2x2(x):

1
2
return tf.nn.max_pool(x,ksize=[1,2,2,1],strides=[1,2,2,1],
padding='SAME')

传入输入的变量

x = tf.placeholder(tf.float32,[None,784])

传入标签的变量

y_ = tf.placeholder(tf.float32,[None,10])

将1D的图片转为28*28的2D照片

x_image = tf.reshape(x,[-1,28,28,1])

我们定义第一个卷积层

权重

W_conv1 = weight_variabel([5,5,1,32])

偏置

b_conv1 = bias_variable([32])

卷积核

h_conv1 = tf.nn.relu(conv2d(x_image,W_conv1)+b_conv1)

最大池化层

h_pool1 = max_pool_2x2(h_conv1)

定义第二个卷积层

权重

W_conv2 = weight_variabel([5,5,32,64])

偏置

b_conv2 = bias_variable([64])

卷积核

h_conv2 = tf.nn.relu(conv2d(h_pool1,W_conv2)+b_conv2)

最大池化层

h_pool2 = max_pool_2x2(h_conv2)

定义一个全连接层,隐含节点数为1024,并使用ReLU激活函数

W_fc1 = weight_variabel([7764,1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2,[-1,7764])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat,W_fc1)+b_fc1)

为了减轻过拟合,下面使用一个Dropout层,是通过一个placeholder的传输keepr_prob比率来控制的。在训练时,

我们随机丢弃一部分节点数据来减轻过拟合,预测时我们保留全部数据来追求最好的预测性能

keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(h_fc1,keep_prob)

最后我们将Dropout层的输出连接一个Softmax层,得到最后的概率输出

W_fc2 = weight_variabel([1024,10])
b_fc2 = bias_variable([10])
y_conv = tf.nn.softmax(tf.matmul(h_fc1_drop,W_fc2)+b_fc2)

我们定义损失函数cross entropy ,和之前一样,但是优化器使用Adam,并给予一个小的学习速率1e-4

cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_*tf.log(y_conv),

1
reduction_indices = [1]))

train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)

correct_prediction = tf.equal(tf.argmax(y_conv,1),tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))

下面开始训练过程,首先是初始化所有参数

tf.global_variables_initializer().run()
for i in range(20000):

1
2
3
4
batch = mnist.train.next_batch(50)if i % 100 == 0:
train_accuracy = accuracy.eval(feed_dict= {x:batch[0],y_:batch[1],
keep_prob:1.0})
print("step %d,trainning accuracy %g"%(i,train_accuracy))train_step.run(feed_dict={x:batch[0],y_:batch[1],keep_prob:0.5})

print(“test accuracy %g”%accuracy.eval(feed_dict={x:mnist.test.images,y_:mnist.test.labels,keep_prob:1.0}))