Python教程

python学习笔记——手写数字识别

本文主要是介绍python学习笔记——手写数字识别,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

一.使用数据集进行手写数字识别

import keras
from keras.datasets import mnist
from keras.models import Sequential
from keras.layers import Dense, Dropout
from keras.optimizers import RMSprop
import matplotlib.pyplot as plt

# 一些参数
batch_size = 128
epochs = 1
num_classes = 10

# 获取数据
(x_train, y_train), (x_test, y_test) = mnist.load_data()  # 加载mnist数据集

# 归一化,0-255不太方便神经网络进行计算,因此将范围缩小到0—1
x_train = x_train.astype('float32') / 255.0
x_test = x_test.astype('float32') / 255.0

# 改变数据形状,格式为(n_samples, vector),将其转化为向量
x_train = x_train.reshape(60000, 784)
x_test = x_test.reshape(10000, 784)

# 控制台打印输出样本数量信息
print(x_train.shape[0], 'train samples')
print(x_test.shape[0], 'test samples')

# 样本标签转化为one-hot编码格式(one hot编码是将变量转换为机器学习算法易于利用的一种形式的过程)
y_train = keras.utils.to_categorical(y_train, num_classes)
y_test  = keras.utils.to_categorical(y_test, num_classes)

# 创建一个神经网络训练模型
model = Sequential()
# 添加一个全连接层;神经元units=512;该层使用的激活函数activation=relu;输入格式input_dim=784
model.add(Dense(units=512, activation='relu', input_dim=784))
# Dropout通过随机(概率0.2)断开神经网络之间的连接,减少每次训练时实际参与计算的模型的参数量,
# 从而减少了模型的实际容量,来防止过拟合。
model.add(Dropout(rate=0.2))
# 添加一个全连接层;神经元units=512;该层使用的激活函数activation=relu
model.add(Dense(units=512, activation='relu'))
# Dropout通过随机(概率0.2)断开神经网络之间的连接,减少每次训练时实际参与计算的模型的参数量,
# 从而减少了模型的实际容量,来防止过拟合
model.add(Dropout(rate=0.2))
# 添加一个全连接层;将最终的输出结果分成10类
model.add(Dense(num_classes, activation='softmax'))
# 在控制台输出模型参数信息
model.summary()
# 配置训练时各指标的评测标准;损失函数loss:多分类交叉熵损失函数,RMS优化器,
# 评价函数 metrics:真实值与预测值皆为int型
model.compile(loss='categorical_crossentropy', optimizer=RMSprop(), metrics=['accuracy'])
# 训练模型:batch_size:一次训练所取样本数,epochs:迭代次数,verbose:
# 进度条模式的日志展示(整数),validation_data:真实值.
model.fit(x_train, y_train,batch_size=batch_size,  epochs=epochs,verbose=1,validation_data=(x_test, y_test))
# 预测
n = 4   # 给出需要预测的图片数量,为了方便,只取前4张图片
print(x_test[:n])
print('/n')
predicted_number = model.predict(x_test[:n], n)
# 画图
plt.figure(figsize=(10, 3))
for i in range(n):
    plt.subplot(1, n, i + 1)
    t = x_test[i].reshape(28, 28)   # 向量需要reshape为矩阵
    plt.imshow(t, cmap='gray')      # 以灰度图显示
    plt.subplots_adjust(wspace=2)   # 调整子图间的间距,挨太紧了不好看
    # 第一个数字是真实标签,第二个数字是预测数值
    # 如果预测正确,绿色显示,否则红色显示
    # 预测结果是one-hot编码,需要转化为数字
    if y_test[i].argmax() == predicted_number[i].argmax():
        plt.title('%d,%d' % (y_test[i].argmax(), predicted_number[i].argmax()), color='green')
    else:
        plt.title('%d,%d' % (y_test[i].argmax(), predicted_number[i].argmax()), color='red')
    plt.xticks([])  # 取消x轴刻度
    plt.yticks([])
plt.show()

二.自定义数据集进行手写字体识别

import tensorflow as tf
from tensorflow.keras import layers ,models
from tensorflow.examples.tutorials.mnist import input_data

# 读取模型
mnist = input_data.read_data_sets("MNIST/", one_hot=False)
# 创建网络
model = models.Sequential()
# 第一个卷积层 28x28x1 change to 24x24x32
model.add(layers.Conv2D(32,kernel_size = [5,5],activation='relu',input_shape=(28,28,1)))
# 第一个池化层层24x24x32 change to 12x12x32
model.add(layers.MaxPooling2D([2,2]))
# 第二个卷积层 12x12x32 change to 8x8x64
model.add(layers.Conv2D(64,kernel_size = [5,5],activation='relu'))
# 第二个池化层 8x8x64 change to 4x4x64
model.add(layers.MaxPooling2D([2,2]))
# 全连接层 4*4*64(每一个特征图4*4,共有64个),变化成一行4*4*64,便于全连接
model.add(layers.Flatten())
# 这个就是全连接层的计算 [1,4x4x64] change to [1, 1024]
model.add(layers.Dense(1024,activation = 'relu'))
model.add(layers.Dense(10, activation = 'softmax'))
# [1,1024] change to [1, 10]
model.summary()

# 把最有最优算的参数
check_path = './1.hdf5'
# period 每隔5epoch保存一次
save_model_cb = tf.keras.callbacks.ModelCheckpoint(
     check_path,save_best_only=False ,monitor='val_acc',save_weights_only=False, verbose=1, period=1)
# 设置模型的优化类型
model.compile(optimizer='adam',loss='sparse_categorical_crossentropy',metrics=['accuracy'])
# 填充数据,总共循环10次
model.fit(mnist.train.images.reshape((55000,28,28,1)),mnist.train.labels, epochs = 2, callbacks = [save_model_cb])

# 根据算的权值,计算准确率
test_loss, test_acc = model.evaluate(mnist.test.images.reshape(10000,28,28,1)
            , mnist.test.labels)
print('\n')
print('测试集的准确率:')
print("准确率: %.4f,共测试了%d张图片 " % (test_acc,len(mnist.test.images)))

import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
from PIL import Image
import numpy as np

def produceImage(file_in,file_out):
    image = Image.open(file_in)
    resized_image = image.resize((28, 28), Image.ANTIALIAS)
    resized_image.save(file_out)

if __name__ == '__main__':
    file_in1 = './number/1.png'
    file_in2 = './number/2.png'
    file_in5 = './number/5.png'
    file_out1 = './number/1_1.png'
    file_out2 = './number/2_1.png'
    file_out5 = './number/5_1.png'
    produceImage(file_in1, file_out1)
    produceImage(file_in2, file_out2)
    produceImage(file_in5, file_out5)
    im1 = Image.open('./number/1_1.png')
    im2 = Image.open('./number/2_1.png')
    im5 = Image.open('./number/5_1.png')
    L1 = im1.convert("L")
    L2 = im2.convert("L")
    L5 = im5.convert("L")
    L1.save('./number/1_2.png')
    L2.save('./number/2_2.png')
    L5.save('./number/5_2.png')

mnist = input_data.read_data_sets("MNIST/", one_hot=False)
im_1 = Image.open('./number/1_2.png')
im_1 = np.reshape(im_1, [1,28,28,1])
im_2 = Image.open('./number/2_2.png')
im_2 = np.reshape(im_2, [1,28,28,1])
im_5 = Image.open('./number/5_2.png')
im_5 = np.reshape(im_5, [1,28,28,1])
# 调用模型
new_model =tf.keras.models.load_model('./1.hdf5')
# 进行预测
pe_1 = new_model.predict(im_1)
pe_2 = new_model.predict(im_2)
pe_5 = new_model.predict(im_5)
# 把最大的坐标找到,因为new_model.predict返回的是[0,0,1,0,0,0,0,0,0,0]这种格式,
# 所以需要转换为张量的格式
pe_1 = tf.argmax(pe_1 ,1)
pe_2 = tf.argmax(pe_2 ,1)
pe_5 = tf.argmax(pe_5 ,1)
print(pe_1)
print(pe_2)
print(pe_5)


使用到的数据链接:

链接:https://pan.baidu.com/s/1fjg2t5mGkeTTffnl_ltFlw 
提取码:1234

推荐的参考文章链接:

(1).

tensorflow 自己制作Mnist数据集,用训练好的模型来测试准确度。手把手教你实现!教你怎么调用自己已经训练好的模型!清晰易懂!加深你对卷积CNN的理解_尚码哥123的博客-CSDN博客

(2).

基于tensorflow2的手写中文数字识别(自己创建数据集)_红杏枝头的博客-CSDN博客

(3).

Tensorflow 报错No module named 'tensorflow.examples.tutorials'解决办法 - 萍2樱释 - 博客园

这篇关于python学习笔记——手写数字识别的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!