TensorFlow教程

人脸识别智能小程序 | Tensorflow基础 | 03

本文主要是介绍人脸识别智能小程序 | Tensorflow基础 | 03,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

目录
  • TensorFlow概念介绍-Graph
  • Session-Tensor-Operation-Feed-Fetch介绍
  • TensorFlow中核心API接口
  • TensorFlow数据读取机制与API方法
  • Cifar10数据解析编程案例
  • Tensorflow中TFRecord数据打包编程案例
  • 如何使用tf.train.slice_input_producer读取文件列表中的样本
  • 如何使用tf.train.string_input_producer读取文件列表中的样本
  • 如何通过TF对已经打包过的数据进行解析
  • TF中的高级API接口
  • TF中的数据增强
  • Tensorboard 调试技巧
  • 小结

TensorFlow概念介绍-Graph

TensorFlow:Google开源的基于数据流图的科学计算库,适用于机器学习、深度学习等人工智能领域。

TensorFlow的源码是开源的,可以在github上进行下载。

安装可以直接通过pip直接安装,也可以把源码下载到本地自己进行编译。

然后TF中提供了很多模型,包括计算机视觉和自然语言处理的,在搭建模型的时候可以直接调用这里面的model。

  • 前端:编程模型、构造计算图、Python、Cpp、Java

网络也被称为计算图。

通过构造这样的一个图结构,并定好数据流向,来完成整个推理运算。

  • 后端:运行计算图,C++

前端使用Python搭建网络模型,构造出来的计算图是不会运算的。前端搭建好计算图,并给定数据,后端再经过运算,得到输出。

Graph:描述了整个计算过程。

  • 声明(单个/多个)

一个图表示一个网络,如果需要用到多个网络来解决一个任务,那就需要声明多个图,也就是多个Graph。

  • 保存为pb文件

pb文件包括了网络的结构和网络的参数。

  • 从pb中恢复Graph

  • Tensorboard可视化

Graph是在前端来完成的,并且可以通过tf进行可视化展示。

上图是一个图形化的结果。

Session-Tensor-Operation-Feed-Fetch介绍

Session

  • Graph必须在Session的上下文中执行
  • Session将Graph的op分发到诸如CPU或GPU之类的设备上运行

Graph <=> Session <=> 后端

Session相当于是Graph和后端的一个沟通的桥梁。

注入机制: 实际上就是Session具体完成计算图的过程,也是在注入机制中完成了前端和后端这个桥梁的作用。

Tensor

  • 在tf中,所有在节点之间传递的数据都为Tensor对象
  • N维数组,图像:\((batch*height*width*channel)\)

上图是tensor常用的定义方式,重点掌握前三种。

tf.constant() # 常量
tf.Variable() # 变量
tr.placeholder() # 占位符

Operation(op)

  • tf Graph中的计算节点,输入输出均为Tensor
  • 调用Session.run(tensor)或者tensor.eval()方可获取该Tensor的值

上图中的两个add,一个maltiply都是op。

具体计算图的op(操作)在哪里完成,可以通过Session来指定完成这些op的设备资源。

Feed:通过feed为计算图注入值

Feed为Tensor完成具体值的注入,这里注入的值通常是那些占位符。

占位符是在构造计算图时,那些没有办法确定的Tensor。

Fetch: 使用Fetch获取计算结果

TensorFlow中核心API接口

上面是常用的op操作。

tf.nn 是常用的网络搭建API。

tf.train 定义了很多和优化相关的一些函数。

TFRecord: tf提供了TFRcord的格式来统一存储数据

TFRecord将图像数据和标签放在一起的二进制文件(protocol buffer),能更好的利用内存,实现快速的复制、移动、读取、存储。

TensorFlow数据读取机制与API方法

如果直接从磁盘读取数据,那么IO的等待时间会造成计算资源的浪费。

文件名队列有什么用呢?这里就涉及到我们模型训练的一个概念——Epoch。

训练样本是分为一个一个batch的,意思就是每次从训练样本中取出一部分样本,用这个一部分样本来对网络参数进行调整,进行模型的训练。

假如训练样本有10000个,batch的数量为100,那么一个Epoch就有100个batch。每取完100个batch(不重复),就叫做跑完了一个Epoch。一个Epoch就意味着全部的样本都在网络中进行了一遍计算。

通过文件名队列,可以完成对Epoch更好的管理。比如在文件名队列中构造出3个Epoch,用A,B,C表示,那么它们都是包含了所有的文件列表的,那么就可以方便进行shuffle。

Cifar10数据解析编程案例

接下来以Cifar-10为例,介绍如何使用tf进行数据读取&数据打包。

Cifar-10也是图像分类任务,在卷积神经网中,我们评价一个模型效果的好坏,可以使用ImageNet数据集对模型进行性能评估,也可以使用Cifar-10或Cifar-100。

按照如下设置,本地连接远程编程环境!

cifar10数据集下载地址

http://www.cs.toronto.edu/~kriz/cifar-10-python.tar.gz

下载好cifar10数据,解压后,发现其是二进制格式存放的,为了更方便的展示读写的效果,会对这些二进制文件进行解析,将其解析成具体的图片,并将其存放在data/image/的train/和test/下。

下面的代码是对cifar-10图片进行解码。

import urllib
import urllib.request
import os
import sys
import tarfile
import glob
import pickle
import numpy as np
import cv2  # pip install opencv-python


def download_and_uncompress_tarball(tarball_url, dataset_dir):
    """
    完成对cifar10数据的下载和解压
    Downloads the `tarball_url` and uncompresses it locally.
    Args:
      tarball_url: The URL of a tarball file.
      dataset_dir: The directory where the temporary files are stored.

    """
    filename = tarball_url.split('/')[-1]
    filepath = os.path.join(dataset_dir, filename)

    def _progress(count, block_size, total_size):
        sys.stdout.write('\r>> Downloading %s %.1f%%' % (
            filename, float(count * block_size) / float(total_size) * 100.0))
        sys.stdout.flush()

    filepath, _ = urllib.request.urlretrieve(tarball_url, filepath, _progress)
    print()
    statinfo = os.stat(filepath)
    print('Successfully downloaded', filename, statinfo.st_size, 'bytes.')
    tarfile.open(filepath, 'r:gz').extractall(dataset_dir)


DATA_URL = 'http://www.cs.toronto.edu/~kriz/cifar-10-python.tar.gz'  # cifar10数据集
DATA_DIR = 'data'

# cifar10的10个分类
classification = ['airplane',
                  'automobile',
                  'bird',
                  'cat',
                  'deer',
                  'dog',
                  'frog',
                  'horse',
                  'ship',
                  'truck']


def unpickle(file):
    """
    这是cifar10网站给的关于文件解析的脚本
    :param file: 二进制文件
    :return: 解析好的键值对
    """
    import pickle
    with open(file, 'rb') as fo:
        dict = pickle.load(fo, encoding='bytes')
    return dict


def to_image(from_file, to_file):
    """
    将cifar10还原成图片
    保存至  to_file/train/   to_file/test/
    :param from_file: 图片二进制文件
    :param to_file: 图片保存路径
    :return: 
    """
    # 下面将二进制文件解析成图片
    folders = from_file
    # glob模块的主要方法就是glob,该方法返回所有匹配的文件路径列表(list)
    # train_test_file = ["/data_batch*", "/test_batch*"]
    for x in ["train", "test"]:
        if x == "train":
            t_files = glob.glob(folders + "/data_batch*")
        else:
            t_files = glob.glob(folders + "/test_batch*")
        # 定义数据和标签为一个空格list
        data = []
        labels = []
        # 将每个文件都进行解码,得到解码后的数据
        for file in t_files:
            dt = unpickle(file)
            data += list(dt[b"data"])
            labels += list(dt[b"labels"])

        print(labels)  # 打印标签 进行查看

        # 在cifar10是通道优先的
        imgs = np.reshape(data, [-1, 3, 32, 32])

        for i in range(imgs.shape[0]):  # imgs.shape[0] 图片数据总量
            im_data = imgs[i, ...]  # 获取第i张图片
            im_data = np.transpose(im_data, [1, 2, 0])  # 将channel交换到最后一维
            im_data = cv2.cvtColor(im_data, cv2.COLOR_RGB2BGR)  # 将RGB转换为BGR模式

            f = "{}/{}/{}".format("data/image", x, classification[labels[i]])
            print(f)
            if not os.path.exists(f):
                os.makedirs(f)

            # 命名 编号.jpg
            cv2.imwrite("{}/{}.jpg".format(f, str(i)), im_data)
    print("Finish!")


if __name__ == '__main__':
    # 下载和解压cifar10数据
    # download_and_uncompress_tarball(DATA_URL, DATA_DIR)
    to_image("data/cifar-10-batches-py", "data/image/")

Tensorflow中TFRecord数据打包编程案例

然后需要对解码好的图片进行打包,生成TFRecord Writer。

import tensorflow as tf
import cv2
import numpy as np
import glob
import os
import warnings
from tqdm import tqdm
warnings.filterwarnings("ignore")

classification = ['airplane',
                  'automobile',
                  'bird',
                  'cat',
                  'deer',
                  'dog',
                  'frog',
                  'horse',
                  'ship',
                  'truck']


if __name__ == "__main__":
    for x in ["test", "train"]:
        idx = 0
        im_data = []
        im_labels = []
        for path in classification:
            path = "data/image/%s/" % x + path
            im_list = glob.glob(path + "/*")
            im_label = [idx for i in range(im_list.__len__())]
            idx += 1
            im_data += im_list
            im_labels += im_label

        print(im_labels[:10])
        print(im_data[:10])

        tfrecord_file = "data/%s.tfrecord" % x
        with tf.python_io.TFRecordWriter(tfrecord_file) as writer:
            # 使用shuffle进行打乱
            index = [i for i in range(im_data.__len__())]
            np.random.shuffle(index)

            for i in tqdm(range(im_data.__len__())):
                im_d = im_data[index[i]]
                im_l = im_labels[index[i]]
                data = cv2.imread(im_d)  # 使用opencv读取图片
                # 下面是另一种图片读取方式
                #data = tf.gfile.FastGFile(im_d, "rb").read()

                # 使用tf.train.Example将features编码数据封装成特定的PB协议格式
                ex = tf.train.Example(
                    features=tf.train.Features(
                        feature={
                            "image": tf.train.Feature(
                                bytes_list=tf.train.BytesList(
                                    value=[data.tobytes()])),
                            "label": tf.train.Feature(
                                int64_list=tf.train.Int64List(
                                    value=[im_l])),
                        }
                    )
                )
                # 将example数据系列化为字符串,并将系列化为字符串的example数据写入协议缓冲区
                writer.write(ex.SerializeToString())

如何使用tf.train.slice_input_producer读取文件列表中的样本

从文件列表中读取样本。

import tensorflow as tf

images = ['image1.jpg', 'image2.jpg', 'image3.jpg', 'image4.jpg']
labels = [1, 2, 3, 4]

"""
tf.train.slice_input_producer是一个tensor生成器,作用是按照设定,每次从一个tensor列表中按顺序或者随机抽取出一个tensor放入文件名队列。
"""
[images, labels] = tf.train.slice_input_producer([images, labels],num_epochs=None,shuffle=True)

with tf.Session() as sess:
    sess.run(tf.local_variables_initializer())
    tf.train.start_queue_runners(sess=sess)
    for i in range(10):
        print(sess.run([images, labels]))

如何使用tf.train.string_input_producer读取文件列表中的样本

从文件数据中读取样本。

import tensorflow as tf

filename = ['data/A.csv', 'data/B.csv', 'data/C.csv']

file_queue = tf.train.string_input_producer(filename,
                                            shuffle=True,
                                            num_epochs=None)
reader = tf.WholeFileReader()
key, value = reader.read(file_queue)

with tf.Session() as sess:
    sess.run(tf.local_variables_initializer())
    tf.train.start_queue_runners(sess=sess)
    for i in range(10):
        print(sess.run([key, value]))

train.slice_input_producer 和 train.string_input_producer 的差别

主要的区别就是string_input_producer输出的结果是一个队列,而slice_input_producer输出的结果是一个tensor。后者可以直接用sess.run()的方式获得tensor的值,但是对于string_input_producer 没有办法这样直接获取。

如何通过TF对已经打包过的数据进行解析

import tensorflow as tf
import cv2
filelist = ['data/train.tfrecord']
file_queue = tf.train.string_input_producer(filelist,
                                            num_epochs=None,
                                            shuffle=True)
reader = tf.TFRecordReader()
_, ex = reader.read(file_queue)  # 解码得到打包的数据


# 定义好feature
feature = {
    'image': tf.FixedLenFeature([], tf.string),
    'label': tf.FixedLenFeature([], tf.int64)
}

batchsize = 2
batch = tf.train.shuffle_batch([ex], batchsize, capacity=batchsize*10,
                               min_after_dequeue=batchsize*5)

example = tf.parse_example(batch, features=feature)

image = example['image']
label = example['label']

image = tf.decode_raw(image, tf.uint8)
image = tf.reshape(image, [-1, 32, 32, 3])

with tf.Session() as sess:
    sess.run(tf.local_variables_initializer())
    tf.train.start_queue_runners(sess=sess)

    for i in range(1):
        image_bth, _ = sess.run([image, label])
        cv2.imshow("image", image_bth[0, ...])
        cv2.waitKey(0)

上面的示例代码完成了对TFRecord数据的读取,并且每次读取的时候都是读取了一个batch_size的数据,也进行了可视化。

在进行模型训练的时候,就是这样,每次读取一个batch_size的数据,并且将这个batch_size的数据喂给网络训练。

TF中的高级API接口

之前介绍的是一些tf的基本api接口,如果我们在设计网路的时候,使用这些基本的api接口,这时候就需要写大量的代码。

在tf中,有更加高层的封装,其中用的最多的就是slim和keras。

TF中的数据增强

数据增强是防止过拟合非常常见的一个手段,在tf中可以通过 tf.image来对图像进行数据增强。

对图像数据进行扰动,进而提高模型对噪声的鲁棒性。

第一幅图是原图,后面的都是经过数据增强之后获取到的图像,这时候就相当于是产生了一些新的样本,而深度学习是要依赖于大数据的,数据越充分,那么学到的模型就更加的鲁棒。因此在进行模型训练的时候,数据增强是必须要使用的一种手段。

Tensorboard 调试技巧

Tensorboard:可以进行网络可视化/训练中间结果可视化。

训练中间结果采用sess.run()打印出来,或可以添加到tensorboard中,进行可视化展示。

小结

Tensorflow是什么?

TensorFlow:Google开源的基于数据流图的科学计算库,适用于机器学习、深度学习等人工智能领域。

TensorFlow的源码是开源的,可以在github上进行下载。

安装可以直接通过pip直接安装,也可以把源码下载到本地自己进行编译。

**然后TF中提供了很多模型,包括计算机视觉和自然语言处理的,在搭建模型的时候可以直接调用这里面的model。**

TensorFlow的架构

*   前端:编程模型、构造计算图、Python、Cpp、Java

网络也被称为计算图。

通过构造这样的一个图结构,并定好数据流向,来完成整个推理运算。

*   后端:运行计算图,C++

前端使用Python搭建网络模型,构造出来的计算图是不会运算的。前端搭建好计算图,并给定数据,后端再经过运算,得到输出。

Graph

Graph:描述了整个计算过程。
*   声明(单个/多个)

一个图表示一个网络,如果需要用到多个网络来解决一个任务,那就需要声明多个图,也就是多个Graph。
*   保存为pb文件

pb文件包括了网络的结构和网络的参数。
*   从pb中恢复Graph
*   Tensorboard可视化



Graph是在前端来完成的,并且可以通过tf进行可视化展示。
上图是一个图形化的结果。

Session

Session
*   Graph必须在Session的上下文中执行
*   Session将Graph的op分发到诸如CPU或GPU之类的设备上运行

Graph <=> Session <=> 后端
Session相当于是Graph和后端的一个沟通的桥梁。


注入机制: 实际上就是Session具体完成计算图的过程,也是在注入机制中完成了前端和后端这个桥梁的作用。

Tensor

Tensor
*   在tf中,所有在节点之间传递的数据都为Tensor对象
*   N维数组,图像:$(batch*height*width*channel)$

上图是tensor常用的定义方式,重点掌握前三种。
tf.constant() # 常量
tf.Variable() # 变量
tr.placeholder() # 占位符

Operation

Operation(op)
*   tf Graph中的**计算节点**,输入输出均为Tensor
*   调用Session.run(tensor)或者tensor.eval()方可获取该Tensor的值

上图中的两个add,一个maltiply都是op。
具体计算图的op(操作)在哪里完成,可以通过Session来指定完成这些op的设备资源。

Feed & Fetch

Feed:通过feed为计算图注入值
Feed为Tensor完成具体值的注入,这里注入的值通常是那些占位符。
占位符是在构造计算图时,那些没有办法确定的Tensor。

Fetch: 使用Fetch获取计算结果

TFRecord

TFRecord: tf提供了TFRcord的格式来统一存储数据

TFRecord将图像数据和标签放在一起的二进制文件(protocol buffer),能更好的利用内存,实现快速的复制、移动、读取、存储。

tf的数据读取机制

输入数据 -> 文件名队列 -> 内存队列 -> 计算

文件名队列有什么用呢?这里就涉及到我们模型训练的一个概念——Epoch。

训练样本是分为一个一个batch的,意思就是每次从训练样本中取出一部分样本,用这个一部分样本来对网络参数进行调整,进行模型的训练。

假如训练样本有10000个,batch的数量为100,那么一个Epoch就有100个batch。每取完100个batch(不重复),就叫做跑完了一个Epoch。一个Epoch就意味着全部的样本都在网络中进行了一遍计算。

通过文件名队列,可以完成对Epoch更好的管理。比如在文件名队列中构造出3个Epoch,用A,B,C表示,那么它们都是包含了所有的文件列表的,那么就可以方便进行shuffle。

关于TFRecord的Writer和Reader

这是一个模板代码的.. 
知道这个东西,然后用的时候在对照着进行修改!

train.slice_input_producer 和 train.string_input_producer 的差别

主要的区别就是string_input_producer输出的结果是一个队列,而slice_input_producer输出的结果是一个tensor。后者可以直接用sess.run()的方式获得tensor的值,但是对于string_input_producer 没有办法这样直接获取。

tf的高层接口

之前介绍的是一些tf的基本api接口,如果我们在设计网路的时候,使用这些基本的api接口,这时候就需要写大量的代码。

在tf中,有更加高层的封装,其中用的最多的就是slim和keras。

数据增强

数据增强是防止过拟合非常常见的一个手段,在tf中可以通过 tf.image来对图像进行数据增强。

对图像数据进行扰动,进而提高模型对噪声的鲁棒性。


第一幅图是原图,后面的都是经过数据增强之后获取到的图像,这时候就相当于是产生了一些新的样本,而深度学习是要依赖于大数据的,数据越充分,那么学到的模型就更加的鲁棒。**因此在进行模型训练的时候,数据增强是必须要使用的一种手段。**


这篇关于人脸识别智能小程序 | Tensorflow基础 | 03的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!