Tensorflow数据读取之tfrecord

Tensorflow数据读取之tfrecord文章目录tfrecordtfrecord的使用流程写入tfrecord文件读取tfrecord文件tfrecord中的数据格式tfrecord中对于变长数据和定长数据的处理tfrecord中生成batch_data的方法插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数…

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全家桶1年46,售后保障稳定

tfrecord

这次只记录我在实验中遇到的情况和略懂的几点,多余的我没有怎么看【笑哭】,一个是因为懒,一个是因为官网介绍页太少了8,有点心塞~~
开门见山,关于Tensorflow读取数据,官网给出了三种方法,分别是:
1.供给数据(Feeding): 在TensorFlow程序训练或者测试的每一个epoch,在tf.Session().run()函数中,以字典的形式通过feed_dict参数进行赋值。
2.从文件读取数据: 在TensorFlow图的起始, 让一个输入管线从文件中读取数据。
3.预加载数据: 在TensorFlow图中定义常量或变量来保存所有数据(仅适用于数据量比较小的情况)。

截止到目前为止,由于我使用tensorflow的时间不长,次数不多,所以只是尝试过第一种和第三种方法。最近刚刚尝试了第三种方法,使用的是tensorflow内定的标准读取数据的格式—tfrecord,在这里记录一下。(好像并没有开门见山,尴尬脸)

TFRecords是一种二进制文件,这个格式我真的理解无能,据说它不对数据进行压缩,所以可以被快速加载到内存中,要复制和移动的时候也是咻的一下就搞定,所以说人家作为内定格式是有原因的,嗯,没错,凭实力内定。但是这种格式不支持随机访问,因此它适合于大量的数据流,但不适用于快速分片或其他非连续存取。

tfrecord的使用流程

写入tfrecord文件

TFRecords文件包含了tf.train.Example 协议内存块(protocol buffer)(协议内存块包含了字段 Features)。我们可以写一段代码获取你的数据, 将数据填入到Example协议内存块(protocol buffer),将协议内存块序列化为一个字符串, 并且通过tf.python_io.TFRecordWriter 写入到TFRecords文件。

上面这段话是从别人那里复制来的。用更通俗的话来解释一下。分两种情况来说:
1.一次往tfrecord文件中存储一个样本数据
2.一次往tfrecord文件中存储一个bacth的样本数据
对于第一种情况(一次往tfrecord文件中存储一个样本数据),每一个样本的特征构造一个dict={‘特征1’:“value1”,”特征2”:“value2”,…,“特征n”:“value n”}。
首先通过tf.python_io.TFRecordWriter函数打开要写入的tfrecord文件。

writer = tf.python_io.TFRecordWriter(outfile)

Jetbrains全家桶1年46,售后保障稳定

然后通过下面这种形式把样本特征存到example中。

example = tf.train.Example(
                    features=tf.train.Features( #构造每个样本的信息键值对
                        feature={ 
   
                            'fm_feat_indices': tf.train.Feature(
                                bytes_list=tf.train.BytesList(value=[fm_feat_indices_str])),
                            'fm_feat_values': tf.train.Feature(
                                float_list=tf.train.FloatList(value=fm_feat_values)),
                            'fm_feat_shape': tf.train.Feature(
                                int64_list=tf.train.Int64List(value=fm_feat_shape)),
                            'labels': tf.train.Feature(
                                bytes_list=tf.train.BytesList(value=[labels_str]))
                        }
                    )
                )

然后在对example进行序列化。

serialized = example.SerializeToString()

最后将序列化好的样本特征写入tfrecord文件。

writer.write(serialized)

这样就能成功写入tfrecord文件啦【转圈圈】。但是呢,在深度学习中要使用的时候通常是用batch_size作为使用单位的,每次取出一个batch的数据。所以在读的时候要自己构造batch生成器。个人感觉这样会麻烦一些。所以想省事的童鞋第二种情况就比较适合你们啦。

对于第二种情况(一次往tfrecord文件中存储一个batch样本数据),步骤也是和上面一样。唯一的差别是存入feature的每一项特征不再是每一个样本的特征,而是一个batch中的样本的所有特征组成的list或者array。这样之后读取的时候,每次读取一个样本值,所得到的就是batch的内容。

读取tfrecord文件

从TFRecords文件中读取数据, 可以使用tf.TFRecordReader的tf.parse_single_example解析器。这个操作可以将Example协议内存块(protocol buffer)解析为张量。

 def get_iterator(self, src_dataset):
     src_dataset = src_dataset.map(self.parser)
     iterator = src_dataset.make_initializable_iterator()
     # 所需数据格式
     _fm_feat_indices, _fm_feat_values,  _fm_feat_shape, _labels = iterator.get_next()
     self.initializer = iterator.initializer
     self.fm_feat_indices = _fm_feat_indices
     self.fm_feat_values = _fm_feat_values
     self.fm_feat_shape = _fm_feat_shape
     self.labels = _labels

 def parser(self, record):
     keys_to_features = { 
   
         'fm_feat_indices': tf.FixedLenFeature([], tf.string), # (batch_size,'fm_feat_values': tf.VarLenFeature(tf.float32), # (batch_size)
         'fm_feat_shape': tf.FixedLenFeature([2], tf.int64), # (batch_size,2'labels': tf.FixedLenFeature([], tf.string), # (batch_size,}
     parsed = tf.parse_single_example(record, keys_to_features)
     fm_feat_indices = tf.reshape(tf.decode_raw(parsed['fm_feat_indices'], tf.int64), [-1, 2])  # (batch_size,2)
     fm_feat_values = tf.sparse_tensor_to_dense(parsed['fm_feat_values'])
     fm_feat_shape = parsed['fm_feat_shape']
     labels = tf.reshape(tf.decode_raw(parsed['labels'], tf.float32), [-1, 1])
     return fm_feat_indices, fm_feat_values, fm_feat_shape, labels,

由于从 tfrecord 文件中导入的样本是刚才写入的 tf_serialized 序列化样本,所以我们需要对每一个样本进行解析。这里就用 dataset.map(parse_function) 来对 dataset 里的每个样本进行相同的解析操作。
注:dataset.map(输入) 中的输入是一个函数。
解析基本就是写入时的逆过程,所以会需要写入时的信息,上面先列出刚才写入时,所有 feature 的各项信息。
在这个过程中会用到两个函数,tf.FixedLenFeature()和 tf.VarLenFeature(),前者是取固定长度的特征的,后者是针对不定长的特征的,关于这两个函数的具体使用情况可以参照官方文档。但是需要注意的一个地方是,这两个函数都有一个参数是shape,除了字符串类型的特征在取的时候用tf.FixedLenFeature()不用指定要取的特征的shape,其余类型的特征在取的时候要标明取得shape。

tfrecord中的数据格式

接上面一部分,上面一部分中的feature里面的特征只能有三种类型。

  • int64:tf.train.Feature(int64_list = tf.train.Int64List(value=输入))

  • float32:tf.train.Feature(float_list = tf.train.FloatList(value=输入))

  • string:tf.train.Feature(bytes_list=tf.train.BytesList(value=输入))

注:输入必须是 list(向量),向量的嵌套是不合法的,比如输入=[[1,2],[2,3]]
这里必须要提一下,tfrecord文件中能存储任何类型的数据,不管是标量,向量,还是矩阵,tensor,都能被成功存储到文件中去。但是在存之前要先将矩阵和tensor通过tostring函数转成字符串形式,然后再存成striing类型的数据。对,就是这样,万物皆可存,万物皆可字符串化。

fm_feat_indices_str = fm_feat_indices.tostring()
labels_str = labels.tostring()

tfrecord中对于变长数据和定长数据的处理

对于定长数据,可以把它转化成int,float,byte三种类型之一,然后存储,在读取的时候使用tf.FixedLenFeature()来获取。
对于变长数据,首先也要转化成int,float,byte三种类型之一,存储的时候如果是把他压成字符形式来存储,这样会丢失数据的维度信息,所以不仅要存储数据本身的内容,还要另外再加一个特征字段用来存储数据的shape,方便后面用tf.VarLenFeature(),这个字段一般用int类型就可以。
读取出来再转换数据形状。

# 变长数据存储
'inp_mask': tf.train.Feature(bytes_list=tf.train.BytesList(value=[inp_mask])),
'inp_shape': tf.train.Feature(int64_list=tf.train.Int64List(value=inp_shape))

好了,这篇先到此结束。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/234091.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • p2p网络传输协议

    p2p网络传输协议P2P是英文Peer-to-Peer(对等)的简称,又被称为“点对点”。“对等”技术,是一种网络新技术,依赖网络中参与者的计算能力和带宽,而不是把依赖都聚集在较少的几台服务器上。P2P还是英文PointtoPoint(点对点)的简称。它是下载术语,意思是在你自己下载的同时,自己的电脑还要继续做主机上传,这种下载方式,人越多速度越快但缺点是对硬盘损伤比较大(在写的同时还要读),还有对内存占用较…

    2022年7月16日
    30
  • Scala_scala定义变量

    Scala_scala定义变量scala中print是直接输出print(s”$a”)输出为变量的值println()打印时自动换行println()相当于print(+’\n’)objectTestScala{defmain(args:Array[String]):Unit={println(“HelloScala!!”)vala1=’T’vararr=…

    2022年9月27日
    3
  • 《QTreeView+QAbstractItemModel自定义模型》:系列教程之三[通俗易懂]

    《QTreeView+QAbstractItemModel自定义模型》:系列教程之三[通俗易懂]1、了解常用的model类通过对上一节的阅读,我们知道只要具备model+view就可以显示数据。那么有哪些model类呢,从下图中我们可以看到Qt中模型类的层次结构QStandardItemModel:可以作为QListView、QTableView、QTreeView的标准model。QAbstractListModel:需要使用QListView显示数据,并配合自定义…

    2022年6月14日
    66
  • 开源3d可视化软件_开源的可视化大屏

    开源3d可视化软件_开源的可视化大屏第一节、 技术开发环境中的社会环境    这篇文章迟迟没有写出来奉献给一些爱好音频视频开发的网友,是有很多原因的,TI在短时间内,针对高清音视频方案DM365/368,连续发布DVSDK3.0,DVSDK4.00,DVSDK4.01和DVSDK4.02,这点让我们很不适应。虽然我们的DM365/368核心板早已经出来,但是需要做开发板,并调试开…

    2022年8月13日
    7
  • Spring容器的启动流程

    Spring容器的启动流程

    2021年4月10日
    112
  • Hook 技术「建议收藏」

    Hook 技术「建议收藏」一、原理钩子(Hook),是Windows消息处理机制的一个平台,应用程序可以在上面设置子程以监视指定窗口的某种消息,而且所监视的窗口可以是其他进程所创建的。当消息到达后,在目标窗口处理函数之前处理它。钩子机制允许应用程序截获处理window消息或特定事件。  钩子实际上是一个处理消息的程序段,通过系统调用,把它挂入系统。每当特定的消息发出,在没有到达目的窗口前,钩子程序就先捕获该消息

    2022年5月26日
    42

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号