如何生成HDF5文件

在使用深度学习学习图像文件的时候,如果图片文件很多,比如大几千张,或者几万张。如果将一个图片再接一个图片导入到内存中,会极大地拖慢深度学习算法运行速度。我们都有过这样的经验,如果将一个文件夹里面有几万个文件的文件夹进行复制,其速度要比将文件夹打包之后复制速度要慢很多。

为了不让IO运算(将硬件中的图片一个一个导入到内存中)成为深度学习训练速度无法提高的一个瓶颈,这里来介绍一种方法,就是将很多的文件打包成一个HDF5的文件格式,最后用深度学习算法学习的时候,直接HDF5文件中导入数据就可以。

HDF5文件介绍

HDF5是一种数据存储格式,特别适合向磁盘中存取大数据的时候使用。一个HDF5文件可以被看成一个组,包含了不同的数据集,数据集可以是图像表格等等。HDF5组结构类似于文件系统的目录层次结构,根目录再包含其他目录。节点目录里存放相应的数据集。

在这里插入图片描述

安装很简单,使用pip

pip install h5py

如何将训练数据生成HDF5文件

class HDF5DatasetWriter:
    def __init__(self, dims, outputPath, dataKey="images", bufSize=1000):
        # 如果输出文件路径存在,提示异常
        if os.path.exists(outputPath):
            raise ValueError("The supplied 'outputPath' already exists and cannot be overwritten. Manually delete the file before continuing", outputPath)

        # 构建两种数据,一种用来存储图像特征一种用来存储标签
        self.db = h5py.File(outputPath, "w")
        self.data = self.db.create_dataset(dataKey, dims, dtype="float")
        self.labels = self.db.create_dataset("labels", (dims[0],), dtype="int")

        # 设置buffer大小,并初始化buffer
        self.bufSize = bufSize
        self.buffer = {"data": [], "labels": []}
        self.idx = 0   # 用来进行计数

    
    def add(self, rows, labels):
        self.buffer["data"].extend(rows)
        self.buffer["labels"].extend(labels)
        
        # 查看是否需要将缓冲区的数据添加到磁盘中
        if len(self.buffer["data"]) >= self.bufSize:
            self.flush()

    def flush(self):
        # 将buffer中的内容写入磁盘之后重置buffer
        i = self.idx + len(self.buffer["data"])
        self.data[self.idx:i] = self.buffer["data"]
        self.labels[self.idx:i] = self.buffer["labels"]
        self.idx = i
        self.buffer = {"data": [], "labels": []}

    def storeClassLabels(self, classLabels):
        # 存储类别标签
        dt = h5py.special_dtype(vlen=str)  # 表明存储的数据类型为字符串类型
        labelSet = self.db.create_dataset("label_names", (len(classLabels),), dtype=dt)
        # 将classLabels赋值给labelSet但二者不指向同一内存地址
        labelSet[:] = classLabels

    def close(self):
        if len(self.buffer["data"]) > 0:  # 查看是否缓冲区中还有数据
            self.flush()

        self.db.close()

在这段代码中,我们定义一个类来实现文件的读取和打包并生成HDF5文件。

如何读取HDF5文件用于训练

class HDF5DatasetGenerator:

    def __init__(self, dbPath, batchSize, preprocessors = None, aug = None, binarize=True, classes=2):
        # 保存参数列表
        self.batchSize = batchSize
        self.preprocessors = preprocessors
        self.aug = aug
        self.binarize = binarize
        self.classes = classes
        # hdf5数据集
        self.db = h5py.File(dbPath)
        self.numImages = self.db['labels'].shape[0]
    
    def generator(self, passes=np.inf):
        epochs = 0
        # 默认是无限循环遍历,因为np.inf是无穷
        while epochs < passes:
            # 遍历数据
            for i in np.arange(0, self.numImages, self.batchSize):
                # 从hdf5中提取数据集
                images = self.db['images'][i: i + self.batchSize]
                labels = self.db['labels'][i: i + self.batchSize]
                
                # 检查是否标签需要二值化处理
                if self.binarize:
                    labels = np_utils.to_categorical(labels, self.classes)
                # 预处理
                if self.preprocessors is not None:
                    proImages = []
                    for image in images:
                        for p in self.preprocessors:
                            image = p.preprocess(image)
                        proImages.append(image)
                    images = np.array(proImages)

                # 查看是否存在数据增强,如果存在,应用数据增强
                if self.aug is not None:
                    (images, labels) = next(self.aug.flow(images,
                        labels, batch_size = self.batchSize))
                # 返回
                yield (images, labels)
            epochs += 1
    def close(self):
        # 关闭db
        self.db.close()

在这段代码中,我们以生成器的形式来读取HDF5文件,返回用于训练。

另外,我录制了一个视频用来演示如何将猫狗大战数据集生成HDF5文件,然后读取HDF5文件用于进行神经网络训练。对具体如何操作感兴趣的,可以看我这个视频了解一下。

对猫狗图片数据集生成HDF5文件和模型训练

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,755评论 6 507
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,305评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,138评论 0 355
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,791评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,794评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,631评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,362评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,264评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,724评论 1 315
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,900评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,040评论 1 350
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,742评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,364评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,944评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,060评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,247评论 3 371
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,979评论 2 355

推荐阅读更多精彩内容