caffe数据集格式转换—图像格式到LMDB/LEVELDB

使用caffe的图像分类模型来训练自己的数据集时,数据集如何制作是一个问题。

我们通常收集到的是图像数据(如.jpg格式),但为了高效读取数据集,通常需要将图像格式的数据集转换成数据库格式的LMDB或者LEVELDB。下面记录转换过程。

第一步:准备图像数据集

以一个分类模型的训练数据集为例,数据集的目录格式应该如下:

图像数据集目录格式
  • 两个文件夹:train/和val/,分别用于存放训练集和验证集的图像数据;
  • 一个train.txt文本文件,用于存放训练集图像的相对路径及其对应的ground-truth label;
  • 一个val.txt文本文件,用于存放验证集图像的相对路径及其对应的ground-truth label;

数据集的来源:
这里的图像数据集来自于ImageNet2012的图像分类数据集,本来有1000类,但总的文件大小达到141GB,太大了不方便下载。这位网友将原始数据下载后将其分成了36个压缩文件,由于只想作为练习,我只下载了前面两个压缩包解压后,取最前面的10类数据集。原始数据中每类训练集包含1300张图像,我在每个类别的文件夹中取1000张作为训练集,剩下的300张作为验证集。

train/目录下的格式:

train/目录下还有子文件夹,其中每个子文件夹中包含同一类的图像数据,也就是说每一类的图像都得单独建一个文件夹存放。比如第一个子文件夹的部分内容:

train.txt文本内容格式:

train.txt文本内容是训练集图像的相对路径及其对应的ground-truth label,其中相对路径的根目录是train/文件夹每一行记录一张图像的相对路径和对应的label(所用的10类图像的类别依次命名为0-9),label和相对路径之间有一个空格符隔开。这个例子中,train.txt共有10000行数据。

val/目录下的格式:

val/目录的格式则和train/目录不同,val/目录下并没有子文件夹,直接存放10种类别的图像,每一类300张验证集图像,所以val/目录下一共有3000张图像,下图是val/目录下的部分内容:

val.txt文本内容格式:

train.txt文本内容是验证集图像的相对路径及其对应的ground-truth label,其中相对路径的根目录是val/文件夹同样每一行记录一张图像的相对路径(这里直接是图像名了)和对应的label,label和相对路径之间有一个空格符隔开。这个例子中,val.txt共有3000行数据。

以上就是自己制作图像分类模型训练集和验证集的格式,与ImageNet竞赛中的图像分类数据集格式相同。

如何通过train/和val/目录来生成train.txt和val.txt文件?我分别编写了一个python脚本来实现:

create_train_txt.py:

# 文件放置的路径:和data文件夹同目录
import os
train_src_path = "data/train/"
train_dst_file = "./train.txt"
train_dict = ["n01440764", "n01443537", "n01484850", "n01491361", "n01494475", "n01496331", "n01498041", "n01514668", "n01514859", "n01518878"]

if __name__ == '__main__':
    result=[]
    for file in os.listdir(train_src_path):
        if file == train_dict[0]:
            pth = os.path.join(train_src_path, file)
            for image in os.listdir(pth):
                name = os.path.join(file, image)
                result.append(name+' 0\n')
        elif file == train_dict[1]:
            pth = os.path.join(train_src_path, file)
            for image in os.listdir(pth):
                name = os.path.join(file, image)
                result.append(name+' 1\n')
        elif file == train_dict[2]:
            pth = os.path.join(train_src_path, file)
            for image in os.listdir(pth):
                name = os.path.join(file, image)
                result.append(name+' 2\n')
        elif file == train_dict[3]:
            pth = os.path.join(train_src_path, file)
            for image in os.listdir(pth):
                name = os.path.join(file, image)
                result.append(name+' 3\n')
        elif file == train_dict[4]:
            pth = os.path.join(train_src_path, file)
            for image in os.listdir(pth):
                name = os.path.join(file, image)
                result.append(name+' 4\n')
        elif file == train_dict[5]:
            pth = os.path.join(train_src_path, file)
            for image in os.listdir(pth):
                name = os.path.join(file, image)
                result.append(name+' 5\n')
        elif file == train_dict[6]:
            pth = os.path.join(train_src_path, file)
            for image in os.listdir(pth):
                name = os.path.join(file, image)
                result.append(name+' 6\n')
        elif file == train_dict[7]:
            pth = os.path.join(train_src_path, file)
            for image in os.listdir(pth):
                name = os.path.join(file, image)
                result.append(name+' 7\n')
        elif file == train_dict[8]:
            pth = os.path.join(train_src_path, file)
            for image in os.listdir(pth):
                name = os.path.join(file, image)
                result.append(name+' 8\n')
        else:
            pth = os.path.join(train_src_path, file)
            for image in os.listdir(pth):
                name = os.path.join(file, image)
                result.append(name+' 9\n')
    txtfile = open(train_dst_file, "w")
    txtfile.writelines(result)
    txtfile.close()
    print "done!"

create_val_txt.py:

# 文件放置的路径:和data文件夹同目录
import os

val_src_path = "data/val/"
val_dst_file = "./val.txt"

train_dict = ["n01440764", "n01443537", "n01484850", "n01491361", "n01494475", "n01496331", "n01498041", "n01514668", "n01514859", "n01518878"]
if __name__ == '__main__':
    result=[]
    for file in os.listdir(val_src_path):
        name = file.split(sep='_')
        if name[0] == train_dict[0]:
            result.append(file+' 0\n')
        elif name[0] == train_dict[1]:
            result.append(file+' 1\n')
        elif name[0] == train_dict[2]:
            result.append(file+' 2\n')
        elif name[0] == train_dict[3]:
            result.append(file+' 3\n')
        elif name[0] == train_dict[4]:
            result.append(file+' 4\n')
        elif name[0] == train_dict[5]:
            result.append(file+' 5\n')
        elif name[0] == train_dict[6]:
            result.append(file+' 6\n')
        elif name[0] == train_dict[7]:
            result.append(file+' 7\n')
        elif name[0] == train_dict[8]:
            result.append(file+' 8\n')
        else:
            result.append(file+' 9\n')
    txtfile = open(val_dst_file, "w")
    txtfile.writelines(result)
    txtfile.close()
    print ("done!")

由于暂时对linux的shell脚本的使用不熟悉,所以使用的python脚本实现,反正贴在这里供新手参考吧。

嫌麻烦的朋友可以下载我上面举例用的数据集,已打包上传到云盘:百度云分享链接

第二步:使用convert_imageset工具将图像数据集转换成LMDB/LEVELDB

如果你的caffe已经编译成功,在/caffe/build/tools/目录下面有一个编译好的二进制可执行文件convert_imagenet.bin。它对应的源代码是/caffe/tools/convert_imagenet.cpp。使用该工具可以将图像格式的数据集转换成LMDB/LEVELDB格式。如何使用?

在/caffe/examples/imagenet/目录下面有一个shell脚本:create_imagenet.sh。

这个脚本就是用来对网上下载的ImageNet2012图像分类数据集进行数据格式转换的,打开查看其内容:

(注意脚本中的路径都是相对路径,根目录是caffe/目录,所以这个脚本cd到caffe/目录下执行)

#!/usr/bin/env sh
# Create the imagenet lmdb inputs
# N.B. set the path to the imagenet train + val data dirs
set -e

EXAMPLE=examples/imagenet   #该路径是生成的LMDB文件的保存目录
DATA=data/ilsvrc12  #该路径是存放train/,val/,train.txt和val.txt文件的目录
TOOLS=build/tools   #该路径是编译得到的convert_imageset二进制文件的目录

TRAIN_DATA_ROOT=/path/to/imagenet/train/    #该路径是train/目录的路径
VAL_DATA_ROOT=/path/to/imagenet/val/    #该路径是val/目录的路径

# Set RESIZE=true to resize the images to 256x256. Leave as false if images have
# already been resized using another tool.
RESIZE=false    #如果你需要对图片作一个resize,这里应该改成true
if $RESIZE; then
  RESIZE_HEIGHT=256  #在RESIZE=true的情况下,可以设置resize后图像的H和W
  RESIZE_WIDTH=256
else
  RESIZE_HEIGHT=0
  RESIZE_WIDTH=0
fi

if [ ! -d "$TRAIN_DATA_ROOT" ]; then
  echo "Error: TRAIN_DATA_ROOT is not a path to a directory: $TRAIN_DATA_ROOT"
  echo "Set the TRAIN_DATA_ROOT variable in create_imagenet.sh to the path" \
       "where the ImageNet training data is stored."
  exit 1
fi

if [ ! -d "$VAL_DATA_ROOT" ]; then
  echo "Error: VAL_DATA_ROOT is not a path to a directory: $VAL_DATA_ROOT"
  echo "Set the VAL_DATA_ROOT variable in create_imagenet.sh to the path" \
       "where the ImageNet validation data is stored."
  exit 1
fi

echo "Creating train lmdb..."
#可以看到,shell脚本的核心也就是调用convert_imageset可执行文件
GLOG_logtostderr=1 $TOOLS/convert_imageset \
    --resize_height=$RESIZE_HEIGHT \
    --resize_width=$RESIZE_WIDTH \
    --shuffle \
    $TRAIN_DATA_ROOT \
    $DATA/train.txt \
    $EXAMPLE/ilsvrc12_train_lmdb #这里可以修改生成的LMDB文件的名字

echo "Creating val lmdb..."

GLOG_logtostderr=1 $TOOLS/convert_imageset \
    --resize_height=$RESIZE_HEIGHT \
    --resize_width=$RESIZE_WIDTH \
    --shuffle \
    $VAL_DATA_ROOT \
    $DATA/val.txt \
    $EXAMPLE/ilsvrc12_val_lmdb  #这里可以修改生成的LMDB文件的名字

echo "Done."

我把data/目录放到了这里:

同时将create_imagenet.sh脚本也复制到此文件夹下并重命名为create_lmdb.sh,然后修改内容,修改后如下:

#!/usr/bin/env sh
# Create the imagenet lmdb inputs
# N.B. set the path to the imagenet train + val data dirs
set -e

EXAMPLE=models/vggnet/
DATA=models/vggnet/data
TOOLS=build/tools

TRAIN_DATA_ROOT=models/vggnet/data/train/
VAL_DATA_ROOT=models/vggnet/data/val/

# Set RESIZE=true to resize the images to 256x256. Leave as false if images have
# already been resized using another tool.
RESIZE= true
if $RESIZE; then
  RESIZE_HEIGHT=256
  RESIZE_WIDTH=256
else
  RESIZE_HEIGHT=0
  RESIZE_WIDTH=0
fi

if [ ! -d "$TRAIN_DATA_ROOT" ]; then
  echo "Error: TRAIN_DATA_ROOT is not a path to a directory: $TRAIN_DATA_ROOT"
  echo "Set the TRAIN_DATA_ROOT variable in create_imagenet.sh to the path" \
       "where the ImageNet training data is stored."
  exit 1
fi

if [ ! -d "$VAL_DATA_ROOT" ]; then
  echo "Error: VAL_DATA_ROOT is not a path to a directory: $VAL_DATA_ROOT"
  echo "Set the VAL_DATA_ROOT variable in create_imagenet.sh to the path" \
       "where the ImageNet validation data is stored."
  exit 1
fi

echo "Creating train lmdb..."

GLOG_logtostderr=1 $TOOLS/convert_imageset \
    --resize_height=$RESIZE_HEIGHT \
    --resize_width=$RESIZE_WIDTH \
    --shuffle \
    $TRAIN_DATA_ROOT \
    $DATA/train.txt \
    $EXAMPLE/vgg_train_lmdb

echo "Creating val lmdb..."

GLOG_logtostderr=1 $TOOLS/convert_imageset \
    --resize_height=$RESIZE_HEIGHT \
    --resize_width=$RESIZE_WIDTH \
    --shuffle \
    $VAL_DATA_ROOT \
    $DATA/val.txt \
    $EXAMPLE/vgg_val_lmdb

echo "Done."

在caffe/目录执行create_lmdb.sh:

ys@ysubuntu:~/caffe$ bash ./models/vggnet/create_lmdb.sh 
Creating train lmdb...
I0316 20:52:00.026870 11147 convert_imageset.cpp:86] Shuffling data
I0316 20:52:00.298367 11147 convert_imageset.cpp:89] A total of 10000 images.
I0316 20:52:00.298554 11147 db_lmdb.cpp:35] Opened lmdb models/vggnet//vgg_train_lmdb
I0316 20:52:02.802678 11147 convert_imageset.cpp:147] Processed 1000 files.
I0316 20:52:05.248699 11147 convert_imageset.cpp:147] Processed 2000 files.
I0316 20:52:07.623306 11147 convert_imageset.cpp:147] Processed 3000 files.
I0316 20:52:09.988682 11147 convert_imageset.cpp:147] Processed 4000 files.
I0316 20:52:12.426357 11147 convert_imageset.cpp:147] Processed 5000 files.
I0316 20:52:14.958480 11147 convert_imageset.cpp:147] Processed 6000 files.
I0316 20:52:17.368260 11147 convert_imageset.cpp:147] Processed 7000 files.
I0316 20:52:19.749001 11147 convert_imageset.cpp:147] Processed 8000 files.
I0316 20:52:22.012138 11147 convert_imageset.cpp:147] Processed 9000 files.
I0316 20:52:24.279088 11147 convert_imageset.cpp:147] Processed 10000 files.
Creating val lmdb...
I0316 20:52:24.409412 11167 convert_imageset.cpp:86] Shuffling data
I0316 20:52:24.635166 11167 convert_imageset.cpp:89] A total of 1629 images.
I0316 20:52:24.635350 11167 db_lmdb.cpp:35] Opened lmdb models/vggnet//vgg_val_lmdb
I0316 20:52:27.074790 11167 convert_imageset.cpp:147] Processed 1000 files.
I0316 20:52:28.618160 11167 convert_imageset.cpp:153] Processed 1629 files.
Done.
ys@ysubuntu:~/caffe$ 

最终在/caffe/models/vggnet/目录下生成了vgg_train_lmdb文件和vgg_val_lmdb文件:


接下来就可以使用vgg_train_lmdb和vgg_val_lmdb来训练/caffe/models/目录下提供的alexnet、caffenet等模型了。
请参考:caffe:使用自己的数据集来训练VGGNet

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 211,423评论 6 491
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,147评论 2 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,019评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,443评论 1 283
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,535评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,798评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,941评论 3 407
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,704评论 0 266
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,152评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,494评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,629评论 1 340
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,295评论 4 329
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,901评论 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,742评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,978评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,333评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,499评论 2 348

推荐阅读更多精彩内容