昨天一句话刷爆了朋友圈
请给我一个圣诞帽@微信官方
我一眼看破天机,像我这种从小到大从来没转过 “今天是马化腾生日,只要复制转发此条消息发送到5个群,就可以获得1个月qq会员”的好孩子,边刷朋友圈边说:“老实人,都是老实人。”
直到看到他们的头像都变成了这样
没错,他们都有一顶可爱的红帽子!
我渐渐意识到,我才是老实人!
微信老铁,没毛病,我向马化腾爸爸道歉!
“别低头,小红帽会掉!”
打开手机,虔诚的打下下面的文字
微信大大,我要一顶可爱的小红帽! 爱你,QAQ@微信官方
每隔5分钟看一眼头像,
没有。。。
每隔2分钟看一眼,
没有。。。
眉头一紧,渐渐发现事情并不简单,然道是活动太火爆,微信官方人手不够,忙不过来?
可是已经过了这么久了啊....
我开始了我IT工作者的思考>>>
然道是我的微信语言是英语,必须发英文? 改改改
Please put on a Christmas hat for me!@WeChat Team
我的圣诞帽呢?怎么还没出现?
欸?
又然道是我的老婆是新垣结衣,得发日文? 该改改
サンタ帽をください@WeChat オフィシャル
欸?欸?
又或者
。。。。。。。。
。。。。。。
。。。
我编不下去了TAT
可是,作为一个技术宅,我才不会@微信官方呢(/傲娇脸)。
自己动手,丰衣足食。
网上大部分教程都是基于ps图像拼接的,那我们今天就要通过深度学习中的生成对抗网络(具体为CycleGan)自动生成对应头像加上圣诞帽后的头像。以下是正文干货。
一. 为什么选择CycleGan?
pix2pix也可以做图像变换,它和CycleGAN的区别在于,pix2pix模型必须要求 成对数据 (paired data),而CycleGAN利用 非成对数据 也能进行训练(unpaired data)。
我们希望训练一个将普通头像转换为带圣诞帽头像的模型。如果使用pix2pix模型, 那么我们必须在搜集大量普通头像以及其对应有圣诞帽头像的两张对应图片,而使用CycleGAN只需同时搜集普通头像和带圣诞帽头像的图片,不必满足对应关系。 因此CycleGAN的用途要比pix2pix更广泛,利用CycleGAN就可以做出更多有趣的应用。
(废话真多。。我就是不想标数据。。)
二. CycleGan基本原理
CycleGAN的原理可以概述为: 将一类图片转换成另一类图片 。也就是说,现在有两个样本空间,X和Y,我们希望把X空间中的样本转换成Y空间中的样本。(获取一个数据集的特征,并转化成另一个数据集的特征)
(蛤,没了?。。是的,没时间解释了,快上车!,后面有空再详细写。)
三. 爬取数据
在百度图片上利用python爬虫程序爬取了3000张普通头像,和3000张戴圣诞帽的头像。
(具体爬虫代码,会放在同性交友网github上。)
四. 训练
- 下载项目代码
git clone https://github.com/vanhuyz/CycleGAN-TensorFlow.git
- 将头像数据转换为tfrecord格式
爬取的数据大小不一,在转换前先要将所有图片resize到统一的尺寸(我的是256)
项目中提供了一个build_data脚本,用于将图片转换成tfrecords形式。我们的图片存放在 /data/minglin/code/CycleGan/hatdata/hat/和 /data/minglin/code/CycleGan/hatdata/nohat/目录下,对应的命令就是:
python build_data.py
--X_input_dir /data/minglin/code/CycleGan/hatdata/hat/
--Y_input_dir /data/minglin/code/CycleGan/hatdata/nohat/
--X_output_file /data/minglin/code/CycleGan/hatdata/hat.tfrecords
--Y_output_file /data/minglin/code/CycleGan/hatdata/nohat.tfrecords\
数据不大,转换速度还是很快的。
- 训练
直接执行train.py文件即可。
python train.py
--X /data/minglin/code/CycleGan/hatdata/hat.tfrecords
--Y/data/minglin/code/CycleGan/hatdata/nohat.tfrecords
--image_size 256
其他参数(batchsize,lr等)可以通过train.py --help查看。
训练过程非常漫长。。。可以打开tensorboard查看训练进展
tensorboard --logdir /data/minglin/code/CycleGan/checkpoints/20171223-1633/ --port portid
目前训练还没完成,给一些训练过程中的结果
1000个step:头部开始变红。。。
5000个step:头部变得很红。。
10000个step:小红帽开始有一点点雏形了。。。
五. 总结
虽然训练还没有完成,但是目前看来,效果不是特别好,我总结了一些原因
- 数据是我自己从百度上爬的,里面有很多噪声数据,我没时间去除。
- 两个域的图片质量差异很大。
- 图片数量也相对很少。
- 高质量的数据会极大提高训练效果。
不知不觉已经深夜两点多。。愿大家都会有个美妙的平安夜
圣诞快到了,提前祝大家圣诞节快乐!