博主今天回来了之前博主进行了大概五天的深沉对抗网络方面的特训。然后进群了大概两天的产品方面的头脑风暴。我发现计算机视觉的深度学习方面是一个非常有意思的环节。
因为人的感官虽然有五觉五关但是80%以上来自于视觉。我们在训练机器人的听说读写。这方面属于自然语言理解部分。计算机的视觉皮层将会取决于计算机视觉,智能方面的研究。当然,未来的发展方向。就是计算机的不同感知之间的交互和交融来形成他真正的大脑。
但我们打开人工智能方面的职位。网站我们会发现在产品经理相关职位中人工智能相关的职位主要是自然语言理解方面。比如智能客服聊天机器人方面的产品经理。这是由于自然语言理解这一块。现在已经做得较为成熟。而且已经有了较长时间的发展,另外我觉得这方面的技术应用门槛也低一些。毕竟错字比如错图更加容易忍受。
但是当我们打开技术类的职位,如。深度学习工程师我们会发现计算机视觉方面的职位,不说比自然语言理解多少?但至少是平分秋色。而且计算机视觉方面的职位。好像薪资。会更高一些,人才也更加抢手。
在笔者大概2010年刚开始接触神经网络的时候倒2013年这段时间,人工智能机器学习属于比较沉寂的时候。神经网络算法,当时也只是大家发论文。拿到学位做毕设的利器当时我们并不觉得神经网络,这个算法能多大程度的?改变技术和应用。然而深度学习神经网络的出现大大的打了我们的脸。
我也想这方面很大的一个进步是卷积神经网络。因为卷积神经网络的局部感受野+权值共享的设计思想能够让神经网络不在训练那么多的,多到机器很难处理的参数。
另外,还有反向传播的方法。虽然链式求导大一的同学都会做。但是反向传播方法确实有非常强的实用价值是深度神经网络的计算成为了可能。
这两周,我想到了两个计算机视觉的应用案例。这两个应用,现在还没有人做过。
相机项目比较简单的,一部分是。学习专业图片的颜色和纹理。这部分用迁移学习可以做到。
1)如果直接迁移学习的话,不知道效果如何。相当于手动选一张比较类似的照片就迁移学习它的颜色和纹理就行了。值得注意的是我们是要改变颜色和光线等话峰哥变换函数是不是雨研究文里的放个函数有所不同应该跟而RGB有关么?(improved 迁移学习)
2)直接用cycleGAN(pix2pix)
2)优化来看的话,有两个方面。
一个是网上有海量的专业图片。需要人工选择最适合用来做模板的吗?还是有没有什么函数可以计算。
进一步来说可不可以?自动完成搜图功能,比如识别我拍的游客照,就是巴特罗之家。于是,你在网上搜索最适合做我优图模板的专业图片
另外一个方面就是上面提到的,我们的目的原论文有所不同。我在需要抽象纹理因为风格图片和内容图片。都是照片所以我们的函数选择应该何去何从
已经效果得到证实的方法是谷歌的做法,运用的是生成对抗。
模型没有公布开源代码但我猜想可能是利用类似内容损失函数提取游客照的线框
再像之前我们做的项目一样 利用摄影师颜色和光线选择对线框进行填充。(Pix2Pix 、cycleGAN)
然后把摄影师的照片和我们生成的照片放在一起让鉴别器鉴别
3)这两种方法结合起来来看的话。
可以尝试把迁移学习获得的特征或者结果给生成器 避免生成器的冷启动