这周工作上还是继续分析利用视觉来进行目标对准的方案,上周的二维码方案效果比较差,这周在尺寸上做文章,主要根据距离的不同,分析不同的定位标示,要在这个距离上能比较容易的在图片上分析特定的标示出来,才能计算出偏差的角度和距离。把距离分成了三段,80cm~50cm、20cm和10cm,80~50之间考虑用两端的大的嵌套黑白框进行定位和校准,用嵌套黑白框的原因是能用opencv的轮廓分析圈定出我们设定的标示,既可以根据图像中心和视角中心的差异算出尺寸,也可以根据两边的尺寸差异算出相对角度。当机器人距离为20cm时改用中心的嵌套结构,10cm的时候改用最中心的框。理论上随着距离的接近,一个像素的误差从几厘米到几毫米。精度问题解决了,后面还有两个问题,一个是运动过程中图像不清楚的问题。另外一个是随着距离接近,对机器人的移动距离控制也要求精确,这两个问题都比较难以处理,后续继续考虑。
udacity的课还是继续跟道路上的交通指示牌识别问题作斗争,增加了L2的regularization和dropout,validation accuracy到了99%,而test accuracy到了96%,感觉指标应该不错了。于是做了一些可视化的工作就提交了。其实我觉得还有两方面的工作可以做,一个是图像的归一化,另外一个通过各种噪声和旋转增加training data。偷懒了。要是被打回来还得加。
deeplearning看完了第六章,主要讲深度网络的一些基本的架构,包括输出层、损失函数、隐藏层的基本设计思路,以及后向传播的各种算法。希望自己能在反向传播算法比较一下caffee和tensorflow。
女儿和儿子的期末考试都结束了,放假了,一个要去上海迪士尼,另外一个上围棋课。
什么时间去看星球大战外传 侠盗一号呢?
拖延症严重,下周要看完一篇论文啊。