根据网上的一些资料教程,自己动手实现了人脸识别的程序,GitHub地址。
下图是在视频中测试结果的截图。
前提概要
在整个环境配置过程中,比较麻烦的就是安装openvc,以及安装dlib库。当这两个库安装成功,基本上就可以畅通的进行以抄代码为主的学习之旅了。此外,关于卷积网络的简单了解也是一件很有必要的事情,可以有助于抄代码时的理解。
人脸识别两部走
人脸识别可以分为两大部分:人脸检测和人脸验证。前者,在图像或视频中检测出人脸部分;后者则是对人脸进行验证,查验是否为某某。另外,加上活体检测基本上就可以避免在业务环境中,人为的作假是可以极大的降低。
ps:在本例子中,并没有活体检测……
人脸检测
关于人脸检测,没有亲自从底层去实现或者优化如何检测人脸。而是采用了opencv和dlib进行人脸检测,在使用过程中发现dlib的识别精度更为高一些,而opencv的识别速度更为快,具体体现在:当Mac摄像头打开后,dlib非常卡顿,于是测试了一下,用dlib库的get_frontal_face_detector()
检测器检测耗时需要1秒+。不过,当摄像头窗口只是显示一个低像素下的人脸时效果会好很多。
具体代码可以看GitHub,注释都还是抄的比较详尽的,切记先看readme。此处只说说几个需要注意的地方
- 获取Mac摄像头,
capture = cv2.VideoCapture(0)
参数是0
,有的资料是1或其他,反正我测试之后都是不行。 - opencv的预置模型是存成了xml文件在安装opencv中的一个文件夹下,我这里提取出了自己测试的几个模型放在了**face_opencv_model文件夹之中。而dlib库则是函数式的调用即可。另外,opencv和dlib都不仅仅可以识别人脸,还有一些人脸特征部分也是有预置模型,dlib更是有着人脸特征点的提取。
尽管没有从底层实现人脸检测,不过根据查阅的资料,隐约还记得一个向量相关的概念,暂做记录以备理解。不对之处,敬请指正。
用向量表示了整个图像,如此一来,通过向量的走向,是可以看出一个人脸的模子的。
在具体代码中,主要是做了通过Mac打开摄像头,截取了自己的人脸照片作为数据集。以及,在训练模型之后,打开摄像头,预测视频中的人脸是否为自己。
人脸验证
人脸验证,主要是用到了深度学习中的卷积神经网络。简单的说下,直接用深度神经网络是不大适合的,会耗费过多的运算算力。关于卷积神经网络,具体的还是可以看看之前的博文。
在代码中,主要是用Keras来搭建模型,以及训练,保存,预测引用。Keras是在TensorFlow之上的又一个框架。非常棒的一点是,它有中文版的API文档,而且API设计的更为人性化易于理解。
根据网上教程示例,敲完之后总结如下:
- 模型不清楚是按照什么理论设计的……反正,这本身就是个玄学。虽然训练效果是精准度95%左右吧,可是在识别过程中还是会存在超过想象的误差。模型的设计,真的不知道该怎么有迹可循。反正,我是直接照搬的博主的模型。
- 其实在最开始,是通过吴恩达课程练习了人脸识别,不过课程练习没有加入视频和人脸检测,但是用了迁移学习。不过迁移学习相关的代码又都是已经给好了……
- 整体上来说,本例中的人脸识别,除了网络用成了卷积神经网络,模型用了某位博主的。依然是深度学习中——对标签数据,通过前向传播再反向传播,梯度递减权重更新,设置学习率迭代数,获得一个模型参数然后加以应用,如是这般的一个套路。
具体的代码,依然是看GitHub,毕竟我抄的注释和自己理解的注释还是比较详尽的。
后记: 我知道自己抄的代码也好,还是理解的一些理论肯定有不少不足的地方。希望有朋友如果看了之后,可以指点一番,也欢迎一起交流。可以在博客上通过邮件联系我,谢谢!