openface  人脸识别框架  但个人感觉精度还是很一般

openface的githup文档地址:http://cmusatyalab.github.io/openface/

openface的安装:

官方推荐用docker来安装openface,这样方便快速不用自己去安装那么多依赖库:

docker pull bamos/openface
docker run -p : -p : -t -i bamos/openface /bin/bash

也就两行代码的事情,如果自己一步步去安装的话,估计很花时间。

参考路径:http://cmusatyalab.github.io/openface/setup/

Demo简单分析:

openface的网页提供了四个demo:

第一:实时视频定位人物

具体demo位置在github clone下来的 demos/web 目录里,通过启用:

docker run -p 9000:9000 -p 8000:8000 -t -i bamos/openface /bin/bash -l -c '/root/openface/demos/web/start-servers.sh'

来启动这个web服务,但是最新版的无法远程访问,原因是加了安全机制了,官方也提供了两种解决方法:

1)设置google浏览器的访问

用该命令启动谷歌浏览器 --unsafely-treat-insecure-origin-as-secure="example.com" ,还需要包含--user-data-dir = / test / only / profile / dir来为标志创建新的测试配置文件。

2)客户端安装ncat作为代理

export SERVER_IP=192.168.99.100 ncat --sh-exec "ncat $SERVER_IP 8000" -l  --keep-open 
& ncat --sh-exec "ncat $SERVER_IP 9000" -l --keep-open &

具体运用查看:http://cmusatyalab.github.io/openface/demo-1-web/ 和ncat的官网

这里讲都是从linux系统来说的,我没有试验成功!

=======================================================

第二:人脸比较 Comparing two images

这个需要自己去看py代码了,不难,只是需要自己根据阈值去判断是否是同一张图片:

进入容器:

docker attach 89dfcc6
cd /root/openface/
./demos/compare.py images/examples/{lennon*,clapton*}

阈值是0.99,阈值的确定是一件技术活,当然要自己训练多,有相应的直觉

阈值在0.99以上的可以确定为同一张图片,否则不是

这里不多说,多看代码,多训练数据,多调参,你会更有直觉去做好一件事。

===========================================================================

第三:训练分类

这个训练结果有点让我失望,一方面可能是训练图片太少了,另一方面的就是图片的预处理上出现比例失调的情况影响了训练结果

1)快速安装

因为这里涉及到docker 数据卷的问题,需要挂载一个目录到本地,所以重新启动一个容器:

docker run –v /app/ml_data/:/root/openface/data/mydata/  -p : -p : -t -i bamos/openface /bin/bash

/app/ml_data 是本地数据;/root/openface/data/mydata 是容器里目录

2)准备数据

train_img 是放置训练的图片 
others 是放置验证的图片
aligned_imgage 是放置经过预处理,剪裁大小的图片
generated_charaters 是放置训练后的特征数据
然后我们看看图片集
train_img 目录下的两个目录huge 和 yangyang 分别放如下图片

yangyang的

others图片

3)开始训练,训练集先设置huge和yangyang分别10张图片作为训练

3.1 预处理图片和分类

./util/align-dlib.py data/mydata/train_img/ align outerEyesAndNose data/mydata/aligned_images/ --size 64

也可以启用多线程处理

for N in {..}; do ./util/align-dlib.py data/mydata/train_img/ align outerEyesAndNose data/mydata/aligned_images/  -size  & done

3.2 提取特征

./batch-represent/main.lua -outDir data/mydata/generated_charaters/ -data data/mydata/aligned_images/

3.3 训练图片

./demos/classifier.py train data/mydata/generated_charaters/ 

#将会产生data/mydata/generated_charaters/ classifier.pkl的新文件名。这个文件有你将用来识别新面部的 SVM 模型

4)验证训练结果

./demos/classifier.py infer data/mydata/generated_charaters/classifier.pkl /root/openface/data/mydata/others/{hu,other,yang}*

结果如何:

我们可以看到结果:
杨洋的预测基本比较准,可是other02.jpg 和other03.jpg预测成胡歌的概率在0.89以上,确实有问题。什么原因这样呢?
来看一下预处理的图片也及是aligned_imgage目录里的图片:

5)第二次,增加测试集到每一个人物的图片为20张,另外删除到一两张预处理变形的图片,结果如何:

我们看到精度是有所提高的,可是远远还不足,我们试着加两张另类的照片:

就是other06.jpg和other07.jpg,来看看训练后的验证结果如何:

很失望的看到 :Predict yangyang with 0.90 confidence

把金三胖预测成杨洋的可靠性为百分之90-------无语了!

当然一张狗的图片是直接报错,说明找不到分类

这个要用到生成环境下的话,还得慎重看看源码,做一个优化;如果做一个门卫的监控识别,每增加一个人,就得提供8张图片作为训练尚可,如果提供20张以上图片确实要疯了;

如果是识别本人是挺好的,可是无法区分入侵者,这就是个问题了。

究其原因:openface 用的似乎还有蛮多的,可能是卷积层训练的数据是基于外国人的脸谱训练的,如果要可靠一点,应该重新找一些数据从底层开始训练起来;

如有时间,再做深入分析了。

希望以后会出现一些更好的人脸识别框架

6) 最后建议你把docker容器提交一下

$ docker commit c3f279d17e0a  minsons/common:ouyangNet

如果有github账户,那随便就提交上去吧

docker login #登陆
docker push minsons/common:ouyangNet

========================================================

第四 :空间定位 

就是会在一定空间内区分出不同的人,从技术上来,最大的难处不是识别两个人的不同,而是空间定位。

空间定位是针对陌生人,在库里是没有经过训练的,可是一个人进入空间后被采集了图片,

那么这个人的采集数据跟本人的再次采集的图片之间的距离肯定更加趋近0,更好的识别出不同其他人,问题是如何实时空间3上上定位。

我们可能会考虑到的场景就是:阿里巴巴的无人零售店。

对于一个人在店里的定位和识别就可以根据人在进入零售店扫手机的淘宝账户的同时采集这个人的脸部数据,并实现实时的关联,接着再建立起人与空间的定位,

我个人的思路是:

1,进入关卡,建立淘宝账户与人的定位关联

2,空间定位的关联

3,实时采集人拿东西视觉识别统计(具体有种实现方式及采集媒介协助)

4,关联支付

不同的颜色来区别空间上的不同人

以下是部分官网的翻译:

在这个演示中:

我们首先使用OpenCV来获取,处理和显示摄像头的视频源。
dlib和OpenFace只需几行代码即可轻松获取每个人脸的检测面和嵌入。
嵌入的颜色是通过将框架中的人脸位置映射为0到1之间的数字然后使用matplotlib颜色映射来创建的。
为了将所有的图形保存在一个面板上,我们在与视频相同的OpenCV缓冲区之上绘制球体。
OpenCV只有2D绘图基元,因此我们将3D球面的点等距投影到2D,所以我们可以使用OpenCV的2D绘图基元。
由于来自视频的图像是嘈杂的,嵌入会跳过很多的球体,如果不沮丧。我们使用dlib的对象跟踪器对此进行平滑处理,以跟踪整个视频帧中的脸部平均(减弱)嵌入。
人脸检测和识别会导致“低”的帧率。帧速率可以通过仅对每几帧进行检测和识别来改善,并且使用中间的面部跟踪(这是快速的)来更新面部位置。

在自己电脑上执行:

1,启动项目

2,下载3D模型,点击这里

3,执行 demos/sphere.py 用参数 --networkModel 指向3D模型

因为设备关系没能尝试,有条件的可以试试

参考:http://cmusatyalab.github.io/openface/

githup地址:https://github.com/cmusatyalab/openface

openFace 人脸识别框架测试的更多相关文章

  1. openface人脸识别框架

    openface的githup文档地址:http://cmusatyalab.github.io/openface/ openface的安装: 官方推荐用docker来安装openface,这样方便快 ...

  2. 前端人脸识别框架Tracking.js与JqueryFaceDetection

    这篇文章主要就介绍两种前端的人脸识别框架(Tracking.js和JqueryFaceDetection) 技术特点 Tracking.js是使用js封装的一个框架,使用起来需要自己配置许多的东西,略 ...

  3. AI人脸识别的测试重点

    最常见的 AI应用就是人脸识别,因此这篇文章从人脸识别的架构和核心上,来讲讲测试的重点. 测试之前需要先了解人脸识别的整个流程,红色标识代表的是对应AI架构中的各个阶段 首先是人脸采集. 安装拍照摄像 ...

  4. 百度人脸识别api及face++人脸识别api测试(python)

    一.百度人脸识别服务 1.官方网址:http://apistore.baidu.com/apiworks/servicedetail/464.html 2.提供的接口包括: 2.1 多人脸比对:请求多 ...

  5. ubuntu16.04环境下安装配置openface人脸识别程序

    参考http://blog.csdn.net/weixinhum/article/details/77046873 最近项目需要用到人脸训练和检测的东西,选用了OpenFace进行,因而有此文. 本人 ...

  6. face_recognition人脸识别框架

    一.环境搭建 1.系统环境 Ubuntu 17.04 Python 2.7.14 pycharm 开发工具 2.开发环境,安装各种系统包 人脸检测基于dlib,dlib依赖Boost和cmake $ ...

  7. 【AI图像识别一】人脸识别测试探索

    ****************************************************************************** 本文主要介绍AI能力平台的人脸识别技术的测 ...

  8. Face Recognition 人脸识别该如何测试

    猪圈子,一个有个性的订阅号 01 测量人脸识别的主要性能指标有 1.误识率(False;Accept;Rate;FAR):这是将其他人误作指定人员的概率; 2.拒识率(False;RejectRate ...

  9. 第三十七节、人脸检测MTCNN和人脸识别Facenet(附源码)

    在说到人脸检测我们首先会想到利用Harr特征提取和Adaboost分类器进行人脸检测(有兴趣的可以去一看这篇博客第九节.人脸检测之Haar分类器),其检测效果也是不错的,但是目前人脸检测的应用场景逐渐 ...

随机推荐

  1. visual studio 2015 warning MSB3246

    在我们很高兴的按下 本地计算机运行 按钮,希望看到我们程序运行的时候,垃圾vs就告诉我们,你的程序出现了问题,问题就是: warning MSB3246: 解析的文件包含错误图像.无元数据或不可访问. ...

  2. python3中判断字串类型

    s为字串 s.isalnum() #所有字符都是数字或者字母,为真返回 Ture,否则返回 False. s.isalpha() #所有字符都是字母,为真返回 Ture,否则返回 False. s.i ...

  3. JPA + SpringData 操作数据库原来可以这么简单 ---- 深入了解 JPA - 3

    原创播客,如需转载请注明出处.原文地址:http://www.cnblogs.com/crawl/p/7718741.html ------------------------------------ ...

  4. Hadoop(十四)MapReduce原理分析

    前言 上一篇我们分析了一个MapReduce在执行中的一些细节问题,这一篇分享的是MapReduce并行处理的基本过程和原理. Mapreduce是一个分布式运算程序的编程框架,是用户开发“基于had ...

  5. Java正则表达式详解+练习

    一.导读 正则表达式,又称规则表达式.(英文名Regular Expression,所以代码中常以regex.regexp.RE表示).正则表达式简单说就是用于操作文本数据的规则表达式,在Java中我 ...

  6. PhiloGL学习(6)——深情奉献:快乐的一家

     前言 话说上一篇文章结尾讲到这一篇要做一个地球自转以及月球公转的三维动画,提笔,不对,是提键盘开始写的时候脑海中突然出现了几年前春晚风靡的那首歌:蒙古族小丫头唱的快乐的一家.闲言莫提,进入正题.   ...

  7. js 如何判断一个数字是不是2的n次方幂

    昨天去面试时,面试官问了一道面试题,说如何判断一个数是不是2的n次方幂,我当时不知道2的n次方幂是什么(糗大发了

  8. C语言(记录)——内存相关_2:内存的编址与管理

    本文是基于嵌入式的C语言 --------------------------------------------------------------------------------------- ...

  9. svn 常用命令行

    1.将文件checkout到本地目录    svn checkout path(path是服务器上的目录)    例如:svn checkout svn://192.168.1.1/pro/domai ...

  10. phpstorm php $post数据为空的原因

    今天拿PHPstoem 写了个PHP的表单插入数据,然后直接在里面一运行,就一直提示什么未定义,其实是因为$_PSOT[] 取不到值. 后面发现原来是直接用phpstorm 运行PHP的话,他会自带端 ...