深度学习论文笔记-Deep Learning Face Representation from Predicting 10,000 Classes

深度学习论文笔记-Deep Learning Face Representation from Predicting 10,000 Classes

来自:CVPR 2014   作者:Yi Sun ,Xiaogang Wang,Xiaoao Tang

题目:Deep Learning Face Representation from Predicting 10,000 Classes

主要内容:通过深度学习来进行图像高级特征表示(DeepID),进而进行人脸的分类。

长处:在人脸验证上面做,能够非常好的扩展到其它的应用,而且夸数据库有效性;在数据库中的类别越多时,其泛化能力越强,特征比較少,不像其它特征好几K甚至上M,好的泛化能力+只是拟合于小的子训练集。

主要过程:採用卷积神经网络(CNN)方法,而且採用CNN最后一层的激活值输出作为features,不同的人脸区域放入CNN中提取特征,形成了互补、过全然的特征表示。(form complementary and over-complete representations)。

通过深度卷积网络来学习高级的过全然特征(有监督),CNN的最后一层激活值作为输出,

详细细节:

採用3个尺度,10个人脸region,60个patch,训练60个CNN网络,每一个提取两个160维的特征(两个是由于: extracts two 160-dimensional DeepID vectors from a particular patch and its horizontally flipped counterpart.),所以最后一张人脸图像的特征的维度是:160*2*60=19200维。

CNN的结构例如以下:

<span>深度学习论文笔记-Deep Learning Face Representation from Predicting 10,000 Classes</span>

<span>深度学习论文笔记-Deep Learning Face Representation from Predicting 10,000 Classes</span>

说明:共5层网络,越往上的神经元的个数就越少,到最后就剩下160个神经元的输出,上面的Face patches 是进过对齐过后的的人脸块,也就是说已左(右)眼为中心的人脸区域块,嘴角为中心的人脸区域块等等,这样就有多个不同的输入块输入到CNN中,文章採用了把倒数第二层的输出+倒数第一层的输出作为特征(这应该是採用12年的Le Cun 那篇文章的track)。最后再把不同的块所输出的特征连接起来,就形成了一个终于一张人脸的特征。然后再用各种分类器对其特征进行分类。

採用Max-Pooling,softmax;

输入图像:39*31*k 个人矩形脸图像块+31*31*k  (这里k在彩色图像时为3,灰度时k为1)个人脸正方形块(由于后面要考虑到是全局图像还是局部图像,且须要考虑到尺度问题),使用ReLU非线性处理;

注意到【Weights in higher convolutional layers of our ConvNets are locally shared to learn different mid- or high-level features in different regions [18]. r in Equation 1  indicates a local region where weights are shared. In the third convolutional layer, weights are locally shared in every 2  2 regions, while weights in the fourth convolutional layer are totally unshared.】

<span>深度学习论文笔记-Deep Learning Face Representation from Predicting 10,000 Classes</span>

不同的输入图像:

<span>深度学习论文笔记-Deep Learning Face Representation from Predicting 10,000 Classes</span><span>深度学习论文笔记-Deep Learning Face Representation from Predicting 10,000 Classes</span>

当中局部图像是关键点(每一个图像一个关键点)居中,不同的区域大小和不同的尺度图像输入到CNN中,其CNN的结构可能会不同样,可是最后的特征的都是160维度,最后将全部的特征级联起来。

最后一层的特征是第三层和第四层全相连(比較特殊的地方),由于这样能够添�尺度特征,由于第三层和第四层学习到的特征的尺度是不一样的。

特点:提取的特征非常Compact,仅仅有160*k,k不大。自然就具有判别力了。

在训练CNN中,训练数据的类别越多,其性能越好,可是会在训练模型中出现故障,也就是太慢。

CNN的输出是特征,而不是输出类别,

分类

採用Joint Bayesian 来进行人脸的verification;也採用了神经网络来比較,可是联合贝叶斯的效果比較好;

实验

由于在LFW中大部分人的图像个数是有限的,非常多人仅仅有一张图片;所以採用了新的数据库来训练模型:CelebFaces :八万多幅,五千多人,每一个人差点儿相同16张图片,

===============

方法比較:

当前的人脸识别方法:过全然的低级别特征+浅层模型。

ConvNet 可以有效地提取高级视觉特征。

已有的DL方法:

1. Huang【CVPR2012】的生成模型+非监督;

2. Cai 【2012】的深度非线性度量学习;

3 Sun【CVPR2013】的监督学习+二类分类(人脸校验 verfication),是作者去年写的。而这一篇文章是多类分类问题(identification),并且这篇文章中,有10000类的人脸类别。

================

结果:在有对齐人脸的情况下,可以在LFW数据库上识别率达到97.5%。(其训练数据不是LFW,有其它的训练数据来训练模型)。

不理解的地方:

<span>深度学习论文笔记-Deep Learning Face Representation from Predicting 10,000 Classes</span>


版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/119082.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 靠谱的IT人力外包企业有哪些?

    我司通过全面的信息采集,综合化的分析以及系统化咨询,从全国三千余家IT人力外包企业中逐级淘汰,最终筛选出如下15家综合实力强、服务案例优、业务广度大、业内好评度高的企业。

    2022年4月3日
    1.8K
  • c语言数组合并「建议收藏」

    c语言数组合并「建议收藏」c语言数组合并;注意,在函数中计算数组的长度可能会出错,尽量调用数组长度值#include&lt;stdio.h&gt;#include&lt;stdlib.h&gt;voidmergelist(int*a,intlen_a,int*b,intlen_b,int*c);//两个数组合并voidmergelist(int*a,intlen_a,int*b,int…

    2025年6月14日
    3
  • spring事务的传播行为和隔离级别_spring常用的事务传播行为

    spring事务的传播行为和隔离级别_spring常用的事务传播行为  本文主要介绍下Spring事务中的传播行为。事务传播行为介绍Spring中的7个事务传播行为:事务行为说明PROPAGATION_REQUIRED支持当前事务,假设当前没有事务。就新建一个事务PROPAGATION_SUPPORTS支持当前事务,假设当前没有事务,就以非事务方式运行PROPAGATION_MANDATORY支持当前事务,假设当前没有事…

    2025年7月1日
    2
  • GitLab+Jenkins+Maven+Docker实现自动集成、打包、部署

    GitLab+Jenkins+Maven+Docker实现自动集成、打包、部署

    2021年6月3日
    118
  • 建索引的优缺点

    建索引的优缺点参考:https://blog.csdn.net/ybaog/article/details/53906300为什么要创建索引呢?这是因为,创建索引可以大大提高系统的性能。第一,通过创建唯一性索引,可以保证数据库表中每一行数据的唯一性。第二,可以大大加快数据的检索速度,这也是创建索引的最主要的原因。第三,可以加速表和表之间的连接,特别是在实现数据的参考完整性方面特别有意义。…

    2022年5月10日
    42
  • Latex中单引号,双引号「建议收藏」

    Latex中单引号,双引号「建议收藏」写论文时候,需要写出英文的单引号和双引号单引号就是”这个符号双引号的话,如果输入两个英文输入下的””,比如”paper”,LaTeX编译显示的话就是两个向下的引号。正确应该是第一个向上方向的引号用“这个符号,就是输入两个下图的键盘上的符号,所以正确应该为:“paper”…

    2022年6月25日
    32

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号