Look at Boundary: A Boundary-Aware Face Alignment Algorithm
https://wywu.github.io/projects/LAB/WFLW.html
转
清华&商汤开源超高精度边缘感知人脸对齐算法
2018年08月31日 22:39:21
nfzhlk
阅读数:217
更多
<div class="tags-box space">
<span class="label">个人分类:</span>
<a class="tag-link" href="https://blog.csdn.net/nfzhlk/article/category/7361525" target="_blank">算法 </a>
</div>
</div>
<div class="operating">
</div>
</div>
</div>
</div>
<article>
<div id="article_content" class="article_content clearfix csdn-tracking-statistics" data-pid="blog" data-mod="popu_307" data-dsm="post">
<div class="markdown_views prism-atom-one-dark">
<!-- flowchart 箭头图标 勿删 -->
<svg xmlns="http://www.w3.org/2000/svg" style="display: none;"><path stroke-linecap="round" d="M5,0 0,2.5 5,5z" id="raphael-marker-block" style="-webkit-tap-highlight-color: rgba(0, 0, 0, 0);"></path></svg>
<p></p><article class="article__bd"><h1 class="article__bd__title" id="清华商汤开源超高精度边缘感知人脸对齐算法">清华&商汤开源超高精度边缘感知人脸对齐算法</h1><div class="article__bd__detail"><p><img src="https://xqimg.imedao.com/1657af1b0a5275583feaa16c.jpg" class="ke_img"></p> <p> 作者 | Wayne Wu 等 </p> <p> 译者 | Zhiyong Liu </p> <p> 编辑 | Vincent </p> <p><b>AI 前线导读:</b>人脸对齐是找到人脸位置之后,再找出人脸特征点的位置,比如鼻子左侧,鼻孔下侧,瞳孔位置,上嘴唇下侧等等点的位置。可以理解成面部特征点定位或者人脸五官定位。这项技术的应用很广泛,比如自动人脸识别,表情识别以及人脸动画自动合成等。由于不同的姿态、表情、光照以及遮挡等因素的影响,准确地定位出各个关键特征点看似很困难。来自中国的清华大学和商汤提出了新的人脸对齐的算法,让我们先从一部视频开始:<b>更多优质内容请关注微信公众号“AI 前线”(ID:ai-front)</b></p> <p><a href="https://v.qq.com/iframe/preview.html?vid=a07580d4402&width=500&height=375&auto=0" rel="nofollow" title="https://v.qq.com/iframe/preview.html?vid=a07580d4402&width=500&height=375&auto=0" target="_blank"></a><a href="https://v.qq.com/iframe/preview.html?vid=a07580d4402&width=500&height=375&auto=0" rel="nofollow" target="_blank">https://v.qq.com/iframe/preview.html?vid=a07580d4402&width=500&height=375&auto=0</a></p> <p>我们提出了一种新的边缘感知人脸对齐(boundary-aware face alignment)算法,利用边缘作为面部的几何结构,进行面部特征点定位(facial landmark localisation)。与传统的两种方法(基于热点和基于回归)不同,我们的方法是从边缘提取面部特征点,消除了特征点定义的模糊性。我们在本文探讨并回答如下三个问题: </p> <p>为什么使用边缘?</p> <p>如何使用边缘?</p> <p>边缘估计和特征点定位之间有什么关系?</p> <p>我们的边缘感知人脸对齐算法在 300-W Fullset 实现了 3.49% 的平均误差,很大程度上,超过了目前最先进的方法。除此之外,我们的方法还可以很轻松地整合来自其他数据集的信息。利用 300-W 数据集的边缘信息,我们的方法在 COFW 数据集上实现了 3.92% 的平均误差,0.39% 的失效率;在 AFLW-Full 数据集实现了 1.25% 的平均误差。另外,我们还提出了一种新型数据集“ Wider Facial Landmark in the Wild”(WFLW),统一以不同的因素进行训练和测试,这些不同的因素包括姿势、表情、照明、化妆、遮挡和模糊等。有关该系统的详细说明,请参阅论文:<a href="https://wywu.github.io/projects/LAB/LAB.html" rel="nofollow" title="https://wywu.github.io/projects/LAB/LAB.html" target="_blank"></a><a href="https://wywu.github.io/projects/LAB/LAB.html" rel="nofollow" target="_blank">https://wywu.github.io/projects/LAB/LAB.html</a></p> <p><img src="https://xqimg.imedao.com/1657af1c9fd275b13fb081a0.jpg" class="ke_img"></p> <p> 引文 </p> <p>如果你要使用此代码或 WFLW 数据集进行研究,请引用我们的论文:</p> <p><img src="https://xqimg.imedao.com/1657af1dbf5275653fea6558.jpg" class="ke_img"></p> <p> 必备条件 </p> <p>Linux</p> <p>Python 2 或 3</p> <p>CPU 或 NVIDIA GPU + CUDA CuDNN</p> <p> 入门指南 </p> <p> 安装 </p> <p>安装 prerequisites for Caffe(<a href="http://caffe.berkeleyvision.org/installation.html#prequequisites" rel="nofollow" title="http://caffe.berkeleyvision.org/installation.html#prequequisites" target="_blank"></a><a href="http://caffe.berkeleyvision.org/installation.html#prequequisites" rel="nofollow" target="_blank">http://caffe.berkeleyvision.org/installation.html#prequequisites</a>)</p> <p>Modified-caffe for LAB(<a href="https://github.com/wywu/LAB.git" rel="nofollow" title="https://github.com/wywu/LAB.git" target="_blank"></a><a href="https://github.com/wywu/LAB.git" rel="nofollow" target="_blank">https://github.com/wywu/LAB.git</a>)</p> <p> 下载 Wider Facial Landmark in the Wild(WFLW)数据集 </p> <p>Wider Facial Landmark in-the-wild(WFLW)是我们新提出的面部数据集,包含了 10000 张面部(其中 7500 张用训练,2500 张用于测试),98 个完全手动注释的特征点。</p> <p>WFLW Training 和 Testing images [Google Drive] [Baidu Drive]</p> <p>WFLW Face Annotations</p> <p>将上述两个包解压并放到./datasets/WFLW 文件夹</p> <p>只需运行如下脚本即可下载 WFLW 的注释:</p> <p><img src="https://xqimg.imedao.com/1657af1e822275683fe5ee99.jpg" class="ke_img"></p> <p> 在 WFLW 上测试 LAB </p> <p>我们提供了两个预训练模型:</p> <p>WFLW_final: 在论文中,最终模型对 WFLW 进行了评估。</p> <p>WFLW_wo_mp: 简化的模型由于没有消息传递层,更易阅读。</p> <p> 下载预训练模型: </p> <p><img src="https://xqimg.imedao.com/1657af1f52b275c13febdc82.jpg" class="ke_img"></p> <p> 测试模型: </p> <p><img src="https://xqimg.imedao.com/1657af1fc69276cc3fed0c2f.jpg" class="ke_img"></p> <p>测试结果将以文本文件的形式保存到此文件夹中:./evaluation/WFLW/</p> <p> WFLW_final 模型在 WFLW 上的结果 </p> <p><img src="https://xqimg.imedao.com/1657af204482771f3fea5052.jpg" class="ke_img"></p> <p> 训练 </p> <p>出于我们公司的安全考虑,很遗憾我们不能发布训练脚本。但是,就训练来说,你需要做的就是使用我们发布的代码并添加本文中描述的数据进行扩充。以我们发布的 prototxt 文件作为参考,并利用本文中描述的超参数,完全可以轻松再现论文报告的性能。</p> <p>参考资料:</p> <p>Look at Boundary: A Boundary-Aware Face Alignment Algorithm (<a href="https://github.com/wywu/LAB" rel="nofollow" title="https://github.com/wywu/LAB" target="_blank"></a><a href="https://github.com/wywu/LAB" rel="nofollow" target="_blank">https://github.com/wywu/LAB</a>)</p> <p></p> <p>如果你喜欢这篇文章,或希望看到更多类似优质报道,记得给我留言和点赞哦!</p></div><!----></article><p></p>
转自:https://mp.weixin.qq.com/s/5vx1FGgSOhF71FwHeUwaAQ