成熟的GAN会自己分析脸部纹理!英伟达StyleGAN团队出新作,网友:竟然还能有突破

新闻 2021-06-30 白交
438

预计9月开源

杨净 发自 凹非寺
非常AI 报道 | 公众号 QbitAI

换脸的GAN,还能有啥突破?

要不,分析个脸部纹理试试。

不得不说,真有点科幻电影的赶脚~

这是英伟达最新推出GAN——Alias-Free GAN,号称更适合图片和视频生成。

尤其是他们之前推出的StyleGAN2相比。

在很多细节上, 比如头发、皱纹的转换、移动都更加顺滑。

我仔细看了看,确实如此。

以前的StyleGAN2,就像是某些固定的点粘在屏幕上,然后脸在屏幕下面移动。

而最新的GAN,则是所有细节全都一起移动。

对此,有网友表示,

StyleGAN2出来后,不知道在此基础上还能有啥突破。

结果现在一对比,StyleGAN2更像是拙劣的视频游戏特效。

论文详情

一个典型的GAN是这样处理脸部细节的。

首先提取一些粗糙、低分辨率的特征,通过上采样层分层细化。随后经过卷积层进行局部混合,并经由非线性映射层引入新的细节。

呈现出来的效果就像是,移动头部导致了鼻子的移动,而鼻子又会移动周围的皮肤毛孔。

△StyleGAN2

但这些细节特征有很强的位置偏好。

也就是说,这些细节特征每移动到一个位置,都会在那里停留很久,才移去下一个位置。

依然给人一种不太自然的感觉~

就好比是某个毛孔被固定住了,其他细节绕着它原地摩擦~

用他们的话来说,就是纹理粘连(texture sticking)。

比如StyleGAN2生成的毛发,大多坚持在相同的坐标上,形成了水平的条纹。

本次则主要针对两种类型的移动——平移和旋转,Alias-Free-T和Alias-Free-R。

传统的GAN网络结构,包括卷积、上采样、下采样和非线性这几个方面,而Alias-Free GAN整架构,是在StyleGAN2基础上调整的。

大致是这样一个调整过程。

首先,为了便于对输入的图像进行连续的平移和转化,他们用傅里叶特征取代StyleGAN2中的输入常数。接着,删除了每个像素中的噪声输入,因为它们与特征转换无关。

此外,他们还降低了映射网络的深度,并禁用了混合正则化和路径长度正则化。最后取消了输出跳过连接。

在实践中,还对卷积权重进行了划分。各层遵循严格的2×上采样时间表,在每个分辨率下执行两层,使得上采样后特征图的数量减半。

结果表明,与StyleGAN2相比,Alias-Free GAN在FID分数上表现的更好。

(FID 用于评估GAN生成图像的质量,分数越低说明图像质量越高)

英伟达出品

一作Tero Karras,可能熟悉StyleGAN系列的看出来了。

这位也是StyleGAN系列的主要开发者。

目前Alias-Free GAN还未开源,GitHub上还没有任何内容。

研究人员表示,预计9月开源。

论文链接:
https://nvlabs-fi-cdn.nvidia.com/alias-free-gan/alias-free-gan-paper.pdf
参考链接:
[1]https://news.ycombinator.com/item?id=27606347
[2]https://nvlabs.github.io/alias-free-gan/
[3]https://github.com/NVlabs/alias-free-gan

相关文章