"); //-->
导读
本文将介绍一个无需前置条件即可自动着色的算法,实现了目前最好的着色效果,性能在所有指标上打败了标准的CNN colorization方法以及Google在ICLR2021提出的方法。论文过段时间会挂到实验室主页上,代码很快也会开源。实验室主页:https://ci.idm.pku.edu.cn/
模型介绍我们造了一个自动着色的Transformer模型,以color tokens作为辅助,实现了目前最好的着色效果。这里说的color tokens来自于经典工作《colorful image colorization》(CIC)中量化ab color space的思路,我们将每个格子都当做一个token,借助position embedding得到格子之间的位置关系,从而获得color token的颜色相对关系(离得远的色差大,否则小),从而设计一系列模块来引导color token监督着色。这里可视化一下我们的Pipeline,可以看到基本上不需要对transformer结构做太多魔改,只需要依靠我们设计的Luminance-selecting module, Color Attention和Color query等模块,依靠ab color space中颜色分布的先验知识,就可以实现好的着色性能。我们的模型不需要任何前置条件(例如目标检测主要着色物体,或者先用inversion GAN生成个参考图像),就能生成正确颜色语义和丰富饱和度的图像。因为没有前置条件的需求,所以使用场景更广(例如不受限于检测器可以检测的目标的类别,以及GAN可以生成的图像的类别)。
实验结果下面是我们的分数和user study,我们对比了标准的CNN colorization方法,以及Google在ICLR2021提出的第一个colorization transformer,最终性能在所有指标上都打过了他们;我们额外比较了一些热门的图像修复算法,但显然专门为colorization设计的算法性能更优;我们还比较了著名的预训练模型MAE,并把colorization当做他的一个下游任务来finetune,但他在这个任务上看起来也不是很聪明的样子。下面展示一些修复老照片的结果然后是一些灰白图像上色的结果
本文仅做学术分享,如有侵权,请联系删文。
*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。