Meta-Reinforced合成数据只有一次的细粒度的视觉识别

作者@inproceedings {metasatoshi19 = {Satoshi Tsutsui, Yanwei Fu,大卫Crandall}, booktitle ={进步在神经信息处理系统(NeurIPS)}, title = {{Meta-Reinforced合成数据一次性细粒度的视觉识别}},年= {2019}}

我们引入一个有效的方法使用一个ImageNet-pre-trained图像发生器的目的提高细粒度数据匮乏的时候只有一次的分类。微调pre-trained发生器的方法,我们的初步研究发现,调整只批标准化的规模和移位参数可以产生一个视觉逼真的图像。这种方式适用于单一图像的方法较少依赖图像可用的数量。此外,虽然天真地将生成的图像添加到训练集不提高性能,我们表明,它可以提高性能,如果我们正确混合生成的图像与原图像。为了了解这种基因混合的参数,我们采用元学习的框架。我们实现这个想法和演示一个一致的和显著改善几个分类器在两个细粒度的基准数据集。

框架

我们元形象加强网络(MetaIRNet)有两个模块:图像融合网络和一次性分类网络。图像融合网络加强了生成图像,试图让他们有益的一次性分类器,而一次性适合分类的分类器学习表示看不见的例子和一些例子。由端到端网络都是训练有素的,所以损失back-propagates从分类器融合网络。

微调BigGAN用单一的形象

增强图像由MetaIRNet

IU计算机视觉实验室的项目和活动资金,部分赠款和合同由美国空军科学研究办公室(AFOSR),国防威胁降低局(DTRA) Dzyne技术,EgoVid, Inc .)、电子通信、Facebook、Google、均富LLP IARPA,印第安纳创新研究所(IN3), IU数据洞察力中心,印第安那大学副教务长办公室通过一个新兴的研究领域为研究格兰特,印第安那大学的社会科学研究,礼来养老,NASA,美国国家科学基金会(iis - 1253549, cns - 1834899, cns - 1408730, bc - 1842817, cns - 1744748, iis - 1257141, iis - 1852294),英伟达,ObjectVideo,海军研究办公室(ONR), Pixm, Inc .)和美国海军。本文所包含的观点和结论是作者和不应被解释为一定代表官方政策或支持,表示或暗示,美国政府或任何赞助商。

Baidu
map