标注数据,可能是AI模型训练里最艰巨的一个部分了。
计算机视觉首当其冲,标注图像需要投入大量人力。
比如,在Coco-Stuff数据集里,标好一幅图需要19分钟,164,000幅就超过5万小时了。
于是,谷歌AI团队开发了一种新的方案,官方表示可以3倍提升标注速度。
方法名叫Fluid Annotation (流体标注) ,借助机器学习的力量来贴类别标签 (Class Labels) 、勾出每个物体的轮廓和图片里的背景,为人类减轻压力。
谷歌AI把这项研究称作“尝试加速数据标注的第一步”,也即将在ACM MM 2018大会上演示这一步。
这个方法,从预训练的语义分割模型Mask R-CNN的输出开始,生成大约1,000个图像片段 (Image Segments) ,每个片段有自己的类别标签和置信分。
(每个像素都要被划入一个类别,比如花、树、人、路等等。)
置信分最高的那些片段,就可以传到人类那里进一步做标注。
人类,可以在一个操作板上修改机器分割的结果。
比如,修改某个片段现有的标签,例如把坦克改成汽车。
比如,加入一个片段,来弥补缺失的物体,也可以删除片段:
再有,可以调整重叠片段的深浅顺序,上移这个片段,下移另一个片段:
团队提供了一个demo,里面有五个样本,大家可以自己去调一调看 (传送门在文底) 。
现在,把流体标注 (人机协作) 的效果,和人类辛勤劳作的结果对比一下。
肉眼看去,AI标注的效果已经和人类相差无几。
谷歌团队在博客里表示,人类标注在物体边界的把握上依然略胜一筹。
所以,下一步的研究重点,就是加强边界的标注。
当然,速度也要继续提升啦。
Demo传送门: https://fluidann.appspot.com/
论文传送门: https://arxiv.org/pdf/1806.07527.pdf
— 完 —