(资料图)
日前,全球计算机视觉顶级会议ECCV(European Conference on Computer Vision)公布了2022年论文接收结果。创新奇智提出的通过单品示例进行基于原型的分类器学习方法被ECCV 2022接收,进一步增强了创新奇智在AI工业视觉领域的技术领先性。
据了解,ECCV 是计算机视觉领域世界三大顶级会议(CVPR,ICCV,ECCV)之一,每两年举办一次。ECCV 的论文投稿量近五年来持续增长,根据ECCV 官方数据,2022年ECCV 收到有效投稿论文8170篇,评审通过接收1629篇,评审不通过拒稿6541篇,接收率不到20%,反映出AI视觉技术在工业界和学术界的创新热情继续高涨,但创新难度也在不断加大。
创新奇智提交的论文为《Automatic Check-Out via Prototype-based Classifier Learning from Single-Product Exemplars》,提出一种通过单品示例进行基于原型的分类器学习方法,在目前规模最大的物品集合视觉检出识别数据集上的结果明显优于现有先进方法。该方法适用于智能物品集合视觉检出识别场景,可以减少实际应用场景中对人工的依赖,加快物品集合检出识别流程,并且能够提高视觉检出识别准确率。
由于物品集合单品示例与检出识别图像间存在领域差距,单品示例中只有单个物品集合,而检出识别图像中是多个多类物品集合的任意组合,这是物品集合视觉检出识别任务的一个主要挑战。为了缩小这种差距,创新奇智提出了通过单品示例进行基于原型的分类器学习方法。通过揭示表征类别语义的优势,首先从单品示例中获取每个物品集合类别的原型表示,然后在原型基础上,生成包含背景类别的分类器,不仅可以识别细粒度的物品类别,还可以区分来自检出识别图像的背景候选框。此外,还通过对物品候选框分类置信度分数的鉴别性重排和全局层面的多标签损失,来提升模型性能。
与现有技术相比,创新奇智提出的方法具有显著优点:使用基于原型的分类器学习方法,对单品示例与检出识别图像间存在的领域差距进行了弥合,提供了一种不同于现有方法路径;基于背景类别的鉴别性重排方法,能够实现针对语义相近的细粒度物品集合类别进行分类;与现有方法相比,该方法性能更佳且所需计算资源更少。
创新奇智CTO张发恩(本论文作者之一)指出:“创新奇智提出的通过单品示例进行基于原型的分类器学习方法,可以减少实际应用场景中对人工的依赖,加快物品集合检出识别流程,并且能够提高视觉检出识别准确率。由于物品集合单品示例与检出识别图像间存在领域差距,单品示例中只有单个物品集合,而检出识别图像中是多个多类物品集合的任意组合,这是物品集合视觉检出识别任务的一个主要挑战。本文提出的通过物品集合单品示例进行基于原型的分类器学习方法,在目前规模最大的物品集合视觉检出识别数据集上的结果明显优于现有先进方法。”
制造业的物品检测需求量多而复杂。传统的方式不仅耗时耗力,而且检测准确率不高。创新奇智提出的通过单品示例实现对物品集合的检测,非常适用于诸如汽车零部件、消费电子设备等有批量产品检测需求的场景,不仅能够加快检测流程,而且能提升检测准确率,为企业降本增效带来直接助益。
【广告】
(免责声明:此文内容为广告,相关素材由广告主提供,广告主对本广告内容的真实性负责。本网发布目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,请自行核实相关内容。广告内容仅供读者参考。)