近日,云从科技从容大模型在视觉领域再次取得重要进展,基于视觉基础大模型的目标检测器在检测领域著名benchmark COCO数据集上从微软研究院(MSR)、上海人工智能实验室、智源人工智能研究院等多家知名企业与研究机构脱颖而出,刷新了世界纪录。
云从科技从容大模型在COCO测试集上平均精度(以下简称mAP,mean Average Precision)达到0.662,位列榜单第一(见下图)。在验证集上,单尺度取得mAP 0.656的佳绩,多尺度TTA后mAP达到0.662,均达到世界领先水平。
大数据结合自监督学习 打造视觉核心技术
以GPT为代表的大数据自监督预训练已经在自然语言理解(NLP)领域取得了令人瞩目的突破,视觉领域方面,大数据结合自监督学习的基础模型训练也有重要进展。
一方面,广泛的视觉数据有助于模型学习通用的基础特征。云从视觉基础大模型,使用了超过20亿的数据,包括大量无标签数据集以及图文多模态数据集,数据集的丰富多样使得模型能够提取到稳健的特征,大大降低了下游任务的开发成本。
另一方面,自监督学习不需要人工标注,使得海量的无标注数据训练视觉模型成为可能。云从对自监督学习算法进行了多方面的改进,使其能更适用于检测、分割等细粒度任务,在COCO检测任务上取得好成绩就是证明。
开放目标检测+零次学习检测能力 大幅降低研发成本
得益于视觉基础模型优异性能,云从从容大模型能够基于大规模图文多模态数据训练支持上千类别目标的零次学习(以下简称zero-shot)检测,涵盖能源、交通、制造等行业的各类目标。
zero-shot能够模仿人类的这个推理过程,利用过去的知识,在计算机中推理出新对象的具体形态,从而使得计算机具有识别新事物的能力。
如何理解zero-shot?假设我们已知驴子和马的形态特征,又已知老虎和鬣狗都是有条纹的动物,熊猫和企鹅是黑白相间的动物,我们定义斑马是黑白条纹相间的马科动物。不看任何斑马的照片,仅仅凭借推理,在动物园一众动物中,我们也能够找到斑马。
云从视觉基础大模型表现出很强的泛化性能,大大降低了下游任务所需的数据依赖与开发成本,同时zero-shot大幅提高了训练开发效率,使得广泛应用和快速部署成为可能。
云从科技及联合研究团队的论文《PointCMP: Contrastive Mask Prediction for Self-supervised Learning on Point Cloud Videos》(基于掩码预测的点云视频自监督学习)成功入选。
云从视觉基础大模型表现出很强的泛化性能,大大降低了下游任务所需的数据依赖与开发成本,同时zero-shot大幅提高了训练开发效率,使得广泛应用和快速部署成为可能。
周一到周五9:30-18:00(北京时间)
商务合作:business@cloudwalk.com
媒体合作:Media@cloudwalk.com
渠道合作:business_partner@cloudwalk.com
人才招聘:zhaopin@cloudwalk.com