首页 新闻中心 企业动态 AI 如何学会“看图说话”?多模态大模型 Glint-ME 让图文互搜更精准

AI 如何学会“看图说话”?多模态大模型 Glint-ME 让图文互搜更精准

来源格灵深瞳 作者格灵深瞳 发布时间2025-11-03
在电商、安防等场景下,图文互搜应用广泛。随着以CLIP为代表的多模态表征方法相继提出,过去单一模态搜索(文搜文、图搜图)被突破,模型可以同时理解文本、图像、音频乃至视频,实现跨模态检索。

与此同时,CLIP框架也存在多种技术局限性。10月25日,在由DataFun技术社区策划的DACon数智大会分论坛上,格灵深瞳技术副总裁、灵感实验室负责人冯子勇博士分享专题演讲:《多模态特征嵌入的数据生成和技术前沿》,介绍多模态基础模型的应用场景、技术短板,以及灵感团队的解题方法与技术细节——灵感图文多模态表征模型系列(Glint-ME)

20251028-181731.jpg
“大模型前沿技术探索”分论坛现场

数据生成:丰富又优质的多模态表征数据

多模态模型训练需文本和图片成对出现,但现有数据文本质量不佳。为此,灵感团队提出了一个多样化描述生成框架,将Transformer的有效并行训练与RNN的有效推理相结合,利用大型语言模型来精炼原始文本、合成字幕和检测标签等信息,以产生语义丰富的描述文本。

1.png

描述生成框架示意图

为解决训练数据冗余的问题,灵感团队提出了一种简单但有效的图像语义平衡方法,能够在保持卓越性能的同时,从LAION 400M数据集中移除43.7%的图像-文本对。

为挖掘现实中大量未配对的多模态数据,例如图文交织的文档,灵感团队提出了一种有效且可扩展的多模态交错文档转换范式,构建了RealSyn数据集,可以将此类数据用于CLIP预训练。

团队首先建立了一套真实数据提取流程,能够从图文交错的文档中提取高质量的图像和文本。在此基础上,构建了检索增强生成框架,基于高质量的文本和图片库,为每一张图片匹配现实文本和合成文本。

2.png

RealSyn数据生成流程示意图

RealSyn数据集包含15M、30M、100M三个规模。大量实验证明:RealSyn具有良好的数据缩放和模型缩放能力,相关数据、代码和模型均已开源:

技术报告:

https://arxiv.org/abs/2502.12513

代码:

https://github.com/deepglint/RealSyn

项目主页:

https://garygutc.github.io/RealSyn/

数据集:

https://huggingface.co/datasets/Kaichengalex/RealSyn100M


多模态特征嵌入模型:更强大的跨模态表达能力

尽管最近的多模态大型语言模型(MLLMs)在通用视觉-语言理解方面取得了显著进展,但在学习可迁移的多模态表征方面,潜力尚未充分发挥。

为此,灵感团队提出了一个面向MLLMs的两阶段训练框架UniME(Universal Multimodal Embedding,通用多模态嵌入),并优化迭代至V2版本——聚焦如何借助MLLMs强大的理解能力来助力统一多模态表征学习。

经过MMEB基准测试和在多个检索任务(包括长短文本跨模态检索和组合检索)上的大量实验,结果表明UniME-V2在多项任务中均实现了稳定的性能提升,展现了卓越的判别能力和组合理解能力。

3.pngUniME-V2在MMEB Benchmark的表现


4.png
UniME-V2在长短文本跨模态检索和组合检索上优于UniME-V1和其他模型

UniME系列论文、代码、权重均已开源:

UniME-V1

技术报告:

https://arxiv.org/abs/2504.17432

代码:

https://github.com/deepglint/UniME

模型:

https://huggingface.co/DeepGlint-AI/UniME-LLaVA-OneVision-7B

项目主页:

https://garygutc.github.io/UniME/

UniME-V2

技术报告:

https://arxiv.org/abs/2504.17432

代码:

https://github.com/GaryGuTC/UniME-v2

模型:

https://huggingface.co/collections/TianchengGu/unime-v2-68ef708ac48066353b4a0806

项目主页:

https://garygutc.github.io/UniME-v2/

近期,灵感实验室联合LMMs-Lab发布了全流程开源的多模态大模型LLaVA-OneVision-1.5,复现路径清晰,8B模型预训练只需4天、1.6万美元

LLaVA-OneVision-1.5

技术报告:

https://arxiv.org/abs/2509.23661

代码:

https://github.com/EvolvingLMMs-Lab/LLaVA-OneVision-1.5

模型:

https://huggingface.co/lmms-lab/LLaVA-OneVision-1.5-8B-Instruct

Demo:

https://huggingface.co/spaces/lmms-lab/LLaVA-OneVision-1.5

数据集:

Pretrain Data:https://huggingface.co/datasets/lmms-lab/LLaVA-One-Vision-1.5-Mid-Training-85M

Instruct Data:https://huggingface.co/datasets/lmms-lab/LLaVA-OneVision-1.5-Insturct-Data

未来,灵感实验室将持续聚焦视觉及多模态特征表达与应用,推动多模态技术在多元化应用场景的落地与创新。欢迎关注团队的最新技术进展。

更多精彩内容
即刻开启企业AI之旅
该信息仅用于格灵深瞳与您沟通以及了解您的业务需求,如您不同意提供个人信息,请关闭本表单页面。
*联系人:
*联系电话:
*联系邮箱:
*获取验证码:
点击获取验证码
立即提交
提交成功
感谢提交,近期将有格灵深瞳工作人员与您取得联系, 请您保持电话畅通。
资料下载
*姓名:
*手机号:
*邮箱:
*获取验证码:
点击获取验证码
*公司名称:
*职位:
*您是否有其他具体的业务需求?
是,请尽快与我取得联系
否,暂时无其他需求
立即下载