大型多模态模型在零样本执行各种多模态任务方面展现出了卓越的通用能力。大规模的基于网络的图像-文本对数据为这一成功做出了根本性贡献,但同时也存在着过多噪声的问题。近期的研究使用由图像标题生成模型合成的替代标题,并在基准测试中取得了显著的性能。然而,我们的实验揭示了使用合成标题训练的模型存在严重的可扩展性不足和世界知识丢失问题,这些问题在初始的基准测试成功中被很大程度上掩盖了。
为了提供更高质量和更具可扩展性的多模态预训练数据,研究人员提出了CapsFusion,这是一个先进的框架,利用大型语言模型(LLMs)来整合和优化来自基于网络的图像-文本对和合成标题的信息。CapsFusion通过有机地融合真实图像-文本对的优势和由标题生成模型生成的合成标题,解决了使用合成标题训练的大型多模态模型(LMMs)中存在的严重可扩展性不足和世界知识丢失问题。
高质量标题生成: CapsFusion利用大型语言模型整合和优化来自网络图像-文本对和合成标题的信息,生成更高质量的标题。
性能提升: 在广泛的实验中,CapsFusion标题展现出显著的全面优势。例如,在COCO和NoCaps数据集上,CIDEr评分分别提高了18.8和18.3分。
样本效率: CapsFusion在计算效率方面表现出色,与基线相比,仅需11-16倍更少的计算资源。
世界知识深度: 通过融合真实图像-文本对的信息,CapsFusion生成的标题包含更丰富的世界知识。
可扩展性: CapsFusion框架展现出优秀的可扩展性,能够处理大规模数据集。