AI 文摘

分享一篇多模态大模型综述论文





作者: 人工智能大讲堂 来源: 人工智能大讲堂

前面介绍了大语言模型(Large Language Models, LLMs)的技术原理和应用,LLM属于Foundation model一种,除了LLM外,Foundation model还包括视觉大模型(Large Vision Models),和多模态大模型(Large Multimodal Models)。

目前比较火的文生图大模型Stable Diffusion,DALL-E、文生视频大模型Sora,图文检索,视觉内容生成都属于多模态大模型范畴,今天给大家推荐一篇多模态大模型的综述论文,后续还会推出视觉大模型论文,请持续关注。

后台回复mfm获取pdf

以下是文档内容的思维导图概括:

  • 多模态基础模型

  • 定义和背景

  • 多模态基础模型的重要性

  • 从专家模型到通用助手的过渡

  • 研究领域

  • 视觉理解

  • 监督预训练

  • 对比学习

  • 自监督学习

  • 视觉生成

  • 文本到图像的生成

  • 空间可控生成

  • 文本提示遵循

  • 概念定制

  • 统一视觉模型

  • 从封闭集到开放集模型

  • 任务特定模型到通用模型

  • 从静态到可提示模型

  • 大型多模态模型

  • 背景

  • 预训练指导

  • 多模态大型模型案例研究

  • 多模态代理的先进话题

  • 多模态代理

  • 多模态代理的概述

  • 多模态代理的案例研究: MM-REACT

  • 多模态代理的先进话题

  • 多模态代理的评估

  • 总结和研究趋势

  • 总结

  • 通用AI代理的构建

上图阐述了多模态大模型试图解决的三个代表性问题:视觉理解任务、视觉生成任务,以及具有语言理解和生成能力通用接口。

上图描述了基础模型在语言和视觉/多模态领域的发展趋势,指出了从专门模型向通用助手演进的趋势,并强调了需要进一步研究来确定如何最佳地实现这一转变。

**整篇论文章节内容结构

视觉理解总结

大语言模型的发展除了算力,数据因素外,也离不开模型架构的发展,Transformer是语言大模型的基础,在CV领域,ViT则是视觉大模型的基础。

视觉内容生成总结

图像生成大事件年表

GANs擅长于生成与训练集中的图像非常相似的逼真图像,VAEs擅长于创建各种各样的图像,现有的模型还没有成功地将这两种功能结合起来,直到****Stable Diffusion的出现,它融合了GAN和VAE的优点,能生成真实且多样的图片。

CLIP是将语言和图像映射到统一嵌入空间的开山之作,是多模态大模型的基础。

BeiT,MAE,IGPT开启了图像预训练时代,CV中的BERT。

更多AI工具,参考Github-AiBard123国内AiBard123

可关注我们的公众号:每天AI新工具