人工智能大模型系列(三)什么是检索增强生成(RAG)以及它如何增强AI响应
作者: 云原生AI视界 来源: 云原生AI视界
什么是检索增强生成 (RAG) 以及它如何增强 AI 响应
OpenAI 的 GPT-4 Turbo 和 Llama2 等大型语言模型 (LLMs) 改变了我们的思维、工作和协作方式。但即使是最先进的人工智能,偶尔也会陷入不准确和富有想象力的弯路(比如那个曾经看到过不明飞行物的朋友)。这就是检索增强生成 (RAG) 发挥作用的地方。
那么,RAG到底是什么?它如何增强 AI 生成的响应?为什么它被认为是处理局限性的突破LLMs?让我们来了解一下。
但首先,我们还需要谈谈一件事。👇
🚧 当前 AI 语言模型的局限性
当 OpenAI 的研究人员在 2020 年 6 月发布 GPT-3(生成式预训练转换器)时,引起了不小的轰动。不一定是因为它是一件新奇的事情。但因为它远远超过了两年前更古老、更晦涩的兄弟姐妹 GPT-2。
GPT-3 拥有 1750 亿个参数,而 GPT-2 拥有 15 亿个参数。这些数据以及更多样化的训练数据使它能够更好地掌握自然语言,从而转化为生成令人毛骨悚然的类人且与上下文相关的文本的能力。
GPT-3 可以做到这一切——起草法律文件、写诗、写代码,或者……产生食谱创意。很难不被兴奋所淹没。
但与其他任何产品一样LLM——这也包括最新、更优越的 GPT-4,据传它有 1.76 万亿个参数——它有一些缺陷。
LLMs仅与他们的训练数据一样好。这意味着他们的能力受到在培训过程中获得的核心“知识”的限制。
例如,一个直到 2019 年才训练的模型不会知道 COVID-19 大流行或气候变化辩论的最新波动。它也不会了解影响您业务的最新法律法规。
当然,LLMs可以用非常有说服力的方式填空。但是,除非你正在起草一部后世界末日的奇幻小说,否则它的LLM输出需要现实检查。
🔀 什么是检索增强生成 (RAG)?
检索增强生成 (RAG) 是一种 AI 技术,它将语言模型的生成功能与获取外部数据的检索系统相结合。
假设您正在借助 AI 驱动的写作工具起草一份电动汽车市场的分析报告。现在是 2024 年,但在该应用程序的引擎盖下运行的LLM最后一次更新是在 2021 年初。人工智能将给你一个很好的概述,但输出不会包括最近的趋势,比如上个月电池技术的重大突破。
使用 RAG,您可以将 LLM 指向相关文档或新闻文章来填补空白。RAG 将动态获取最新数据并将其直接集成到 AI 的输出中。
RAG 的历史可以追溯到 Facebook 研究团队于 2020 年发表的一篇题为“Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks”的论文。
简而言之,检索-增强生成是一个两步法。首先,“检索器”从提供的数据池中获取与任务相关的信息。然后,“生成器”(LLM本身)获取这些信息并制作出与上下文相关的响应。
这种方法具有许多强大的优点。
🤖 RAG 在 AI 中的优势
训练语言模型并不便宜。
确切的费用?鉴于人工智能公司的保密程度,很难确定。但这是最新的 OpenAI 开发者日的独家新闻:该公司提供用你自己的数据训练 GPT-4,起价为 2-300 万美元。如果我们见过的话,这是一项有利可图的业务。
让我们弄清楚一些事情。RAG 不会取代训练大型语言模型的(昂贵的)过程。但它确实打开了一个充满有趣可能性的世界。
想象一下,您是第一次浏览应用程序的新用户。
你睁大了眼睛,手指在鼠标上摆动着——“我从哪里开始?”,“设置菜单在哪里?”当你不小心点击了使屏幕闪烁的东西时,就会有轻微的恐慌。“我弄坏了什么东西吗?”
集成到应用程序中并根据用户文档进行微调的 AI 助手可以为您提供导览。它会获取正确的指令集,给你一个正确的方向,告诉你你做错了什么,突然间,你就知道了。
RAG 通过现成的 AI 模型使这一切成为可能。
但是,获得特定领域的知识来源是一回事。
RAG 还降低了模型幻觉的风险,这是所有商业和开源 LLMs 的常见问题。由于生成过程由真实世界的数据支持,因此为“创造性”方法和虚构留下的余地较小。
最后,RAG 允许更动态和准确的答案。
通常,当语言模型无法理解查询或提供不充分的响应时,必须一遍又一遍地改写提示。对于一个应该可以节省时间和精力的工具来说,这是大量的实验。
使用 RAG,您可以获得比仅使用股票训练数据更快、更精确的结果。
今天的问题是,RAG可以在哪些方面产生最大的影响?
⚒️ RAG 实践:应用和用例
虽然 LLMs 在商业上取得成功仍然是最近的事,但您可以通过数百种令人兴奋的方式在个人和商业项目中使用 RAG。
更智能的项目管理
开始一个新项目是一次冒险。
您正在整装待发,进行研究,并为这项工作组建合适的团队。你希望它大受欢迎,所以你从以前有效的方法中汲取灵感。也许你正在筛选旧任务,试图弄清楚谁应该在什么时候做什么。
为什么不让人工智能来做繁重的工作呢?
带有 RAG 的 AI 驱动的项目管理应用程序将潜入历史项目数据的海洋,提取过去策略的金块,设定切合实际的截止日期,分配资源,分配团队角色并构建您的项目。
更快的内容创建
大型语言模型在生成内容方面非常出色。通过一些可靠的提示,他们可以制作出全面的文章、报告和其他文本资源。
但有一个问题:一开始一切都很通用。
第一个输出听起来很像你或适合你品牌的独特氛围的可能性很小。微调音调、节奏和细微差别需要时间。
您可以使用 RAG 加快此过程。
需要再写一篇社交媒体帖子吗?
您可以简单地挑选您过去成功的帖子,将它们提供给 LLM,然后将其设置为使用您的受众喜欢的风格生成新鲜内容。不再有无休止的调整——只有清晰、引人入胜的文案,听起来和你一样,只是更快。
个性化学习
现在,让我们考虑一个不同的场景。
你是一个勤奋的学生,正在准备考试。你有一大堆扎实但杂乱无章的笔记。但是你需要快速学习,不能迷失在纸张洗牌中。
你可以花几个晚上懒洋洋地躺在沾满咖啡渍的页面上,试图把这些点连接起来。或者你可以设置一个聪明的人工智能学习伙伴来帮助你。您需要做的就是上传您的笔记,提供指向其他可靠资源的链接,然后询问。
🔮 检索增强生成的未来
基于大型语言模型 (LLMs) 的工具,如 GPT-4 或 Llama2,已经重塑了我们的工作环境。RAG 通过让 AI 访问任何任务、项目或决策的最新、最相关的数据,进一步突破了界限。
在你走之前,让我们回顾一下我们今天学到的东西:
⭕ 更准确的答案:借助 RAG,LLMs现成的答案可以提供与上下文相关的准确答案,而无需重新培训。
⭕ 实时更新:RAG 将 AI 驱动的工具开放给新数据,这意味着它们可以根据最新信息生成内容。
⭕ 减少幻觉:通过访问最新和准确的数据,RAG 最大限度地减少了 AI 产生不相关或不正确信息的机会。
⭕ 专业应用:使用来自医疗保健和金融等各个领域的外部资源,您可以根据行业标准定制 AI 的响应。
⭕ 可负担性:对于那些不能或不想花大价钱重新训练大型语言模型的公司来说,RAG 是一个很好的解决方案。
更多AI工具,参考Github-AiBard123,国内AiBard123