AI 文摘

GLM-4-Long加持的RAG:更准,更简,更全!





作者: PaperAgent 来源: PaperAgent

一直以来,“RAG派”与“长上下文派”之间争论不休,然而二者各有优劣,如何选择?最佳答案来了:拒绝选择,全都要。今天实操一种GLM-4-Long 加持的RAG 新方法(金融领域研报数据),旨在实现更简洁架构,更精准、更全面的问题解答。

GLM-4-Long 加持的RAG (参考LongRAG)

一、更简

GLM-4-Long加持的RAG框架通过简化设计,显著提升了效率。它由以下几个核心组件构成:

*长检索单元 :使用整个文档库或将多个相关文档组合成长检索单元,例如32K个token

*长检索器 :负责从大量文本中检索出与问题粗略相关的长文本单元,数量不用太多

长阅读器GLM-4-Long :处理检索到的长文本,提取和生成答案,最大支持1M上下文* (约150-200万字 ),大约相当于2本红楼梦或者125篇论文

这种设计大大减轻了传统RAG中检索器的负担,因为它不再需要在海量的短文本中寻找答案,而是在较少的长文本单元中进行操作。

尽管“长阅读器”在处理长文本时可能会带来计算成本问题,GLM-4-Long 以其极具竞争力的价格优势解决了这一难题:仅需0.001元/千tokens ,使得即便是超长文本的处理也变得经济高效。


pip install --upgrade zhipuai
  

from zhipuai import ZhipuAI
client = ZhipuAI(api_key="") # 填写您自己的APIKey
response = client.chat.completions.create(
    model="glm-4-long",  # 填写需要调用的模型编码
    messages=[
        {"role": "user", "content": "作为一名营销专家,请为智谱开放平台创作一个吸引人的slogan"},
        {"role": "assistant", "content": "当然,为了创作一个吸引人的slogan,请告诉我一些关于您产品的信息"}
    ],
)
print(response.choices[0].message)

二、更准

GLM-4-Long加持的RAG在回答问题时表现出更高的准确性。利用GLM-4-Long接口,模型能够:

  • 精确定位:在大量信息中精确找到与问题直接相关的内容。

  • 深度理解:对长文本进行深入分析,确保答案的准确性。

GLM-4-Long大海捞针效果

【案例说明】

检索粒度:Passage

以研报文件“中泰证券-贵州茅台(600519)茅台系列酒面面观2:多大单品蓄势待发,产能推动放量在即.pdf”,query =“茅台酱香系列酒加速增长的三大支撑?”为例:

GLM-4-Long RAG效果**:准确的回答出了三大支撑的内容-“战略支撑、产能支撑、现状支撑”,而且回答的很有深度。**

Traditional RAG效果:答案不正确,“市场与营销策略支撑”是编造出来的结果。

原因是Traditional RAG 会把“三大支撑”完整内容切分成多个小chunk(1.5K长度),检索召回的内容不完整导致。

三、更全

GLM-4-Long加持的RAG在全面性方面也表现出色。通过GLM-4-Long接口,模型能够:

  • 全面分析:对检索到的长文本进行全面分析,确保答案覆盖所有相关信息。

  • 多角度回答:从不同角度审视问题,提供更全面的答案。

【案例说明】

检索粒度:Grouped Documents****

以6天的A股市场行情研报为例:“7 月 19 日收评:贵金属板块走强.pdf”、“8月24日收评:水产养殖板块爆发.pdf”…….“10月12日收评:能源金属板块大涨.pdf”,query =“A股行情经历了怎样的变化”为例。

GLM-4-Long RAG效果:包含了所有6天A股行情的数据,答案全面。

Traditional RAG效果:答案只包含3天A股行情数据,不全面。

推荐阅读

欢迎关注我的公众号“PaperAgent ”,每天一篇大模型(LLM)文章来锻炼我们的思维,简单的例子,不简单的方法,提升自己。

更多AI工具,参考Github-AiBard123国内AiBard123

可关注我们的公众号:每天AI新工具