AI 文摘

RAG的三大实际挑战及其缓解思路





作者: barry的异想世界 来源: barry的异想世界

克服现实世界RAG项目障碍的策略

RAG(检索增强生成)是一个复杂的领域,但相对容易上手。我们可以通过使用Langchain或LlamaIndex编写几行代码来实现一个简单的RAG功能。然而,只有通过深入实践,人们才会意识到做好RAG非常困难,因为它涉及许多细节挑战。

本文将主要讨论RAG的三个实际挑战及其相应的缓解思路。

非规范查询与短查询

在实际生产环境中,用户查询往往缺乏标准化;许多查询在语义上不完整、表述不清或包含多重意图。此外,用户查询越短,处理难度越大。

例如,“推荐酒店”、“告诉我足球新闻和今天的天气”或“苹果的好处”等查询,对RAG系统来说难以处理。

有三种方法可以缓解这一问题:

*意图分析 :识别一个或多个用户意图,以缩小搜索范围。

*关键词提取 :确定查询的关键词,并基于这些关键词进行检索。

*澄清与询问 :主动向用户提问以获取更多信息。例如,对于“苹果的好处”这一查询,RAG系统可以询问:“您指的是水果还是科技公司?”

意图分析

如图1所示,意图分析涉及将用户的查询分类为一个或多个预定义的意图,从而缩小搜索范围。它实际上是一种传统的自然语言处理(NLP)技术。

意图分析主要有以下四种方法:

  • 基于预定义的规则或关键词,通过正则表达式进行匹配。

  • 使用机器学习算法或深度神经网络,如朴素贝叶斯分类器或BERT。首先需要训练一个分类器,BERT的示例代码片段如下所示。然后,可以使用它来对查询进行分类。

    from transformers import BertTokenizer, BertForSequenceClassification, Trainer, TrainingArguments
    import torch

    初始化BERT模型和分词器

    tokenizer = BertTokenizer.from_pretrained(‘bert-base-uncased’)
    model = BertForSequenceClassification.from_pretrained(‘bert-base-uncased’, num_labels=NUM_LABELS)

    准备数据集

    def encode_texts(texts, tokenizer):
    “““使用指定的分词器对文本列表进行编码。”””
    return tokenizer(texts, truncation=True, padding=True, max_length=128)

    train_encodings = encode_texts(train_texts, tokenizer)
    val_encodings = encode_texts(val_texts, tokenizer)

    创建PyTorch数据集类

    class IntentDataset(torch.utils.data.Dataset):
    def init(self, encodings, labels):
    self.encodings = encodings
    self.labels = labels

    def __getitem__(self, idx):  
        item = {key: torch.tensor(val[idx]) for key, val in self.encodings.items()}  
        item['labels'] = torch.tensor(self.labels[idx])  
        return item  
    
    def __len__(self):  
        return len(self.labels)  
    

    实例化数据集

    train_dataset = IntentDataset(train_encodings, train_labels)
    val_dataset = IntentDataset(val_encodings, val_labels)

    设置训练参数

    training_args = TrainingArguments(
    output_dir=’./results’,
    num_train_epochs=3,
    per_device_train_batch_size=16,
    per_device_eval_batch_size=64,
    warmup_steps=500,
    weight_decay=0.01,
    logging_dir=’./logs’,
    logging_steps=10,
    evaluation_strategy=“epoch”,
    save_total_limit=1, # 仅保存最新的模型检查点
    )

    定义Trainer

    trainer = Trainer(
    model=model,
    args=training_args,
    train_dataset=train_dataset,
    eval_dataset=val_dataset
    )

    训练模型

    trainer.train()

    评估模型

    trainer.evaluate()

    保存模型

    model.save_pretrained(’./trained_model’)
    tokenizer.save_pretrained(’./trained_model’)

  • 为预定义的意图生成嵌入,然后使用相同的嵌入模型为用户查询生成嵌入。通过向量相似度计算与用户查询最接近的前k个意图,如图2所示。

  • 使用大型语言模型(LLM)。我们可以构建一个提示,并利用LLM做出决策。此外,我们可以提供用户的历史上下文以获得更准确的意图 ,如下所示。

    你是一个高级AI语言模型,任务是识别用户查询背后的意图。给定用户输入,你需要将其分类为预定义的类别之一。

    类别

    1. 水果:用户询问有关水果、其益处、类型或其他水果相关信息。
    2. 科技:用户询问有关科技主题,包括设备、软件、硬件或科技新闻。
    3. 娱乐:用户寻求与娱乐相关的信息,如电影、音乐、游戏或名人。
    4. 体育:用户询问有关体育主题,包括比分、队伍、球员或体育赛事。
    5. 其他:上述类别未涵盖的任何其他意图。

    请提供用户输入和识别的意图类别。

    示例

    示例1

    用户输入:“一个橙子有多少卡路里?”

    历史上下文:“给我一些低卡路里的水果。”

    识别意图:水果

    示例2

    用户输入:“昨晚NBA比赛的结果是什么?”

    历史上下文:“我非常喜欢篮球”

    历史上下文:“篮球的规则是什么”

    识别意图:体育

    现在轮到你了

    请根据历史上下文提供每个用户输入的识别意图。

    用户输入:{user_input}

    历史上下文:{historical_context}

    识别意图:

通过识别问题的意图,我们可以缩小需要检索的知识库范围。这减少了容易混淆的查询的影响,并提高了检索的准确性。

关键词提取

关键词提取的目标是从给定文本中识别出最具代表性和意义的单词或短语,如图3所示。

这些关键词反映了文本的主题、内容或重要信息。关键词提取是自然语言处理领域中的一个重要任务。

如图4所示,在RAG中使用关键词提取的目的是从用户查询和文档中提取关键词,以方便检索。

在图4中,我们看到两个虚线框:红色虚线框表示通过关键词检索获得的原始块,蓝色虚线框表示通过普通检索获得的原始块。

获得这两个虚线框后,我们可以进行重新排序或其他后处理方法。显然,关键词检索可以辅助普通检索。

当前的问题是如何从原始块或用户查询中获取关键词。有以下三种方法:

  • TF-IDF:首先进行分词和停用词移除。然后,计算每个词的逆文档频率(IDF)和TF-IDF分数。最后,根据计算出的TF-IDF分数对词进行排序。词的排名越高,其在文档中的重要性越大。

  • 训练模型或使用现有模型,如KeyBERT:直接提取关键词以形成最终的关键词列表。

from keybert import KeyBERT  
  
doc = """  
         Supervised learning is the machine learning task of learning a function that  
         maps an input to an output based on example input-output pairs.[1] It infers a  
         function from labeled training data consisting of a set of training examples.[2]  
         In supervised learning, each example is a pair consisting of an input object  
         (typically a vector) and a desired output value (also called the supervisory signal).  
         A supervised learning algorithm analyzes the training data and produces an inferred function,  
         which can be used for mapping new examples. An optimal scenario will allow for the  
         algorithm to correctly determine the class labels for unseen instances. This requires  
         the learning algorithm to generalize from the training data to unseen situations in a  
         'reasonable' way (see inductive bias).  
      """  
kw_model = KeyBERT()  
keywords = kw_model.extract_keywords(doc)  
  • 使用LLM提取关键词。过程如图6所示。

澄清与询问

澄清与询问是一种重要的策略,尤其在处理模糊、不完整或含糊的用户查询时。通过主动澄清和提问,RAG系统可以收集更多信息,更好地理解用户意图,并提供更有针对性的回答。

例如,如果用户直接询问:“推荐酒店”,我们可以通过澄清和询问来收集用户偏好的地点、价格范围及其他偏好,从而提供更准确的回复。

澄清与询问是传统对话系统领域的一种技术。

如果不使用LLM,澄清与询问主要包括以下步骤:

  • 首先,检测用户输入中的模糊或不明确部分。这可以通过关键词提取,识别常见的模糊或不明确词汇来实现。或者,可以使用意图分析技术,分析输入的含义和上下文。

  • 生成澄清或询问的回复,这可以通过预定义模板或使用生成模型来完成。

  • 处理用户的后续输入,并根据新输入更新理解和任务执行。

相反,如果使用LLM,我们可以在提示中包含:“如果你无法根据背景知识回答用户的问题,那么你可以向用户提出后续问题,最多4个问题。”

总结

值得一提的是,上述三种方法并非孤立存在,它们可以相互结合使用。

例如,通过关键词提取可以实现意图分析,而澄清和询问则可以与意图分析相结合。

结构化数据

我们知道,非结构化数据,尤其是PDF文件,蕴含着丰富的信息。因此,我撰写了一系列关于解析PDF文件的文章,详见这里。

如图7所示,在实际生产环境中,仅使用非结构化数据完成整个业务流程的情况较为罕见。通常需要将公司现有关系数据库乃至Excel文件中的信息整合到RAG流程中。

将结构化数据整合到RAG流程有三种方式:

  • 将关系数据库中每个表的每一行视为一个数据块,然后进行嵌入处理。然而,这种方法忽略了表的整体信息,破坏了表内的关联性,往往导致检索结果不佳。

  • 不将表中每一行的信息向量化,而是嵌入元数据,如表描述、视图描述和字段信息。对用户的查询进行向量化后,利用嵌入信息找到相应的表、视图或字段,再使用预先编写的SQL函数进行查询。这种方法在编写SQL函数时工作量较大,但相较于其他方法,执行过程相对稳定。

  • Text2SQL,如图8所示,利用大型语言模型(LLM)将用户的问题转换为SQL语句,然后将数据库查询结果发送给LLM以生成最终答案。这种方法相对优雅,对于简单查询效果良好。然而,如果用户查询较为复杂,结果可能不稳定。

注意:为了生成准确的SQL查询,需要向LLM提供数据库的准确描述。常见的Text2SQL提示大致如下:为每个表提供一个CREATE TABLE 描述,包括列名、类型等,随后附上三条SELECT 语句中的示例行。

关于私有部署

在RAG的实际应用中,部分客户对数据保密性要求较高,需要在企业内部进行私有部署。

需要注意以下三点:

  • 模型参数的选择:如果LLM的主要功能是归纳和生成,那么7B或13B这样的较小规模是可以接受的。如果对知识推理、逻辑推理、多步推理等有较高要求,则参数越多越好,如33B或70B。

  • 如果客户处于无外网环境,需要提前下载PyTorch和Transformers等Python库的所有依赖项。容器技术(如Docker)可以简化环境配置和管理。

  • 为了提高推理速度和降低资源消耗,可以进行模型量化。此外,为了确保请求处理和响应的高效性,选择一个高效的LLM服务框架来部署RAG系统。如果某些开源框架不满足需求,自行编写必要的模块。

更多AI工具,参考Github-AiBard123国内AiBard123

可关注我们的公众号:每天AI新工具