AI 文摘

轻松上手LangChain6大模块之Chains





作者: 奈学教育科技 来源: 奈学教育科技

▼最近直播超级多,预约 保你有收获

*** 1**—***

LangChain 6大模块是什么?

LangChain 是 AI 大模型应用开发框架,由6个模块组成,分别为:Model IO、Retrieval、Chains、Memory、Agents 和 Callbacks。

Model IO :AI 应用的核心部分,其中包括输入、Model和输出。

Retrieval :该功能与向量数据库密切相关,是在向量数据库中搜索与问题相关的文档内容。

Memory :为对话形式的模型存储历史对话记录,在长对话过程中随时将这些历史对话记录重新加载,以保证对话的准确度。

Chains :虽然通过 Model IO、Retrieval 和 Memory 这三大模块可以初步完成应用搭建,但是若想实现一个强大且复杂的应用,还是需要将各模块组合起来,这时就可以利用 Chains 将其连接起来,从而丰富功能。

Agents :它可以通过用户的输入,理解用户的意图,返回一个特定的动作类型和参数,从而自主调用相关的工具来满足用户的需求,将应用更加智能化。

Callbacks : 回调机制可以调用链路追踪、记录日志,帮助开发者更好的调试大模型。

*** 2**—***

Chains 深度剖析

如果把用 LangChain 构建 AI 大模型应用的过程比作“积木模型”的搭建与拼接,那么 Chain 就是是该模型搭建过程中的骨骼部分,通过它将各模块快速组合在一起就可以快速搭建一个应用。Chain 的使用方式也是通过接口的直接调用,在本文中将 Chain 分为三种类型,从简单到复杂依次介绍。

####第一、LLMChains:

这种类型的 Chain 应用起来很简单也可以说是后续要介绍 Chain 的基础,但其功能是足够强大的。通过 LLMChain 可以直接将数据、Prompt、以及想要应用的大模型串到一起,以下是 LLMChain 的例子。

from langchain import PromptTemplate, OpenAI, LLMChain  
  
prompt_template = "What is a good name for a company that makes {product}?"  
  
llm = OpenAI(temperature=0)  
chain = LLMChain(  
    llm=llm,  
    prompt=PromptTemplate.from_template(prompt_template)  
)  
print(chain("colorful socks"))   
# 输出结果'Socktastic!'  

在这个例子中,我们首先初始化了一个 Prompt 字符串模版,并初始化大模型,然后利用 Chain 将模型运行起来。在「Chain 将模型运行起来」这个过程中:Chain 将会格式化 Prompt,然后将它传递给 LLM。

####第二、Sequential Chains:

不同于基本的 LLMChain,Sequential Chain(序列链)是由一系列的链组合而成的,序列链有两种类型,一种是单个输入输出,另一个则是多个输入输出。先来看第一种单个输入输出的示例代码:

####1、单个输入输出

在这个示例中,创建了两条 Chain,并且让第一条 Chain 接收一个虚构剧本的标题,输出该剧本的概要,作为第二条 Chain 的输入,然后生成一个虚构评论。通过 Sequential Chains 可以简单实现这一需求。

第一条 Chain:

# This is an LLMChain to write a synopsis given a title of a play.  
from langchain import PromptTemplate, OpenAI, LLMChain  
  
llm = OpenAI(temperature=.7)  
template = """You are a playwright. Given the title of play, it is your job to write a synopsis for that title.  
  
Title: {title}  
Playwright: This is a synopsis for the above play:"""  
prompt_template = PromptTemplate(input_variables=["title"], template=template)  
synopsis_chain = LLMChain(llm=llm, prompt=prompt_template)  

第二条 Chain:

# This is an LLMChain to write a review of a play given a synopsis.  
from langchain import PromptTemplate, OpenAI, LLMChain  
  
llm = OpenAI(temperature=.7)  
template = """You are a play critic from the New York Times. Given the synopsis of play, it is your job to write a review for that play.  
  
Play Synopsis:  
{synopsis}  
Review from a New York Times play critic of the above play:"""  
prompt_template = PromptTemplate(input_variables=["synopsis"], template=template)  
review_chain = LLMChain(llm=llm, prompt=prompt_template)  

最后利用 SimpleSequentialChain 即可将两个 Chains 直接串联起来:

from langchain.chains import SimpleSequentialChain  
overall_chain = SimpleSequentialChain(chains=[synopsis_chain, review_chain], verbose=True)  
print(review = overall_chain.run("Tragedy at sunset on the beach"))  

可以看到对于单个输入输出的顺序链,就是将两个 Chain 作为参数传给 SimpleSequentialChain 即可,无需复杂的声明。

####2、多个输入输出

除了单个输入输出的模式,序列链还支持更为复杂的多个输入输出,对于多输入输出模式来说,最应该需要关注的就是输入关键字和输出关键字,它们需要十分的精准,才能够保证 Chain 的识别与应用,以一个 Demo 为例:

from langchain import PromptTemplate, OpenAI, LLMChain  
  
llm = OpenAI(temperature=.7)  
template = """You are a playwright. Given the title of play and the era it is set in, it is your job to write a synopsis for that title.  
  
Title: {title}  
Era: {era}  
Playwright: This is a synopsis for the above play:"""  
prompt_template = PromptTemplate(input_variables=["title", 'era'], template=template)  
synopsis_chain = LLMChain(llm=llm, prompt=prompt_template, output_key="synopsis")  
#第一条chain  



from langchain import PromptTemplate, OpenAI, LLMChain  
  
llm = OpenAI(temperature=.7)  
template = """You are a play critic from the New York Times. Given the synopsis of play, it is your job to write a review for that play.  
  
Play Synopsis:  
{synopsis}  
Review from a New York Times play critic of the above play:"""  
prompt_template = PromptTemplate(input_variables=["synopsis"], template=template)  
review_chain = LLMChain(llm=llm, prompt=prompt_template, output_key="review")  
#第二条chain  



from langchain.chains import SequentialChain  
  
overall_chain = SequentialChain(  
    chains=[synopsis_chain, review_chain],  
    input_variables=["era", "title"],  
    # Here we return multiple variables  
    output_variables=["synopsis", "review"],  
    verbose=True)  
#第三条chain  



overall_chain({"title": "Tragedy at sunset on the beach", "era": "Victorian England"})  

对于每一个Chain在定义的时候,都需要关注其output_key 和input_variables,按照顺序将其指定清楚。最终在运行 Chain 时我们只需要指定第一个 Chain 中需要声明的变量。

####第三、RouterChains:

再介绍一个经常会用到的场景,比如:我们目前有三类 Chain,分别对应三种学科的问题解答。我们的输入内容也是与这三种学科对应,但是随机的,比如:第一次输入数学问题,第二次有可能是历史问题……这时候期待的效果是:可以根据输入的内容是什么,自动将其应用到对应的子链中。RouterChain 就为我们提供了这样一种能力,它会首先决定将要传递下去的子链,然后把输入传递给那个链。并且在设置的时候需要为其设置默认 Chain,以兼容输入内容不满足任意一项时的情况。

physics_template = """You are a very smart physics professor. \  
You are great at answering questions about physics in a concise and easy to understand manner. \  
When you don't know the answer to a question you admit that you don't know.  
  
Here is a question:  
{input}"""  
  
math_template = """You are a very good mathematician. You are great at answering math questions. \  
You are so good because you are able to break down hard problems into their component parts, \  
answer the component parts, and then put them together to answer the broader question.  
  
Here is a question:  
{input}"""  

如上述有一个物理学和数学的 Prompt:

prompt_infos = [  
    {  
        "name": "physics",  
        "description": "Good for answering questions about physics",  
        "prompt_template": physics_template  
    },  
    {  
        "name": "math",  
        "description": "Good for answering math questions",  
        "prompt_template": math_template  
    }  
]  

然后需要声明这两个 Prompt 的基本信息。

from langchain import ConversationChain, LLMChain, PromptTemplate, OpenAI  
llm = OpenAI()  
destination_chains = {}  
for p_info in prompt_infos:  
    name = p_info["name"]  
    prompt_template = p_info["prompt_template"]  
    prompt = PromptTemplate(template=prompt_template, input_variables=["input"])  
    chain = LLMChain(llm=llm, prompt=prompt)  
    destination_chains[name] = chain  
  
default_chain = ConversationChain(llm=llm, output_key="text")  

最后将其运行到 RouterChain 中即可,我们此时在输入的时候 Chain 就会根据 input 的内容进行相应的选择最为合适的 Prompt。

from langchain.chains.router.llm_router import LLMRouterChain, RouterOutputParser  
from langchain.chains.router.multi_prompt_prompt import MULTI_PROMPT_ROUTER_TEMPLATE  
  
# Create a list of destinations  
destinations = [f"{p['name']}: {p['description']}" for p in prompt_infos]  
destinations_str = "\n".join(destinations)  
  
# Create a router template  
router_template = MULTI_PROMPT_ROUTER_TEMPLATE.format(destinations=destinations_str)  
  
  
router_prompt = PromptTemplate(  
    template=router_template,  
    input_variables=["input"],  
    output_parser=RouterOutputParser(),  
)  
  
router_chain = LLMRouterChain.from_llm(llm, router_prompt)  
chain = MultiPromptChain(  
    router_chain=router_chain,  
    destination_chains=destination_chains,  
    default_chain=default_chain,  
    verbose=True,  
)  
print(chain.run('什么是黑体辐射'))  

为了帮助同学们彻底掌握 LangChain 的应用开发,今晚20点我会开一场直播和同学们深度剖析,请同学们点击以下预约按钮免费预约

*** 3**—*

AI大模型开发技能直播课程

大模型的技术体系非常复杂,即使有了知识图谱和学习路线后,快速掌握并不容易,我们打造了大模型应用技术的系列直播课程,包括:通用大模型技术架构原理、大模型 Agent 应用开发、企业私有大模型开发、向量数据库、大模型应用治理、大模型应用行业落地案例 等6项核心技能,帮助同学们快速掌握 AI 大模型的技能。

** 🔥即将开播**

立即扫码,即可免费****预约

进入直播,大佬直播在线答疑!

本期名额有限

高度起始于速度**(手慢无!!)**

*** 4**—*

领取一份《AI 大模型技术知识图谱》

最近很多同学在后台留言:“玄姐,AI 大模型技术的知识图谱有没?”、“AI 大模型技术有学习路线吗?”

我们倾心整理了 AI 大模型技术的知识图谱快来领取吧!

这份业界首创知识图谱和学习路线, 今天免费 送给大家一份!

只需要以下3步 操作就可免费领取:

第一步长按扫码****以下我的视频号:玄姐谈AGI

第二步:扫码后,点击以下关注按钮,就可关注我。

第三步:点击"客服“按钮,回复知识图谱即可领取。

END

更多AI工具,参考Github-AiBard123国内AiBard123

可关注我们的公众号:每天AI新工具