Skip to main content
Open In ColabOpen on GitHub

使用聊天模型和提示模板构建一个简单的LLM应用程序

在这个快速入门中,我们将向您展示如何使用LangChain构建一个简单的LLM应用程序。这个应用程序将把文本从英语翻译成另一种语言。这是一个相对简单的LLM应用程序——它只是一个单一的LLM调用加上一些提示。尽管如此,这是开始使用LangChain的一个很好的方式——很多功能可以通过一些提示和一个LLM调用来构建!

阅读本教程后,您将对以下内容有一个高层次的概述:

让我们开始吧!

设置

Jupyter 笔记本

本教程及其他教程或许在Jupyter notebooks中运行最为方便。在交互式环境中浏览指南是更好地理解它们的好方法。有关如何安装的说明,请参见这里

安装

要安装LangChain,请运行:

pip install langchain

更多详情,请参阅我们的安装指南

LangSmith

使用LangChain构建的许多应用程序将包含多个步骤,涉及多次LLM调用。随着这些应用程序变得越来越复杂,能够检查链或代理内部究竟发生了什么变得至关重要。实现这一点的最佳方法是使用LangSmith

在您通过上述链接注册后,请确保设置您的环境变量以开始记录跟踪:

export LANGCHAIN_TRACING_V2="true"
export LANGCHAIN_API_KEY="..."

或者,如果在笔记本中,您可以通过以下方式设置它们:

import getpass
import os

os.environ["LANGCHAIN_TRACING_V2"] = "true"
os.environ["LANGCHAIN_API_KEY"] = getpass.getpass()

使用语言模型

首先,让我们学习如何单独使用语言模型。LangChain 支持许多不同的语言模型,您可以互换使用。有关开始使用特定模型的详细信息,请参阅 支持的集成

pip install -qU langchain-openai
import getpass
import os

if not os.environ.get("OPENAI_API_KEY"):
os.environ["OPENAI_API_KEY"] = getpass.getpass("Enter API key for OpenAI: ")

from langchain_openai import ChatOpenAI

model = ChatOpenAI(model="gpt-4o-mini")

首先,我们直接使用模型。ChatModels 是 LangChain Runnables 的实例,这意味着它们提供了一个标准的接口来与它们交互。要简单地调用模型,我们可以将一系列 messages 传递给 .invoke 方法。

from langchain_core.messages import HumanMessage, SystemMessage

messages = [
SystemMessage("Translate the following from English into Italian"),
HumanMessage("hi!"),
]

model.invoke(messages)
API Reference:HumanMessage | SystemMessage
AIMessage(content='Ciao!', additional_kwargs={'refusal': None}, response_metadata={'token_usage': {'completion_tokens': 3, 'prompt_tokens': 20, 'total_tokens': 23, 'completion_tokens_details': {'accepted_prediction_tokens': 0, 'audio_tokens': 0, 'reasoning_tokens': 0, 'rejected_prediction_tokens': 0}, 'prompt_tokens_details': {'audio_tokens': 0, 'cached_tokens': 0}}, 'model_name': 'gpt-4o-mini-2024-07-18', 'system_fingerprint': 'fp_0705bf87c0', 'finish_reason': 'stop', 'logprobs': None}, id='run-32654a56-627c-40e1-a141-ad9350bbfd3e-0', usage_metadata={'input_tokens': 20, 'output_tokens': 3, 'total_tokens': 23, 'input_token_details': {'audio': 0, 'cache_read': 0}, 'output_token_details': {'audio': 0, 'reasoning': 0}})
tip

如果我们启用了LangSmith,我们可以看到这次运行被记录到LangSmith中,并且可以查看LangSmith跟踪。LangSmith跟踪报告令牌使用信息、延迟、标准模型参数(如温度)以及其他信息。

请注意,ChatModels接收消息对象作为输入,并生成消息对象作为输出。除了文本内容外,消息对象还传递对话角色,并包含重要数据,例如工具调用和令牌使用计数。

LangChain 还支持通过字符串或 OpenAI 格式 的聊天模型输入。以下是等效的:

model.invoke("Hello")

model.invoke([{"role": "user", "content": "Hello"}])

model.invoke([HumanMessage("Hello")])

流处理

因为聊天模型是Runnables,它们暴露了一个标准接口,包括异步和流式调用模式。这允许我们从聊天模型中流式传输单个令牌:

for token in model.stream(messages):
print(token.content, end="|")
|C|iao|!||

您可以在本指南中找到更多关于流式聊天模型输出的详细信息。

提示模板

目前我们正在直接将消息列表传递给语言模型。这个消息列表是从哪里来的?通常,它是由用户输入和应用程序逻辑组合而成的。这个应用程序逻辑通常会将原始用户输入转换为准备传递给语言模型的消息列表。常见的转换包括添加系统消息或使用用户输入格式化模板。

Prompt templates 是 LangChain 中的一个概念,旨在帮助进行这种转换。它们接收原始用户输入并返回准备传递给语言模型的数据(一个提示)。

让我们在这里创建一个提示模板。它将接收两个用户变量:

  • language: 将文本翻译成的语言
  • text: 要翻译的文本
from langchain_core.prompts import ChatPromptTemplate

system_template = "Translate the following from English into {language}"

prompt_template = ChatPromptTemplate.from_messages(
[("system", system_template), ("user", "{text}")]
)
API Reference:ChatPromptTemplate

请注意,ChatPromptTemplate 支持在单个模板中使用多个消息角色。我们将language参数格式化为系统消息,并将用户text格式化为用户消息。

此提示模板的输入是一个字典。我们可以单独使用这个提示模板来查看它的功能。

prompt = prompt_template.invoke({"language": "Italian", "text": "hi!"})

prompt
ChatPromptValue(messages=[SystemMessage(content='Translate the following from English into Italian', additional_kwargs={}, response_metadata={}), HumanMessage(content='hi!', additional_kwargs={}, response_metadata={})])

我们可以看到它返回了一个由两条消息组成的ChatPromptValue。如果我们想直接访问这些消息,我们可以这样做:

prompt.to_messages()
[SystemMessage(content='Translate the following from English into Italian', additional_kwargs={}, response_metadata={}),
HumanMessage(content='hi!', additional_kwargs={}, response_metadata={})]

最后,我们可以在格式化后的提示上调用聊天模型:

response = model.invoke(prompt)
print(response.content)
Ciao!
tip

消息 content 可以包含文本和具有附加结构的 内容块。有关更多信息,请参阅 本指南

如果我们查看LangSmith跟踪,我们可以确切地看到聊天模型接收到的提示,以及令牌使用信息、延迟、标准模型参数(如温度)和其他信息。

结论

就是这样!在本教程中,您已经学会了如何创建您的第一个简单的LLM应用程序。您已经学会了如何使用语言模型,如何创建提示模板,以及如何在使用LangSmith创建的应用程序中获得出色的可观察性。

这只是你成为熟练的AI工程师所需学习的冰山一角。幸运的是,我们还有很多其他资源!

要进一步了解LangChain的核心概念,我们有详细的概念指南

如果您对这些概念有更具体的问题,请查看以下操作指南部分:

以及LangSmith文档:


这个页面有帮助吗?