聊天代理#
- class langchain.agents.chat.base.ChatAgent[源代码]#
基础类:
Agent
自版本0.1.0起已弃用:LangChain代理将继续得到支持,但建议新用例使用LangGraph构建。LangGraph提供了一个更灵活且功能齐全的框架来构建代理,包括支持工具调用、状态持久化和人机交互工作流。有关详细信息,请参阅LangGraph文档以及从AgentExecutor迁移和LangGraph的预构建ReAct代理指南。在langchain==1.0之前不会移除。
聊天代理。
通过解析和验证来自关键字参数的输入数据来创建一个新模型。
如果输入数据无法验证以形成有效模型,则引发 [ValidationError][pydantic_core.ValidationError]。
self 被显式地设为仅位置参数,以允许 self 作为字段名称。
- param allowed_tools: List[str] | None = None#
允许代理使用的工具。如果为None,则允许使用所有工具。
- param output_parser: AgentOutputParser [Optional]#
代理的输出解析器。
- async aplan(intermediate_steps: List[Tuple[AgentAction, str]], callbacks: list[BaseCallbackHandler] | BaseCallbackManager | None = None, **kwargs: Any) AgentAction | AgentFinish #
异步给定输入,决定要做什么。
- Parameters:
intermediate_steps (List[Tuple[AgentAction, str]]) – LLM 迄今为止采取的步骤,以及观察结果。
callbacks (list[BaseCallbackHandler] | BaseCallbackManager | None) – 要运行的回调函数。
**kwargs (Any) – 用户输入。
- Returns:
指定使用什么工具的操作。
- Return type:
- classmethod create_prompt(tools: Sequence[BaseTool], system_message_prefix: str = 'Answer the following questions as best you can. You have access to the following tools:', system_message_suffix: str = 'Begin! Reminder to always use the exact characters `Final Answer` when responding.', human_message: str = '{input}\n\n{agent_scratchpad}', format_instructions: str = 'The way you use the tools is by specifying a json blob.\nSpecifically, this json should have a `action` key (with the name of the tool to use) and a `action_input` key (with the input to the tool going here).\n\nThe only values that should be in the "action" field are: {tool_names}\n\nThe $JSON_BLOB should only contain a SINGLE action, do NOT return a list of multiple actions. Here is an example of a valid $JSON_BLOB:\n\n```\n{{{{\n "action": $TOOL_NAME,\n "action_input": $INPUT\n}}}}\n```\n\nALWAYS use the following format:\n\nQuestion: the input question you must answer\nThought: you should always think about what to do\nAction:\n```\n$JSON_BLOB\n```\nObservation: the result of the action\n... (this Thought/Action/Observation can repeat N times)\nThought: I now know the final answer\nFinal Answer: the final answer to the original input question', input_variables: List[str] | None = None) BasePromptTemplate [来源]#
从工具列表创建提示。
- Parameters:
tools (Sequence[BaseTool]) – 工具列表。
system_message_prefix (str) – 系统消息前缀。 默认值为 SYSTEM_MESSAGE_PREFIX。
system_message_suffix (str) – 系统消息后缀。 默认值为 SYSTEM_MESSAGE_SUFFIX。
human_message (str) – 人类消息。默认是HUMAN_MESSAGE。
format_instructions (str) – 格式说明。 默认值为 FORMAT_INSTRUCTIONS。
input_variables (List[str] | None) – 输入变量。默认为 None。
- Returns:
一个提示模板。
- Return type:
- classmethod from_llm_and_tools(llm: BaseLanguageModel, tools: Sequence[BaseTool], callback_manager: BaseCallbackManager | None = None, output_parser: AgentOutputParser | None = None, system_message_prefix: str = 'Answer the following questions as best you can. You have access to the following tools:', system_message_suffix: str = 'Begin! Reminder to always use the exact characters `Final Answer` when responding.', human_message: str = '{input}\n\n{agent_scratchpad}', format_instructions: str = 'The way you use the tools is by specifying a json blob.\nSpecifically, this json should have a `action` key (with the name of the tool to use) and a `action_input` key (with the input to the tool going here).\n\nThe only values that should be in the "action" field are: {tool_names}\n\nThe $JSON_BLOB should only contain a SINGLE action, do NOT return a list of multiple actions. Here is an example of a valid $JSON_BLOB:\n\n```\n{{{{\n "action": $TOOL_NAME,\n "action_input": $INPUT\n}}}}\n```\n\nALWAYS use the following format:\n\nQuestion: the input question you must answer\nThought: you should always think about what to do\nAction:\n```\n$JSON_BLOB\n```\nObservation: the result of the action\n... (this Thought/Action/Observation can repeat N times)\nThought: I now know the final answer\nFinal Answer: the final answer to the original input question', input_variables: List[str] | None = None, **kwargs: Any) Agent [source]#
从LLM和工具构建一个代理。
- Parameters:
llm (BaseLanguageModel) – 语言模型。
tools (Sequence[BaseTool]) – 工具列表。
callback_manager (BaseCallbackManager | None) – 回调管理器。默认为 None。
output_parser (AgentOutputParser | None) – 输出解析器。默认为 None。
system_message_prefix (str) – 系统消息前缀。 默认值为 SYSTEM_MESSAGE_PREFIX。
system_message_suffix (str) – 系统消息后缀。 默认值为 SYSTEM_MESSAGE_SUFFIX。
human_message (str) – 人类消息。默认是HUMAN_MESSAGE。
format_instructions (str) – 格式说明。 默认值为 FORMAT_INSTRUCTIONS。
input_variables (List[str] | None) – 输入变量。默认为 None。
kwargs (Any) – 额外的关键字参数。
- Returns:
一个代理。
- Return type:
- get_allowed_tools() List[str] | None #
获取允许的工具。
- Return type:
列表[str] | 无
- get_full_inputs(intermediate_steps: List[Tuple[AgentAction, str]], **kwargs: Any) Dict[str, Any] #
从中间步骤为LLMChain创建完整的输入。
- Parameters:
intermediate_steps (List[Tuple[AgentAction, str]]) – LLM 迄今为止采取的步骤,以及观察结果。
**kwargs (Any) – 用户输入。
- Returns:
LLMChain 的完整输入。
- Return type:
Dict[str, Any]
- plan(intermediate_steps: List[Tuple[AgentAction, str]], callbacks: list[BaseCallbackHandler] | BaseCallbackManager | None = None, **kwargs: Any) AgentAction | AgentFinish #
给定输入,决定做什么。
- Parameters:
intermediate_steps (List[Tuple[AgentAction, str]]) – LLM 迄今为止采取的步骤,以及观察结果。
callbacks (list[BaseCallbackHandler] | BaseCallbackManager | None) – 要运行的回调函数。
**kwargs (Any) – 用户输入。
- Returns:
指定使用什么工具的操作。
- Return type:
- return_stopped_response(early_stopping_method: str, intermediate_steps: List[Tuple[AgentAction, str]], **kwargs: Any) AgentFinish #
当代理由于达到最大迭代次数而停止时返回响应。
- Parameters:
early_stopping_method (str) – 用于早停的方法。
intermediate_steps (List[Tuple[AgentAction, str]]) – LLM 迄今为止采取的步骤,以及观察结果。
**kwargs (Any) – 用户输入。
- Returns:
代理完成对象。
- Return type:
- Raises:
ValueError – 如果 early_stopping_method 不在 [‘force’, ‘generate’] 中。
- save(file_path: Path | str) None #
保存代理。
- Parameters:
file_path (Path | str) – 保存代理的文件路径。
- Return type:
无
示例: .. code-block:: python
# 如果使用代理执行器 agent.agent.save(file_path=”path/agent.yaml”)
- tool_run_logging_kwargs() Dict #
返回工具运行的日志参数。
- Return type:
字典
- property llm_prefix: str#
前缀附加到llm调用。
- property observation_prefix: str#
为观察添加的前缀。
- property return_values: List[str]#
代理的返回值。