OpenAIMultiFunctionsAgent#
- class langchain.agents.openai_functions_multi_agent.base.OpenAIMultiFunctionsAgent[source]#
-
自版本0.1.0起已弃用:请改用
create_openai_tools_agent()。在langchain==1.0之前不会移除。由OpenAI功能驱动的API驱动的代理。
- Parameters:
llm – 这应该是 ChatOpenAI 的一个实例,特别是支持使用 functions 的模型。
tools – 该代理可以访问的工具。
prompt – 此代理的提示,应支持将agent_scratchpad作为其中一个变量。要轻松构建此提示,请使用OpenAIMultiFunctionsAgent.create_prompt(…)
通过解析和验证来自关键字参数的输入数据来创建一个新模型。
如果输入数据无法验证以形成有效模型,则引发 [ValidationError][pydantic_core.ValidationError]。
self 被显式地设为仅位置参数,以允许 self 作为字段名称。
- param llm: BaseLanguageModel [Required]#
- param prompt: BasePromptTemplate [Required]#
- async aplan(intermediate_steps: List[Tuple[AgentAction, str]], callbacks: list[BaseCallbackHandler] | BaseCallbackManager | None = None, **kwargs: Any) List[AgentAction] | AgentFinish[source]#
异步给定输入,决定要做什么。
- Parameters:
intermediate_steps (List[Tuple[AgentAction, str]]) – LLM 迄今为止采取的步骤,以及观察结果。
callbacks (list[BaseCallbackHandler] | BaseCallbackManager | None) – 要使用的回调函数。默认为 None。
**kwargs (Any) – 用户输入。
- Returns:
指定使用什么工具的操作。
- Return type:
列表[AgentAction] | AgentFinish
- classmethod create_prompt(system_message: SystemMessage | None = SystemMessage(content='You are a helpful AI assistant.', additional_kwargs={}, response_metadata={}), extra_prompt_messages: List[BaseMessagePromptTemplate] | None = None) BasePromptTemplate[source]#
为此代理创建提示。
- Parameters:
system_message (SystemMessage | None) – 用作系统消息的消息,该消息将作为提示中的第一条消息。
extra_prompt_messages (List[BaseMessagePromptTemplate] | None) – 将放置在系统消息和新的人类输入之间的提示消息。默认值为 None。
- Returns:
传递给此代理的提示模板。
- Return type:
- classmethod from_llm_and_tools(llm: BaseLanguageModel, tools: Sequence[BaseTool], callback_manager: BaseCallbackManager | None = None, extra_prompt_messages: List[BaseMessagePromptTemplate] | None = None, system_message: SystemMessage | None = SystemMessage(content='You are a helpful AI assistant.', additional_kwargs={}, response_metadata={}), **kwargs: Any) BaseMultiActionAgent[source]#
从LLM和工具构建一个代理。
- Parameters:
llm (BaseLanguageModel) – 使用的语言模型。
tools (Sequence[BaseTool]) – 要使用的工具列表。
callback_manager (BaseCallbackManager | None) – 要使用的回调管理器。默认为 None。
extra_prompt_messages (List[BaseMessagePromptTemplate] | None) – 额外的提示消息。默认值为 None。
system_message (SystemMessage | None) – 要使用的系统消息。 默认是一个默认的系统消息。
kwargs (Any) – 额外的参数。
- Return type:
- plan(intermediate_steps: List[Tuple[AgentAction, str]], callbacks: list[BaseCallbackHandler] | BaseCallbackManager | None = None, **kwargs: Any) List[AgentAction] | AgentFinish[source]#
给定输入,决定做什么。
- Parameters:
intermediate_steps (List[Tuple[AgentAction, str]]) – LLM 迄今为止采取的步骤,以及观察结果。
callbacks (list[BaseCallbackHandler] | BaseCallbackManager | None) – 要使用的回调函数。默认值为 None。
**kwargs (Any) – 用户输入。
- Returns:
指定使用什么工具的操作。
- Return type:
列表[AgentAction] | AgentFinish
- return_stopped_response(early_stopping_method: str, intermediate_steps: List[Tuple[AgentAction, str]], **kwargs: Any) AgentFinish#
当代理由于达到最大迭代次数而停止时返回响应。
- Parameters:
early_stopping_method (str) – 用于早停的方法。
intermediate_steps (List[Tuple[AgentAction, str]]) – LLM 迄今为止采取的步骤,以及观察结果。
**kwargs (Any) – 用户输入。
- Returns:
代理完成对象。
- Return type:
- Raises:
ValueError – 如果 early_stopping_method 不被支持。
- save(file_path: Path | str) None#
保存代理。
- Parameters:
file_path (Path | str) – 保存代理的文件路径。
- Raises:
NotImplementedError – 如果代理不支持保存。
ValueError – 如果 file_path 不是 json 或 yaml。
- Return type:
无
示例: .. code-block:: python
# 如果使用代理执行器 agent.agent.save(file_path=”path/agent.yaml”)
- tool_run_logging_kwargs() Dict#
返回工具运行的日志参数。
- Return type:
字典
- property functions: List[dict]#
获取代理的函数。
- property input_keys: List[str]#
获取输入键。这里的输入指的是用户输入。
- property return_values: List[str]#
代理的返回值。