LLMThought#

class langchain_community.callbacks.streamlit.streamlit_callback_handler.LLMThought(parent_container: DeltaGenerator, labeler: LLMThoughtLabeler, expanded: bool, collapse_on_complete: bool)[source]#

LLM思维流中的一个想法。

初始化LLMThought。

Parameters:
  • parent_container (DeltaGenerator) – 我们正在写入的容器。

  • labeler (LLMThoughtLabeler) – 用于此思想的标签器。

  • expanded (bool) – 默认情况下是否应展开该想法。

  • collapse_on_complete (bool) – 是否应在完成后折叠思维。

属性

container

我们正在写入的容器。

last_tool

此思考执行的最后一个工具

方法

__init__(parent_container, labeler, ...)

初始化LLMThought。

clear()

从屏幕上移除该想法。

complete([final_label])

完成思考。

on_agent_action(action[, color])

on_llm_end(response, **kwargs)

on_llm_error(error, **kwargs)

on_llm_new_token(token, **kwargs)

on_llm_start(serialized, prompts)

on_tool_end(output[, color, ...])

on_tool_error(error, **kwargs)

on_tool_start(serialized, input_str, **kwargs)

__init__(parent_container: DeltaGenerator, labeler: LLMThoughtLabeler, expanded: bool, collapse_on_complete: bool)[source]#

初始化LLMThought。

Parameters:
  • parent_container (DeltaGenerator) – 我们正在写入的容器。

  • labeler (LLMThoughtLabeler) – 用于此思想的标签器。

  • expanded (bool) – 默认情况下是否应展开该想法。

  • collapse_on_complete (bool) – 是否应在完成后折叠思维。

clear() None[source]#

从屏幕上移除想法。清除的想法无法再次使用。

Return type:

complete(final_label: str | None = None) None[source]#

完成这个想法。

Parameters:

final_label (str | None)

Return type:

on_agent_action(action: AgentAction, color: str | None = None, **kwargs: Any) Any[source]#
Parameters:
Return type:

任何

on_llm_end(response: LLMResult, **kwargs: Any) None[source]#
Parameters:
Return type:

on_llm_error(error: BaseException, **kwargs: Any) None[source]#
Parameters:
  • error (BaseException)

  • kwargs (Any)

Return type:

on_llm_new_token(token: str, **kwargs: Any) None[source]#
Parameters:
  • token (str)

  • kwargs (Any)

Return type:

on_llm_start(serialized: Dict[str, Any], prompts: List[str]) None[source]#
Parameters:
  • serialized (Dict[str, Any])

  • 提示 (列表[字符串])

Return type:

on_tool_end(output: Any, color: str | None = None, observation_prefix: str | None = None, llm_prefix: str | None = None, **kwargs: Any) None[source]#
Parameters:
  • output (Any)

  • color (str | None)

  • observation_prefix (str | None)

  • llm_prefix (str | None)

  • kwargs (Any)

Return type:

on_tool_error(error: BaseException, **kwargs: Any) None[source]#
Parameters:
  • error (BaseException)

  • kwargs (Any)

Return type:

on_tool_start(serialized: Dict[str, Any], input_str: str, **kwargs: Any) None[source]#
Parameters:
  • serialized (Dict[str, Any])

  • input_str (str)

  • kwargs (Any)

Return type: