langchain_community.callbacks.streamlit.streamlit_callback_handler.StreamlitCallbackHandler

class langchain_community.callbacks.streamlit.streamlit_callback_handler.StreamlitCallbackHandler(parent_container: DeltaGenerator, *, max_thought_containers: int = 4, expand_new_thoughts: bool = True, collapse_completed_thoughts: bool = True, thought_labeler: Optional[LLMThoughtLabeler] = None)[source]

回调处理程序,用于向Streamlit应用程序写入。

创建一个StreamlitCallbackHandler实例。

parent_container

包含Handler创建的所有Streamlit元素的`st.container`。

max_thought_containers

一次显示的已完成的LLM思考容器的最大数量。当达到此阈值时,新的思考将导致最旧的思考被折叠到一个“历史”展开器中。默认为4。

expand_new_thoughts

每个LLM“思考”都有自己的`st.expander`。此参数控制该展开器是否默认展开。默认为True。

collapse_completed_thoughts

如果为True,则完成时LLM思考展开器将被折叠。默认为True。

thought_labeler

可选的自定义LLMThoughtLabeler实例。如果未指定,处理程序将使用默认的思考标记逻辑。默认为None。

Attributes

ignore_agent

是否忽略代理回调。

ignore_chain

是否忽略链式回调。

ignore_chat_model

是否忽略聊天模型的回调。

ignore_llm

是否忽略LLM回调。

ignore_retriever

是否忽略检索器回调函数。

ignore_retry

是否忽略重试回调。

raise_error

run_inline

Methods

__init__(parent_container, *[, ...])

创建一个StreamlitCallbackHandler实例。

on_agent_action(action[, color])

在代理程序上运行的动作。

on_agent_finish(finish[, color])

在代理端运行。

on_chain_end(outputs, **kwargs)

当链结束运行时运行。

on_chain_error(error, **kwargs)

当链式错误时运行。

on_chain_start(serialized, inputs, **kwargs)

当链开始运行时运行。

on_chat_model_start(serialized, messages, *, ...)

当聊天模型开始运行时运行。

on_llm_end(response, **kwargs)

当LLM运行结束时运行。

on_llm_error(error, **kwargs)

当LLM出现错误时运行。 参数: error (BaseException): 发生的错误。 kwargs (Any): 附加的关键字参数。 - response (LLMResult): 在错误发生之前生成的响应。

on_llm_new_token(token, **kwargs)

在新的LLM令牌上运行。仅在启用流式传输时可用。

on_llm_start(serialized, prompts, **kwargs)

LLM 启动时运行。

on_retriever_end(documents, *, run_id[, ...])

当Retriever运行结束时运行。

on_retriever_error(error, *, run_id[, ...])

当Retriever出错时运行。

on_retriever_start(serialized, query, *, run_id)

当Retriever开始运行时运行。

on_retry(retry_state, *, run_id[, parent_run_id])

在重试事件上运行。

on_text(text[, color, end])

在任意文本上运行。

on_tool_end(output[, color, ...])

当工具运行结束时运行。

on_tool_error(error, **kwargs)

当工具发生错误时运行。

on_tool_start(serialized, input_str, **kwargs)

当工具开始运行时运行。

Parameters
  • parent_container (DeltaGenerator) –

  • max_thought_containers (int) –

  • expand_new_thoughts (bool) –

  • collapse_completed_thoughts (bool) –

  • thought_labeler (Optional[LLMThoughtLabeler]) –

__init__(parent_container: DeltaGenerator, *, max_thought_containers: int = 4, expand_new_thoughts: bool = True, collapse_completed_thoughts: bool = True, thought_labeler: Optional[LLMThoughtLabeler] = None)[source]

创建一个StreamlitCallbackHandler实例。

parent_container

包含Handler创建的所有Streamlit元素的`st.container`。

max_thought_containers

一次显示的已完成的LLM思考容器的最大数量。当达到此阈值时,新的思考将导致最旧的思考被折叠到一个“历史”展开器中。默认为4。

expand_new_thoughts

每个LLM“思考”都有自己的`st.expander`。此参数控制该展开器是否默认展开。默认为True。

collapse_completed_thoughts

如果为True,则完成时LLM思考展开器将被折叠。默认为True。

thought_labeler

可选的自定义LLMThoughtLabeler实例。如果未指定,处理程序将使用默认的思考标记逻辑。默认为None。

Parameters
  • parent_container (DeltaGenerator) –

  • max_thought_containers (int) –

  • expand_new_thoughts (bool) –

  • collapse_completed_thoughts (bool) –

  • thought_labeler (Optional[LLMThoughtLabeler]) –

on_agent_action(action: AgentAction, color: Optional[str] = None, **kwargs: Any) Any[source]

在代理程序上运行的动作。

Parameters
  • action (AgentAction) –

  • color (Optional[str]) –

  • kwargs (Any) –

Return type

Any

on_agent_finish(finish: AgentFinish, color: Optional[str] = None, **kwargs: Any) None[source]

在代理端运行。

Parameters
  • finish (AgentFinish) –

  • color (Optional[str]) –

  • kwargs (Any) –

Return type

None

on_chain_end(outputs: Dict[str, Any], **kwargs: Any) None[source]

当链结束运行时运行。

Parameters
  • outputs (Dict[str, Any]) –

  • kwargs (Any) –

Return type

None

on_chain_error(error: BaseException, **kwargs: Any) None[source]

当链式错误时运行。

Parameters
  • error (BaseException) –

  • kwargs (Any) –

Return type

None

on_chain_start(serialized: Dict[str, Any], inputs: Dict[str, Any], **kwargs: Any) None[source]

当链开始运行时运行。

Parameters
  • serialized (Dict[str, Any]) –

  • inputs (Dict[str, Any]) –

  • kwargs (Any) –

Return type

None

on_chat_model_start(serialized: Dict[str, Any], messages: List[List[BaseMessage]], *, run_id: UUID, parent_run_id: Optional[UUID] = None, tags: Optional[List[str]] = None, metadata: Optional[Dict[str, Any]] = None, **kwargs: Any) Any

当聊天模型开始运行时运行。

注意 : 此方法用于聊天模型。如果您正在为非聊天模型实现处理程序,则应改用on_llm_start。

Parameters
  • serialized (Dict[str, Any]) –

  • messages (List[List[BaseMessage]]) –

  • run_id (UUID) –

  • parent_run_id (Optional[UUID]) –

  • tags (Optional[List[str]]) –

  • metadata (Optional[Dict[str, Any]]) –

  • kwargs (Any) –

Return type

Any

on_llm_end(response: LLMResult, **kwargs: Any) None[source]

当LLM运行结束时运行。

Parameters
Return type

None

on_llm_error(error: BaseException, **kwargs: Any) None[source]

当LLM出现错误时运行。 参数:

error (BaseException): 发生的错误。 kwargs (Any): 附加的关键字参数。

  • response (LLMResult): 在错误发生之前生成的响应。

Parameters
  • error (BaseException) –

  • kwargs (Any) –

Return type

None

on_llm_new_token(token: str, **kwargs: Any) None[source]

在新的LLM令牌上运行。仅在启用流式传输时可用。

参数:

token(str):新令牌。 chunk(GenerationChunk | ChatGenerationChunk):新生成的块,包含内容和其他信息。

Parameters
  • token (str) –

  • kwargs (Any) –

Return type

None

on_llm_start(serialized: Dict[str, Any], prompts: List[str], **kwargs: Any) None[source]

LLM 启动时运行。

注意 : 当前方法用于非聊天模型(常规 LLM)。如果您正在为聊天模型实现处理程序,则应该使用 on_chat_model_start。

Parameters
  • serialized (Dict[str, Any]) –

  • prompts (List[str]) –

  • kwargs (Any) –

Return type

None

on_retriever_end(documents: Sequence[Document], *, run_id: UUID, parent_run_id: Optional[UUID] = None, **kwargs: Any) Any

当Retriever运行结束时运行。

Parameters
  • documents (Sequence[Document]) –

  • run_id (UUID) –

  • parent_run_id (Optional[UUID]) –

  • kwargs (Any) –

Return type

Any

on_retriever_error(error: BaseException, *, run_id: UUID, parent_run_id: Optional[UUID] = None, **kwargs: Any) Any

当Retriever出错时运行。

Parameters
  • error (BaseException) –

  • run_id (UUID) –

  • parent_run_id (Optional[UUID]) –

  • kwargs (Any) –

Return type

Any

on_retriever_start(serialized: Dict[str, Any], query: str, *, run_id: UUID, parent_run_id: Optional[UUID] = None, tags: Optional[List[str]] = None, metadata: Optional[Dict[str, Any]] = None, **kwargs: Any) Any

当Retriever开始运行时运行。

Parameters
  • serialized (Dict[str, Any]) –

  • query (str) –

  • run_id (UUID) –

  • parent_run_id (Optional[UUID]) –

  • tags (Optional[List[str]]) –

  • metadata (Optional[Dict[str, Any]]) –

  • kwargs (Any) –

Return type

Any

on_retry(retry_state: RetryCallState, *, run_id: UUID, parent_run_id: Optional[UUID] = None, **kwargs: Any) Any

在重试事件上运行。

Parameters
  • retry_state (RetryCallState) –

  • run_id (UUID) –

  • parent_run_id (Optional[UUID]) –

  • kwargs (Any) –

Return type

Any

on_text(text: str, color: Optional[str] = None, end: str = '', **kwargs: Any) None[source]

在任意文本上运行。

Parameters
  • text (str) –

  • color (Optional[str]) –

  • end (str) –

  • kwargs (Any) –

Return type

None

on_tool_end(output: Any, color: Optional[str] = None, observation_prefix: Optional[str] = None, llm_prefix: Optional[str] = None, **kwargs: Any) None[source]

当工具运行结束时运行。

Parameters
  • output (Any) –

  • color (Optional[str]) –

  • observation_prefix (Optional[str]) –

  • llm_prefix (Optional[str]) –

  • kwargs (Any) –

Return type

None

on_tool_error(error: BaseException, **kwargs: Any) None[source]

当工具发生错误时运行。

Parameters
  • error (BaseException) –

  • kwargs (Any) –

Return type

None

on_tool_start(serialized: Dict[str, Any], input_str: str, **kwargs: Any) None[source]

当工具开始运行时运行。

Parameters
  • serialized (Dict[str, Any]) –

  • input_str (str) –

  • kwargs (Any) –

Return type

None

Examples using StreamlitCallbackHandler