langchain_community.callbacks.streamlit.streamlit_callback_handler
.StreamlitCallbackHandler¶
- class langchain_community.callbacks.streamlit.streamlit_callback_handler.StreamlitCallbackHandler(parent_container: DeltaGenerator, *, max_thought_containers: int = 4, expand_new_thoughts: bool = True, collapse_completed_thoughts: bool = True, thought_labeler: Optional[LLMThoughtLabeler] = None)[source]¶
回调处理程序,用于向Streamlit应用程序写入。
创建一个StreamlitCallbackHandler实例。
- parent_container
包含Handler创建的所有Streamlit元素的`st.container`。
- max_thought_containers
一次显示的已完成的LLM思考容器的最大数量。当达到此阈值时,新的思考将导致最旧的思考被折叠到一个“历史”展开器中。默认为4。
- expand_new_thoughts
每个LLM“思考”都有自己的`st.expander`。此参数控制该展开器是否默认展开。默认为True。
- collapse_completed_thoughts
如果为True,则完成时LLM思考展开器将被折叠。默认为True。
- thought_labeler
可选的自定义LLMThoughtLabeler实例。如果未指定,处理程序将使用默认的思考标记逻辑。默认为None。
Attributes
ignore_agent
是否忽略代理回调。
ignore_chain
是否忽略链式回调。
ignore_chat_model
是否忽略聊天模型的回调。
ignore_llm
是否忽略LLM回调。
ignore_retriever
是否忽略检索器回调函数。
ignore_retry
是否忽略重试回调。
raise_error
run_inline
Methods
__init__
(parent_container, *[, ...])创建一个StreamlitCallbackHandler实例。
on_agent_action
(action[, color])在代理程序上运行的动作。
on_agent_finish
(finish[, color])在代理端运行。
on_chain_end
(outputs, **kwargs)当链结束运行时运行。
on_chain_error
(error, **kwargs)当链式错误时运行。
on_chain_start
(serialized, inputs, **kwargs)当链开始运行时运行。
on_chat_model_start
(serialized, messages, *, ...)当聊天模型开始运行时运行。
on_llm_end
(response, **kwargs)当LLM运行结束时运行。
on_llm_error
(error, **kwargs)当LLM出现错误时运行。 参数: error (BaseException): 发生的错误。 kwargs (Any): 附加的关键字参数。 - response (LLMResult): 在错误发生之前生成的响应。
on_llm_new_token
(token, **kwargs)在新的LLM令牌上运行。仅在启用流式传输时可用。
on_llm_start
(serialized, prompts, **kwargs)LLM 启动时运行。
on_retriever_end
(documents, *, run_id[, ...])当Retriever运行结束时运行。
on_retriever_error
(error, *, run_id[, ...])当Retriever出错时运行。
on_retriever_start
(serialized, query, *, run_id)当Retriever开始运行时运行。
on_retry
(retry_state, *, run_id[, parent_run_id])在重试事件上运行。
on_text
(text[, color, end])在任意文本上运行。
on_tool_end
(output[, color, ...])当工具运行结束时运行。
on_tool_error
(error, **kwargs)当工具发生错误时运行。
on_tool_start
(serialized, input_str, **kwargs)当工具开始运行时运行。
- Parameters
parent_container (DeltaGenerator) –
max_thought_containers (int) –
expand_new_thoughts (bool) –
collapse_completed_thoughts (bool) –
thought_labeler (Optional[LLMThoughtLabeler]) –
- __init__(parent_container: DeltaGenerator, *, max_thought_containers: int = 4, expand_new_thoughts: bool = True, collapse_completed_thoughts: bool = True, thought_labeler: Optional[LLMThoughtLabeler] = None)[source]¶
创建一个StreamlitCallbackHandler实例。
- parent_container
包含Handler创建的所有Streamlit元素的`st.container`。
- max_thought_containers
一次显示的已完成的LLM思考容器的最大数量。当达到此阈值时,新的思考将导致最旧的思考被折叠到一个“历史”展开器中。默认为4。
- expand_new_thoughts
每个LLM“思考”都有自己的`st.expander`。此参数控制该展开器是否默认展开。默认为True。
- collapse_completed_thoughts
如果为True,则完成时LLM思考展开器将被折叠。默认为True。
- thought_labeler
可选的自定义LLMThoughtLabeler实例。如果未指定,处理程序将使用默认的思考标记逻辑。默认为None。
- Parameters
parent_container (DeltaGenerator) –
max_thought_containers (int) –
expand_new_thoughts (bool) –
collapse_completed_thoughts (bool) –
thought_labeler (Optional[LLMThoughtLabeler]) –
- on_agent_action(action: AgentAction, color: Optional[str] = None, **kwargs: Any) Any [source]¶
在代理程序上运行的动作。
- Parameters
action (AgentAction) –
color (Optional[str]) –
kwargs (Any) –
- Return type
Any
- on_agent_finish(finish: AgentFinish, color: Optional[str] = None, **kwargs: Any) None [source]¶
在代理端运行。
- Parameters
finish (AgentFinish) –
color (Optional[str]) –
kwargs (Any) –
- Return type
None
- on_chain_end(outputs: Dict[str, Any], **kwargs: Any) None [source]¶
当链结束运行时运行。
- Parameters
outputs (Dict[str, Any]) –
kwargs (Any) –
- Return type
None
- on_chain_error(error: BaseException, **kwargs: Any) None [source]¶
当链式错误时运行。
- Parameters
error (BaseException) –
kwargs (Any) –
- Return type
None
- on_chain_start(serialized: Dict[str, Any], inputs: Dict[str, Any], **kwargs: Any) None [source]¶
当链开始运行时运行。
- Parameters
serialized (Dict[str, Any]) –
inputs (Dict[str, Any]) –
kwargs (Any) –
- Return type
None
- on_chat_model_start(serialized: Dict[str, Any], messages: List[List[BaseMessage]], *, run_id: UUID, parent_run_id: Optional[UUID] = None, tags: Optional[List[str]] = None, metadata: Optional[Dict[str, Any]] = None, **kwargs: Any) Any ¶
当聊天模型开始运行时运行。
注意 : 此方法用于聊天模型。如果您正在为非聊天模型实现处理程序,则应改用on_llm_start。
- Parameters
serialized (Dict[str, Any]) –
messages (List[List[BaseMessage]]) –
run_id (UUID) –
parent_run_id (Optional[UUID]) –
tags (Optional[List[str]]) –
metadata (Optional[Dict[str, Any]]) –
kwargs (Any) –
- Return type
Any
- on_llm_end(response: LLMResult, **kwargs: Any) None [source]¶
当LLM运行结束时运行。
- Parameters
response (LLMResult) –
kwargs (Any) –
- Return type
None
- on_llm_error(error: BaseException, **kwargs: Any) None [source]¶
当LLM出现错误时运行。 参数:
error (BaseException): 发生的错误。 kwargs (Any): 附加的关键字参数。
response (LLMResult): 在错误发生之前生成的响应。
- Parameters
error (BaseException) –
kwargs (Any) –
- Return type
None
- on_llm_new_token(token: str, **kwargs: Any) None [source]¶
在新的LLM令牌上运行。仅在启用流式传输时可用。
- 参数:
token(str):新令牌。 chunk(GenerationChunk | ChatGenerationChunk):新生成的块,包含内容和其他信息。
- Parameters
token (str) –
kwargs (Any) –
- Return type
None
- on_llm_start(serialized: Dict[str, Any], prompts: List[str], **kwargs: Any) None [source]¶
LLM 启动时运行。
注意 : 当前方法用于非聊天模型(常规 LLM)。如果您正在为聊天模型实现处理程序,则应该使用 on_chat_model_start。
- Parameters
serialized (Dict[str, Any]) –
prompts (List[str]) –
kwargs (Any) –
- Return type
None
- on_retriever_end(documents: Sequence[Document], *, run_id: UUID, parent_run_id: Optional[UUID] = None, **kwargs: Any) Any ¶
当Retriever运行结束时运行。
- Parameters
documents (Sequence[Document]) –
run_id (UUID) –
parent_run_id (Optional[UUID]) –
kwargs (Any) –
- Return type
Any
- on_retriever_error(error: BaseException, *, run_id: UUID, parent_run_id: Optional[UUID] = None, **kwargs: Any) Any ¶
当Retriever出错时运行。
- Parameters
error (BaseException) –
run_id (UUID) –
parent_run_id (Optional[UUID]) –
kwargs (Any) –
- Return type
Any
- on_retriever_start(serialized: Dict[str, Any], query: str, *, run_id: UUID, parent_run_id: Optional[UUID] = None, tags: Optional[List[str]] = None, metadata: Optional[Dict[str, Any]] = None, **kwargs: Any) Any ¶
当Retriever开始运行时运行。
- Parameters
serialized (Dict[str, Any]) –
query (str) –
run_id (UUID) –
parent_run_id (Optional[UUID]) –
tags (Optional[List[str]]) –
metadata (Optional[Dict[str, Any]]) –
kwargs (Any) –
- Return type
Any
- on_retry(retry_state: RetryCallState, *, run_id: UUID, parent_run_id: Optional[UUID] = None, **kwargs: Any) Any ¶
在重试事件上运行。
- Parameters
retry_state (RetryCallState) –
run_id (UUID) –
parent_run_id (Optional[UUID]) –
kwargs (Any) –
- Return type
Any
- on_text(text: str, color: Optional[str] = None, end: str = '', **kwargs: Any) None [source]¶
在任意文本上运行。
- Parameters
text (str) –
color (Optional[str]) –
end (str) –
kwargs (Any) –
- Return type
None
- on_tool_end(output: Any, color: Optional[str] = None, observation_prefix: Optional[str] = None, llm_prefix: Optional[str] = None, **kwargs: Any) None [source]¶
当工具运行结束时运行。
- Parameters
output (Any) –
color (Optional[str]) –
observation_prefix (Optional[str]) –
llm_prefix (Optional[str]) –
kwargs (Any) –
- Return type
None