langchain_core.callbacks.base
.LLMManagerMixin¶
- class langchain_core.callbacks.base.LLMManagerMixin[source]¶
LLM回调的Mixin。
Methods
__init__
()on_llm_end
(response, *, run_id[, parent_run_id])当LLM运行结束时运行。
on_llm_error
(error, *, run_id[, parent_run_id])当LLM出现错误时运行。 参数: error (BaseException): 发生的错误。 kwargs (Any): 附加的关键字参数。 - response (LLMResult): 在错误发生之前生成的响应。
on_llm_new_token
(token, *[, chunk, ...])在新的LLM令牌上运行。仅在启用流式传输时可用。
- __init__()¶
- on_llm_end(response: LLMResult, *, run_id: UUID, parent_run_id: Optional[UUID] = None, **kwargs: Any) Any [source]¶
当LLM运行结束时运行。
- Parameters
response (LLMResult) –
run_id (UUID) –
parent_run_id (Optional[UUID]) –
kwargs (Any) –
- Return type
Any
- on_llm_error(error: BaseException, *, run_id: UUID, parent_run_id: Optional[UUID] = None, **kwargs: Any) Any [source]¶
当LLM出现错误时运行。 参数:
error (BaseException): 发生的错误。 kwargs (Any): 附加的关键字参数。
response (LLMResult): 在错误发生之前生成的响应。
- Parameters
error (BaseException) –
run_id (UUID) –
parent_run_id (Optional[UUID]) –
kwargs (Any) –
- Return type
Any
- on_llm_new_token(token: str, *, chunk: Optional[Union[GenerationChunk, ChatGenerationChunk]] = None, run_id: UUID, parent_run_id: Optional[UUID] = None, **kwargs: Any) Any [source]¶
在新的LLM令牌上运行。仅在启用流式传输时可用。
- 参数:
token(str):新令牌。 chunk(GenerationChunk | ChatGenerationChunk):新生成的块,包含内容和其他信息。
- Parameters
token (str) –
chunk (Optional[Union[GenerationChunk, ChatGenerationChunk]]) –
run_id (UUID) –
parent_run_id (Optional[UUID]) –
kwargs (Any) –
- Return type
Any