langchain_core.callbacks.base.LLMManagerMixin

class langchain_core.callbacks.base.LLMManagerMixin[source]

LLM回调的Mixin。

Methods

__init__()

on_llm_end(response, *, run_id[, parent_run_id])

当LLM运行结束时运行。

on_llm_error(error, *, run_id[, parent_run_id])

当LLM出现错误时运行。 参数: error (BaseException): 发生的错误。 kwargs (Any): 附加的关键字参数。 - response (LLMResult): 在错误发生之前生成的响应。

on_llm_new_token(token, *[, chunk, ...])

在新的LLM令牌上运行。仅在启用流式传输时可用。

__init__()
on_llm_end(response: LLMResult, *, run_id: UUID, parent_run_id: Optional[UUID] = None, **kwargs: Any) Any[source]

当LLM运行结束时运行。

Parameters
  • response (LLMResult) –

  • run_id (UUID) –

  • parent_run_id (Optional[UUID]) –

  • kwargs (Any) –

Return type

Any

on_llm_error(error: BaseException, *, run_id: UUID, parent_run_id: Optional[UUID] = None, **kwargs: Any) Any[source]

当LLM出现错误时运行。 参数:

error (BaseException): 发生的错误。 kwargs (Any): 附加的关键字参数。

  • response (LLMResult): 在错误发生之前生成的响应。

Parameters
  • error (BaseException) –

  • run_id (UUID) –

  • parent_run_id (Optional[UUID]) –

  • kwargs (Any) –

Return type

Any

on_llm_new_token(token: str, *, chunk: Optional[Union[GenerationChunk, ChatGenerationChunk]] = None, run_id: UUID, parent_run_id: Optional[UUID] = None, **kwargs: Any) Any[source]

在新的LLM令牌上运行。仅在启用流式传输时可用。

参数:

token(str):新令牌。 chunk(GenerationChunk | ChatGenerationChunk):新生成的块,包含内容和其他信息。

Parameters
Return type

Any