RankLLMRerank#

class langchain_community.document_compressors.rankllm_rerank.RankLLMRerank[source]#

基础类:BaseDocumentCompressor

使用Flashrank接口的文档压缩器。

通过解析和验证来自关键字参数的输入数据来创建一个新模型。

如果输入数据无法验证以形成有效模型,则引发 [ValidationError][pydantic_core.ValidationError]。

self 被显式地设为仅位置参数,以允许 self 作为字段名称。

param client: Any = None#

用于压缩文档的RankLLM客户端

param gpt_model: str = 'gpt-3.5-turbo'#

OpenAI 模型名称。

param model: str = 'zephyr'#

用于重新排序的模型名称。

param step_size: int = 10#

移动滑动窗口的步长。

param top_n: int = 3#

返回前N个文档。

async acompress_documents(documents: Sequence[Document], query: str, callbacks: list[BaseCallbackHandler] | BaseCallbackManager | None = None) Sequence[Document]#

根据查询上下文异步压缩检索到的文档。

Parameters:
Returns:

压缩的文档。

Return type:

序列[文档]

compress_documents(documents: Sequence[Document], query: str, callbacks: list[BaseCallbackHandler] | BaseCallbackManager | None = None) Sequence[Document][source]#

根据查询上下文压缩检索到的文档。

Parameters:
Returns:

压缩的文档。

Return type:

序列[文档]

使用 RankLLMRerank 的示例