NVIDIA嵌入#

class langchain_nvidia_ai_endpoints.embeddings.NVIDIAEmbeddings[source]#

基础类:BaseModel, Embeddings

客户端到NVIDIA嵌入模型。

字段: - model: str, 使用的模型名称 - truncate: “NONE”, “START”, “END”, 如果输入文本超过模型的限制,则截断输入文本

最大令牌长度。默认值为“NONE”,如果输入过长则会引发错误。

创建一个新的NVIDIAEmbeddings嵌入器。

该类提供了对NVIDIA NIM嵌入的访问。默认情况下,它连接到托管的NIM,但可以通过base_url参数配置为连接到本地NIM。连接到托管的NIM需要API密钥。

Parameters:
  • model (str) – 用于嵌入的模型。

  • nvidia_api_key (str) – 用于连接到托管NIM的API密钥。

  • api_key (str) – nvidia_api_key的替代方案。

  • base_url (str) – 要连接的NIM的基础URL。 基础URL的格式为 http://host:port

  • trucate (str) – “NONE”, “START”, “END”, 如果输入文本超过模型的上下文长度,则截断输入文本。默认值为“NONE”,如果输入过长则会引发错误。

API密钥: - 推荐的方式是通过NVIDIA_API_KEY提供API密钥

环境变量。

基础URL: - 使用base_url参数连接到自托管的NVIDIA NIM模型

链接到本地主机 localhost:8000: embedder = NVIDIAEmbeddings(base_url=”http://localhost:8080/v1”)

param base_url: str | None = None#

模型列表和调用的基础URL

param max_batch_size: int = 50#
param model: str | None = None#

要调用的模型名称

param truncate: Literal['NONE', 'START', 'END'] = 'NONE'#

如果输入文本超过模型的最大标记长度,则截断输入文本。默认值为'NONE',如果输入过长则会引发错误。

async aembed_documents(texts: list[str]) list[list[float]]#

异步嵌入搜索文档。

Parameters:

文本 (列表[字符串]) – 要嵌入的文本列表。

Returns:

嵌入列表。

Return type:

列表[列表[浮点数]]

async aembed_query(text: str) list[float]#

异步嵌入查询文本。

Parameters:

文本 (str) – 要嵌入的文本。

Returns:

嵌入。

Return type:

列表[浮点数]

embed_documents(texts: List[str]) List[List[float]][source]#

输入文档嵌入的路径。

Parameters:

文本 (列表[字符串])

Return type:

列表[列表[float]]

embed_query(text: str) List[float][source]#

输入查询嵌入的路径。

Parameters:

文本 (str)

Return type:

列表[float]

classmethod get_available_models(**kwargs: Any) List[Model][source]#

获取与NVIDIAEmbeddings兼容的可用模型列表。

Parameters:

kwargs (任意)

Return type:

列表[模型]

property available_models: List[Model]#

获取可与NVIDIAEmbeddings一起使用的可用模型列表。