NVIDIA嵌入#
- class langchain_nvidia_ai_endpoints.embeddings.NVIDIAEmbeddings[source]#
基础类:
BaseModel
,Embeddings
客户端到NVIDIA嵌入模型。
字段: - model: str, 使用的模型名称 - truncate: “NONE”, “START”, “END”, 如果输入文本超过模型的限制,则截断输入文本
最大令牌长度。默认值为“NONE”,如果输入过长则会引发错误。
创建一个新的NVIDIAEmbeddings嵌入器。
该类提供了对NVIDIA NIM嵌入的访问。默认情况下,它连接到托管的NIM,但可以通过base_url参数配置为连接到本地NIM。连接到托管的NIM需要API密钥。
- Parameters:
model (str) – 用于嵌入的模型。
nvidia_api_key (str) – 用于连接到托管NIM的API密钥。
api_key (str) – nvidia_api_key的替代方案。
base_url (str) – 要连接的NIM的基础URL。 基础URL的格式为 http://host:port
trucate (str) – “NONE”, “START”, “END”, 如果输入文本超过模型的上下文长度,则截断输入文本。默认值为“NONE”,如果输入过长则会引发错误。
API密钥: - 推荐的方式是通过NVIDIA_API_KEY提供API密钥
环境变量。
基础URL: - 使用base_url参数连接到自托管的NVIDIA NIM模型
链接到本地主机 localhost:8000: embedder = NVIDIAEmbeddings(base_url=”http://localhost:8080/v1”)
- param base_url: str | None = None#
模型列表和调用的基础URL
- param max_batch_size: int = 50#
- param model: str | None = None#
要调用的模型名称
- param truncate: Literal['NONE', 'START', 'END'] = 'NONE'#
如果输入文本超过模型的最大标记长度,则截断输入文本。默认值为'NONE',如果输入过长则会引发错误。
- async aembed_documents(texts: list[str]) list[list[float]] #
异步嵌入搜索文档。
- Parameters:
文本 (列表[字符串]) – 要嵌入的文本列表。
- Returns:
嵌入列表。
- Return type:
列表[列表[浮点数]]
- async aembed_query(text: str) list[float] #
异步嵌入查询文本。
- Parameters:
文本 (str) – 要嵌入的文本。
- Returns:
嵌入。
- Return type:
列表[浮点数]
- embed_documents(texts: List[str]) List[List[float]] [source]#
输入文档嵌入的路径。
- Parameters:
文本 (列表[字符串])
- Return type:
列表[列表[float]]
- classmethod get_available_models(**kwargs: Any) List[Model] [source]#
获取与NVIDIAEmbeddings兼容的可用模型列表。
- Parameters:
kwargs (任意)
- Return type:
列表[模型]
- property available_models: List[Model]#
获取可与NVIDIAEmbeddings一起使用的可用模型列表。