langchain-nvidia-ai-endpoints: 0.3.7#

注意:你可以使用 `import langchain_nvidia` 来代替。

LangChain NVIDIA AI 基础模型游乐场集成

这个综合模块将NVIDIA最先进的人工智能基础模型集成到LangChain框架中,这些模型包括用于对话式人工智能和语义嵌入的高级模型。它提供了强大的类,用于与NVIDIA的人工智能模型无缝交互,特别适合用于丰富对话体验和增强各种应用中的语义理解。

功能:

  1. 聊天模型 (`ChatNVIDIA`): 该类是与NVIDIA基础聊天模型交互的主要接口。用户可以轻松使用NVIDIA的高级模型,如‘Mistral’,进行丰富的、上下文感知的对话,适用于从客户支持到互动故事讲述的多种领域。

  2. 语义嵌入 (`NVIDIAEmbeddings`): 该模块提供了使用NVIDIA的AI模型生成复杂嵌入的能力。这些嵌入对于语义分析、文本相似性评估和上下文理解等任务非常有用,显著增强了NLP应用的深度。

安装:

使用 pip 轻松安装此模块:

`python pip install langchain-nvidia-ai-endpoints `

## 使用聊天模型:

设置环境后,与NVIDIA AI基础模型进行交互: ```python from langchain_nvidia_ai_endpoints import ChatNVIDIA

ai_chat_model = ChatNVIDIA(model=”meta/llama2-70b”) response = ai_chat_model.invoke(“告诉我关于LangChain集成的内容。”) ```

# 生成语义嵌入:

使用NVIDIA的模型来创建嵌入,这在各种NLP任务中非常有用:

```python from langchain_nvidia_ai_endpoints import NVIDIAEmbeddings

embed_model = NVIDIAEmbeddings(model=”nvolveqa_40k”) embedding_output = embed_model.embed_query(“探索AI能力。”) ```

callbacks#

callbacks.UsageCallbackHandler()

用于跟踪OpenAI信息的回调处理程序。

函数

callbacks.get_token_cost_for_model(...[, ...])

获取给定模型和令牌数量的美元成本。

callbacks.get_usage_callback([price_map, ...])

在上下文管理器中获取OpenAI回调处理程序。

callbacks.standardize_model_name(model_name)

将模型名称标准化为可以在OpenAI API中使用的格式。

chat_models#

chat_models.ChatNVIDIA

NVIDIA 聊天模型。

嵌入#

embeddings.NVIDIAEmbeddings

NVIDIA嵌入模型的客户端。

llm#

llm.NVIDIA

使用NVIDIA NIMs的Completions API的LangChain LLM。

reranking#

reranking.NVIDIARerank

使用NVIDIA NeMo Retriever Reranking API的LangChain文档压缩器。

reranking.Ranking

通过解析和验证来自关键字参数的输入数据来创建一个新模型。