langchain-nvidia-ai-endpoints: 0.3.7#
注意:你可以使用 `import langchain_nvidia` 来代替。
LangChain NVIDIA AI 基础模型游乐场集成
这个综合模块将NVIDIA最先进的人工智能基础模型集成到LangChain框架中,这些模型包括用于对话式人工智能和语义嵌入的高级模型。它提供了强大的类,用于与NVIDIA的人工智能模型无缝交互,特别适合用于丰富对话体验和增强各种应用中的语义理解。
功能:
聊天模型 (`ChatNVIDIA`): 该类是与NVIDIA基础聊天模型交互的主要接口。用户可以轻松使用NVIDIA的高级模型,如‘Mistral’,进行丰富的、上下文感知的对话,适用于从客户支持到互动故事讲述的多种领域。
语义嵌入 (`NVIDIAEmbeddings`): 该模块提供了使用NVIDIA的AI模型生成复杂嵌入的能力。这些嵌入对于语义分析、文本相似性评估和上下文理解等任务非常有用,显著增强了NLP应用的深度。
安装:
使用 pip 轻松安装此模块:
`python
pip install langchain-nvidia-ai-endpoints
`
## 使用聊天模型:
设置环境后,与NVIDIA AI基础模型进行交互: ```python from langchain_nvidia_ai_endpoints import ChatNVIDIA
ai_chat_model = ChatNVIDIA(model=”meta/llama2-70b”) response = ai_chat_model.invoke(“告诉我关于LangChain集成的内容。”) ```
# 生成语义嵌入:
使用NVIDIA的模型来创建嵌入,这在各种NLP任务中非常有用:
```python from langchain_nvidia_ai_endpoints import NVIDIAEmbeddings
embed_model = NVIDIAEmbeddings(model=”nvolveqa_40k”) embedding_output = embed_model.embed_query(“探索AI能力。”) ```
callbacks#
类
用于跟踪OpenAI信息的回调处理程序。 |
函数
|
获取给定模型和令牌数量的美元成本。 |
|
在上下文管理器中获取OpenAI回调处理程序。 |
|
将模型名称标准化为可以在OpenAI API中使用的格式。 |
chat_models#
类
NVIDIA 聊天模型。 |
嵌入#
类
NVIDIA嵌入模型的客户端。 |
llm#
类
使用NVIDIA NIMs的Completions API的LangChain LLM。 |
reranking#
类
使用NVIDIA NeMo Retriever Reranking API的LangChain文档压缩器。 |
|
通过解析和验证来自关键字参数的输入数据来创建一个新模型。 |