Ollama
Ollama 是一个 Python 库。它允许你在本地运行开源的大型语言模型,比如 LLaMA2。
Ollama
将模型权重、配置和数据捆绑成一个单一的包,由 Modelfile 定义。它优化了设置和配置细节,包括 GPU 使用。要查看支持的模型和模型变体的完整列表,请参阅Ollama 模型库。
有关如何在 LangChain 中使用 Ollama
的更多详细信息,请参阅此指南。
安装和设置
按照这些说明设置和运行本地 Ollama 实例。要使用,你应该设置环境变量 ANYSCALE_API_BASE
和 ANYSCALE_API_KEY
。
LLM
from langchain_community.llms import Ollama
在这里查看笔记本示例。
聊天模型
聊天 Ollama
from langchain_community.chat_models import ChatOllama
在这里查看笔记本示例。
Ollama 函数
from langchain_experimental.llms.ollama_functions import OllamaFunctions
在这里查看笔记本示例。
嵌入模型
from langchain_community.embeddings import OllamaEmbeddings
在这里查看笔记本示例。