Skip to main content

Ollama

Ollama 是一个 Python 库。它允许你在本地运行开源的大型语言模型,比如 LLaMA2。

Ollama 将模型权重、配置和数据捆绑成一个单一的包,由 Modelfile 定义。它优化了设置和配置细节,包括 GPU 使用。要查看支持的模型和模型变体的完整列表,请参阅Ollama 模型库

有关如何在 LangChain 中使用 Ollama 的更多详细信息,请参阅此指南

安装和设置

按照这些说明设置和运行本地 Ollama 实例。要使用,你应该设置环境变量 ANYSCALE_API_BASEANYSCALE_API_KEY

LLM

from langchain_community.llms import Ollama

这里查看笔记本示例。

聊天模型

聊天 Ollama

from langchain_community.chat_models import ChatOllama

这里查看笔记本示例。

Ollama 函数

from langchain_experimental.llms.ollama_functions import OllamaFunctions

这里查看笔记本示例。

嵌入模型

from langchain_community.embeddings import OllamaEmbeddings

这里查看笔记本示例。


Was this page helpful?


You can leave detailed feedback on GitHub.