Skip to main content
Open In ColabOpen on GitHub

LocalAI

info

langchain-localai 是一个用于 LocalAI 的第三方集成包。它提供了一种简单的方法在 Langchain 中使用 LocalAI 服务。

源代码可在Github上获取

让我们加载LocalAI嵌入类。为了使用LocalAI嵌入类,您需要在某处托管LocalAI服务并配置嵌入模型。请参阅文档https://localai.io/basics/getting_started/index.htmlhttps://localai.io/features/embeddings/index.html

%pip install -U langchain-localai
from langchain_localai import LocalAIEmbeddings
embeddings = LocalAIEmbeddings(
openai_api_base="http://localhost:8080", model="embedding-model-name"
)
text = "This is a test document."
query_result = embeddings.embed_query(text)
doc_result = embeddings.embed_documents([text])

让我们加载第一代模型的LocalAI嵌入类(例如text-search-ada-doc-001/text-search-ada-query-001)。注意:这些不是推荐的模型 - 参见这里

from langchain_community.embeddings import LocalAIEmbeddings
API Reference:LocalAIEmbeddings
embeddings = LocalAIEmbeddings(
openai_api_base="http://localhost:8080", model="embedding-model-name"
)
text = "This is a test document."
query_result = embeddings.embed_query(text)
doc_result = embeddings.embed_documents([text])
import os

# if you are behind an explicit proxy, you can use the OPENAI_PROXY environment variable to pass through
os.environ["OPENAI_PROXY"] = "http://proxy.yourcompany.com:8080"

这个页面有帮助吗?