Skip to main content
Open on GitHub

Xorbits 推理 (Xinference)

本页面演示了如何使用Xinference与LangChain。

Xinference 是一个功能强大且多用途的库,旨在为LLMs、语音识别模型和多模态模型提供服务,甚至可以在您的笔记本电脑上运行。使用 Xorbits Inference,您只需一条命令即可轻松部署和服务您的最先进的内置模型。

安装与设置

Xinference 可以通过 PyPI 使用 pip 安装:

pip install "xinference[all]"

LLM

Xinference 支持多种与 GGML 兼容的模型,包括 chatglm、baichuan、whisper、vicuna 和 orca。要查看内置模型,请运行以下命令:

xinference list --all

Xinference的封装器

您可以通过运行以下命令启动Xinference的本地实例:

xinference

您还可以在分布式集群中部署Xinference。为此,首先在您想要运行的服务器上启动一个Xinference supervisor:

xinference-supervisor -H "${supervisor_host}"

然后,在您想要运行的其他每台服务器上启动Xinference工作器:

xinference-worker -e "http://${supervisor_host}:9997"

你也可以通过运行以下命令启动一个本地的Xinference实例:

xinference

一旦Xinference运行起来,将可以通过CLI或Xinference客户端访问一个用于模型管理的端点。

对于本地部署,端点将是 http://localhost:9997

对于集群部署,端点将是 http://${supervisor_host}:9997。

然后,你需要启动一个模型。你可以指定模型名称和其他属性,包括model_size_in_billions和quantization。你可以使用命令行界面(CLI)来完成。例如,

xinference launch -n orca -s 3 -q q4_0

将返回一个模型uid。

示例用法:

from langchain_community.llms import Xinference

llm = Xinference(
server_url="http://0.0.0.0:9997",
model_uid = {model_uid} # replace model_uid with the model UID return from launching the model
)

llm(
prompt="Q: where can we visit in the capital of France? A:",
generate_config={"max_tokens": 1024, "stream": True},
)

API Reference:Xinference

用法

有关更多信息和详细示例,请参阅 xinference LLMs 示例

嵌入

Xinference 还支持嵌入查询和文档。有关更详细的演示,请参见 xinference 嵌入示例


这个页面有帮助吗?