Skip to main content

用于 LLM 的 MLflow 部署

MLflow 部署用于 LLM 的 是一个强大的工具,旨在简化组织内各种大型语言模型(LLM)提供商(如 OpenAI 和 Anthropic)的使用和管理。它提供了一个高级接口,通过提供一个统一的端点来处理特定的 LLM 相关请求,从而简化与这些服务的交互。

安装和设置

使用以下命令安装带有 MLflow 部署依赖项的 mlflow

pip install 'mlflow[genai]'

将 OpenAI API 密钥设置为环境变量:

export OPENAI_API_KEY=...

创建一个配置文件:

endpoints:
- name: completions
endpoint_type: llm/v1/completions
model:
provider: openai
name: text-davinci-003
config:
openai_api_key: $OPENAI_API_KEY
- name: embeddings
endpoint_type: llm/v1/embeddings
model:
provider: openai
name: text-embedding-ada-002
config:
openai_api_key: $OPENAI_API_KEY

启动部署服务器:

mlflow deployments start-server --config-path /path/to/config.yaml

MLflow 提供的示例

mlflow.langchain 模块提供了用于记录和加载 LangChain 模型的 API。该模块以 langchain flavor 导出多变量 LangChain 模型,以 pyfunc flavor 导出单变量 LangChain 模型。

有关更多信息,请参阅 API 文档和示例

完成示例

import mlflow
from langchain.chains import LLMChain, PromptTemplate
from langchain_community.llms import Mlflow
llm = Mlflow(
target_uri="http://127.0.0.1:5000",
endpoint="completions",
)
llm_chain = LLMChain(
llm=Mlflow,
prompt=PromptTemplate(
input_variables=["adjective"],
template="Tell me a {adjective} joke",
),
)
result = llm_chain.run(adjective="funny")
print(result)
with mlflow.start_run():
model_info = mlflow.langchain.log_model(chain, "model")
model = mlflow.pyfunc.load_model(model_info.model_uri)
print(model.predict([{"adjective": "funny"}]))

嵌入示例

from langchain_community.embeddings import MlflowEmbeddings
embeddings = MlflowEmbeddings(
target_uri="http://127.0.0.1:5000",
endpoint="embeddings",
)
print(embeddings.embed_query("hello"))
print(embeddings.embed_documents(["hello"]))

聊天示例

from langchain_community.chat_models import ChatMlflow
from langchain_core.messages import HumanMessage, SystemMessage
chat = ChatMlflow(
target_uri="http://127.0.0.1:5000",
endpoint="chat",
)
messages = [
SystemMessage(
content="You are a helpful assistant that translates English to French."
),
HumanMessage(
content="Translate this sentence from English to French: I love programming."
),
]
print(chat(messages))

Was this page helpful?


You can leave detailed feedback on GitHub.