Skip to main content

DeepInfra

DeepInfra 是一项无服务器推理服务,提供对各种LLM模型嵌入模型的访问。本笔记介绍了如何在DeepInfra中使用LangChain进行聊天模型。

设置环境API密钥

确保从DeepInfra获取您的API密钥。您需要登录并获取一个新的令牌。

您将获得1小时的免费无服务器GPU计算时间来测试不同的模型。(参见这里

您可以使用 deepctl auth token 命令打印您的令牌

# 获取一个新的令牌:https://deepinfra.com/login?from=%2Fdash
import os
from getpass import getpass
from langchain_community.chat_models import ChatDeepInfra
from langchain_core.messages import HumanMessage
DEEPINFRA_API_TOKEN = getpass()
# 或者将 deepinfra_api_token 参数传递给 ChatDeepInfra 构造函数
os.environ["DEEPINFRA_API_TOKEN"] = DEEPINFRA_API_TOKEN
chat = ChatDeepInfra(model="meta-llama/Llama-2-7b-chat-hf")
messages = [
HumanMessage(
content="将这句话从英语翻译成法语。我喜欢编程。"
)
]
chat.invoke(messages)

ChatDeepInfra 还支持异步和流式功能:

from langchain_core.callbacks import StreamingStdOutCallbackHandler
await chat.agenerate([messages])
chat = ChatDeepInfra(
streaming=True,
verbose=True,
callbacks=[StreamingStdOutCallbackHandler()],
)
chat.invoke(messages)

Was this page helpful?


You can leave detailed feedback on GitHub.