跳到主要内容

Azure聊天完成示例(预览)

nbviewer

注意:有一个更新版本的openai库可用。请参阅https://github.com/openai/openai-python/discussions/742

本示例将涵盖使用Azure OpenAI服务进行聊天完成。

设置

首先,我们安装必要的依赖项。

! pip install "openai>=0.28.1,<1.0.0"

为了使以下部分正常工作,我们首先需要设置一些内容。让我们从api_baseapi_version开始。要找到您的api_base,请转到https://portal.azure.com,在资源下找到您的资源,然后在“资源管理”-\>“密钥和端点”下查找“端点”值。

import os
import openai

openai.api_version = '2023-05-15'
openai.api_base = '' # 请在此处添加您的端点

接下来我们需要设置api_typeapi_key。我们可以从门户获取密钥,也可以通过Microsoft Active Directory身份验证获取密钥。根据这一点,api_type可以是azureazure_ad

设置:门户

首先让我们看看如何从门户获取密钥。转到 https://portal.azure.com,在资源中找到你的资源,然后在“资源管理” -> “密钥和端点”下查找一个“密钥”值。

openai.api_type = 'azure'
openai.api_key = os.environ["OPENAI_API_KEY"]

注意:在这个例子中,我们通过在代码中设置变量来配置库以使用Azure API。对于开发环境,考虑设置环境变量而不是在代码中设置:

OPENAI_API_BASE
OPENAI_API_KEY
OPENAI_API_TYPE
OPENAI_API_VERSION

(可选) 设置:Microsoft Active Directory身份验证

现在让我们看看如何通过Microsoft Active Directory身份验证获取密钥。如果您想使用Active Directory身份验证而不是来自门户的密钥,请取消下面代码的注释。

# from azure.identity import DefaultAzureCredential

# default_credential = DefaultAzureCredential()
# token = default_credential.get_token("https://cognitiveservices.azure.com/.default")

# openai.api_type = 'azure_ad'
# openai.api_key = token.token

令牌在一段时间内有效,之后将会过期。为了确保每个请求都携带一个有效的令牌,您可以通过连接到requests.auth来刷新即将过期的令牌:

import typing
import time
import requests
if typing.TYPE_CHECKING:
from azure.core.credentials import TokenCredential

class TokenRefresh(requests.auth.AuthBase):

def __init__(self, credential: "TokenCredential", scopes: typing.List[str]) -> None:
self.credential = credential
self.scopes = scopes
self.cached_token: typing.Optional[str] = None

def __call__(self, req):
if not self.cached_token or self.cached_token.expires_on - time.time() < 300:
self.cached_token = self.credential.get_token(*self.scopes)
req.headers["Authorization"] = f"Bearer {self.cached_token.token}"
return req

session = requests.Session()
session.auth = TokenRefresh(default_credential, ["https://cognitiveservices.azure.com/.default"])

openai.requestssession = session

部署

在本节中,我们将使用gpt-35-turbo模型创建一个部署,然后可以用它来生成聊天完成。

部署:手动创建

让我们使用 gpt-35-turbo 模型创建一个部署。前往 https://portal.azure.com,在资源中找到 “资源管理” -> “模型部署”,创建一个新的 gpt-35-turbo 部署。

deployment_id = '' # 在此处填写从门户获取的部署ID

创建聊天完成

现在让我们向部署发送一个样本聊天完成。

# 有关所有可能的参数,请参阅 <https://platform.openai.com/docs/api-reference/chat-completions/create>。
response = openai.ChatCompletion.create(
deployment_id=deployment_id,
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Knock knock."},
{"role": "assistant", "content": "Who's there?"},
{"role": "user", "content": "Orange."},
],
temperature=0,
)

print(f"{response.choices[0].message.role}: {response.choices[0].message.content}")

我们也可以流式传输响应。

response = openai.ChatCompletion.create(
deployment_id=deployment_id,
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Knock knock."},
{"role": "assistant", "content": "Who's there?"},
{"role": "user", "content": "Orange."},
],
temperature=0,
stream=True
)

for chunk in response:
if len(chunk.choices) > 0:
delta = chunk.choices[0].delta

if "role" in delta.keys():
print(delta.role + ": ", end="", flush=True)
if "content" in delta.keys():
print(delta.content, end="", flush=True)