Mistral AI
Mistral AI API 提供了对各种 Mistral 模型的访问。
API Key
要使用 Mistral AI,您需要设置 MISTRAL_API_KEY
环境变量,或在提供者配置中指定 apiKey
。
设置环境变量的示例:
export MISTRAL_API_KEY=your_api_key_here
模型选择
您可以在配置中指定要使用的 Mistral 模型。以下是可用的模型:
聊天模型
open-mistral-7b
,mistral-tiny
,mistral-tiny-2312
open-mistral-nemo
,open-mistral-nemo-2407
,mistral-tiny-2407
,mistral-tiny-latest
mistral-small-2402
,mistral-small-latest
mistral-medium-2312
,mistral-medium
,mistral-medium-latest
mistral-large-2402
mistral-large-2407
,mistral-large-latest
codestral-2405
,codestral-latest
codestral-mamba-2407
,open-codestral-mamba
,codestral-mamba-latest
open-mixtral-8x7b
,mistral-small
,mistral-small-2312
open-mixtral-8x22b
,open-mixtral-8x22b-2404
嵌入模型
mistral-embed
以下是比较不同 Mistral 模型的示例配置:
providers:
- mistral:mistral-medium-latest
- mistral:mistral-small-latest
- mistral:open-mistral-nemo
选项
Mistral 提供者支持多个选项来自定义模型的行为。这些选项包括:
temperature
:控制输出的随机性。top_p
:控制核采样,影响输出的随机性。max_tokens
:生成的文本的最大长度。safe_prompt
:是否强制在提示中使用安全内容。random_seed
:用于确定性输出的种子。response_format
: 启用 JSON 模式,通过将response_format
设置为{"type": "json_object"}
。必须明确要求模型生成 JSON 输出。目前仅支持其更新模型mistral-small-latest
和mistral-large-latest
。apiKeyEnvar
:包含 API 密钥的环境变量apiHost
:Mistral API 的主机名,请同时阅读下面的MISTRAL_API_HOST
。apiBaseUrl
:Mistral API 的基本 URL,请同时阅读下面的MISTRAL_API_BASE_URL
。
带有选项的示例配置:
providers:
- id: mistral:mistral-large-latest
config:
temperature: 0.7
max_tokens: 512
safe_prompt: true
response_format: { 'type': 'json_object' }
附加功能
- 缓存:默认缓存之前的 LLM 请求。
- 令牌使用跟踪:提供每个请求中使用的令牌数量的详细信息,有助于使用监控和优化。
- 成本计算:根据生成的令牌数量和使用的特定模型计算每个请求的成本。
支持的环境变量
这些 Mistral 相关的环境变量受支持:
变量 | 描述 |
---|---|
MISTRAL_API_HOST | 要使用的主机名(如果您使用 API 代理,这很有用)。优先于 MISTRAL_API_BASE_URL 。 |
MISTRAL_API_BASE_URL | 要使用的基本 URL(协议 + 主机名 + 端口),这是一个比 MISTRAL_API_HOST 更通用的选项。 |
MISTRAL_API_KEY | Mistral API 密钥。 |