Skip to main content

非 OpenAI 模型

AutoGen 允许您通过提供与 OpenAI 兼容的 API 或自定义模型客户端类来使用非 OpenAI 模型。

这种灵活性的好处包括访问数百个模型,将专门的模型分配给代理人(例如,微调的编码模型),在您的环境中完全运行 AutoGen,同时利用 OpenAI 和非 OpenAI 模型在一个系统中运行,并减少推理成本。

兼容 OpenAI API 的代理服务器

任何提供与OpenAI 的 API兼容的 API 的代理服务器都可以与 AutoGen 一起使用。

这些代理服务器可以是基于云的,也可以在您的环境中本地运行。

基于云或本地的代理服务器

基于云的代理服务器

通过使用基于云的代理服务器,您可以在不需要硬件和软件的情况下使用模型。

这些提供商可以托管开源/权重模型,例如Hugging FaceMistral AI,或者他们自己的闭源模型。

当基于云的代理服务器提供与 OpenAI 兼容的 API 时,在 AutoGen 中使用它们是直接的。使用LLM 配置的方式与使用 OpenAI 模型时基本相同,主要区别通常在于身份验证,通常通过 API 密钥处理。

下面提供了使用具有与 OpenAI 兼容的 API 的基于云的代理服务器提供商的示例:

本地运行的代理服务器

越来越多的 LLM 代理服务器可供本地使用。这些可以是开源的(例如 LiteLLM、Ollama、vLLM)或闭源的(例如 LM Studio),通常用于在您的环境中运行全栈。

与基于云的代理服务器类似,只要这些代理服务器提供与 OpenAI 兼容的 API,将它们运行在 AutoGen 中就很简单。

下面提供了使用具有与 OpenAI 兼容的 API 的本地运行的代理服务器的示例:

tip

如果您计划使用函数调用,不是所有基于云的和本地代理服务器都支持使用 OpenAI 兼容的 API 进行函数调用,请查看它们的文档。

非 OpenAI 模型的配置

无论您选择基于云的还是本地运行的代理服务器,配置方式与使用 OpenAI 模型相同,请参阅LLM 配置。 更多信息请参考。

您可以使用model configuration filtering将特定模型分配给代理。

自定义模型客户端类

对于更高级的用户,您可以创建自己的自定义模型客户端类,从而能够定义和加载自己的模型。

请参阅AutoGen with Custom Models: Empowering Users to Use Their Own Inference Mechanism博客文章和此笔记本,了解如何创建自定义模型客户端类的指南。