Skip to main content
Open In ColabOpen on GitHub

Eden AI

Eden AI 正在通过联合最佳的人工智能提供商,彻底改变人工智能领域,使用户能够解锁无限的可能性,并挖掘人工智能的真正潜力。通过一个全面且无忧的一体化平台,用户可以快速将人工智能功能部署到生产中,通过单一的API轻松访问全方位的人工智能能力。(网站:https://edenai.co/

本示例介绍了如何使用LangChain与Eden AI模型进行交互


EdenAI 不仅仅局限于模型调用。它为您提供了高级功能,包括:

  • 多提供商:获得由不同提供商提供的多种语言模型的访问权限,让您自由选择最适合您用例的模型。

  • 回退机制: 设置一个回退机制,以确保即使主要提供商不可用,也能无缝操作,您可以轻松切换到备用提供商。

  • 使用跟踪: 按项目和API密钥跟踪使用统计信息。此功能使您能够有效监控和管理资源消耗。

  • 监控与可观测性: EdenAI 在平台上提供了全面的监控和可观测性工具。监控您的语言模型性能,分析使用模式,并获得有价值的见解以优化您的应用程序。

访问EDENAI的API需要一个API密钥,

你可以通过创建一个账户 https://app.edenai.run/user/register 并前往这里 https://app.edenai.run/admin/iam/api-keys 来获取

一旦我们有了一个密钥,我们将通过运行以下命令将其设置为环境变量:

export EDENAI_API_KEY="..."

您可以在API参考中找到更多详细信息:https://docs.edenai.co/reference

如果您不想设置环境变量,可以直接通过名为edenai_api_key的参数传递密钥

当启动EdenAI聊天模型类时。

from langchain_community.chat_models.edenai import ChatEdenAI
from langchain_core.messages import HumanMessage
API Reference:ChatEdenAI | HumanMessage
chat = ChatEdenAI(
edenai_api_key="...", provider="openai", temperature=0.2, max_tokens=250
)
messages = [HumanMessage(content="Hello !")]
chat.invoke(messages)
AIMessage(content='Hello! How can I assist you today?')
await chat.ainvoke(messages)
AIMessage(content='Hello! How can I assist you today?')

流式处理和批处理

ChatEdenAI 支持流式处理和批处理。以下是一个示例。

for chunk in chat.stream(messages):
print(chunk.content, end="", flush=True)
Hello! How can I assist you today?
chat.batch([messages])
[AIMessage(content='Hello! How can I assist you today?')]

回退机制

使用Eden AI,您可以设置一个备用机制,以确保即使主要提供商不可用,也能无缝操作,您可以轻松切换到替代提供商。

chat = ChatEdenAI(
edenai_api_key="...",
provider="openai",
temperature=0.2,
max_tokens=250,
fallback_providers="google",
)

在这个例子中,如果OpenAI遇到任何问题,你可以使用Google作为备用提供商。

有关Eden AI的更多信息和详情,请查看此链接:https://docs.edenai.co/docs/additional-parameters

链式调用

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate.from_template(
"What is a good name for a company that makes {product}?"
)
chain = prompt | chat
API Reference:ChatPromptTemplate
chain.invoke({"product": "healthy snacks"})
AIMessage(content='VitalBites')

工具

bind_tools()

使用ChatEdenAI.bind_tools,我们可以轻松地将Pydantic类、字典模式、LangChain工具甚至函数作为工具传递给模型。

from pydantic import BaseModel, Field

llm = ChatEdenAI(provider="openai", temperature=0.2, max_tokens=500)


class GetWeather(BaseModel):
"""Get the current weather in a given location"""

location: str = Field(..., description="The city and state, e.g. San Francisco, CA")


llm_with_tools = llm.bind_tools([GetWeather])
ai_msg = llm_with_tools.invoke(
"what is the weather like in San Francisco",
)
ai_msg
AIMessage(content='', response_metadata={'openai': {'status': 'success', 'generated_text': None, 'message': [{'role': 'user', 'message': 'what is the weather like in San Francisco', 'tools': [{'name': 'GetWeather', 'description': 'Get the current weather in a given location', 'parameters': {'type': 'object', 'properties': {'location': {'description': 'The city and state, e.g. San Francisco, CA', 'type': 'string'}}, 'required': ['location']}}], 'tool_calls': None}, {'role': 'assistant', 'message': None, 'tools': None, 'tool_calls': [{'id': 'call_tRpAO7KbQwgTjlka70mCQJdo', 'name': 'GetWeather', 'arguments': '{"location":"San Francisco"}'}]}], 'cost': 0.000194}}, id='run-5c44c01a-d7bb-4df6-835e-bda596080399-0', tool_calls=[{'name': 'GetWeather', 'args': {'location': 'San Francisco'}, 'id': 'call_tRpAO7KbQwgTjlka70mCQJdo'}])
ai_msg.tool_calls
[{'name': 'GetWeather',
'args': {'location': 'San Francisco'},
'id': 'call_tRpAO7KbQwgTjlka70mCQJdo'}]

with_structured_output()

BaseChatModel.with_structured_output 接口使得从聊天模型中获取结构化输出变得容易。您可以使用 ChatEdenAI.with_structured_output(它在底层使用了工具调用),以使模型更可靠地返回特定格式的输出:

structured_llm = llm.with_structured_output(GetWeather)
structured_llm.invoke(
"what is the weather like in San Francisco",
)
GetWeather(location='San Francisco')

将工具结果传递给模型

这里是一个如何使用工具的完整示例。将工具输出传递给模型,并从模型获取结果。

from langchain_core.messages import HumanMessage, ToolMessage
from langchain_core.tools import tool


@tool
def add(a: int, b: int) -> int:
"""Adds a and b.

Args:
a: first int
b: second int
"""
return a + b


llm = ChatEdenAI(
provider="openai",
max_tokens=1000,
temperature=0.2,
)

llm_with_tools = llm.bind_tools([add], tool_choice="required")

query = "What is 11 + 11?"

messages = [HumanMessage(query)]
ai_msg = llm_with_tools.invoke(messages)
messages.append(ai_msg)

tool_call = ai_msg.tool_calls[0]
tool_output = add.invoke(tool_call["args"])

# This append the result from our tool to the model
messages.append(ToolMessage(tool_output, tool_call_id=tool_call["id"]))

llm_with_tools.invoke(messages).content
API Reference:HumanMessage | ToolMessage | tool
'11 + 11 = 22'

流处理

Eden AI 目前不支持流式工具调用。尝试流式传输将产生一条最终消息。

list(llm_with_tools.stream("What's 9 + 9"))
/home/eden/Projects/edenai-langchain/libs/community/langchain_community/chat_models/edenai.py:603: UserWarning: stream: Tool use is not yet supported in streaming mode.
warnings.warn("stream: Tool use is not yet supported in streaming mode.")
[AIMessageChunk(content='', id='run-fae32908-ec48-4ab2-ad96-bb0d0511754f', tool_calls=[{'name': 'add', 'args': {'a': 9, 'b': 9}, 'id': 'call_n0Tm7I9zERWa6UpxCAVCweLN'}], tool_call_chunks=[{'name': 'add', 'args': '{"a": 9, "b": 9}', 'id': 'call_n0Tm7I9zERWa6UpxCAVCweLN', 'index': 0}])]

这个页面有帮助吗?