Skip to main content

Konko

与 Konko 相关的所有功能

Konko AI 提供了一个完全托管的 API,以帮助应用程序开发人员

  1. 选择合适的开源或专有 LLMs 用于他们的应用程序
  1. 通过与主要应用程序框架的集成和完全托管的 API,更快地构建应用程序
  1. 微调较小的开源 LLMs,以在成本的一小部分下实现行业领先的性能
  1. 使用 Konko AI 的符合 SOC 2 标准的多云基础设施,部署符合安全性、隐私性、吞吐量和延迟 SLA 的生产规模 API,无需进行基础设施设置或管理

安装和设置

  1. 登录我们的 Web 应用程序,创建 API 密钥 以通过我们的端点访问模型,用于 聊天完成完成

  2. 启用 Python3.8+ 环境

  3. 安装 SDK

pip install konko
  1. 将 API 密钥设置为环境变量(KONKO_API_KEY,OPENAI_API_KEY)
export KONKO_API_KEY={your_KONKO_API_KEY_here}
export OPENAI_API_KEY={your_OPENAI_API_KEY_here} #可选

请参阅 Konko 文档 以获取更多详细信息。

LLM

浏览可用模型: 从 Konko 上浏览 可用模型 开始。每个模型都适用于不同的用例和功能。

另一种查找运行在 Konko 实例上的模型列表的方法是通过这个 端点

查看一个使用 示例

端点使用示例

  • 使用 mistralai/Mistral-7B-v0.1 进行完成:

    from langchain.llms import Konko
    llm = Konko(max_tokens=800, model='mistralai/Mistral-7B-v0.1')
    prompt = "为 Apple Iphone 15 生成产品描述"
    response = llm.invoke(prompt)

聊天模型

查看一个使用 示例

  • 使用 Mistral-7B 进行聊天完成:

    from langchain_core.messages import HumanMessage
    from langchain_community.chat_models import ChatKonko
    chat_instance = ChatKonko(max_tokens=10, model = 'mistralai/mistral-7b-instruct-v0.1')
    msg = HumanMessage(content="你好")
    chat_response = chat_instance([msg])

如需进一步协助,请联系 support@konko.ai 或加入我们的 Discord


Was this page helpful?


You can leave detailed feedback on GitHub.