Konko
所有与Konko相关的功能
Konko AI 提供了一个完全托管的API,以帮助应用程序开发者
- 选择适合其应用的开源或专有LLMs
- 构建应用程序更快,通过集成领先的应用程序框架和完全托管的API
- 微调较小的开源LLMs,以极低的成本实现行业领先的性能
- 部署生产规模的API,使用Konko AI符合SOC 2标准的多云基础设施,无需基础设施设置或管理,即可满足安全性、隐私性、吞吐量和延迟的SLA要求
安装与设置
pip install konko
- 将API密钥设置为环境变量(
KONKO_API_KEY
,OPENAI_API_KEY
)
export KONKO_API_KEY={your_KONKO_API_KEY_here}
export OPENAI_API_KEY={your_OPENAI_API_KEY_here} #Optional
请参阅Konko文档以获取更多详细信息。
LLM
探索可用模型:首先浏览Konko上的可用模型。每个模型都针对不同的用例和能力。
另一种查找在Konko实例上运行的模型列表的方法是通过这个endpoint。
查看一个使用示例。
端点使用示例
-
Completion with mistralai/Mistral-7B-v0.1:
from langchain_community.llms import Konko
llm = Konko(max_tokens=800, model='mistralai/Mistral-7B-v0.1')
prompt = "Generate a Product Description for Apple Iphone 15"
response = llm.invoke(prompt)
聊天模型
查看一个使用示例。
-
ChatCompletion with Mistral-7B:
from langchain_core.messages import HumanMessage
from langchain_community.chat_models import ChatKonko
chat_instance = ChatKonko(max_tokens=10, model = 'mistralai/mistral-7b-instruct-v0.1')
msg = HumanMessage(content="Hi")
chat_response = chat_instance([msg])
如需进一步帮助,请联系 support@konko.ai 或加入我们的 Discord。