PipelineAI
PipelineAI 允许您在云中以规模运行您的机器学习模型。它还提供对几个LLM模型的API访问。
这份笔记将介绍如何在PipelineAI中使用Langchain。
PipelineAI示例
这个示例展示了PipelineAI如何与LangChain集成,由PipelineAI创建。
设置
使用PipelineAI
API,也称为Pipeline Cloud
,需要安装pipeline-ai
库。使用pip install pipeline-ai
进行安装。
# 安装包
%pip install --upgrade --quiet pipeline-ai
示例
导入
import os
from langchain.chains import LLMChain
from langchain_community.llms import PipelineAI
from langchain_core.prompts import PromptTemplate
设置环境API密钥
确保从PipelineAI获取您的API密钥。查看云快速入门指南。您将获得为期30天的免费试用,可用于测试不同模型的无服务器GPU计算共10小时。
os.environ["PIPELINE_API_KEY"] = "YOUR_API_KEY_HERE"
创建PipelineAI实例
在实例化PipelineAI时,您需要指定要使用的流水线的ID或标签,例如pipeline_key = "public/gpt-j:base"
。然后,您可以选择传递其他特定于流水线的关键字参数:
llm = PipelineAI(pipeline_key="YOUR_PIPELINE_KEY", pipeline_kwargs={...})
创建一个提示模板
我们将为问题和答案创建一个提示模板。
template = """Question: {question}
Answer: 让我们逐步思考。"""
prompt = PromptTemplate.from_template(template)
初始化LLMChain
llm_chain = LLMChain(prompt=prompt, llm=llm)
运行LLMChain
提供一个问题并运行LLMChain。
question = "贾斯汀·比伯出生年份的超级碗冠军是哪支NFL球队?"
llm_chain.run(question)