Skip to main content

PipelineAI

PipelineAI 允许您在云中以规模运行您的机器学习模型。它还提供对几个LLM模型的API访问。

这份笔记将介绍如何在PipelineAI中使用Langchain。

PipelineAI示例

这个示例展示了PipelineAI如何与LangChain集成,由PipelineAI创建。

设置

使用PipelineAI API,也称为Pipeline Cloud,需要安装pipeline-ai库。使用pip install pipeline-ai进行安装。

# 安装包
%pip install --upgrade --quiet pipeline-ai

示例

导入

import os
from langchain.chains import LLMChain
from langchain_community.llms import PipelineAI
from langchain_core.prompts import PromptTemplate

设置环境API密钥

确保从PipelineAI获取您的API密钥。查看云快速入门指南。您将获得为期30天的免费试用,可用于测试不同模型的无服务器GPU计算共10小时。

os.environ["PIPELINE_API_KEY"] = "YOUR_API_KEY_HERE"

创建PipelineAI实例

在实例化PipelineAI时,您需要指定要使用的流水线的ID或标签,例如pipeline_key = "public/gpt-j:base"。然后,您可以选择传递其他特定于流水线的关键字参数:

llm = PipelineAI(pipeline_key="YOUR_PIPELINE_KEY", pipeline_kwargs={...})

创建一个提示模板

我们将为问题和答案创建一个提示模板。

template = """Question: {question}
Answer: 让我们逐步思考。"""
prompt = PromptTemplate.from_template(template)

初始化LLMChain

llm_chain = LLMChain(prompt=prompt, llm=llm)

运行LLMChain

提供一个问题并运行LLMChain。

question = "贾斯汀·比伯出生年份的超级碗冠军是哪支NFL球队?"
llm_chain.run(question)

Was this page helpful?


You can leave detailed feedback on GitHub.