花瓣
Petals
在家中以 BitTorrent 风格运行超过 100 亿个语言模型。
本笔记将介绍如何在 Petals 上使用 Langchain。
安装 petals
使用 Petals API 需要安装 petals
软件包。使用 pip3 install petals
命令来安装 petals
。
对于使用 Apple Silicon(M1/M2)芯片的用户,请按照这个指南 https://github.com/bigscience-workshop/petals/issues/147#issuecomment-1365379642 来安装 petals。
!pip3 install petals
导入库
import os
from langchain.chains import LLMChain
from langchain_community.llms import Petals
from langchain_core.prompts import PromptTemplate
设置环境 API 密钥
确保从 Huggingface 获取您的 API 密钥。
from getpass import getpass
HUGGINGFACE_API_KEY = getpass()
········
os.environ["HUGGINGFACE_API_KEY"] = HUGGINGFACE_API_KEY
创建 Petals 实例
您可以指定不同的参数,如模型名称、最大新标记、温度等。
# 这可能需要几分钟来下载大文件!
llm = Petals(model_name="bigscience/bloom-petals")
Downloading: 1%|▏ | 40.8M/7.19G [00:24<15:44, 7.57MB/s]
创建一个提示模板
我们将为问题和答案创建一个提示模板。
template = """Question: {question}
Answer: Let's think step by step."""
prompt = PromptTemplate.from_template(template)
初始化 LLMChain
llm_chain = LLMChain(prompt=prompt, llm=llm)
运行 LLMChain
提供一个问题并运行 LLMChain。
question = "What NFL team won the Super Bowl in the year Justin Beiber was born?"
llm_chain.run(question)