深度稀疏
本页面介绍如何在 LangChain 中使用 DeepSparse 推理运行时。内容分为两部分:安装和设置,以及 DeepSparse 使用示例。
安装和设置
使用
pip install deepsparse
安装 Python 包。选择一个 SparseZoo 模型 或者使用 Optimum 将支持的模型导出为 ONNX (参见此处)
存在一个 DeepSparse LLM 包装器,为所有模型提供统一接口:
from langchain_community.llms import DeepSparse
llm = DeepSparse(
model="zoo:nlg/text_generation/codegen_mono-350m/pytorch/huggingface/bigpython_bigquery_thepile/base-none"
)
print(llm.invoke("def fib():"))
可以使用 config
参数传递额外的参数:
config = {"max_generated_tokens": 256}
llm = DeepSparse(
model="zoo:nlg/text_generation/codegen_mono-350m/pytorch/huggingface/bigpython_bigquery_thepile/base-none",
config=config,
)