Skip to main content

DeepSparse

本页面介绍如何在 LangChain 中使用 DeepSparse 推理运行时。它分为两个部分:安装和设置,以及 DeepSparse 使用示例。

安装和设置

LLMs

存在一个 DeepSparse LLM 包装器,可以通过以下方式访问:

from langchain_community.llms import DeepSparse

它为所有模型提供了统一的接口:

llm = DeepSparse(model='zoo:nlg/text_generation/codegen_mono-350m/pytorch/huggingface/bigpython_bigquery_thepile/base-none')
print(llm.invoke('def fib():'))

可以使用 config 参数传递其他参数:

config = {'max_generated_tokens': 256}
llm = DeepSparse(model='zoo:nlg/text_generation/codegen_mono-350m/pytorch/huggingface/bigpython_bigquery_thepile/base-none', config=config)

Was this page helpful?


You can leave detailed feedback on GitHub.