Skip to main content
Open on GitHub

DeepSparse

本页面介绍了如何在LangChain中使用DeepSparse推理运行时。 它分为两部分:安装和设置,然后是DeepSparse使用的示例。

安装与设置

大型语言模型

存在一个DeepSparse LLM包装器,您可以通过以下方式访问:

from langchain_community.llms import DeepSparse
API Reference:DeepSparse

它为所有模型提供了一个统一的接口:

llm = DeepSparse(model='zoo:nlg/text_generation/codegen_mono-350m/pytorch/huggingface/bigpython_bigquery_thepile/base-none')

print(llm.invoke('def fib():'))

可以使用config参数传递额外的参数:

config = {'max_generated_tokens': 256}

llm = DeepSparse(model='zoo:nlg/text_generation/codegen_mono-350m/pytorch/huggingface/bigpython_bigquery_thepile/base-none', config=config)

这个页面有帮助吗?