Skip to main content
Open In ColabOpen on GitHub

英特尔仅权重量化

使用英特尔Transformers扩展管道的Huggingface模型的仅权重量化

Hugging Face 模型可以通过 WeightOnlyQuantPipeline 类在本地运行,使用仅权重量化。

Hugging Face Model Hub 托管了超过12万个模型、2万个数据集和5万个演示应用(Spaces),所有这些资源都是开源且公开可用的,人们可以在这个在线平台上轻松协作并共同构建机器学习。

这些可以通过这个本地管道包装类从LangChain调用。

要使用,您应该安装transformers python ,以及pytorchintel-extension-for-transformers

%pip install transformers --quiet
%pip install intel-extension-for-transformers

模型加载

可以通过使用from_model_id方法指定模型参数来加载模型。模型参数包括intel_extension_for_transformers中的WeightOnlyQuantConfig类。

from intel_extension_for_transformers.transformers import WeightOnlyQuantConfig
from langchain_community.llms.weight_only_quantization import WeightOnlyQuantPipeline

conf = WeightOnlyQuantConfig(weight_dtype="nf4")
hf = WeightOnlyQuantPipeline.from_model_id(
model_id="google/flan-t5-large",
task="text2text-generation",
quantization_config=conf,
pipeline_kwargs={"max_new_tokens": 10},
)

它们也可以通过直接传入现有的transformers管道来加载

from intel_extension_for_transformers.transformers import AutoModelForSeq2SeqLM
from transformers import AutoTokenizer, pipeline

model_id = "google/flan-t5-large"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForSeq2SeqLM.from_pretrained(model_id)
pipe = pipeline(
"text2text-generation", model=model, tokenizer=tokenizer, max_new_tokens=10
)
hf = WeightOnlyQuantPipeline(pipeline=pipe)

创建链

将模型加载到内存后,您可以将其与提示组合以形成链。

from langchain_core.prompts import PromptTemplate

template = """Question: {question}

Answer: Let's think step by step."""
prompt = PromptTemplate.from_template(template)

chain = prompt | hf

question = "What is electroencephalography?"

print(chain.invoke({"question": question}))
API Reference:PromptTemplate

CPU 推理

目前intel-extension-for-transformers仅支持CPU设备推理。很快将支持英特尔GPU。在运行于CPU的机器上时,您可以指定device="cpu"device=-1参数将模型放在CPU设备上。 默认情况下,CPU推理使用-1

conf = WeightOnlyQuantConfig(weight_dtype="nf4")
llm = WeightOnlyQuantPipeline.from_model_id(
model_id="google/flan-t5-large",
task="text2text-generation",
quantization_config=conf,
pipeline_kwargs={"max_new_tokens": 10},
)

template = """Question: {question}

Answer: Let's think step by step."""
prompt = PromptTemplate.from_template(template)

chain = prompt | llm

question = "What is electroencephalography?"

print(chain.invoke({"question": question}))

批量CPU推理

您也可以在批处理模式下在CPU上运行推理。

conf = WeightOnlyQuantConfig(weight_dtype="nf4")
llm = WeightOnlyQuantPipeline.from_model_id(
model_id="google/flan-t5-large",
task="text2text-generation",
quantization_config=conf,
pipeline_kwargs={"max_new_tokens": 10},
)

chain = prompt | llm.bind(stop=["\n\n"])

questions = []
for i in range(4):
questions.append({"question": f"What is the number {i} in french?"})

answers = chain.batch(questions)
for answer in answers:
print(answer)

Intel-extension-for-transformers支持的数据类型

我们支持将权重量化为以下数据类型以进行存储(WeightOnlyQuantConfig中的weight_dtype):

  • int8: 使用8位数据类型。
  • int4_fullrange: 使用int4范围的-8值,与正常的int4范围[-7,7]进行比较。
  • int4_clip: 剪切并保留在int4范围内的值,将其他值设置为零。
  • nf4: 使用归一化的4位浮点数据类型。
  • fp4_e2m1: 使用常规的4位浮点数据类型。"e2"表示2位用于指数,"m1"表示1位用于尾数。

虽然这些技术将权重存储在4位或8位中,但计算仍然在float32、bfloat16或int8(WeightOnlyQuantConfig中的compute_dtype)中进行:

  • fp32: 使用 float32 数据类型进行计算。
  • bf16: 使用 bfloat16 数据类型进行计算。
  • int8: 使用8位数据类型进行计算。

支持的算法矩阵

intel-extension-for-transformers支持的量化算法(WeightOnlyQuantConfig中的算法):

算法PyTorchLLM 运行时
RTN
AWQ敬请期待
TEQ敬请期待

RTN: 一种我们可以非常直观地想到的量化方法。它不需要额外的数据集,是一种非常快速的量化方法。一般来说,RTN会将权重转换为均匀分布的整数数据类型,但一些算法,如Qlora,提出了一种非均匀的NF4数据类型,并证明了其理论上的最优性。

AWQ: 证明了仅保护1%的重要权重可以大大减少量化误差。重要权重通道是通过观察每个通道的激活和权重分布来选择的。在量化之前,重要权重还会乘以一个大比例因子进行量化以保持其值。

TEQ: 一种可训练的等效变换,在仅权重量化中保持FP32精度。它受到AWQ的启发,同时提供了一种新的解决方案,用于搜索激活和权重之间的最佳每通道缩放因子。


这个页面有帮助吗?