Skip to content

大型语言模型#

常见问题解答#
  1. 如何定义自定义的LLM模型?
  2. 如何使用本地的Hugging Face嵌入模型?
  3. 如何自定义我的提示?
  4. 是否需要对我的模型进行微调?
  5. 我希望LLM用中文/意大利语/法语回答,但只接受英文答案,该如何操作?
  6. LlamaIndex是否支持GPU加速?

1. 如何定义自定义的LLM模型?#

您可以访问使用自定义来定义自定义的LLM模型。


2. 如何使用不同的OpenAI模型?#

要使用不同的OpenAI模型,您可以访问配置模型来设置您自己的自定义模型。


3. 如何自定义我的提示?#

您可以访问提示了解如何自定义您的提示。


4. 是否需要对我的模型进行微调?#

不需要。有一些孤立的模块可能会提供更好的结果,但不是必需的,您可以使用llamaindex而无需对模型进行微调。


5. 我希望LLM用中文/意大利语/法语回答,但只接受英文答案,该如何操作?#

为了让LLM用其他语言回答更准确,您可以更新提示以更加强制输出语言。

response = query_engine.query("您的查询内容... \n以意大利语回复")

或者:

from llama_index.core import Settings
from llama_index.llms.openai import OpenAI

llm = OpenAI(system_prompt="始终以意大利语回复。")

# 设置全局llm
Settings.llm = llm

query_engine = load_index_from_storage(
    storage_context,
).as_query_engine()

6. LlamaIndex是否支持GPU加速?#

是的,您可以在本地运行语言模型(LLM)时在GPU上运行。您可以在llama2设置文档中找到设置支持GPU的LLM的示例。