Skip to content

安装和设置#

LlamaIndex 生态系统使用一系列命名空间包进行结构化。

对用户来说,这意味着 LlamaIndex 自带一个核心起始包,可以根据需要安装额外的集成。

可以在 LlamaHub 上找到完整的包列表和可用的集成。

通过 Pip 进行快速安装#

要快速开始,可以使用以下命令进行安装:

pip install llama-index

这是一个包含以下内容的起始包:

  • llama-index-core
  • llama-index-legacy # 暂时包含
  • llama-index-llms-openai
  • llama-index-embeddings-openai
  • llama-index-program-openai
  • llama-index-question-gen-openai
  • llama-index-agent-openai
  • llama-index-readers-file
  • llama-index-multi-modal-llms-openai

注意: LlamaIndex 可能会下载并存储各种包的本地文件(如 NLTK、HuggingFace 等)。使用环境变量 "LLAMA_INDEX_CACHE_DIR" 可以控制这些文件的保存位置。

重要提示:OpenAI 环境设置#

默认情况下,我们使用 OpenAI 的 gpt-3.5-turbo 模型进行文本生成,以及 text-embedding-ada-002 进行检索和嵌入。为了使用这些功能,您必须设置 OPENAI_API_KEY 作为环境变量。 您可以通过登录您的 OpenAI 帐户并创建新的 API 密钥来获取 API 密钥。

Tip

您也可以使用其他许多可用的 LLMs。根据 LLM 提供商的不同,您可能需要设置额外的环境密钥和令牌。

查看我们的 OpenAI 起始示例

通过 Pip 进行自定义安装#

如果您不使用 OpenAI,或者希望更有选择地安装,可以根据需要安装单独的包。

例如,对于使用 Ollama 和 HuggingFace 嵌入的本地设置,安装可能如下所示:

pip install llama-index-core llama-index-readers-file llama-index-llms-ollama llama-index-embeddings-huggingface

查看我们的带有本地模型的起始示例

可以在此处找到使用和配置 LLMs 的完整指南。

可以在此处找到使用和配置嵌入模型的完整指南。

从源代码进行安装#

克隆此存储库:git clone https://github.com/jerryjliu/llama_index.git。然后执行以下操作:

  • 安装 poetry - 这将帮助您管理包依赖关系
  • poetry shell - 此命令会创建一个虚拟环境,将安装的包限制在此项目中
  • poetry install - 这将安装核心起始包的要求
  • (可选) poetry install --with dev, docs - 这将安装大多数本地开发所需的所有依赖项

然后,您可以使用 pip 根据需要安装集成。例如:

pip install -e llama-index-integrations/llms/llama-index-llms-ollama