查询 CLI
GraphRAG 查询 CLI 允许无代码使用 GraphRAG 查询引擎。
python -m graphrag.query --config <config_file.yml> --data <path-to-data> --community_level <comunit-level> --response_type <response-type> --method <"local"|"global"> <query>
CLI 参数
--config <config_file.yml>
- 运行查询时使用的配置 yaml 文件。如果使用此参数,则以下环境变量将不适用。--data <path-to-data>
- 包含索引器运行生成的.parquet
输出文件的文件夹。--community_level <community-level>
- 从 Leiden 社区层次结构中加载社区报告的社区级别,数值越高表示使用更小社区的报告。默认值:2--response_type <response-type>
- 自由格式文本,描述响应类型和格式,可以是任何内容,例如Multiple Paragraphs
,Single Paragraph
,Single Sentence
,List of 3-7 Points
,Single Page
,Multi-Page Report
。默认值:Multiple Paragraphs
。--method <"local"|"global">
- 用于回答查询的方法,可选值为 local 或 global。更多信息请查看 概述--streaming
- 流式返回 LLM 响应
环境变量
执行所需的必要环境变量:
- GRAPHRAG_API_KEY
- 执行模型的 API 密钥,如果未提供,将回退到 OPENAI_API_KEY
。
- GRAPHRAG_LLM_MODEL
- 用于聊天补全的模型。
- GRAPHRAG_EMBEDDING_MODEL
- 用于嵌入的模型。
您可以通过提供以下环境变量进一步自定义执行:
GRAPHRAG_LLM_API_BASE
- API 基础 URL。默认值:None
GRAPHRAG_LLM_TYPE
- LLM 操作类型。可选值为openai_chat
或azure_openai_chat
。默认值:openai_chat
GRAPHRAG_LLM_MAX_RETRIES
- 请求失败时尝试的最大重试次数。默认值:20
GRAPHRAG_EMBEDDING_API_BASE
- API 基础 URL。默认值:None
GRAPHRAG_EMBEDDING_TYPE
- 使用的嵌入客户端。可选值为openai_embedding
或azure_openai_embedding
。默认值:openai_embedding
GRAPHRAG_EMBEDDING_MAX_RETRIES
- 请求失败时尝试的最大重试次数。默认值:20
GRAPHRAG_LOCAL_SEARCH_TEXT_UNIT_PROP
- 上下文窗口中用于相关文本单元的比例。默认值:0.5
GRAPHRAG_LOCAL_SEARCH_COMMUNITY_PROP
- 上下文窗口中用于社区报告的比例。默认值:0.1
GRAPHRAG_LOCAL_SEARCH_CONVERSATION_HISTORY_MAX_TURNS
- 对话历史中包含的最大轮数。默认值:5
GRAPHRAG_LOCAL_SEARCH_TOP_K_ENTITIES
- 从实体描述嵌入存储中检索的相关实体数量。默认值:10
GRAPHRAG_LOCAL_SEARCH_TOP_K_RELATIONSHIPS
- 控制从网络外部拉入上下文窗口的关系数量。默认值:10
GRAPHRAG_LOCAL_SEARCH_MAX_TOKENS
- 根据您模型的令牌限制进行调整(如果您使用的是 8k 限制的模型,一个好的设置可能是 5000)。默认值:12000
GRAPHRAG_LOCAL_SEARCH_LLM_MAX_TOKENS
- 根据您模型的令牌限制进行调整(如果您使用的是 8k 限制的模型,一个好的设置可能是 1000=1500)。默认值:2000
GRAPHRAG_GLOBAL_SEARCH_MAX_TOKENS
- 根据您模型的令牌限制进行调整(如果您使用的是 8k 限制的模型,一个好的设置可能是 5000)。默认值:12000
GRAPHRAG_GLOBAL_SEARCH_DATA_MAX_TOKENS
- 根据您模型的令牌限制进行调整(如果您使用的是 8k 限制的模型,一个好的设置可能是 5000)。默认值:12000
GRAPHRAG_GLOBAL_SEARCH_MAP_MAX_TOKENS
- 默认值:500
GRAPHRAG_GLOBAL_SEARCH_REDUCE_MAX_TOKENS
- 根据您模型的令牌限制进行调整(如果您使用的是 8k 限制的模型,一个好的设置可能是 1000-1500)。默认值:2000
GRAPHRAG_GLOBAL_SEARCH_CONCURRENCY
- 默认值:32