mlflow.llama_index
- mlflow.llama_index.autolog(log_traces: bool = True, disable: bool = False, silent: bool = False)[源代码]
备注
实验性功能:此功能可能在未来的版本中无警告地更改或移除。
启用(或禁用)并配置从 LlamaIndex 到 MLflow 的自动日志记录。目前,MLflow 仅支持用于跟踪的自动日志记录。
- 参数:
log_traces – 如果
True
,LlamaIndex 模型的追踪日志将被记录。如果False
,推理过程中不会收集追踪信息。默认为True
。disable – 如果
True
,禁用 LlamaIndex 自动日志集成。如果False
,启用 LlamaIndex 自动日志集成。silent – 如果
True
,在 LlamaIndex 自动记录期间抑制 MLflow 的所有事件日志和警告。如果False
,显示所有事件和警告。
- mlflow.llama_index.get_default_conda_env()[源代码]
- 返回:
通过调用
save_model()
和log_model()
生成的 MLflow 模型的默认 Conda 环境。
- mlflow.llama_index.get_default_pip_requirements()[源代码]
- 返回:
此flavor生成的MLflow模型的默认pip需求列表。调用
save_model()
和log_model()
会生成一个pip环境,该环境至少包含这些需求。
- mlflow.llama_index.load_model(model_uri, dst_path=None)[源代码]
备注
实验性功能:此功能可能在未来的版本中无警告地更改或移除。
从本地文件或运行中加载 LlamaIndex 索引/引擎/工作流。
- 参数:
model_uri – MLflow 模型的位置,采用 URI 格式。例如: -
/Users/me/path/to/local/model
-relative/path/to/local/model
-s3://my_bucket/path/to/model
-runs:/<mlflow_run_id>/run-relative/path/to/model
-mlflow-artifacts:/path/to/model
有关支持的 URI 方案的更多信息,请参阅 引用工件。dst_path – 用于下载模型工件的本地文件系统路径。如果提供此目录,则必须已经存在。如果未指定,将创建一个本地输出路径。
- 返回:
一个 LlamaIndex 索引对象。
- mlflow.llama_index.log_model(llama_index_model, artifact_path: str, engine_type: str | None = None, model_config: Dict[str, Any] | None = None, code_paths: List[str] | None = None, registered_model_name: str | None = None, signature: ModelSignature | None = None, input_example: DataFrame | ndarray | dict | list | csr_matrix | csc_matrix | str | bytes | tuple | None = None, await_registration_for=300, pip_requirements: List[str] | str | None = None, extra_pip_requirements: List[str] | str | None = None, conda_env=None, metadata: Dict[str, Any] | None = None, **kwargs)[源代码]
备注
实验性功能:此功能可能在未来的版本中无警告地更改或移除。
将 LlamaIndex 模型记录为当前运行的 MLflow 工件。
注意
保存非索引对象仅在 ‘代码生成模型’ 保存模式下支持。更多信息请参阅 代码生成模型指南。
备注
在记录模型时,MLflow 会自动保存
Settings
对象的状态,以便您在推理时可以使用相同的设置。但是,请注意,Settings
对象中的某些信息将不会被保存,包括:用于避免密钥泄露的 API 密钥。
不可序列化的函数对象。
- 参数:
llama_index_model – 要保存的 LlamaIndex 对象。支持的模型类型有:1. 一个索引对象。2. 一个引擎对象,例如 ChatEngine、QueryEngine、Retriever。3. 一个 工作流 对象。4. 一个字符串,表示包含 LlamaIndex 模型定义的脚本路径,该模型定义为上述类型之一。
artifact_path – 序列化模型(以 YAML 格式)要保存的本地路径。
engine_type – 在将索引对象保存到确定加载为pyfunc模型时的推断接口时需要。保存其他LlamaIndex对象时,此字段**不**需要。支持的值如下: -
"chat"
:将索引加载为LlamaIndex ChatEngine 的实例。 -"query"
:将索引加载为LlamaIndex QueryEngine 的实例。 -"retriever"
:将索引加载为LlamaIndex Retriever 的实例。model_config – 在通过
mlflow.pyfunc.load_model()
加载模型时应用的模型配置。根据模型类型和保存方法的不同,应用方式也会有所不同:对于直接保存的内存中 Index 对象,它将作为关键字参数传递,以在记录时使用指定的引擎类型实例化 LlamaIndex 引擎。 .. code-block:: pythoncode_paths – 本地文件系统路径列表,指向Python文件依赖项(或包含文件依赖项的目录)。这些文件在加载模型时会被*前置*到系统路径中。如果为给定模型声明了依赖关系,则应从公共根路径声明相对导入,以避免在加载模型时出现导入错误。有关``code_paths``功能的详细解释、推荐的使用模式和限制,请参阅`code_paths使用指南 <https://mlflow.org/docs/latest/model/dependencies.html?highlight=code_paths#saving-extra-code-with-an-mlflow-model>`_。
registered_model_name – 此参数可能在未来的版本中更改或移除,且不会提前警告。如果提供,将在
registered_model_name
下创建一个模型版本,如果给定名称的注册模型不存在,则同时创建一个注册模型。signature – 描述模型输入和输出模式的模型签名对象。可以使用 mlflow.models.signature 的
infer_signature
函数推断模型签名。input_example – 一个或多个有效的模型输入实例。输入示例用作提示,指示应向模型提供哪些数据。它将被转换为Pandas DataFrame,然后使用Pandas的面向分割的格式序列化为json,或者是一个numpy数组,其中示例将通过将其转换为列表来序列化为json。字节被base64编码。当``signature``参数为``None``时,输入示例用于推断模型签名。
await_registration_for – 等待模型版本完成创建并处于
READY
状态的秒数。默认情况下,函数等待五分钟。指定 0 或 None 以跳过等待。pip_requirements – 可以是 pip 需求字符串的可迭代对象(例如
["llama_index", "-r requirements.txt", "-c constraints.txt"]
),或者是本地文件系统上 pip 需求文件的字符串路径(例如"requirements.txt"
)。如果提供,这将描述模型应运行的环境。如果为None
,则通过mlflow.models.infer_pip_requirements()
从当前软件环境中推断出默认的需求列表。如果需求推断失败,则回退到使用get_default_pip_requirements()
。需求和约束都会自动解析并分别写入requirements.txt
和constraints.txt
文件,并作为模型的一部分存储。需求也会写入模型 conda 环境(conda.yaml
)文件的pip
部分。extra_pip_requirements – 可以是 pip 需求字符串的可迭代对象(例如
["pandas", "-r requirements.txt", "-c constraints.txt"]
),或者是本地文件系统上的 pip 需求文件的字符串路径(例如"requirements.txt"
)。如果提供,这将描述附加的 pip 需求,这些需求会被追加到根据用户当前软件环境自动生成的一组默认 pip 需求中。需求和约束会分别自动解析并写入requirements.txt
和constraints.txt
文件,并作为模型的一部分存储。需求也会被写入模型的 conda 环境(conda.yaml
)文件的pip
部分。 .. 警告:: 以下参数不能同时指定: -conda_env
-pip_requirements
-extra_pip_requirements
这个示例 展示了如何使用pip_requirements
和extra_pip_requirements
指定 pip 需求。conda_env –
一个Conda环境的字典表示形式,或Conda环境yaml文件的路径。如果提供,这将描述模型应运行的环境。至少,它应指定包含在
get_default_conda_env()
中的依赖项。如果为None
,则通过mlflow.models.infer_pip_requirements()
推断的pip要求添加一个conda环境到模型中。如果要求推断失败,则回退到使用get_default_pip_requirements()
。来自conda_env
的pip要求被写入一个piprequirements.txt
文件,完整的conda环境被写入conda.yaml
。以下是一个conda环境的字典表示形式的*示例*:{ "name": "mlflow-env", "channels": ["conda-forge"], "dependencies": [ "python=3.8.15", { "pip": [ "llama_index==x.y.z" ], }, ], }
metadata – 传递给模型并在 MLmodel 文件中存储的自定义元数据字典。
kwargs – 用于
mlflow.models.model.Model
的额外参数
- mlflow.llama_index.save_model(llama_index_model, path: str, engine_type: str | None = None, model_config: str | Dict[str, Any] | None = None, code_paths=None, mlflow_model: Model | None = None, signature: ModelSignature | None = None, input_example: DataFrame | ndarray | dict | list | csr_matrix | csc_matrix | str | bytes | tuple | None = None, pip_requirements: List[str] | str | None = None, extra_pip_requirements: List[str] | str | None = None, conda_env=None, metadata: Dict[str, Any] | None = None) None [源代码]
备注
实验性功能:此功能可能在未来的版本中无警告地更改或移除。
将 LlamaIndex 模型保存到本地文件系统中的路径。
注意
保存非索引对象仅在 ‘代码生成模型’ 保存模式下支持。更多信息请参阅 代码生成模型指南。
备注
在记录模型时,MLflow 会自动保存
Settings
对象的状态,以便您在推理时可以使用相同的设置。但是,请注意,Settings
对象中的某些信息将不会被保存,包括:用于避免密钥泄露的 API 密钥。
不可序列化的函数对象。
- 参数:
llama_index_model – 要保存的 LlamaIndex 对象。支持的模型类型有:1. 一个索引对象。2. 一个引擎对象,例如 ChatEngine、QueryEngine、Retriever。3. 一个 工作流 对象。4. 一个字符串,表示包含 LlamaIndex 模型定义的脚本路径,该模型定义为上述类型之一。
path – 序列化模型(以 YAML 格式)要保存的本地路径。
engine_type – 在将索引对象保存到确定加载为pyfunc模型时的推断接口时需要。保存其他LlamaIndex对象时,此字段**不**需要。支持的值如下: -
"chat"
:将索引加载为LlamaIndex ChatEngine 的实例。 -"query"
:将索引加载为LlamaIndex QueryEngine 的实例。 -"retriever"
:将索引加载为LlamaIndex Retriever 的实例。model_config – 在使用
mlflow.pyfunc.load_model()
重新加载模型时要应用的模型配置。根据模型类型和保存方法的不同,应用方式也会有所不同。更多详情和使用示例请参阅log_model()
的文档字符串。code_paths – 本地文件系统路径列表,指向Python文件依赖项(或包含文件依赖项的目录)。这些文件在加载模型时会被*前置*到系统路径中。如果为给定模型声明了依赖关系,则应从公共根路径声明相对导入,以避免在加载模型时出现导入错误。有关``code_paths``功能的详细解释、推荐的使用模式和限制,请参阅`code_paths使用指南 <https://mlflow.org/docs/latest/model/dependencies.html?highlight=code_paths#saving-extra-code-with-an-mlflow-model>`_。
mlflow_model – 一个指定此模型所添加到的格式的 MLflow 模型对象。
signature – 描述模型输入和输出模式的模型签名对象。可以使用
mlflow.models.signature
的infer_signature
函数推断模型签名。input_example – 一个或多个有效的模型输入实例。输入示例用作提示,指示应向模型提供哪些数据。它将被转换为Pandas DataFrame,然后使用Pandas的面向分割的格式序列化为json,或者是一个numpy数组,其中示例将通过将其转换为列表来序列化为json。字节被base64编码。当``signature``参数为``None``时,输入示例用于推断模型签名。
pip_requirements – 可以是 pip 需求字符串的可迭代对象(例如
["llama_index", "-r requirements.txt", "-c constraints.txt"]
),或者是本地文件系统上 pip 需求文件的字符串路径(例如"requirements.txt"
)。如果提供,这将描述模型应运行的环境。如果为None
,则通过mlflow.models.infer_pip_requirements()
从当前软件环境中推断出默认的需求列表。如果需求推断失败,则回退到使用get_default_pip_requirements()
。需求和约束都会自动解析并分别写入requirements.txt
和constraints.txt
文件,并作为模型的一部分存储。需求也会写入模型 conda 环境(conda.yaml
)文件的pip
部分。extra_pip_requirements – 可以是 pip 需求字符串的可迭代对象(例如
["pandas", "-r requirements.txt", "-c constraints.txt"]
),或者是本地文件系统上的 pip 需求文件的字符串路径(例如"requirements.txt"
)。如果提供,这将描述附加的 pip 需求,这些需求会被追加到根据用户当前软件环境自动生成的一组默认 pip 需求中。需求和约束会分别自动解析并写入requirements.txt
和constraints.txt
文件,并作为模型的一部分存储。需求也会被写入模型的 conda 环境(conda.yaml
)文件的pip
部分。 .. 警告:: 以下参数不能同时指定: -conda_env
-pip_requirements
-extra_pip_requirements
这个示例 展示了如何使用pip_requirements
和extra_pip_requirements
指定 pip 需求。conda_env –
一个Conda环境的字典表示形式,或Conda环境yaml文件的路径。如果提供,这将描述模型应运行的环境。至少,它应指定包含在
get_default_conda_env()
中的依赖项。如果为None
,则通过mlflow.models.infer_pip_requirements()
推断的pip要求添加一个conda环境到模型中。如果要求推断失败,则回退到使用get_default_pip_requirements()
。来自conda_env
的pip要求被写入一个piprequirements.txt
文件,完整的conda环境被写入conda.yaml
。以下是一个conda环境的字典表示形式的*示例*:{ "name": "mlflow-env", "channels": ["conda-forge"], "dependencies": [ "python=3.8.15", { "pip": [ "llama_index==x.y.z" ], }, ], }
metadata – 传递给模型并在 MLmodel 文件中存储的自定义元数据字典。