跳到主要内容

dspy.ChatModuleClient

先决条件

  1. 使用以下命令安装所需的软件包:

    pip install --no-deps --pre --force-reinstall mlc-ai-nightly-cu118 mlc-chat-nightly-cu118 -f https://mlc.ai/wheels
    pip install transformers
    git lfs install

    根据 MLC packages 中提供的命令,调整 pip wheels 以适应您的操作系统/平台。

运行 MLC Llama-2 模型

  1. 为预构建模型创建一个目录:

    mkdir -p dist/prebuilt
  2. 从仓库克隆必要的库:

    git clone https://github.com/mlc-ai/binary-mlc-llm-libs.git dist/prebuilt/lib
    cd dist/prebuilt
  3. MLC LLMs 中选择一个 Llama-2 模型并克隆模型仓库:

    git clone https://huggingface.co/mlc-ai/mlc-chat-Llama-2-7b-chat-hf-q4f16_1
  4. 使用所需参数在程序中初始化 ChatModuleClient。以下是一个示例调用:

    llama = dspy.ChatModuleClient(model='dist/prebuilt/mlc-chat-Llama-2-7b-chat-hf-q4f16_1', model_path='dist/prebuilt/lib/Llama-2-7b-chat-hf-q4f16_1-cuda.so')

请参考 official MLC repository 获取更详细的信息和 documentation