四、自定义模型文件
注意:
Modelfile
语法正在开发中
模型文件是使用Ollama创建和共享模型的蓝图。
1. 格式
Modelfile
的格式如下:
# 注释
INSTRUCTION 参数
指令 | 描述 |
---|---|
FROM (必需) | 定义要使用的基础 模型。 |
PARAMETER | 设置Ollama运行模型的参数。 |
TEMPLATE | 要发送到模型的完整提示模板。 |
SYSTEM | 指定将设置在模板中的系统消息。 |
ADAPTER | 定义要应用于模型的(Q)LoRA适配器。 |
LICENSE | 指定法律许可。 |
MESSAGE | 指定消息历史。 |
2. 示例
(1). 基本Modelfile
创建一个马里奥蓝图的Modelfile
示例:
FROM llama2
# 将温度设置为1 [温度越高,创造性越强,温度越低,连贯性越强]
PARAMETER temperature 1
# 将上下文窗口大小设置为4096,这控制了LLM可以使用多少标记作为上下文来生成下一个标记
PARAMETER num_ctx 4096
# 设置自定义系统消息以指定聊天助手的行为
SYSTEM 你是超级马里奥兄弟中的马里奥,充当助手。
使用方法:
- 将其保存为文件(例如
Modelfile
) ollama create choose-a-model-name -f <文件位置,例如./Modelfile>
ollama run choose-a-model-name
- 开始使用该模型!
更多示例可在示例目录中找到。
(2). ollama.com/library中的Modelfile
查看ollama.com/library中模型底层的Modelfile
有两种方法:
-
选项1:从模型的标签页面查看详细信息:
-
转到特定模型的标签页(例如https://ollama.com/library/llama2/tags)
-
向下滚动至“Layers”
- 注意:如果
FROM
指令不存在,则表示该模型是从本地文件创建的
- 注意:如果
-
-
选项2:使用
ollama show
打印任何本地模型的Modelfile
,如下所示:> ollama show --modelfile llama2:13b
# 由“ollama show”生成的Modelfile
# 要基于此构建新的Modelfile,请将FROM行替换为:
# FROM llama2:13b
FROM /root/.ollama/models/blobs/sha256:123abc
TEMPLATE """[INST] {{ if .System }}<<SYS>>{{ .System }}<</SYS>>
{{ end }}{{ .Prompt }} [/INST] """
SYSTEM """"""
PARAMETER stop [INST]
PARAMETER stop [/INST]
PARAMETER stop <<SYS>>
PARAMETER stop <</SYS>>