跳到主要内容

五、在Linux上的安装配置

1. 安装

通过运行以下一行命令来安装Ollama:

curl -fsSL https://ollama.com/install.sh | sh

2. AMD Radeon GPU支持

虽然AMD已经将amdgpu驱动程序贡献给了官方Linux内核源代码,但版本较旧,可能不支持所有ROCm功能。我们建议您从https://www.amd.com/en/support/linux-drivers下载并安装最新的驱动程序,以获得对您的Radeon GPU最佳支持。

3. 手动安装

(1). 下载ollama二进制文件

Ollama被分发为一个独立的二进制文件。将其下载到您的PATH目录中:

sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama
sudo chmod +x /usr/bin/ollama

(2). 将Ollama添加为启动服务(推荐)

为Ollama创建一个用户:

sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama

/etc/systemd/system/目录下创建一个服务文件ollama.service

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

然后启动服务:

sudo systemctl daemon-reload
sudo systemctl enable ollama

(3). 安装CUDA驱动程序(可选 - 适用于Nvidia GPU)

下载并安装 CUDA。

通过运行以下命令验证驱动程序是否已安装,该命令应打印有关您的GPU的详细信息:

nvidia-smi

(4). 安装ROCm(可选 - 适用于Radeon GPU)

下载并安装 ROCm。

确保安装ROCm v6。

(5). 启动Ollama

使用systemd启动Ollama:

sudo systemctl start ollama

4. 更新

通过再次运行安装脚本来更新Ollama:

curl -fsSL https://ollama.com/install.sh | sh

或通过下载Ollama二进制文件:

sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama
sudo chmod +x /usr/bin/ollama

5. 查看日志

要查看作为启动服务运行的Ollama的日志,请运行:

journalctl -u ollama

6. 卸载

删除Ollama服务:

sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service

从您的bin目录(/usr/local/bin/usr/bin/bin)中删除Ollama二进制文件:

sudo rm $(which ollama)

删除已下载的模型以及Ollama服务用户和组:

sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama