国内镜像下载

https://www.newbe.pro/Mirrors/Mirrors-ollama
x86平台下载ollama-linux-amd64.tgz
arm平台下载ollama-linux-arm64.tgz
假设下载的文件路径为/opt/pkg/ollama-linux-amd64.tgz

安装脚本

可手动下载,浏览器打开直接打开 https://ollama.com/install.sh下载脚本,或者复制粘贴。

  • 修改脚本下载部分代码:
    1.注释了两行
    2.修改了tar解压的文件的路径为上一步下载的文件路径
  • 修改后为:
    status "Downloading Linux ${ARCH} bundle"
    #curl --fail --show-error --location --progress-bar \
        #"https://ollama.com/download/ollama-linux-${ARCH}.tgz${VER_PARAM}" | \
        $SUDO tar -xzf /opt/pkg/ollama-linux-amd64.tgz -C "$OLLAMA_INSTALL_DIR"
    

启动文件

注意:安装后会自动生成启动服务文件,可以自行修改参数如OLLAMA_MODELS的路径和用户和用户组、上下文长度等OLLAMA_CONTEXT_LENGTH=8192

vim /etc/systemd/system/ollama.service

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin" "OLLAMA_HOST=0.0.0.0:11434" "OLLAMA_MODELS=/mnt/data/ollama/models"
Environment="HF_ENDPOINT=https://hf-mirror.com"

[Install]
WantedBy=default.target

常用命令

ollama服务相关

# 启动服务
systemctl start ollama
# 关闭服务
systemctl stop ollama
# 重启服务(如果模型下载失败可重启服务,ollama会自动清理垃圾数据,否则一直下载失败)
systemctl restart ollama
# 开机启动
systemctl enable ollama
# 禁止开机启动
systemctl disable ollama

模型相关

# 查看版本
ollama -v
# 拉取模型
ollama run qwen3:8b
# 从魔搭(modelscope)拉取GGUF框架的模型
ollama run modelscope.cn/Qwen/Qwen3-8B-GGUF
# 已安装的模型列表
ollama list
# 删除模型
ollama rm qwen3:8b
Logo

DAMO开发者矩阵,由阿里巴巴达摩院和中国互联网协会联合发起,致力于探讨最前沿的技术趋势与应用成果,搭建高质量的交流与分享平台,推动技术创新与产业应用链接,围绕“人工智能与新型计算”构建开放共享的开发者生态。

更多推荐