ollama官网:https://ollama.com/

一、基础命令操作

ollama serve:启动 Ollama 服务,是后续操作的基础。
ollama create:从模型文件创建模型,适用于自定义模型或本地已有模型文件的情况。
ollama show:显示模型信息,可查看模型架构、参数等详细信息,辅助模型分析。
ollama run:运行模型,如ollama run qwen2,若本地无该模型会自动下载并运行,可用于快速测试模型。
ollama pull:从注册表中拉取模型,如ollama pull llama3,方便获取官方或其他来源的模型。
ollama push:将模型推送到注册表,便于共享模型。
ollama list:列出本地已有的模型,方便管理和选择。
ollama cp:复制模型,可用于备份或创建模型副本。
ollama rm:删除模型,释放存储空间。
ollama help:获取任何命令的帮助信息,方便用户快速查询命令用法。

运行模型

默认启动:直接输入模型名称启动最新版本

ollama run deepseek-r1  # 默认运行7B参数版本

指定版本:通过冒号后缀选择参数规模

ollama run deepseek-r1:32b  # 运行320亿参数版本

对话交互

输入问题:直接回车发送问题

>>> 请用Python实现快速排序算法

退出对话:输入 /bye 或按 Ctrl+D

模型管理

查看已安装模型

ollama list  # 显示所有本地模型

删除模型

ollama rm deepseek-r1:32b  # 删除指定模型

更新模型

ollama pull deepseek-r1  # 拉取最新版本

二、高级功能配置

1. 自定义模型参数

通过 Modelfile 调整模型行为(如温度值、系统提示):

# 创建Modelfile.txt
FROM deepseek-r1:7b
PARAMETER temperature 0.7  # 平衡创造性与连贯性
SYSTEM """你是一个AI科学家,请用通俗语言解释量子计算"""
# 生成并运行自定义模型
ollama create mysci -f Modelfile.txt
ollama run mysci

2. 硬件加速优化

GPU加速:确保NVIDIA驱动已安装,Ollama自动调用CUDA • 显存控制:通过环境变量限制占用

set OLLAMA_MAX_VRAM=4G  # 限制显存使用不超过4GB

3. 多模型并行

同时加载多个模型进行对比测试:

ollama run deepseek-r1:7b &  # 后台运行7B版本
ollama run deepseek-r1:1.5b  # 前台运行1.5B版本

三、API集成与开发

1. 本地API调用

通过REST API生成文本或对话:

# 生成文本
curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1",
  "prompt": "写一首藏头诗,每句首字连成“春夏秋冬”"
}'

# 对话模式
curl http://localhost:11434/api/chat/completions -d '{
  "model": "deepseek-r1",
  "messages": [{"role": "user", "content": "如何证明黎曼猜想?"}]
}'

2. Java集成示例

通过Maven引入Ollama库,构建机器学习应用:

<dependency>
  <groupId>org.ollma</groupId>
  <artifactId>ollma-core</artifactId>
  <version>1.0.0</version>
</dependency>
import org.ollma.core.models.Classifier;
import org.ollma.core.data.Dataset;

public class OllamaDemo {
  public static void main(String[] args) {
    Dataset dataset = DataLoader.loadCSV("data.csv");
    Classifier model = new DecisionTree();
    model.train(dataset);
    System.out.println("模型准确率:" + model.evaluate(dataset).accuracy());
  }
}

四、常见问题解决

  1. 模型下载失败

    • 检查网络防火墙,尝试手动下载模型文件

    • 使用镜像源重试:ollama run deepseek-r1 --mirror=https://mirror.example.com

  2. 显存不足

    • 降低模型参数:ollama run deepseek-r1:1.5b

    • 关闭其他占用显存程序

  3. 服务未启动

    ollama serve  # 重启服务
    

扩展资源

• 官方网页:Ollama Documentation

• 模型库:Ollama模型搜索页

• Docker部署:docker run -d -p 11434:11434 --name ollama ollama/ollama(注:以上命令需根据实际模型名称调整,完整参数说明详见对应网页)