ollama官网:https://ollama.com/
一、基础命令操作
ollama serve:启动 Ollama 服务,是后续操作的基础。
ollama create:从模型文件创建模型,适用于自定义模型或本地已有模型文件的情况。
ollama show:显示模型信息,可查看模型架构、参数等详细信息,辅助模型分析。
ollama run:运行模型,如ollama run qwen2,若本地无该模型会自动下载并运行,可用于快速测试模型。
ollama pull:从注册表中拉取模型,如ollama pull llama3,方便获取官方或其他来源的模型。
ollama push:将模型推送到注册表,便于共享模型。
ollama list:列出本地已有的模型,方便管理和选择。
ollama cp:复制模型,可用于备份或创建模型副本。
ollama rm:删除模型,释放存储空间。
ollama help:获取任何命令的帮助信息,方便用户快速查询命令用法。
运行模型
• 默认启动:直接输入模型名称启动最新版本
ollama run deepseek-r1 # 默认运行7B参数版本
• 指定版本:通过冒号后缀选择参数规模
ollama run deepseek-r1:32b # 运行320亿参数版本
对话交互
输入问题:直接回车发送问题
>>> 请用Python实现快速排序算法
退出对话:输入 /bye
或按 Ctrl+D
模型管理
查看已安装模型
ollama list # 显示所有本地模型
删除模型
ollama rm deepseek-r1:32b # 删除指定模型
更新模型
ollama pull deepseek-r1 # 拉取最新版本
二、高级功能配置
1. 自定义模型参数
通过 Modelfile 调整模型行为(如温度值、系统提示):
# 创建Modelfile.txt
FROM deepseek-r1:7b
PARAMETER temperature 0.7 # 平衡创造性与连贯性
SYSTEM """你是一个AI科学家,请用通俗语言解释量子计算"""
# 生成并运行自定义模型
ollama create mysci -f Modelfile.txt
ollama run mysci
2. 硬件加速优化
• GPU加速:确保NVIDIA驱动已安装,Ollama自动调用CUDA • 显存控制:通过环境变量限制占用
set OLLAMA_MAX_VRAM=4G # 限制显存使用不超过4GB
3. 多模型并行
同时加载多个模型进行对比测试:
ollama run deepseek-r1:7b & # 后台运行7B版本
ollama run deepseek-r1:1.5b # 前台运行1.5B版本
三、API集成与开发
1. 本地API调用
通过REST API生成文本或对话:
# 生成文本
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1",
"prompt": "写一首藏头诗,每句首字连成“春夏秋冬”"
}'
# 对话模式
curl http://localhost:11434/api/chat/completions -d '{
"model": "deepseek-r1",
"messages": [{"role": "user", "content": "如何证明黎曼猜想?"}]
}'
2. Java集成示例
通过Maven引入Ollama库,构建机器学习应用:
<dependency>
<groupId>org.ollma</groupId>
<artifactId>ollma-core</artifactId>
<version>1.0.0</version>
</dependency>
import org.ollma.core.models.Classifier;
import org.ollma.core.data.Dataset;
public class OllamaDemo {
public static void main(String[] args) {
Dataset dataset = DataLoader.loadCSV("data.csv");
Classifier model = new DecisionTree();
model.train(dataset);
System.out.println("模型准确率:" + model.evaluate(dataset).accuracy());
}
}
四、常见问题解决
-
模型下载失败
• 检查网络防火墙,尝试手动下载模型文件
• 使用镜像源重试:
ollama run deepseek-r1 --mirror=https://mirror.example.com
-
显存不足
• 降低模型参数:
ollama run deepseek-r1:1.5b
• 关闭其他占用显存程序
-
服务未启动
ollama serve # 重启服务
扩展资源:
• 官方网页:Ollama Documentation
• 模型库:Ollama模型搜索页
• Docker部署:docker run -d -p 11434:11434 --name ollama ollama/ollama
(注:以上命令需根据实际模型名称调整,完整参数说明详见对应网页)