Ollama入门使用指南

ollama官网:https://ollama.com/ 一、基础命令操作 ollama serve:启动 Ollama 服务,是后续操作的基础。 ollama create:从模型文件创建模型,适用于自定义模型或本地已有模型文件的情况。 ollama show:显示模型信息,可查看模型架构、参数等详细信息,辅助模型分析。 ollama run:运行模型,如ollama run qwen2,若本地无该模型会自动下载并运行,可用于快速测试模型。 ollama pull:从注册表中拉取模型,如ollama pull llama3,方便获取官方或其他来源的模型。 ollama push:将模型推送到注册表,便于共享模型。 ollama list:列出本地已有的模型,方便管理和选择。 ollama cp:复制模型,可用于备份或创建模型副本。 ollama rm:删除模型,释放存储空间。 ollama help:获取任何命令的帮助信息,方便用户快速查询命令用法。 运行模型 • 默认启动:直接输入模型名称启动最新版本 ollama run deepseek-r1 # 默认运行7B参数版本 • 指定版本:通过冒号后缀选择参数规模 ollama run deepseek-r1:32b # 运行320亿参数版本 对话交互 输入问题:直接回车发送问题 >>> 请用Python实现快速排序算法 退出对话:输入 /bye 或按 Ctrl+D 模型管理 查看已安装模型 ollama list # 显示所有本地模型 删除模型 ollama rm deepseek-r1:32b # 删除指定模型 更新模型 ollama pull deepseek-r1 # 拉取最新版本 二、高级功能配置 1. 自定义模型参数 通过 Modelfile 调整模型行为(如温度值、系统提示): ...

2025-02-25 · FLY的狐狸

Ollama安装及本地部署DeepSeekR1教程

ollama官网:https://ollama.com/ 一、Ollama安装教程(以Windows系统为例) 1. 准备工作 • 硬件要求:需配备NVIDIA显卡(显存≥8GB),建议预留20GB磁盘空间。 • 网络环境:确保可访问Ollama官网。 2. 安装步骤 步骤1:下载安装包 访问 Ollama官网,点击「Download」→选择Windows版本。 步骤2:安装程序 双击安装包,保持默认选项→点击「Install」,直至显示「Installation complete」即安装成功。 步骤3:验证安装 • 按 Win+R 打开运行窗口,输入 cmd 进入命令行。 • 输入以下命令验证版本: 查看ollama命令是否安装成功 $ ollama --version ollama version is 0.3.6 显示类似 ollama version 0.3.6 即成功。 步骤4(可选):修改默认模型存储路径 若需避免C盘空间占用,可在D盘创建文件夹并配置环境变量: 创建文件夹:D:\OllamaAI。 添加系统变量: • 变量名:OLLAMA_MODELS • 变量值:D:\OllamaAI。 二、DeepSeek模型部署与使用 1. 模型选择与下载 在官网 https://ollama.com/search 下,可以搜索自己需要的大模型。 此次以DeepSeek为例:https://ollama.com/library/deepseek-r1 • 版本说明: • 蒸馏版(推荐):如1.5B、7B参数,适合普通显卡(如2G显存可运行1.5B)。 • 满血版:671B参数需专业服务器(如双H100显卡+1T内存)。 • 下载命令: 通过ollama run命令下载DeepSeek并运行(以1.5b为例): $ ollama run deepseek-r1:1.5b pulling manifest pulling aabd4debf0c8... 100% ▕████████████████████████████████████████████████████████▏ 1.1 GB pulling 369ca498f347... 100% ▕████████████████████████████████████████████████████████▏ 387 B pulling 6e4c38e1172f... 100% ▕████████████████████████████████████████████████████████▏ 1.1 KB pulling f4d24e9138dd... 100% ▕████████████████████████████████████████████████████████▏ 148 B pulling a85fe2a2e58e... 100% ▕████████████████████████████████████████████████████████▏ 487 B verifying sha256 digest writing manifest success >>> Send a message (/? for help) 下载进度条显示完成后提示「success」即成功。 ...

2025-02-24 · FLY的狐狸

Deepseek为什么会让世界震惊

Deepseek为什么会让世界震惊? 2025年1月27 日英伟达跌近17%,一夜市值蒸发近 5890 亿美元,约两个半茅台,创下了美股史上最大的单日市值损失记录,DeepSeek 直接带崩美股,凌晨几乎霸占了美国财经媒体的头条。 DeepSeek 做了什么? 2024年12月26日DeepSeek V3的训练成本仅用557万美元,而GPT-4o的模型训练成本约为1亿美元。远低于行业平均水平,成为开源模型中的“性价比之王”! 2025年1月15日发布APP登顶各大应用市场; 2025年1月20日发布DeepSeek-R1,在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。除模型支持深度思考外,并允许用户通过蒸馏技术借助 R1 训练其他模型。 2025年1月27日DeepSeek 甚至又送出了一份新春大礼,开源了多模态人模型 Janus-Pro 7B版本已经能领先 OpenAI的DALL-E 3和 Stable Diffusion。 我们先来看看创始人梁文锋。 1985年出生,广东人,浙江大学毕业,拥有信息与电子工程学系本科和硕士学位。杭州幻方科技有限公司、DeepSeek创始人。 2019年,其资金管理规模突破百亿元; 2023年7月,幻方量化宣布成立大模型公司深度求索DeepSeek,正式进军通用人工智能领域。DeepSeek本身拥有大量资本,并且在美国对中国芯片持续制裁的情况下,2023年幻方量化储备了万张 A100 芯片,是大厂外唯一一家储备万张芯片的公司,这也是引发中国大模型价格战的源头。梁文锋说过:所有的套路都是上一代的产物,未来不一定成立。我们目的地是AGI,这意味着我们需要研究新的模型结构,在有限资源下,实现更强的模型能力。 为什么会影响英伟达的市值? 现在的大模型都是基于英伟达显卡,如A100、H100、2025年2月最新发布的B200。如果训练依赖的显卡需求降低了,那么对英伟达的市值会大打折扣,但其实AI还处于起始阶段,对显卡的依赖还是存在的。 为什么国外都惧怕DeepSeek? 中国企业之前都是等国外开源,如meta的llama3,然后基于开源大模型再做加工和应用;中国公司习惯了别人做技术创新,我们拿过来做应用变现。美国擅长搞技术创新,中国更擅长做应用。因为Deepseek是一个中国公司,在以创新贡献者的身份,加入到他们游戏里去。 DeepSeek 的意义是什么? 1.AI 训练变得更便宜。 2.AI 使用成本大幅下降。 3.迈向 AGI 的关键一步。 最重要的是它给了中国信心和希望

2025-02-17 · FLY的狐狸