李飞飞01:我看见的世界

李飞飞01:我看见的世界 莫文蔚、张怡宁、李飞飞,三位杰出女性外貌神似,更共具坚韧不拔的毅力与精益求精的敬业精神。今天,让我们聚焦华裔科学家李飞飞。她身为三院院士,斯坦福大学教授,更被誉为 “AI 教母” 。 1976 年,李飞飞诞生于中国北京,出生医院毗邻故宫,产房位于二楼。彼时,她的父亲一时兴起前往公园观鸟,忘却时间,直至姗姗来迟。或许正因这场观鸟经历,父亲为女儿取名 “飞飞”。随后,李飞飞在成都成长,常随父亲奔赴野外,观察耕牛、捕捉昆虫,在幼小的心灵里悄然播下探索未知的种子。同时,受母亲熏陶,她博览中外文学名著,学业成绩斐然。初二那年,李飞飞确立了对物理学的热爱。 1989 年,李飞飞的父亲先行一步,移民美国,留下母女二人。直至 1992 年,李飞飞才与母亲一同移居至美国新泽西州的帕西帕尼小镇。初到美国,一家人的生活发生了巨大转变。父亲以修理相机维持生计,母亲则在礼品店担任收银员,原本在中国属于中产阶级的家庭,瞬间陷入生活拮据的境地,一家三口只能挤在狭小的一居室里。入学帕西帕尼高中后,李飞飞幸得数学老师萨贝拉先生的悉心指导与关怀,这段情谊也延续了她的一生。 1995 年,李飞飞高中毕业,凭借优异成绩获得全额奖学金,顺利进入普林斯顿大学攻读物理学专业。1999 年大学毕业时,高盛、美林等众多知名企业纷纷向她抛出橄榄枝。然而,在母亲的坚决劝阻下,李飞飞毅然决定同时涉足神经科学与计算机科学领域的研究。2000 年,她成功考入加州理工学院攻读研究生,正式开启跨学科的视觉研究之旅。2005 年博士毕业后,李飞飞在 2005年到2006 年期间担任伊利诺伊大学厄巴纳 - 香槟分校电机系助理教授。 2007 年,李飞飞启动了 ImageNet 项目,并于 2009 年完成项目初始版本。该项目堪称壮举,共收集了 1500 万张图片,涵盖 2.2 万个不同类别。但在当时,ImageNet 并未立刻引发广泛关注。之后,李飞飞团队举办了 ImageNet Challenge 挑战赛。2012 年,第三届挑战赛中,杰弗里・辛顿和他的学生亚历克斯设计的 AlexNet 大放异彩。这是一种神经网络算法,其图片识别准确率高达 85%,比上一年的冠军高出 10 个百分点,一举创造了计算机视觉领域的世界纪录。自此,ImageNet 的强大实力才真正为世人所见识。 2013 年至 2018 年,李飞飞担任斯坦福大学人工智能实验室主任。2015 年,她创立了 AI4ALL 项目,该项目获得梅林达・盖茨和英伟达 CEO 黄仁勋的资助。项目汇聚了来自 OpenAI、IBM、福特和埃森哲等公司的技术人员,致力于帮助高中生开展应用机器学习解决实际问题的项目,以造福人类社会。2017 年,李飞飞利用在斯坦福大学的休假时间,担任谷歌副总裁及云首席科学家。2019 年,她又担任斯坦福大学以人为本人工智能研究院(HAI)联合主任。 2020 年 2 月,李飞飞凭借在建立大型机器学习和视觉理解知识库方面的卓越贡献,当选为美国国家工程院院士。同年 5 月,她出任 Twitter 公司董事会新独立董事。10 月,又成功当选为美国国家医学院院士。2021 年 4 月 22 日,李飞飞当选为美国艺术与科学院院士。2023 年 11 月,其著作《我看见的世界》英文版正式出版。 ...

2025-02-25 · FLY的狐狸

马斯洛需求的五个层次,如何链接当下?

马斯洛需求层次理论由美国心理学家亚伯拉罕・马斯洛于 1943 年在《人类动机理论》论文中提出,该理论将人类需求像阶梯一样从低到高按层次分为五种,分别是生理需求、安全需求、社交需求、尊重需求和自我实现需求。 以下是详细介绍: 生理需求:这是人类最基本、最强烈的需求,包括人们对食物、水分、空气、睡眠、性的需要等。如果这些需求得不到满足,人类的生命将受到威胁,其他需求也就变得不再重要。在 AI 领域,智能家电如智能冰箱能根据食材消耗情况自动下单补货,保障食物的供应;智能恒温系统可自动调节室内温度和湿度,为人们创造舒适的居住环境,满足生理层面的基本需求。 安全需求:同样属于较低层的需求,其中包括对人身安全、生活稳定以及免遭痛苦、威胁或疾病、身体健康以及有自己的财产等与自身安全感有关的需求。在现代社会,AI 在安全领域发挥着重要作用。例如,安防监控系统利用 AI 视频分析技术,能够实时监测异常行为并及时预警,保障人们的居住和工作安全;金融机构运用 AI 进行风险评估和欺诈检测,保护用户的财产安全。 社交需求:也被称为归属与爱的需求,一个人要求与其他人建立感情的联系或关系,比如对友谊、爱情以及隶属关系的需求。社交媒体平台是 AI 满足社交需求的典型例子,通过智能推荐算法,为用户精准推送可能感兴趣的人或内容,帮助人们拓展社交圈子;虚拟社交机器人能够陪用户聊天、互动,给予情感上的陪伴,让人们在虚拟世界中获得归属感。 尊重需求:属于较高层的需求,既包括自尊、自主和成就感等自我尊重,也包括他人对自己的认可与尊重。在 AI 时代,创作者可以利用 AI 绘画、音乐创作等工具实现自己的创意,获得作品完成后的成就感,满足自我尊重的需求;同时,当作品在网络上获得他人的点赞、分享和好评时,又能得到他人的尊重和认可。 自我实现需求:为最高层的需求,它是指个体追求实现自我的潜能,发挥自己的能力,成为自己所期望的人的需要。AI 为人们提供了更多实现自我价值的途径。例如,科研人员借助 AI 强大的计算和分析能力,加速科学研究的进程,探索未知领域;创业者利用 AI 技术开发创新产品和服务,推动社会进步,在这个过程中实现自己的理想和抱负。 马斯洛需求层次视角下,短视频火爆的底层逻辑 在短视频风靡的时代,从搞笑段子到知识科普,从生活记录到情感共鸣,各类短视频层出不穷,吸引着人们的目光。这背后,与马斯洛需求层次理论紧密相连。 在生理需求层面,部分实用类短视频满足了人们的生活需求。如烹饪教程视频,教会用户制作美食,满足 “吃” 这一基本生理需求; 安全需求方面,家居安全防护类短视频,提供防诈骗、防火等知识,增强人们生活的安全感。 社交需求方面,短视频成为人们社交互动的新载体。情侣秀恩爱、朋友合拍搞笑视频分享到平台,收获点赞评论,增进彼此情感联结;用户参与热门话题挑战,与众多网友互动,找到群体归属感,在虚拟网络中满足社交需求。 **尊重需求在短视频领域也得到体现。**知识类博主凭借专业知识分享,收获粉丝的尊重与认可;才艺达人展示高超技艺,赢得大众赞赏,实现自我价值,获得尊重。这些都让创作者在短视频平台上获得心理满足。 至于自我实现需求,许多创作者通过短视频表达独特观点、传递创新思想,实现自我价值的升华。例如,一些短视频创作者致力于非遗文化传承,通过视频记录与传播,让更多人了解非遗,同时也让自己在文化传承事业中实现理想与抱负。 短视频的火爆,本质上是它精准触达并满足了人们不同层次的需求。无论是创作者还是观众,都能在这一平台上找到自己需求的落点,这便是短视频经久不衰的底层逻辑。

2025-04-28 · FLY的狐狸

AI进化的五个级别,现在发展到哪一级?

AI发展日新月异,OpenAI掌门人山姆·奥特曼提出了AI发展的五个级别,今天就带大家了解一下! 第一级,聊天机器人Chatbots。这是我们最常见的AI,像ChatGPT就处于这个阶段。它能和人对话,帮你检索信息、写文案、回答问题。但它主要靠预定义的数据和规则,理解和推理能力有限,复杂点的问题就应付不来了。 第二级,推理者Reasoners。这个阶段的AI可不得了,解决问题的能力达到博士水平!不管是科学研究、工程设计,还是数据分析,它都能轻松应对。不过,它训练时需要大量数据和计算资源,决策过程也比较复杂,怎么保证决策透明、没偏见,还得好好研究。 第三级,智能体Agents。这一阶段的AI不仅能思考,还能代表用户采取行动,比如安排会议、预订餐厅、网上购物。在金融投资里,它能分析市场数据,给出投资建议,甚至直接执行交易决策;医疗领域,它还能协助医生诊断、制定治疗方案。但数据隐私保护、伦理偏见这些问题,也得重视起来。 第四级,创新者Innovators。到了这个阶段,AI已经不满足于解决现有问题,开始自己搞研究、搞开发,创造新技术、新方法。在科学研究里提出新假设、设计实验,在技术领域设计新材料、优化性能,跨学科整合知识解决难题,它都不在话下。 第五级,组织者Organizations。这可是最高级别,达到这个阶段的AI,就是通用人工智能了!它能在多个领域超越人类,还能像个高效团队一样协同工作,完成复杂任务。不管是医疗、法律,还是金融领域,它都能深度协作,提供超专业服务,还能自主管理项目、优化资源配置。 现在的AI大多还在第一、二级,未来还有很长的路要走。但科技发展速度惊人,说不定哪天,高级别的AI就会走进我们的生活。 大家觉得,AI发展到哪一级最值得我们期待呢?欢迎在评论区留言讨论!

2025-04-26 · FLY的狐狸

人类和AI是什么关系?

AI和人类的关系? 在尹烨与罗振宇的一次对谈中,罗振宇举了一个铁匠铺的例子,很贴切的讲解了AI和人的关系。 他用铁匠铺师傅和徒弟的关系类比。 如果你认为有了徒弟,自己就什么也不用干了,那就坏了。他力大无穷但他没手艺,而且和街坊邻居没有交情,他也接不到活儿,如果你真的把活儿完全交给他干,那么肯定完蛋。这是我们对AI的一个误解,认为AI完全可以替代自己,这就是老师傅放弃了自己的真谛,把活完全交给了徒弟干。 第二个误解是,认为AI会抢走自己工作,对它很抵触、很排斥,完全不去了解它。 过去师傅和徒弟的关系其实是很好的利益交换。真要有这么个铁匠铺,不要钱的徒弟,来干活,是个好事。徒弟帮师傅干活,也可以学到想要的手艺。 铁匠铺讲究的是徒弟抡大锤,师傅抡小锤。节奏是这样,“叮当,叮当,叮当当,叮当当”,小锤敲那个”叮“,大锤敲那个”当“,小锤指方向,大锤用力往这抡,这样才能做好一件铁器。 现在大家都在用AI写文章。前期的思路,结构需要我们自己来思考,然后有了每一个明确的拆解好的任务时,通过AI去完善,去细化,去检索,这样才能高效的写好一篇文章。 我们应该正确认识 AI 的能力边界,积极接纳并合理利用 AI,发挥人类的独特价值,树立正确的 AI 使用观念。

2025-04-24 · FLY的狐狸

DeepSeek加字节跳动即梦,打造AI视频创造助手

本期主要通过 DeepSeek完善提示词 + 豆包AI生图 + 即梦AI生成视频,打造自己的视频助手。 第一步通过DeepSeek完善提示词 DeepSeek地址:https://chat.deepseek.com/ 这里DeepSeek不光输出了提示词,还建议使用:GPT-4o + 即梦AI 先用GPT-4o生成人物原型,再通过即梦AI的“数字人”模板添加动态效果。 看来确实很贴心~!~ 第二步我们通过豆包生成图片(当然也可以选择腾讯元宝或者GPT-4o) 然后选择一种比较满意的图片 豆包地址:https://www.doubao.com/chat 我这里就选择这张图片了 第三步通过即梦AI生成所需的视频 这里选择“数字人”,上传刚刚选择的图片,输入视频需要播放的文字即可;(当然也可以用视频生成各种效果) 即梦地址:https://jimeng.jianying.com/ai-tool/home/ 这样你想要的视频效果就完成了。 即梦AI介绍 即梦AI是字节跳动旗下剪映团队研发的一站式AI创作平台,由深圳市脸萌科技有限公司开发。以下是关于它的详细介绍: 功能特点 AI绘画:用户输入简单提示词,就能生成精彩图片。还可对现有图片创意改造,自定义保留人物或主体形象特征,实现背景替换、风格联想、画风保持、姿势保持等操作,满足多样创作需求。 智能画布:支持本地素材上传,用户可在画布上自由拼接,进行分图层AI生成、AI扩图、局部重绘、局部消除等操作,确保AI绘画创作风格统一和谐。 AI视频生成:输入简单文案或图片,即可生成视频片段,动效效果连贯流畅、自然。支持三种生成模式,包括输入单图或两张图片作为首帧和尾帧直接生成或配合提示词描述生成,也可纯文本输入生成。 故事创作模式:支持一站式生成故事分镜、镜头组织管理、编辑等功能,提升创作效率。故事分镜生成支持图生视频、文生视频、文生图、图生图等多种方式,镜头可在时间轨道管理,编辑预览故事成片效果。 视频AI编辑:AI对口型功能可为生成视频中的人物配音并匹配口型,提供多种音色,用户也可上传自己的配音,最多支持生成9秒时长的对口型视频。同时提供镜头放大、推远、旋转、水平移动、上下移动等运镜选择,以及正常、快速、慢速三种运动速度控制。 其他功能:支持文生图、图生图以及一键做同款功能。用户可选择感兴趣的社区图片作为灵感,点击“做同款”复用提示词,生成同款图片。 应用场景 内容创作与自媒体运营:适合短视频制作和个性化内容生成,帮助内容创作者快速将创意文案转化为视频,提升自媒体品牌识别度。 广告与营销活动:能进行广告预览与脚本可视化,将文案快速转换成视频预览,优化广告策略,还可通过视频动态展示产品特点,增强营销效果。 教育领域:教师可快速生成教学视频,作为预习或复习材料,也可创建模拟实验视频,辅助教学。 个人记录与分享:用户可将旅行与日常生活经历转化为视频,便于回忆与分享,也可创作个性化视频,展示个人才华与创意。 新闻与娱乐:新闻媒体可快速将新闻内容转化为视频形式,提高传播效率,还能为游戏、电影等娱乐行业提供快速的视频预览与宣传材料制作。

2025-04-19 · FLY的狐狸

微信好友“元宝”,你的生活小管家

腾讯元宝是腾讯于2025年4月16日推出的一款专注于微信生态的AI助手,搭载混元和DeepSeek双模引擎 元宝添加方式:微信搜索框输入“元宝”→添加至通讯录→直接对话 主要功能包括: 公众号文章解析:一键解析公众号文章,提取关键信息,帮助用户快速获取内容要点。 图片解析:支持解析微信中的图片,提取文字信息或进行内容分析。 文件解析:支持解析微信中的文件,提取关键信息或进行内容总结。 智能问答:提供精准、高效的问答服务,涵盖日常咨询、知识查询等场景。 双模引擎支持:混元和DeepSeek引擎结合,确保回答的准确性和深度。 微信生态无缝衔接:直接在微信中使用,无需额外安装应用或插件。 实时更新:持续迭代优化,提供最新、最准确的AI服务。 下面我们来看一看使用效果 获取最新的AI新闻 获取最新主流大模型信息 元宝的核心使用场景 拟人化聊天 支持文字/语音输入,对话时显示“对方正在输入…”状态,可置顶聊天但暂不支持群聊和视频通话。 • 网页处理:一次性解析100M内的PDF、Word、TXT文件,或转发公众号文章/链接自动生成摘要与深度解读。 • 图片分析:识别表格、股票图等复杂内容,支持证件照自动打码保护隐私。 效率工具 • 实时信息查询:提供天气、新闻、百科等即时答案,例如输入“今日科技新闻”可获取带引用链接的精选资讯。 • 长文总结:上传会议纪要或论文,30秒提炼核心观点,支持中英文混合提问。 • 生活服务:直接预订咖啡、查询快递,或通过语音指令完成订餐、叫车等操作。 元宝未来可能的发展方向 • 功能扩展:支持朋友圈关键词整理、群聊重点提取等。 • 生态融合:或与微信支付、小程序打通,实现“语音下单→自动付款”全链路服务。

2025-04-18 · FLY的狐狸

Ollama入门使用指南

ollama官网:https://ollama.com/ 一、基础命令操作 ollama serve:启动 Ollama 服务,是后续操作的基础。 ollama create:从模型文件创建模型,适用于自定义模型或本地已有模型文件的情况。 ollama show:显示模型信息,可查看模型架构、参数等详细信息,辅助模型分析。 ollama run:运行模型,如ollama run qwen2,若本地无该模型会自动下载并运行,可用于快速测试模型。 ollama pull:从注册表中拉取模型,如ollama pull llama3,方便获取官方或其他来源的模型。 ollama push:将模型推送到注册表,便于共享模型。 ollama list:列出本地已有的模型,方便管理和选择。 ollama cp:复制模型,可用于备份或创建模型副本。 ollama rm:删除模型,释放存储空间。 ollama help:获取任何命令的帮助信息,方便用户快速查询命令用法。 运行模型 • 默认启动:直接输入模型名称启动最新版本 ollama run deepseek-r1 # 默认运行7B参数版本 • 指定版本:通过冒号后缀选择参数规模 ollama run deepseek-r1:32b # 运行320亿参数版本 对话交互 输入问题:直接回车发送问题 >>> 请用Python实现快速排序算法 退出对话:输入 /bye 或按 Ctrl+D 模型管理 查看已安装模型 ollama list # 显示所有本地模型 删除模型 ollama rm deepseek-r1:32b # 删除指定模型 更新模型 ollama pull deepseek-r1 # 拉取最新版本 二、高级功能配置 1. 自定义模型参数 通过 Modelfile 调整模型行为(如温度值、系统提示): ...

2025-02-25 · FLY的狐狸

Ollama安装及本地部署DeepSeekR1教程

ollama官网:https://ollama.com/ 一、Ollama安装教程(以Windows系统为例) 1. 准备工作 • 硬件要求:需配备NVIDIA显卡(显存≥8GB),建议预留20GB磁盘空间。 • 网络环境:确保可访问Ollama官网。 2. 安装步骤 步骤1:下载安装包 访问 Ollama官网,点击「Download」→选择Windows版本。 步骤2:安装程序 双击安装包,保持默认选项→点击「Install」,直至显示「Installation complete」即安装成功。 步骤3:验证安装 • 按 Win+R 打开运行窗口,输入 cmd 进入命令行。 • 输入以下命令验证版本: 查看ollama命令是否安装成功 $ ollama --version ollama version is 0.3.6 显示类似 ollama version 0.3.6 即成功。 步骤4(可选):修改默认模型存储路径 若需避免C盘空间占用,可在D盘创建文件夹并配置环境变量: 创建文件夹:D:\OllamaAI。 添加系统变量: • 变量名:OLLAMA_MODELS • 变量值:D:\OllamaAI。 二、DeepSeek模型部署与使用 1. 模型选择与下载 在官网 https://ollama.com/search 下,可以搜索自己需要的大模型。 此次以DeepSeek为例:https://ollama.com/library/deepseek-r1 • 版本说明: • 蒸馏版(推荐):如1.5B、7B参数,适合普通显卡(如2G显存可运行1.5B)。 • 满血版:671B参数需专业服务器(如双H100显卡+1T内存)。 • 下载命令: 通过ollama run命令下载DeepSeek并运行(以1.5b为例): $ ollama run deepseek-r1:1.5b pulling manifest pulling aabd4debf0c8... 100% ▕████████████████████████████████████████████████████████▏ 1.1 GB pulling 369ca498f347... 100% ▕████████████████████████████████████████████████████████▏ 387 B pulling 6e4c38e1172f... 100% ▕████████████████████████████████████████████████████████▏ 1.1 KB pulling f4d24e9138dd... 100% ▕████████████████████████████████████████████████████████▏ 148 B pulling a85fe2a2e58e... 100% ▕████████████████████████████████████████████████████████▏ 487 B verifying sha256 digest writing manifest success >>> Send a message (/? for help) 下载进度条显示完成后提示「success」即成功。 ...

2025-02-24 · FLY的狐狸

Deepseek为什么会让世界震惊

Deepseek为什么会让世界震惊? 2025年1月27 日英伟达跌近17%,一夜市值蒸发近 5890 亿美元,约两个半茅台,创下了美股史上最大的单日市值损失记录,DeepSeek 直接带崩美股,凌晨几乎霸占了美国财经媒体的头条。 DeepSeek 做了什么? 2024年12月26日DeepSeek V3的训练成本仅用557万美元,而GPT-4o的模型训练成本约为1亿美元。远低于行业平均水平,成为开源模型中的“性价比之王”! 2025年1月15日发布APP登顶各大应用市场; 2025年1月20日发布DeepSeek-R1,在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。除模型支持深度思考外,并允许用户通过蒸馏技术借助 R1 训练其他模型。 2025年1月27日DeepSeek 甚至又送出了一份新春大礼,开源了多模态人模型 Janus-Pro 7B版本已经能领先 OpenAI的DALL-E 3和 Stable Diffusion。 我们先来看看创始人梁文锋。 1985年出生,广东人,浙江大学毕业,拥有信息与电子工程学系本科和硕士学位。杭州幻方科技有限公司、DeepSeek创始人。 2019年,其资金管理规模突破百亿元; 2023年7月,幻方量化宣布成立大模型公司深度求索DeepSeek,正式进军通用人工智能领域。DeepSeek本身拥有大量资本,并且在美国对中国芯片持续制裁的情况下,2023年幻方量化储备了万张 A100 芯片,是大厂外唯一一家储备万张芯片的公司,这也是引发中国大模型价格战的源头。梁文锋说过:所有的套路都是上一代的产物,未来不一定成立。我们目的地是AGI,这意味着我们需要研究新的模型结构,在有限资源下,实现更强的模型能力。 为什么会影响英伟达的市值? 现在的大模型都是基于英伟达显卡,如A100、H100、2025年2月最新发布的B200。如果训练依赖的显卡需求降低了,那么对英伟达的市值会大打折扣,但其实AI还处于起始阶段,对显卡的依赖还是存在的。 为什么国外都惧怕DeepSeek? 中国企业之前都是等国外开源,如meta的llama3,然后基于开源大模型再做加工和应用;中国公司习惯了别人做技术创新,我们拿过来做应用变现。美国擅长搞技术创新,中国更擅长做应用。因为Deepseek是一个中国公司,在以创新贡献者的身份,加入到他们游戏里去。 DeepSeek 的意义是什么? 1.AI 训练变得更便宜。 2.AI 使用成本大幅下降。 3.迈向 AGI 的关键一步。 最重要的是它给了中国信心和希望

2025-02-17 · FLY的狐狸