2025年1月,杭州的深度求索(DeepSeek)发布自研模型R1,在全球科学技术行业引发震动。经媒体广泛报道,该公司及其产品迅速成为全民热议线周内用户量破亿,上涨的速度远超前辈“ChatGPT”以及国民级应用抖音。甚至连我那英文单词都不认识的老妈都告诫我:“有个什么D的AI软件很厉害,你要好好学一下”。
DeepSeek的出现,极大地提升了大众对AI的认知与关注,让人们切实领略到人工智能的魅力。围绕DeepSeek,从技术创新、生态构建到投资机遇、人才发展等,有着诸多值得探讨的话题。本文将聚焦于几个核心问题,深入浅出地为读者剖析:DeepSeek究竟卓越在何处?它又带来了怎样的投资契机?
在此,特别感谢近期给予我们指导、建议与帮助的业内资深人士。作为行业新参与者,我们开设公众号旨在科普科技与投资知识,助力普通读者增进理解,同时激励自身持续学习。我们始终秉持谦逊态度,致力于为大家输出高质量内容。
从普通用户视角来看,与此前大热的ChatGPT、豆包等工具类似,DeepSeek本质上也是一款大模型。不过,它具备更丰富的思考路径,展现出更高的智能水平。
DeepSeek的V3和R1模型广受青睐,引发广泛讨论。其核心原因主要在于,DeepSeek在模型算法和系统软件层面实现重大创新,在性能上达到与世界领先模型GPT-o1近乎同等水平的同时,成功将成本(每Token使用费)降低至GPT-o1的十分之一。
并且,DeepSeek采取开源策略,所有人均可免费下载并用于商业用途,能基于该模型开展二次开发。
自主研发的MoE(混合专家模型)架构:形象地说,这种架构类似患者就医。患者先依据自身身体健康情况,在分诊台选择特定领域专家(如内科、外科等)挂号,实现精准诊疗,而非做全面检查。放在模型的场景中,即尽管整体模型规模庞大,但每次调用时激活的参数规模较小,明显降低了训练成本。
多头潜在注意力机制(MLA):该机制减少了键值缓存开销,使显存占用降至其他模型的5%-13%,大幅度的提高了模型运行效率。
强化学习(RL)的广泛应用:DeepSeek大幅度减少传统的监督微调(SFT),直接通过强化学习从基础模型中激发推理能力。由于强化学习无需数据标注(即人工手动辅助计算机识别物体),极大地降低了成本并简化了训练流程。
FP8混合精度训练:相较于以往的FP16计算方式,此训练方式直接节省了算力,并通过算法优化确保模型训练效果。
需指出的是,除多头潜在注意力机制(MLA)是DeepSeek在其模型中独特应用的技术外,其他技术并非DeepSeek首创。但DeepSeek通过不懈努力,将工程化做到极致,达到了新的技术高度,且其版本至今仍在持续迭代更新。
DeepSeek的影响远不止于成本降低,它对整个AI赛道产生了深远影响,打破了诸多“AI偏见”。
例如,规模法则(Scaling Law)或许已触及天花板。此前在讲解GPT的文章中提到,OpenAI秉持“大力出奇迹”的理念,坚信单纯依靠增加算力就能提升模型性能,而对算力的优化改进作用不大。
但DeepSeek的成功有力地反驳了这一观点。DeepSeek的算力并非顶尖,却通过算法优化取得了惊人成果。这表明美国芯片可能并非制约中国AI产业高质量发展的重要的条件,这也是DeepSeek发布当日英伟达股价下跌的原因之一。
业内某位资深人士对DeepSeek在AI技术路径方面的影响评价颇为贴切:“我们曾一度认为AI是一座大山,大家努力往上顶爬,现在或许应该思考,AI可能是大海,有很多方向可以探索。”【1】
又如,美国的大模型并非不可超越。客观而言,DeepSeek虽未超越美国大模型,但将中美模型差距从2 - 3年缩短至半年。并且,DeepSeek并未照搬美国技术路径,而是在底层实现突破。作为一家纯粹的中国公司,首次推出与美国媲美的优秀模型,具备极其重大的地理政治学意义。
再者,闭源并非绝对优于开源。过去几年,开源大模型性能与头部企业的闭源大模型相比,始终存在一代以上的差距。此次DeepSeek性能追平闭源模型,极大地增强了开源社区的信心。
一款领先的开源模型意义重大:一方面,有利于技术推广。以往客户常担忧使用闭源模型存在数据泄露风险,而开源从根本上消除了这一顾虑;
另一方面,有助于构建生态。开源模型能够吸引更多顶尖开发者,使开发者能够便捷地调用强大的AI工具,摆脱大公司的限制,从而明显提升AI的进化速度,让每个国家、企业乃至个人都能部署自己的模型。
DeepSeek诞生后,中美芯片公司、计算机显示终端以及工具链迅速适配并提供支持,充分彰显了开源的魅力。
可以形象地理解DeepSeek的影响:大模型如同人们的超级助手,可协助创作、绘图、编程、搜索等。但在DeepSeek出现前,大模型主要服务于大企业和高净值群体。而DeepSeek的问世,让普通大众也能畅享AI带来的便利,恰似“旧时王谢堂前燕,飞入寻常百姓家”,有力地推动了AI的普及与平等应用。
DeepSeek的诞生极大地推动了AI的发展与落地应用,与AI相关的领域均将从中受益。不过,与以往相比,仍存在一些显著变化。
过去,投资人主要关注AI云端训练,如今则应更加重视AI端侧推理。从今年的CES展会能够准确的看出,各类终端应用(如眼镜、手表、耳机等)都在尝试与AI融合,但效果欠佳,核心原因主要在于SoC提供的算力与大模型所需算力不匹配。
在GPT时代,大模型效果非常明显,但端侧SoC算力有限,难以支持动辄千亿参数的大模型,因此端侧设备主要承担数据上传下载功能,处理和决策则由云端集中完成。
然而,云端集中处理存在诸多问题:一是调用云端算力成本比较高,增加了整体经营成本;二是数据上传下载耗时较长,在对决策速度要求极高的工业检测、无人驾驶等场景中不足以满足需求;三是存在隐私风险,部分客户不愿将信息上传至云端。
而DeepSeek-R1的突破在于其“蒸馏模型”技术(可简单理解为“压缩”或“针对特定领域的优化”)。通过压缩大型模型参数并优化推理效率,使得原本依赖云端算力的复杂AI任务能够在终端设备本地运行。
这意味着,借助DeepSeek的蒸馏技术,端侧设备能够在本地完成数据采集、处理与决策,大幅度的提高了端侧设备的“智能”与“响应速度”,更好地使用户得到满足需求,进而推动行业快速发展。
AI端侧芯片:如SoC芯片。需注意的是,即便模型经过蒸馏,传统SoC仍难以满足算力需求。因此,许多芯片厂商开始发力NPU,推出算力达数百TOPS的SoC芯片。随着端侧模型部署难度明显降低,此类AI SoC芯片的需求预测将大幅增长。
尽管部分自媒体和个人将DeepSeek当作百度使用,似乎它已能直接服务计算机显示终端,但实际上,DeepSeek更类似于手机的Android系统或笔记本的Windows系统。要充分的发挥DeepSeek的强大功能,离不开广大开发者的二次开发。
DeepSeek R1作为基础模型,性能提升迅速且质量优良,为应用落地提供了更大的可能性。对于开发者而言,其开源特性至关重要,模型能够与应用充分适配调优,且调用成本低、稳定性高(调用GPT的API存在被美国限制的风险),未来有望催生具有突破性的“杀手级”应用,推动AI应用百花齐放。
春节期间,我深切感受到AI正切实改善人们的生活。家中读一年级的小侄女常借助手机向AI提问,辅助完成作业、聆听故事;60多岁的舅妈在日常卖货时,也会咨询AI,因其年龄较大,时常难以回答顾客的问题。
舅妈感慨道:“这东西太好用了,问儿子多了他会不耐烦,可它永远都不可能厌烦,而且无所不知。”母亲在使用AI后也赞叹:“这东西太厉害了,听说还是年轻人做的,中国人真了不起。”我对此表示认同:“确实,AI时代已然来临。”
我不禁思索,这或许仅仅是AI变革的开端。未来,AI将更深入地融入生活的方方面面,从智能家居的全面守护,到医疗健康领域的精准诊断,再到教育方式的彻底革新,曾经只存在于科幻小说中的场景正逐步成为现实。
AI正以不可阻挡之势重新定义我们的生活,身处这一技术革命浪潮之中,实乃幸运。去年,整个创投行业着实有些惨淡和寒冷,2025年,希望可以温暖一些。