3月1日,DeepSeek于知乎开设官方账号,独家发布《DeepSeek-V3/R1推理系统概览》技术文章,首次公布模型推理系统优化细节,并披露成本利润率关键信息,标志着全球关注的“DeepSeek开源周”正式收官。不久前,月之暗面、微软研究院、清华大学、阶跃星辰等开源项目参与者,均在知乎分享研究成果和经历。知乎一直是AI从业者和创业者密度最高的社区,此次DeepSeek选择知乎作为开源发布的最后一站,进一步引领了全网最重要的AI趋势发布。
作为“DeepSeek开源周”的收官之作,DeepSeeK知乎官方账号正式亮相,并发布文章详述V3/R1推理系统。文章写道:“DeepSeek-V3 / R1 推理系统的优化目标是:更大的吞吐,更低的延迟。”为实现这两个目标,DeepSeek的方案是使用大规模跨节点专家并行(EP),但该方案也增加了系统复杂性。文章的主要内容就是关于如何使用EP增长批量大小(batch size)、隐藏传输耗时以及进行负载均衡。
值得一提的是,文章还率先披露了DeepSeek的成本和利润率等关键信息。“假定GPU租赁成本为2美金/小时,总成本为$87,072/天。……如果所有 tokens全部按照DeepSeek R1的定价计算,理论上一天的总收入为$562,027,成本利润率545%。”
据了解,“DeepSeek开源周”自2月24日至2月28日,陆续开源最新技术进展。其中包括,FlashMLA、DeepEP、DeepGEMM和3FS四个开源项目,以及DualPipe、EPLB等代码库。每一项开源发布,都在知乎引发了业内人士的热烈讨论和赞叹。
“话不多说,DeepSeek和OpenAI一样重要。”知乎大模型话题优秀答主、算法工程师“刘聪NPL”如此评价。业内人士甚至认为,“DeepSeek开源周”的重要性已经超过了不久前OpenAI的发布会。DeepSeek用“量大管饱”的开源有力回击了欧美关于DeepSeek故意说低训练成本的说法,并且证明了在训练链路上存在极大的优化空间。“刘聪NPL”在开源周最后一天就感叹:“真没想到,最后一天DeepSeek对存储下手啊!”而知乎编程话题优秀答主“平凡”在第三天就做出判断:“这些工作几乎不可能在国外的AI公司里面完成。”
此次收官文章再次点燃了知乎对AI的讨论热情,相关问题下从业者云集。事实上,“发完论文,上知乎亲自答”,已成为人工智能研究者的风潮。2月20日,月之暗面开源MoBA框架研发人员鹿恩哲、苏剑林分别在知乎讲述了研发思路,引发了业界对“稀疏注意力”框架的讨论。与此同时,微软研究院、清华大学团队以及阶跃星辰开源模型参与者,均发文分享研究了各自成果与历程。这被业界称为继模型开源、论文开源之后的一次“思维链开源”。
知乎囊括了最广泛的互联网、AI、机器人等科技领域的从业者,是从业者最青睐的交流场所和思想碰撞的前沿阵地。此次,全球瞩目的DeepSeek将知乎作为了开源周的最后一站,更印证了知乎作为AI讨论第一阵地的独特平台价值。
(责任编辑:李春晖)