国产AI公司深度求索(DeepSeek)开源周真实开端发动,并发布首个开源代码。
2月24日,DeepSeek宣告发动“开源周”,首个开源的代码库为FlashMLA,这是针对Hopper GPU优化的高效MLA解码内核,针对可变长度序列作了优化,现在已投入生产。
此前2月21日午间,DeepSeek宣告,从下周开端,他们将开源5个代码库,以彻底通明的办法与全球开发者社区共享他们的研究发展,每日都有新内容解锁,进一步共享新的发展,并将这一方案界说为“Open Source Week”。
依据DeepSeek在社会化媒体上的内容,在H800上能轻松完成每秒处理3000GB数据,每秒履行580万亿次浮点运算。
Hopper是英伟达的GPU(图形处理芯片)架构,例如H100和H800,发布于2022年,大多数都用在AI核算。
有意思的是,如果把这段内容交给DeepSeek网页版,问询开源含义,DeepSeek答复称,可以理解为专门给高性能显卡(比方英伟达的Hopper系列GPU)规划的“加快神器”,用来进步AI处理使命的功率。
DeepSeek举例,假设开了一家快递分拣站,每天要处理不同巨细的包裹,传统办法是用固定巨细的筐子装,小包裹糟蹋空间,大包裹又得分筐装,功率很低。而FlashMLA就像一套“智能分拣体系”,能主动依据包裹巨细调整筐子尺度,让一切包裹快速、规整地装车,既省时刻又省钱。
Grok3 称,”幻想你有个超级聪明的 AI,但它跑得不够快,由于每次处理语句时都要糟蹋许多时刻搬数据和算杂乱的数学题。FlashMLA 就像给AI加了个‘涡轮增压引擎’,专门装在英伟达的Hopper GPU上。它能让AI用更少的内存、更快的速度处理各种犬牙交错的语句,开源之后,AI开发会变得更快、更省钱。”
作为开源大模型,DeepSeek的火爆现已带动了开源成为现在的AI工业新趋势。
香港科技大学校董会主席、美国国家工程院外籍院士沈向洋在2025全球开发者前锋大会(GDC)上表明,虽然当时闭源的比例依然逾越开源的比例,但接下来一两年将剧烈改变,平衡开源与闭源,引领未来。“大模型年代,开源并没有像以往那么多、那么快,我想,经过上海的尽力,我信任开源这件工作会越做越好。我国的团队、上海的团队一定会引领开源潮流。”
头部大厂纷繁跟进开源潮流。2月21日,据阿里巴巴通义实验室科学家黄斐介绍,到现在为止,整个通义千问(Qwen)系列模型的下载量到达了1.8亿,累计衍生模型总数到达9万个,衍生模型数现已逾越Meta的Llama系列,成为了全球第一大开源模型系列。
百度宣告将在未来几个月中连续推出文心大模型4.5系列,并于6月30日起正式开源;文心一言自4月1日起全面免费,一切PC端和APP端用户均可体会文心系列最新模型。