吴婷:算力VS算法,谁能决定国运?
案例·线下访学 · 2025-02-19
一场AI领域的世纪大斗法,正在中美之间展开。
1月22日,特朗普启动星际之门计划,要投入5000亿美元,也就是用相当于建设10个三峡大坝的钱来建设AI基础设施,要在算力优势上彻底碾压中国。特朗普在发布会现场直接说:中国是竞争对手,我们要让这些设施留在本土。
但没想到,没过几天,来自中国的大模型DeepSeek就在春节期间引发了全球科技圈大地震,虽然算力被卡脖子,但它以超强的算法取胜,甚至有希望带领整个行业走出做大模型必须买卡拼算力的传统烧钱路径,让卖卡的英伟达一夜蒸发近6000亿美元市值,比星际之门的总预算还高。
中国向来不缺算法高手,TikTok能引起美国官方那么大的恐慌,正是因为它的算法让美国民众欲罢不能。
那么算力和算法,到底哪个是AI的胜负手,现在谁都没有答案。但我想借这个机会给你讲清楚,算力到底是什么,以及DeepSeek的算法到底厉害在哪里。
先说算力。
举个例子,一位老司机在拥堵时段,可以凭经验和技术在一定程度上避开拥堵,提高出行效率。这里的经验和技术可以理解为司机的“算力”。
在这个互联网、大数据无处不在的时代,算力可以理解为集信息处理能力、网络运载力、数据存储力于一体的新型生产力。
老司机的算力比新手高,所以创造了更高的经济价值;滴滴大脑的算力又比老司机高,创造的经济价值自然也更高。
所以算力已经跟经济形成了强相关关系。
2022年,清华全球产业研究院编制的报告(2021-2022全球计算力指数评估报告)中就明确提到,算力指数平均每提高1‰,数字经济和GDP将分别增长3.5‰和1.8‰;中国信息通信院发布的白皮书(2022年中国算力发展指数白皮书)测算,算力每投入1块钱,将带动3-4块钱的经济产出。
所以,算力,正在决定着国力。
那么算力本身从商业角度又是怎样一门生意呢?
先说算力的载体,也就是我们都很熟悉的芯片。
当前的算力主要分为通用算力、智能算力和超级算力。三类算力分别对应三类芯片。
通用算力对应CPU,它属于基础算力,重点在于通用性,比如网页服务、数据库操作和数据处理基本都是用通用算力。这一领域由CPU双雄Intel、AMD主导,也有海光、龙芯、华为等国产之光。
智能算力对应GPU、FPGA、ASIC等专业加速芯片。相比于通算的通用性,智算更侧重“个性”,主打一个专业、精准、智能,比如智能安防、自动驾驶中常用到的图像识别,基本都要用智算。这一领域的核心玩家是英伟达、博通,以及被AMD收购的赛灵思。
而超级算力就更厉害了,它通常用来解决非常复杂的科学和工程问题,比如气象预报、航空航天、药物研发。通算和智算的算力可以由单体芯片搞定,而超算必须依靠不同类型芯片组成的集群才能上岗。比如英伟达的Blackwell超级芯片、AMD的MI300A,都是“GPU+CPU”组合。
芯片是算力的载体,而算力的呈现形式是算力中心。
这里面又分成两类:一类是企业自建,一般是对算力需求大、资金实力雄厚的巨头,比如阿里云、腾讯云、华为云都自建通算中心,中国电信、联通、吉利都自建智算中心。
第二类是算力租赁,小企业建不起,但是算力又是刚需,自然就产生了自己建设、出租赚钱的生意,比如浪潮信息、云赛智联、阿里、百度都有算力租赁业务。
算力租赁的形式都比较灵活,可以按含有多张GPU的整台服务器租赁、也可以按单张GPU租赁,时间短至几小时、长至两三年,都可以,对小微企业很友好。
说回星际之门,它本质上就是OpenAI的自建的数据和算力中心。但星际之门可不只是OpenAI自己的项目,它不但牵涉到日本软银、阿布扎比MGX等国际资本,也把数据服务商甲骨文、芯片供应商英伟达、Arm等科技巨头拉入伙,在落地的建设中,还会有更多中小科技公司参与,这是一个带动AI全产业链共同发展的大项目。
截至2023年底,美国和中国的算力基础设施规模,分别占全球的32%和26%。而有了星际之门,美国的优势显然会进一步扩大。
现在你应该明白了,算力的关键是“力”,大力出奇迹;而算法的关键是“法”,是技巧,如果技巧高超,一样可以四两拨千斤。
比如大模型的基础架构一般分两类,稠密模型和专家模型。
稠密模型就是每次响应指令,都要整个大模型一起上,所有参数都会激活,GPT-3.5就是这种架构,准确度确实高,也很全面,但是真烧钱。
而专家模型经济实惠,你可以把这种架构的大模型想象成一个专家团,整个团队无所不能,但每个专家擅长的领域不一样。你让大模型给你做张表,他就让擅长逻辑和绘图的专家为你服务,别的专家不用管。GPT-4就属于专家模型,它有16个专家模块,总计超过1.67万亿个参数,平均每个专家背后有1000亿个参数,每次响应指令时,大约一到两个专家会被激活,也就是一两千亿个参数,大大降低了计算量。
DeepSeek就更牛了,它不但采用了专家模型,还给专家做了更细粒度的划分,让专家更专门化,每个专家只有几十亿个参数,不到GPT-4的1/10,所以它响应更快。
更绝的是,DeepSeek还把一些专家设置成“共享专家”,用来解决不同领域交叉地带的问题,这样普通的专家就不需要有知识冗余,更加轻量化,所以V3在激活相同数量专家和参数的情况下表现更好。
但是DeepSeek的出现,并不能让我们高枕无忧,OpenAI、Meta等等大厂都在快速追赶,就在前几天,AI教母李飞飞团队训练出了媲美DeepSeek R1的大模型,只用了16个英伟达H100 GPU,其中云计算费用还不到50美元。形势不容我们放松,不进则退。
你体验DeepSeek了吗?有没有用过其他的大模型?评论区聊聊你的感受吧。
作者 | 吴婷
参考资料:
[1]朱帅:“AI曼哈顿计划”,美国会如何铺开.环球网.2024.
[2]3.6万亿的史上最大AI项目引发骂战.新浪AI.2024
[3]微软解绑:OpenAI获更大AI算力自主权.砍柴网.2024
[4]微软与OpenAI背刺,英伟达InfiniBand危险了.数据猿.2024
[5]OpenAI联手软银、甲骨文启动千亿美元AI基建.蓝鲸财经.2024
[6]算力租赁是一门好生意吗.中国经济网.2024
[7]中国算力进化史.AI财经社.2022
[8]联发科与NVIDIA合作打造全新的NVIDIA GB10超级芯片.太平洋科技.2025