开源,免费,或许将成为大模型行业,2025年的关键词。
2月13日,百度重磅官宣:文心一言将于4月1日全面免费,覆盖PC与移动端,支持超长文档处理、多语种对话、高级AI绘画等前沿功能。同一日,OpenAI宣布ChatGPT免费无限使用GPT-5;谷歌也在更早一些时候,开放Gemini 2.0全系列模型。
大模型领域的三大巨头几乎同时宣布免费,标志着AI正从“稀缺资源”向“水电煤”式基础设施的彻底转变。
紧接着百度连续释放全面开放信号。2月12日,CNBC曝出百度计划下半年发布多模态能力跃升的Ernie 4.5系列,2月14日百度确认此消息,并称下一代模型将全面开源;仅隔一日,OpenAI便紧急宣布GPT-5即将上线。时间线上的微妙巧合,似乎也暗示了中国大模型发展的强劲势头。
这一转变背后,是行业逻辑正在被重构。过去,千亿参数的大模型因算力与研发成本高企,长期被视为“稀缺资源”;如今,免费开放策略正在推动AI技术从实验室走向街头巷尾。企业竞争的核心,也从单纯的技术比拼转向生态构建与用户黏性争夺。谁能以更低成本、更高效率支撑全民化AI服务,谁就能在下一轮竞争中抢占高地。
令人瞩目的是,在这场全球AI竞速中,中国力量正从“追赶者”迈向“并跑者”,甚至局部引领技术潮流。
这场无声的较量,或许预示着技术话语权的历史性迁移。
全面开放的技术底气
全面开放的背后,是百度多年积累的技术底气。
近日,百度创始人李彦宏在阿联酋迪拜出席“世界政府峰会”上表示,“在过去,当我们谈论摩尔定律时,每18个月,性能水平或价格都会减半。但是今天,当我们谈论大型语言模型时,增加的成本基本上降低了,可以在12个月内降低90%以上。”
在国际大模型局势多变的情况下,李彦宏认为技术创新的背后是成本降低,也是实现AI普惠的关键。
选择下一代模型开源,也正是基于百度的技术实力的长期积累及AI普惠的思考,积极战略拥抱开源路线,DeepSeek R1在高度开源后引发的蝴蝶效应,在某种程度上证明了开源是实现大规模落地的有效手段。
纵观当下的大模型厂商,百度是中国唯一拥有AI技术全栈架构的公司。从底层芯片、框架到模型和应用层四层全栈布局。在芯片层拥有基于自研AI芯片昆仑芯打造了万卡集群,框架层拥有中国开发者使用最广的飞浆开源框架,模型层储备了不断迭代的文心大模型,在应用层更结合百度文库、百度搜索、自由画布等创新产品。
全栈能力使得百度的技术底座更扎实和灵活,拥有绝对的自主权实现端到端的模型优化,以及进一步降低综合成本。
据硅星人了解,为了突破算力限制,百度将自研AI芯片昆仑芯大规模应用在模型训练阶段,与同类芯片相比,昆仑芯在性能上表现出更高的效果且性价比更高,能够在更少的计算资源下运行大参数大规模的模型,降低单位算力成本,使得大模型训练所需计算量减少,从而直接降低成本。
基于昆仑芯,百度构建了国内首个自研万卡集群,并计划扩展至 3万卡。
遵循着算力规模越大,单任务成本越低的定律,大规模集群可以通过任务并行调度、弹性算力管理等方式,提高计算资源利用率,避免算力闲置,提高单任务的计算效率,从而降低整体算力成本。
作为国内首个自研超大规模算力池,它主要通过动态资源分配与通信优化等方式,来提高卡的使用效率。如万卡集群支持多任务并发能力实现动态资源切分,使得单集群能同时训练多个轻量化模型。万卡集群能够支持多任务并发能力,特别是在故障处理方面,创新的BCCL(百度集合通信库)技术实现了分钟级故障恢复,确保了万卡多芯混合训练效能达到95%的卓越表现。
百度通过通信优化与容错机制减少算力浪费,确保了大规模集群中的高效数据传输,建设超大规模HPN高性能网络,优化拓扑结构,从而降低通信瓶颈,带宽有效性达到90%以上。
如果说芯片和集群是代表“肌肉”的硬实力,百舸平台则是调度算力资源的“大脑”。
百舸平台通过自适应并行切分策略,单集群可同时训练多个轻量化模型,完善模型的分布式训练优化,采用高效并行化任务切分策略,训练主流开源模型的集群MFU(Model FLOPs Utilization)提升至58%,这意味着,每100分算力中有58分被有效利用在了实际的模型训练计算上。
同时,它作为异构的算力调度平台,在多芯混训方面,能将不同地点、不同规模的异构算力进行统一管理,构建起多芯资源池。当业务提交工作负载时,百舸可自动进行芯片选型,依据集群剩余的芯片资源,选择性价比最高的芯片来运行任务,从而最大化地利用集群的剩余资源,实现高达95%的万卡多芯混合训练效能。
一位业内人士分析道:“百度在模型推理部署方面有比较大的优势,尤其是在飞桨深度学习框架的支持下,其中并行推理、量化推理等都是飞桨在大模型推理上的自研技术。”
事实也证明了上述人士的推断,近期,DeepSeekR1爆火后,各云厂商纷纷将该模型部署在自己的云平台中,千帆平台通过技术创新实现了全网最低的模型调用成本,以DeepSeek-R1/V3模型为例,其价格仅为市场刊例价的3-5折。
技术创新推动着成本降低,成本降低又成为了技术创新的养料,如此形成了良性循环。
成本创新,是大模型的第一性原理
事实上,不止在大模型训练上,在百度的发展历程中,低成本创新和开放始终是贯穿始终的战略主线。从此次选择下一代模型开源的方式拥抱市场便可体现,开放于百度而言并不是一句口号,而是战略。
李彦宏曾表示:“大部分创新都与成本控制有关,你必须研发出一种成本低得多的技术,才能实现无人驾驶落地。”这种战略在萝卜快跑中得到了充分验证。
当特斯拉从L2渐进式升级时,百度坚持“一步到位”的L4路线。看似冒险的选择,实则暗含成本逻辑:L4标准下,一致的设定标准、一致的质量标准更有利于量产,同时用更高的软件能力来降低对于硬件的高要求,从而降低整车成本,有商业化盈利的可能。
通过将大模型技术与自动驾驶深度融合,萝卜快跑在中国复杂的城市道路环境中展现出显著优势。其第六代无人车的成本仅为Waymo的1/7,甚至低于特斯拉计划在2026年量产的Cybercab(预计成本3万美元)。
事实也证明了这条路径的正确性,目前萝卜快跑在中国40个城市累计运营1.3亿公里,出险率仅为人类司机的1/14,值得注意的是,萝卜快跑比特斯拉Cybercab,用更低的成本更早实现商业化运营,印证了低成本战略在市场竞争中的决定性作用。
在西方科技巨头依赖“暴力计算”(如GPT-5需百万张GPU训练)时,中国AI企业探索出了一条差异化路径——以成本控制驱动技术创新,以场景落地倒逼工程突破。
百度的成本控制思路再一次证明了这条路径的可行性。文心大模型的全面开源,本质是一场“以技术降本换生态增量”的正向循环。通过昆仑芯、万卡集群与百舸平台的技术联动,支撑开放战略,而用户规模的增长,又进一步反哺模型优化。
技术创新推动成本下降,低成本又促进规模化应用,规模效应进一步带动成本优化。
将尖端技术转化为切实可行的商业方案,并通过规模效应持续优化成本结构。在全球AI竞争格局中,中国模型正在改写世界格局,通过持续的技术创新压低成本曲线,让AI技术真正走向普惠。
0 条评论
请「登录」后评论