大模型开源大战开打!华为盘古720亿参数全开放

前沿科技
分享至
评论

 2025年6月30日,华为突然宣布开源盘古Pro MoE 720亿参数模型,所有权重和推理代码上线开源平台。24小时内,百度文心4.5系列、腾讯混元A13B混合推理模型相继开源,三大平台累计开放超2000亿参数模型资源。这场开源风暴正改写全球AI竞争规则——华为盘古以SuperCLUE榜单国内千亿级模型第一名的身份下场,标志着中国AI竞赛从军备竞争转向生态战争。

大模型开源大战开打!华为盘古720亿参数全开放

 技术核弹接连引爆。华为开源的720亿参数混合专家架构模型,可在单张昇腾910芯片上实现复杂任务推理;百度同步开放文心4.5 API服务,企业用户通过飞桨平台10分钟即可部署智能客服系统;腾讯混元A13B则主打混合推理,在GitHub上线首日收获2300颗星。

 商业模式深度重构。达睿咨询创始人马继华指出:"开源正催生'开放核心+增值服务'新业态。"华为为边缘设备定制的70亿参数稠密模型,已接入煤矿井下监控系统,推理效率提升4倍;百度智能云千帆平台靠模型调优服务,单季度营收增长17%;腾讯云则通过API调用量半月激增300%。

 这场开源浪潮由国产DeepSeek模型引领的“鲶鱼效应”触发。书生家电网观察发现,企业客户更倾向采购可自主优化的开源模型——某汽车厂商采用盘古MoE后,智能座舱开发成本降低60%。正如开发者社区热传的标语:“当算法民主化,创新才真正爆发。”

THE END

数码评测