今日,百度正式宣布开源文心4.5系列模型,涵盖10款不同规模的混合专家(MoE)及稠密模型,参数规模从0.3B至424B,全面覆盖从轻量化到高性能的多样化需求。此次开源不仅标志着百度在AI大模型领域的又一次重大突破,更通过开放核心技术与工具链,推动多模态AI技术的普惠化发展。

文心 4.5 系列模型全面开源:多模态异构架构引领 AI 技术新突破
文心4.5系列模型:多模态融合的里程碑
文心4.5系列模型的核心亮点在于其创新的多模态异构混合专家架构,通过跨模态参数共享与专用参数空间结合,在保持文本任务性能的同时,显著提升多模态理解能力。该架构采用多维旋转位置编码、专家间正交性增强等技术,实现文本与视觉模态的深度融合,为从大语言模型向多模态模型的持续预训练提供了高效范式。
- 模型规模:包括激活参数47B/3B的MoE模型(总参数424B)及0.3B稠密模型,满足从边缘设备到云端的全场景需求。
- 性能表现:在文本生成、图像理解、视觉推理等基准测试中达到SOTA水平,指令遵循、世界知识记忆等任务表现突出。
- 训练效率:基于飞桨框架的异构混合并行与FP8混合精度训练技术,FLOPs利用率达47%,推理支持4-bit/2-bit量化,资源占用大幅降低。
开源生态:全栈工具链赋能开发者
百度此次开源不仅释放了预训练权重与推理代码,还同步推出两大开发套件,降低产业落地门槛:
- ERNIEKit开发套件:提供精调(SFT)、偏好优化(DPO/UPO)、量化训练(QAT/PTQ)等全流程支持,开发者可通过简单命令快速启动模型训练。
- 示例代码:
huggingface-cli download baidu/ERNIE-4.5-0.3B-Paddle --local-dir ./model erniekit train examples/configs/ERNIE-4.5-0.3B/sft/run_sft_8k.yaml
- 示例代码:
- FastDeploy部署套件:兼容vLLM/OpenAI协议,支持PD分离部署、低比特量化及上下文缓存技术,实现高性能推理。
- 本地推理示例:
from fastdeploy import LLM, SamplingParams llm = LLM(model="baidu/ERNIE-4.5-0.3B-Paddle") outputs = llm.generate("将《静夜思》改写为现代诗", SamplingParams(temperature=0.8))
- 本地推理示例:
多模态技术突破:从预训练到后训练
文心4.5系列通过多模态联合预训练与分阶段后训练(SFT/DPO/UPO),优化了通用语言理解与视觉语言任务表现:
- 预训练:跨模态正交性约束与词元平衡优化,解决专家负载不均问题。
- 后训练:针对大语言模型(通用任务)与多模态模型(视觉理解)分别优化,支持“思考”与“非思考”双模式。
开源生态服务:从社区到产业的全方位支持
百度计划联合Hugging Face等30+社区推出20节开源公开课,并携手国网、工行等企业与顶尖高校举办「文心名师系列」课程。同时,在星河社区上线实战项目,并在北京、上海等10城设立“开源服务站”,提供技术支持与算力资源。
结语:开源驱动AI未来
文心4.5系列的开源,不仅是百度技术实力的展现,更通过开放工具链与生态资源,加速多模态AI在医疗、教育、金融等领域的落地。开发者可通过以下链接获取模型与文档:
- 技术报告与模型库:Hugging Face | GitHub
- 开发套件与教程:ERNIEKit | FastDeploy
百度文心与飞桨的深度协同,正推动中国AI生态走向更开放、更创新的未来。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...