​​百度文心4.5系列模型震撼开源,引领多模态AI新纪元​​

AI新闻资讯1周前发布 一丢
623 00
广告也精彩

今日,百度正式宣布开源文心4.5系列模型​,涵盖10款不同规模的混合专家(MoE)及稠密模型,参数规模从0.3B至424B,全面覆盖从轻量化到高性能的多样化需求。此次开源不仅标志着百度在AI大模型领域的又一次重大突破,更通过开放核心技术与工具链,推动多模态AI技术的普惠化发展。

​​百度文心4.5系列模型震撼开源,引领多模态AI新纪元​​

文心 4.5 系列模型全面开源:多模态异构架构引领 AI 技术新突破

文心4.5系列模型:多模态融合的里程碑​

文心4.5系列模型的核心亮点在于其​​创新的多模态异构混合专家架构​​,通过跨模态参数共享与专用参数空间结合,在保持文本任务性能的同时,显著提升多模态理解能力。该架构采用多维旋转位置编码、专家间正交性增强等技术,实现文本与视觉模态的深度融合,为从大语言模型向多模态模型的持续预训练提供了高效范式。

  • ​模型规模​​:包括激活参数47B/3B的MoE模型(总参数424B)及0.3B稠密模型,满足从边缘设备到云端的全场景需求。
  • ​性能表现​​:在文本生成、图像理解、视觉推理等基准测试中达到SOTA水平,指令遵循、世界知识记忆等任务表现突出。
  • ​训练效率​​:基于飞桨框架的异构混合并行与FP8混合精度训练技术,FLOPs利用率达47%,推理支持4-bit/2-bit量化,资源占用大幅降低。

​开源生态:全栈工具链赋能开发者​

百度此次开源不仅释放了预训练权重与推理代码,还同步推出两大开发套件,降低产业落地门槛:

  1. ERNIEKit开发套件​:提供精调(SFT)、偏好优化(DPO/UPO)、量化训练(QAT/PTQ)等全流程支持,开发者可通过简单命令快速启动模型训练。
    • 示例代码
      huggingface-cli download baidu/ERNIE-4.5-0.3B-Paddle --local-dir ./model
      erniekit train examples/configs/ERNIE-4.5-0.3B/sft/run_sft_8k.yaml
  2. FastDeploy部署套件​:兼容vLLM/OpenAI协议,支持PD分离部署、低比特量化及上下文缓存技术,实现高性能推理。
    • 本地推理示例
      from fastdeploy import LLM, SamplingParams
      llm = LLM(model="baidu/ERNIE-4.5-0.3B-Paddle")
      outputs = llm.generate("将《静夜思》改写为现代诗", SamplingParams(temperature=0.8))

​多模态技术突破:从预训练到后训练

文心4.5系列通过​​多模态联合预训练​​与​​分阶段后训练​(SFT/DPO/UPO),优化了通用语言理解与视觉语言任务表现:

  • ​预训练​​:跨模态正交性约束与词元平衡优化,解决专家负载不均问题。
  • 后训练​:针对大语言模型(通用任务)与多模态模型(视觉理解)分别优化,支持“思考”与“非思考”双模式。

开源生态服务:从社区到产业的全方位支持​

百度计划联合Hugging Face等30+社区推出20节开源公开课,并携手国网、工行等企业与顶尖高校举办「文心名师系列」课程。同时,在星河社区上线实战项目,并在北京、上海等10城设立“开源服务站”,提供技术支持与算力资源。

​结语:开源驱动AI未来​

文心4.5系列的开源,不仅是百度技术实力的展现,更通过开放工具链与生态资源,加速多模态AI在医疗、教育、金融等领域的落地。开发者可通过以下链接获取模型与文档:

百度文心与飞桨的深度协同,正推动中国AI生态走向更开放、更创新的未来。

© 版权声明
广告也精彩

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...