飞桨星河社区 Demo | Hugging Face Demo | GitHub | Hugging Face | 飞桨星河社区 | 文心一言

模型亮点

基于强大的 ERNIE-4.5-VL-28B-A3B 架构,全新升级的 ERNIE-4.5-VL-28B-A3B-Thinking 在多模态推理能力上实现了显著飞跃。🧠✨ 在扩展的中期训练阶段中,模型吸收了大规模且高度多样化的高质量视觉-语言推理数据语料。这一阶段显著增强了模型的表征能力,并进一步深化了视觉与语言模态之间的语义对齐,从而在细粒度视觉-文本推理任务中展现出前所未有的表现力。📊

模型在可验证任务上引入了先进的多模态强化学习技术,结合 GSPOIcePop 策略,有效稳定了 MoE(Mixture of Experts) 的训练过程,并通过动态难度采样机制显著提升了学习效率。⚡针对社区反馈与实际需求,模型在 视觉定位(Grounding) 能力上进行了全面增强,同时优化了 指令理解与执行能力,使视觉定位与指令交互功能更易调用、更可靠。🎯 此外,全新的 “Think with Image” 模式支持模型在推理过程中结合图像放大与图像检索等工具,实现对细粒度视觉细节的更精准理解,并能够覆盖更广泛的长尾视觉知识。🔍🖼️

这些改进共同构成了构建高级多模态智能体的核心基础,为开发者与研究人员提供了强大的工具支持,使其能够探索并构建新一代视觉-语言理解系统,推动多模态人工智能在复杂推理与应用场景中的边界持续拓展。🤖🌟

核心能力

作为一款仅激活 30亿参数 的轻量级模型 ⚡,ERNIE-4.5-VL-28B-A3B-Thinking 在多项权威基准测试中展现出接近业界顶级旗舰模型的性能表现。 凭借高效的参数利用率与优化的推理架构,模型在视觉任务上实现了接近SOTA(state-of-the-art)的表现,同时保持了出色的计算效率。🚀

  • 视觉推理 🧠👁️:得益于大规模强化学习训练,模型在复杂视觉任务中展现出卓越的多步推理、图表分析与因果推理能力,其表现已可与 Gemini-2.5-Pro 相媲美。📊✨
  • STEM 推理 🔬📐:凭借强大的视觉理解能力,模型在 STEM 类任务(如求解图片中的物理、数学问题)中实现了性能跃升,能够轻松应对复杂题目。🎯💡
  • 视觉定位(Grounding) 📍🎨:具备更高精度的定位能力与灵活的指令执行机制,可在复杂的工业级场景中快速触发 Grounding 功能,大幅提升效率。⚙️💪
  • 图像思考(Thinking with Images) 🤔🔍:模型能够像人类一样“带着图像思考”,可自由放大与缩小画面,从细节中获取完整信息,实现对视觉内容的深层理解。🖼️✨
  • 工具使用 🛠️⚡:依托强大的工具调用能力,模型可即时使用图像搜索等功能,高效识别长尾知识,实现全面的信息检索与整合。🔎📚
  • 视频理解 🎬🎥:模型具备出色的时间感知与事件定位能力,能够精准识别视频不同时间片段中的内容变化,使视频分析更智能、更高效。⏱️🌟

案例展示

视觉推理

案例:分析高峰时段图表,合理安排业务办理时间

在本案例中,模型接收到一张展示每周不同时段客流强度的“高峰提示”图表。

用户请求模型在 2025 年 11 月 8 日至 12 日 期间,结合图表内容,找出避开高峰时段与业务高峰日的最合适来访时间。

+ERNIE-4.5-VL-28B-A3B-Thinking 首先确定了用户给定日期对应的星期,对图表进行结构化解析,识别出低客流时段(12:00–14:00),并结合日期与业务规律进行逻辑匹配,最终输出清晰的时间建议结果。

STEM 推理

案例:求解桥式电路的等效电阻

在本案例中,用户输入一个结构复杂的桥式电路,并要求模型计算 A、B 两点间的等效电阻

该问题无法通过简单的串并联化简求解,需要应用 欧姆定律(Ohm’s Law)基尔霍夫电流定律(KCL) 进行完整的多步分析。

ERNIE-4.5-VL-28B-A3B-Thinking 首先理解电路结构,确定各节点关系,建立电流方程。随后,模型设定各支路电流变量,根据KCL写出节点方程,并结合欧姆定律列出电压方程,最终得出正确结果 R = 7/5 Ω(约 1.4 Ω),并进行了正确性检验。推理过程逻辑严谨、层次清晰。

视觉定位(Grounding)

案例:检测穿西装的人并输出结构化坐标

在本案例中,模型接收到一张包含多个人物的超现实场景图像,以及指令:“图中有多少个穿西服的人,请用 JSON 格式输出以上物体的坐标和 bbox_2d 位置。”

ERNIE-4.5-VL-28B-A3B-Thinking 严格遵循指令,准确检测出所有目标人物,并输出包含精确数值坐标的完整边界框列表。

该输出结果体现了模型在 视觉 Grounding 方面的能力——能够将语言指令与图像区域正确对应,同时在结构化结果生成中保持高度的指令遵循性。

图像思考(Thinking with Images)

案例:通过图像缩放识别蓝底标牌文字

在本案例中,用户提出问题:“在人行道旁墙上的蓝底标牌上写的是什么?”

ERNIE-4.5-VL-28B-A3B-Thinking 首先分析整张图像,定位蓝底标牌位置,并自主调用 图像放大工具(image zoom-in tool) 对标牌细节进行进一步观察。

模型在放大后的画面中准确识别出蓝底白字内容为 “HOTEL BUZA”

该案例展示了模型的 图像思考(Think with Images) 能力,模型通过调用图片放大功能,聚焦细节区域完成细粒度的视觉推理。

工具调用

案例:调用图片搜索工具识别毛绒玩具

在本案例中,模型接收到一张黄色卡通小鸡的图片,并被询问:“这是什么?”

ERNIE-4.5-VL-28B-A3B-Thinking 判断仅依靠内部知识无法给出确定答案,于是自主调用 图像搜索工具(image search tool),从网络中检索相似图片及相关商品信息。

模型对比多组候选结果的外观特征与上下文线索,最终推断该角色为 “Dundun”,即与 MINISO(名创优品)品牌相关的毛绒玩偶形象。

该案例展示了模型的 工具调用(Tool Utilization) 能力——能够进行多步推理,即时自主调用外部工具输出连贯、可靠的结论。

视频理解

案例:提取视频字幕并定位特定场景

在本案例中,模型接收到一段视频,并完成了两项相关的视频理解任务。

首先,模型提取出视频中出现的所有字幕文本及其对应的时间戳,并进行结构化输出。

随后,当被询问“视频中哪些片段是在桥上拍摄的”时,模型通过分析桥梁结构、光照与视角等视觉线索,准确识别出约 17 秒、37 秒与 47 秒 的相关片段。

该案例展示了 ERNIE-4.5-VL-28B-A3B-Thinking 在 视频文字提取时间推理时空场景理解 方面的综合能力,使其能够对动态视觉内容进行准确且可解释的分析。

Quickstart

使用 transformers 库

以下示例展示了如何使用 transformers 库进行推理:

import torch
from transformers import AutoProcessor, AutoTokenizer, AutoModelForCausalLM

model_path = 'baidu/ERNIE-4.5-VL-28B-A3B-Thinking'
model = AutoModelForCausalLM.from_pretrained(
    model_path,
    device_map="auto",
    dtype=torch.bfloat16,
    trust_remote_code=True
)

processor = AutoProcessor.from_pretrained(model_path, trust_remote_code=True)
model.add_image_preprocess(processor)

messages = [
    {
        "role": "user",
        "content": [
            {
                "type": "text",
                "text": "What color clothes is the girl in the picture wearing?"
            },
            {
                "type": "image_url",
                "image_url": {
                    "url": "https://paddlenlp.bj.bcebos.com/datasets/paddlemix/demo_images/example1.jpg"
                }
            },
        ]
    },
]

text = processor.tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True,
)
image_inputs, video_inputs = processor.process_vision_info(messages)
inputs = processor(
    text=[text],
    images=image_inputs,
    videos=video_inputs,
    padding=True,
    return_tensors="pt",
)

device = next(model.parameters()).device
inputs = inputs.to(device)

generated_ids = model.generate(
    inputs=inputs['input_ids'].to(device),
    **inputs,
    max_new_tokens=1024,
    use_cache=False
    )
output_text = processor.decode(generated_ids[0][len(inputs['input_ids'][0]):])
print(output_text)

vLLM 推理

安装 vLLM 主分支:

pip install uv
uv pip install -U vllm --pre \
  --extra-index-url https://wheels.vllm.ai/nightly \
  --extra-index-url https://download.pytorch.org/whl/cu129 \
  --index-strategy unsafe-best-match

运行 vLLM:

# 80G*1 GPU,如出现错误,可添加参数 --gpu-memory-utilization 0.95 后重试
vllm serve baidu/ERNIE-4.5-VL-28B-A3B-Thinking --trust-remote-code

使用 reasoning-parser 与 tool-call-parser 运行 vLLM:

# 80G*1 GPU,如出现错误,可添加参数 --gpu-memory-utilization 0.95 后重试
vllm serve baidu/ERNIE-4.5-VL-28B-A3B-Thinking --trust-remote-code \
 --reasoning-parser ernie45  \
 --tool-call-parser ernie45  \
 --enable-auto-tool-choice

FastDeploy 推理

可以使用 FastDeploy 快速部署服务,示例如下。详细使用说明可参考 FastDeploy GitHub 仓库。.

注意: 单卡部署至少需要 80GB 显存。

fastdeploy serve --model baidu/ERNIE-4.5-VL-28B-A3B-Thinking \
  --max-model-len 131072 \
  --max-num-seqs 32 \
  --port 8180 \
  --quantization wint8 \
  --reasoning-parser ernie-45-vl-thinking \
  --tool-call-parser ernie-45-vl-thinking \
  --mm-processor-kwargs '{"image_max_pixels": 12845056 }'

使用 ERNIEKit 微调

ERNIEKit 是基于 PaddlePaddle 的训练工具套件,面向 ERNIE 系列开源大模型设计。
其支持指令微调(SFT、LoRA)与对齐训练(DPO)等场景,提供端到端训练配置与脚本,便于获得稳定性能。

使用示例:

# 下载模型
huggingface-cli download baidu/ERNIE-4.5-VL-28B-A3B-Thinking --local-dir baidu/ERNIE-4.5-VL-28B-A3B-Thinking
# SFT
erniekit train examples/configs/ERNIE-4.5-VL-28B-A3B-Thinking/sft/run_sft_lora_8k.yaml
# SFT (Function Call)
erniekit train examples/configs/ERNIE-4.5-VL-28B-A3B-Thinking/sft_function_call/run_sft_8k.yaml

如需查看更多示例(包括基于 LoRA 的 SFT、多 GPU 配置及高级脚本),请参阅 ERNIEKit 仓库中的 examples 目录。

许可证

ERNIE 4.5 模型依据 Apache License 2.0 协议发布。该许可证允许模型在遵守条款和条件的前提下用于商业用途。
版权归 Baidu, Inc. 所有,© 2025 Baidu, Inc. 保留所有权利。

引用

如果您在研究或项目中使用了 ERNIE 4.5 模型,请引用以下技术报告:

@misc{ernie2025technicalreport,
      title={ERNIE 4.5 Technical Report},
      author={Baidu-ERNIE-Team},
      year={2025},
      primaryClass={cs.CL},
      howpublished={\url{https://ernie.baidu.com/blog/publication/ERNIE_Technical_Report.pdf}}
}