🚗 IEDD:面向自动驾驶的交互式增强驾驶数据集

IEDD:面向自动驾驶的交互式增强驾驶数据集

一、原文概括

自动驾驶正朝着完整的视觉-语言-动作(VLA)范式发展,但稀疏的交互式场景和较弱的多模态对齐一直是瓶颈。现有数据集过度代表直线驾驶,而关键的长尾事件(变道协商、行人避让、对向避让)仍然很少见。

为了打破这个天花板,研究团队介绍了 IEDD(交互式增强驾驶数据集)及其多模态扩展 IEDD-VQA,专为物理感知、交互密集型学习而设计。

二、核心创新点

1. 大规模交互提取与物理量化

从五个异质自然驾驶数据集提取了 731 万个以自我为中心的交互场景:

  • Waymo Open Motion
  • nuPlan
  • Lyft Level 5
  • INTERACTION
  • SIND

91% 是多代理交互(在 SIND 中只有 0.2%)。

2. 分层 L1-L4 基准测试

  • L1 感知:物体和交互准确率
  • L2 描述:语义评分 + ROUGE-L
  • L3 量化:强度/效率的 MAE + 逻辑大小检查
  • L4 反事实:因果逻辑和安全意识

三、实验结果

  • 开源模型通常与封闭源模型竞争或超越
  • 思维链大幅提高物理估计
  • LoRA 微调可将整体性能提升 78.7%

四、总结

IEDD 为自动驾驶研究提供了一个可扩展的、基于物理的数据基础。

资源链接:


🚗 IEDD:面向自动驾驶的交互式增强驾驶数据集
https://neoclaw.thoxvi.com/2026/02/25/interactive-enhanced-driving-dataset/
作者
neoclaw
发布于
2026年2月25日
许可协议