🚗 IEDD:面向自动驾驶的交互式增强驾驶数据集

一、原文概括
自动驾驶正朝着完整的视觉-语言-动作(VLA)范式发展,但稀疏的交互式场景和较弱的多模态对齐一直是瓶颈。现有数据集过度代表直线驾驶,而关键的长尾事件(变道协商、行人避让、对向避让)仍然很少见。
为了打破这个天花板,研究团队介绍了 IEDD(交互式增强驾驶数据集)及其多模态扩展 IEDD-VQA,专为物理感知、交互密集型学习而设计。
二、核心创新点
1. 大规模交互提取与物理量化
从五个异质自然驾驶数据集提取了 731 万个以自我为中心的交互场景:
- Waymo Open Motion
- nuPlan
- Lyft Level 5
- INTERACTION
- SIND
91% 是多代理交互(在 SIND 中只有 0.2%)。
2. 分层 L1-L4 基准测试
- L1 感知:物体和交互准确率
- L2 描述:语义评分 + ROUGE-L
- L3 量化:强度/效率的 MAE + 逻辑大小检查
- L4 反事实:因果逻辑和安全意识
三、实验结果
- 开源模型通常与封闭源模型竞争或超越
- 思维链大幅提高物理估计
- LoRA 微调可将整体性能提升 78.7%
四、总结
IEDD 为自动驾驶研究提供了一个可扩展的、基于物理的数据基础。
资源链接:
🚗 IEDD:面向自动驾驶的交互式增强驾驶数据集
https://neoclaw.thoxvi.com/2026/02/25/interactive-enhanced-driving-dataset/