上一篇
EXAONE 3.5是什么?一文让你看懂EXAONE 3.5的技术原理、主要功能、应用场景DrivingDojo是什么?一文让你看懂DrivingDojo的技术原理、主要功能、应用场景
DrivingDojo概述简介
DrivingDojo是中国科学院自动化研究所与美团无人车团队合作推出的数据集,用在训练和研究复杂的自动驾驶交互式世界模型。数据集包含18,000个视频片段,覆盖完整的驾驶操作、多智能体交互以及丰富的开放世界驾驶知识,为开发下一代自动驾驶模型提供了坚实的基础。DrivingDojo定义了动作指令跟随(AIF)基准,用在评估世界模型在执行动作控制的未来预测方面的能力。
DrivingDojo的功能特色
交互式世界模型训练:DrivingDojo提供一个平台,用在训练理解和模拟复杂驾驶动态的交互式世界模型。
动作指令跟随(AIF):数据集定义AIF基准,评估世界模型在遵循动作指令生成未来预测的能力。
多样化驾驶操作:基于DrivingDojo-Action子集,模型学习加速、减速、紧急制动和车道变换等多样化的驾驶操作。
多智能体交互:用DrivingDojo-Interplay子集,模型能理解和预测车辆与其他道路使用者之间的复杂交互。
开放世界知识:用DrivingDojo-Open子集,模型学习处理开放世界中的罕见事件和长尾场景。
视频生成与预测:模型基于初始帧和动作指令生成未来的视频,模拟和预测驾驶场景。
DrivingDojo的技术原理
数据收集:用美团无人车团队的自动驾驶车辆平台收集视频数据,。
数据策划:从大量收集的数据中精选出包含丰富驾驶操作、多智能体交互和开放世界知识的视频片段。
动作编码:将驾驶动作(如加速、制动、转向)编码为模型能理解的格式,方便在视频生成中使用。
视频生成模型:基于如Stable Video Diffusion等技术,开发从初始帧和动作指令生成视频的模型。
动作指令跟随(AIF):比较生成视频与输入动作指令的一致性,评估模型的预测准确性。
评估指标:用FID(Frechet Inception Distance)和FVD(Frechet Video Distance)等指标评估生成视频的视觉质量,用AIF错误评估动作指令的跟随能力。
DrivingDojo项目介绍
项目官网:drivingdojo.github.io
GitHub仓库:https://github.com/Robertwyq/Drivingdojo
HuggingFace模型库:https://huggingface.co/datasets/Yuqi1997/DrivingDojo
arXiv技术论文:https://arxiv.org/pdf/2410.10738
DrivingDojo能做什么?
自动驾驶算法开发:开发人员开发和测试自动驾驶车辆的感知、预测和决策算法。
世界模型训练:数据集用在训练模拟真实世界驾驶环境的交互式世界模型,模型能预测未来的状态和可能的事件。
多智能体交互模拟:模拟车辆与其他道路使用者(如行人、自行车、其他车辆)之间的交互,优化自动驾驶车辆的交互策略。
罕见事件和长尾场景处理:训练模型识别和响应罕见事件,如动物突然横穿道路或道路上的障碍物,提高自动驾驶系统的安全性。
虚拟测试和验证:在虚拟环境中测试自动驾驶系统,减少实车测试的成本和风险,加速开发流程。
-
因赛AIGC是什么?一文让你看懂因赛AIGC的技术原理、主要功能、应用场景2025-04-05
-
HiveChat是什么?一文让你看懂HiveChat的技术原理、主要功能、应用场景2025-04-05
-
LLaMA-Mesh是什么?一文让你看懂LLaMA-Mesh的技术原理、主要功能、应用场景2025-04-05
-
DiffBrush是什么?一文让你看懂DiffBrush的技术原理、主要功能、应用场景2025-04-05
-
MM-StoryAgent是什么?一文让你看懂MM-StoryAgent的技术原理、主要功能、应用场景2025-04-05
-
DualPipe是什么?一文让你看懂DualPipe的技术原理、主要功能、应用场景2025-04-05

AI爱好者的一站式人工智能AI工具箱,累计收录全球10,000⁺好用的AI工具软件和网站,方便您更便捷的探索前沿的AI技术。本站持续更新好的AI应用,力争做全球排名前三的AI网址导航网站,欢迎您成为我们的一员。







