总部位于加州的初创公司 Helm.ai 发布了用于 自动驾驶的 VidGen 生成式 AI 模型的更新版本。
VidGen-2 是继今年早些时候推出的 VidGen-1 之后推出的,与原版一样,可以制作高度逼真的驾驶视频序列。
升级后的 VidGen-2 的分辨率 (696 x 696) 是其前代产品的两倍,真实感提升至每秒 30 帧,并且支持多摄像头。
无需输入提示,也无需从单个图像或输入视频即可生成视频,并且质量的提升可以提供更流畅、更详细的模拟。
Helm.ai 表示,对于致力于开发和验证自动驾驶汽车的汽车制造商来说,这是一个经济高效且可扩展的套件。
VidGen-2 能够使用 Nvidia H100 Tensor Core 图形处理单元生成经过数千小时不同驾驶镜头训练的视频。
它利用 Helm.ai 的深度神经网络架构和该公司自己的“深度教学”技术,即自 2016 年以来一直在开发的大规模无监督学习,制作涵盖多个地理位置、摄像机类型和车辆视角的视频。
据说它们具有高度逼真的外观、时间一致的运动和准确的人类行为,并能够覆盖广泛的场景,包括高速公路和城市驾驶、多种车型、与行人和骑自行车的人的互动、路口、转弯、不断变化的天气条件和光照变化。
在多摄像机模式下,场景在所有视角上一致生成。
然而,据该公司称,与传统的非人工智能模拟器相比,最大的优势可能在于生成视频的速度,这减少了开发时间和成本,这始终是致力于自动驾驶汽车的汽车制造商关注的主要问题。
Helm.ai 首席执行官兼联合创始人 Vladislav Voroninski 表示:“VidGen-2 的最新增强功能旨在满足汽车制造商的复杂需求。这些改进使我们能够生成高度逼真的驾驶场景,同时确保与各种汽车传感器堆栈兼容。
“VidGen-2 的改进还将支持我们其他基础模型的进步,加速未来自动驾驶和机器人自动化的发展。”
Helm.ai 是过去 18 个月在自动驾驶领域崛起的几家专注于人工智能的公司之一。该公司去年在 C 轮融资中筹集了 5500 万美元,投资者包括本田和 Goodyear Ventures。
原创文章,作者:点点,如若转载,请注明出处:https://www.dian8dian.com/yong-yu-zi-dong-jia-shi-kai-fa-de-sheng-cheng-shi-ai-shi