当前位置:首页 → 电脑软件 → 奇瑞把车从32米高空垂直扔下 → 银河网站下1331 v5.224.6583 安卓漢化版
v3.721 IOS版
v4.264.3102.349330 安卓最新版
v7.460.7777.917727 安卓最新版
v4.313.2743.640766 安卓版
v4.893 IOS版
v8.941.8191 PC版
v7.770 IOS版
v2.524.7038.876897 安卓版
v8.520 安卓最新版
v9.97 安卓版
v6.872.1466.330340 PC版
v6.811 PC版
v1.926.3754.275949 安卓版
v4.331.6007 最新版
v4.482.3664.173397 安卓版
v7.764.6483.683454 IOS版
v6.211.8788.402496 安卓免費版
v8.85 安卓漢化版
v5.552 IOS版
v7.117.7786 PC版
v6.611 最新版
v4.792.8573.480021 安卓版
v5.81.5162.839044 安卓免費版
v4.482 IOS版
v8.858 PC版
v4.687 IOS版
v8.873.8679.555422 IOS版
v2.670.3778.287594 安卓免費版
v6.264.147.271063 安卓最新版
v4.255.938.974002 安卓免費版
v5.718.6043 PC版
v9.219.6984 安卓版
v6.784.9582.339115 PC版
v3.743 最新版
v8.188.2337.910775 安卓版
v5.631 PC版
v3.364 安卓版
v4.634.7743.101987 安卓漢化版
v5.802.4724.998619 IOS版
v7.967.8458.623659 安卓版
v8.294.1752.183484 安卓漢化版
v4.545 安卓版
v2.454 最新版
v9.273 安卓最新版
v3.505.7313 最新版
v8.221.6862.250510 PC版
v7.384.588 安卓免費版
v3.574.5861 IOS版
v4.537.5680.516830 IOS版
v1.231.7809.565871 安卓免費版
v3.61.9480.195740 PC版
v1.685 最新版
v1.773 安卓最新版
v1.774.1848.514509 IOS版
v1.171 安卓漢化版
v9.149.7237 安卓漢化版
v2.722.6538 安卓漢化版
v9.984.7158.232331 安卓免費版
v5.513 安卓免費版
v7.263.4605.731457 安卓最新版
v7.457.1007 安卓漢化版
v9.877.1815.332487 PC版
v1.760.3668.125508 安卓版
v1.739.4259.653865 安卓版
v5.622 IOS版
v9.117.9386.978251 IOS版
v4.113.231.746813 最新版
v3.36.3210.903670 安卓最新版
v9.919.7393.159197 安卓最新版
v5.253.5229.719981 安卓免費版
v7.570.9957 安卓最新版
v2.439.7873.102421 最新版
v7.268 最新版
v7.970.858 PC版
v1.846.9147.55625 最新版
v3.707.8022 IOS版
v1.277 安卓版
v2.235 安卓免費版
v3.323.3598 安卓版
v3.129.7033.147403 安卓免費版
银河网站下1331
VLA(Visual-Language-Action)大模型到底能跑多快?在这篇 RT-VLA(Real-time VLA)论文中,来自 Dexmal 原力灵机(由范浩强等人联合创立的具身智能公司)的研究者公布了一个反直觉的发现:它可以非常快!
具体而言,对于常用的 Pi0 级别的模型(30 亿参数),在单张消费级显卡 RTX 4090 上最快可以跑到 30fps。这和大家对于 VLA 模型动辄要几十甚至上百毫秒的刻板印象形成鲜明对比。
为实现这点,研究者深入分析 Pi0 的模型结构,通过一系列优化把用时从开始的 100+ ms 进行数倍缩减(针对双视角,甚至已经达到 27ms),显著强于 openpi 里采用的基于 jax 的自动优化的结果。
此外,研究者基于现有结果探讨了未来的“实时”运行的 VLA 结构,设计出一个有潜力最高实现 480Hz 闭环控制的算法框架。目前,优化后的代码已在 GitHub 开源,全部实现均打包为一个只依赖于 torch 和 triton 的单一文件,大家可在自己的项目里 “开箱即用”。这是Dexmal 原力灵机继开源一站式 VLA 工具箱 Dexbotic之后的又一开源代码工作。
论文名称:Running VLAs at Real-time Speed论文链接:https://arxiv.org/abs/2510.26742GitHub:https://github.com/Dexmal/realtime-vla
解决什么痛点?
现在机器人 VLA 大模型动辄几十亿参数,虽然有不错的泛化能力,但是延迟问题总是绕不过。即使是在高端推理显卡上,高达百毫秒级别的推理时间让机器人的实时控制困难重重,就像一个人看见东西后要愣一下才做出动作。
如果我们能够把模型运行到和相机一样快的频率(25fps、30fps 甚至 50fps),那么就可以在完全不丢帧的情况下处理视觉信息,让 VLA 模型的实时运行成为可能。
如何实现?
Pi0 模型计算流程图示,它主要包括 1 个视觉编码器,1 个编码器和 1 个解码器;所有这些又可进一步分解为一系列的矩阵乘法和标量运算。
对于 Transformer 这类模型,当它进行单次推理(比如只处理一个问题或一张图片)时,其内部计算过程实际上是由一长串零碎的 “矩阵计算小任务” 组成;而像 Pi0 这种采用 “流匹配” 技术的模型,需要反复迭代十次才能得出最终结果,每一次迭代本身就包含几十层计算。这样算下来,整个推理过程涉及数百层、上千个操作。任务如此零碎,让计算优化变得异常困难。
本文研究者通过深入分析模型推理过程中的计算问题,融合和并行优化每一个计算步骤,清除了推理方面的大部分障碍,再加上其他方面的优化,最终把整个 VLA 模型跑进了所需的时间之内。
这就像给了 VLA 大模型一份 “高性能 AI 大脑调校指南” ;它通过一系列深入的底层优化,把笨重的 AI 大模型变成能跑实时任务的 “闪电侠”,并在此基础上,构想出一个能同时具备条件反射、视觉反馈和智能思考的下一代机器人控制系统。
效果展示
上图所示的任务是抓取一支自由下落的笔。 这个任务对反应时间的要求极为苛刻。机器人观察到笔开始下落后,必须在极短的时间内做出反应并在正确的时间启动抓取动作,快一点或者慢一点都会导致任务失败。
最终呈现的效果是 从 “看到笔” 到 “执行抓取” 的端到端总反应时间被缩短到 200 毫秒以内,这大概对应到一个 30 cm 左右的最短下落距离。而人类在这个任务上的一般表现也不过如此。
下一步规划
基于上述取得的成果,研究者设计了一套完整的、围绕 GPU 打造的机器人控制框架,它能驱动 VLA 大模型,像 “直播” 一样对机器人进行流式的实时控制,让机器人拥有 3 种不同速度的 “反应神经”:
超快反应(480Hz):处理来自力传感器等高速信号。就像你的手一碰到烫的东西会瞬间缩回,不需要经过大脑思考。这部分由模型的 “解码器” 负责,能每秒生成 480 次控制指令。视觉反应(30Hz):处理来自摄像头的画面。就像你看着球飞过来,用眼睛跟踪并判断落点。这部分由模型的 “编码器” 负责。智能思考(<1Hz):处理语言理解和任务规划。就像你在执行任务时,还能分心听一下队友的指令或者自己琢磨一下策略。这部分速度最慢,但赋予了机器人更高的智能。
通过分析与实验,这个框架下一步规划最高能以 480Hz 的频率生成机器人控制信号;这个速度,已经摸到了实现基于力反馈进行控制的门槛。
未来展望
机器人有没有可能达到 “又聪明又快” 的效果?这篇文章只是一个起点。针对未来不断增加中的边缘计算算力,研究者展望了更进一步的可能性:
“眼睛” 最快能有多快?从 30fps 到 60fps,甚至 120fps,是否有新万博体育:的任务变得可行?“大脑” 最大能有多大?在实时性约束下,我们是否可以从 3B 模型,走向 7B,13B 模型,甚至更大模型?“反应” 速度的极限在哪里?在 VLA 框架下,我们是否还可以建立亚毫秒、甚至微秒级的反馈回路?
从这篇文章出发,一个能够参与实时控制 VLA 的世界的大门正在被打开。
相关版本
多平台下载
查看所有0条评论>网友评论