在GTC 2026 上,黄仁勋的一句“物理 AI 已经到来——每家工业公司都将成为机器人公司” 再次点燃了全球科技圈。在具身智能的下半场,模型架构正日趋收敛,数据生产能力成为了界定企业上限的新护城河。

枢途科技(Synapath AI)凭借RoboWheel引擎,将庞大的人类行为视频库转化为可供机器人直接学习的底层数据,完成了从 视觉原料到具身能源的工业级闭环。
物理 AI 进入数据红利期
今年 GTC 的核心信号非常明确:英伟达推出的 AI 数据工厂 Blueprint 标志着行业重心已从单纯追求模型参数,转向建立自动化的数据生产链条。
物理世界的复杂性决定了真实场景数据无法单靠手动采集。过去,行业依赖高成本的遥操作或存在“失真”风险的仿真数据。但在大模型时代, “人类视频”凭借其低边际成本和天然的任务逻辑密度,正被重新评估为最理想的数据底座 。
然而,视频虽多,机器人却“看不懂”。如何跨越从“视觉信号”到“物理执行信号”的具身鸿沟,是横在所有开发者面前的难题 。
枢途科技:定义具身数据的“加工标准”
作为物理 AI 基础设施的先行者,枢途科技(Synapath AI)创始人兼 CEO 卓羽认为,行业稀缺的不是视频本身,而是将其转化为可复用具身数据的能力。
针对这一痛点,枢途科技构建了从视频到训练数据的完整生产闭环:
SynaData具身数据管线:利用视频升维与手-物交互(HOI)重建技术,从平面视频中提取出末端轨迹、位姿及交互语义,让原始视频具备物理属性 。
RoboWheel数据引擎:负责解决物理一致性优化及跨本体重映射(Retargeting),确保人类的动作能精准适配给不同形态的机器人 。
HORA 多模态数据集:这是目前业界首个大规模真实场景人类视频具身数据集,已积累超 15 万条高质量轨迹,为 RDT、PI0 等顶尖开源及闭源模型提供核心驱动 。
占据物理 AI 生态的关键位
正如黄仁勋所言,没有高质量的数据供给,再强大的物理 AI 也只是空中楼阁。
在GTC 2026 描绘的未来图景中,枢途科技并不只是参与者,更是不可或缺的基础设施供应商。通过降低数据生成的成本与门槛,枢途正在加速具身智能从实验室走向工厂和家庭的进程。
