【新智元导读】刚刚★ღ,继4月初获得5.28亿融资后★ღ,短短2个月★ღ,国内顶尖具身智能玩家又斩获近6亿元融资J9九游会中国★ღ!不久前★ღ,其首款商用级人形机器人Moz1震撼发布★ღ,可单手精准抽纸★ღ,具备超强感知与执行力★ღ。凭借三维核心竞争力J9九游会中国★ღ,他们正向万亿级赛道加速冲刺安齐美绪★ღ。
Figure AI自研的端到端VLA模型——Helix★ღ,让机器人从语言理解到动作执行一气呵成★ღ;
还有UC伯克利系出身的Physical Intelligence★ღ,多次迭代π系列模型★ღ,通过多平台训练★ღ,攻克了洗衣九游会官方网站★ღ、收纳等复杂任务★ღ。
可见★ღ,在这片巨大红海中J9九游会中国★ღ,从不缺少重量级玩家★ღ。在技术迭代与资本助推下★ღ,全球的目光都聚焦于这场通往「通用机器人」的终极竞赛★ღ。
本轮融资由京东领投★ღ,中国互联网投资基金(简称「中网投」)★ღ、浙江省科创母基金★ღ、华泰紫金★ღ、复星锐正等知名机构跟投★ღ。
堪称传奇的是★ღ,从2024年2月成立至今★ღ,这家公司便以惊人速度完成了多轮融资★ღ,成为资本市场的宠儿★ღ。
更值得关注的是★ღ,上一轮领投的P7在本轮持续超额加码★ღ;除此之外★ღ,顺为资本★ღ、华控基金★ღ、华发集团★ღ、千乘资本★ღ、靖亚资本★ღ、弘晖基金等老股东的继续下注★ღ,则是对千寻发展潜力的持续背书★ღ。
作为中国电商与物流巨擘★ღ,京东的投资逻辑清晰且务实★ღ:聚焦核心业务效率安齐美绪★ღ、优化用户体验★ღ,并推动产业升级的技术创新★ღ。
京东集团出手★ღ,不仅彰显了千寻在物流等高价值场景的潜力★ღ,也折射出其在具身智能赛道中的独特价值★ღ。
千寻创始人兼CEO韩峰涛表示★ღ,「重量级产投方的齐聚★ღ,不仅是对千寻智能的认可★ღ,更折射出产业界对具身智能赛道未来价值的高度共识」★ღ。
因为基于全球功率密度最高的一体化力控关节打造★ღ,它在速度★ღ、精度★ღ、安全性和仿生力控方面★ღ,都达到了行业的头部水平★ღ。
据悉★ღ,Moz1一体化关节的功率密度直接比特斯拉Optimus高出了15%j9九游会官方网站★ღ,★ღ,充分展示了千寻智能在机器人硬件上的强大实力
同时★ღ,因为还内置了自研的多维度数采设备(比如VR/动捕/同构形等)★ღ,Moz 1能够实现模型的小时级迭代★ღ,以极其硬核的硬件★ღ,充分支撑技术落地★ღ。
看着它在公司内部来回穿梭★ღ、充分融入大家工作流的样子★ღ,我们就知道——如今J9九游会中国★ღ,是时候重新定义「劳动力」了★ღ!
在商用场景★ღ,它可以丝滑完成整理★ღ、接待★ღ、导览等任务★ღ,那么家庭场景的陪伴★ღ、互动和服务★ღ,当然也不在话下了★ღ。
千寻首款商用级Moz1人形机器人之所以具备强大理解泛化能力J9九游会中国★ღ,离不开具身智能「大脑」VLA(视觉-语言-动作)模型的加持★ღ。
为此★ღ,千寻自研了一款端到端具身模型——Spirit v1★ღ,通过数据融合与训练策略★ღ,实现了视觉感知★ღ、语言理解★ღ、动作执行的无缝衔接★ღ。
Spirit系模型在短短半年的时间迭代了三版★ღ,实现了从单一基础任务到高难度长程+数十个任务完成的阶跃式进步
举个栗子★ღ,叠衣服这一看似简单的任务★ღ,实则对机器人提出了极高挑战★ღ:每件衣服的褶皱★ღ、形状各异★ღ,要比抓糖豆★ღ、倒水等任务高出百倍★ღ。
Spirit v1通过动态场景感知和精确动作控制★ღ,完成了从抓取★ღ、铺平★ღ、折叠到堆叠的全流程★ღ,成功率达70%-80%★ღ。
Spirit v1的成功★ღ,源于其独特的三层训练架构★ღ,通过融合视频预训练J9九游会中国★ღ!★ღ、遥操模仿学习和RL★ღ,构建了高效ag九游会登录j9入口★ღ,★ღ、泛化的技术壁垒★ღ。
这款VLA模型共有70亿参数★ღ,基于13000小时数据训练J9九游会 - 真人游戏第一品牌★ღ。其中★ღ,70%来自海量的互联网视频★ღ。
通过端到端学习★ღ,Spirit v1直接从视频中提取视觉和动作信息j9游会真人游戏第一品牌★ღ!★ღ,掌握物体的形态变化★ღ、动作逻辑★ღ,以及场景动态性★ღ。
在预训练基础上★ღ,20%的遥操数据通过千寻自研的EfficientImitate算法进行精调★ღ。
在端到端框架下★ღ,遥操作模仿学习进一步优化了Spirit v1性能★ღ,实现了从示范到自助操作的平滑过渡★ღ。
剩余10%的强化学习数据★ღ,则采用全球样本效率最高的EfficientZero强化学习算法★ღ,让机器人通过自主探索优化行为策略★ღ。
以上三层架构★ღ,不仅解决了训练「数据荒」的瓶颈★ღ,还让Spirit v1在动态环境中展现出强大的自主性和适应性★ღ。
更令人瞩目的是★ღ,今年5月★ღ,千寻首席科学家高阳带领团队提出了OneTwoVLA模型瑜伽★ღ,实现了全新的突破★ღ。
这一创新架构将传统机器人系统中★ღ,分离的「推理大脑」和「动作四肢」熔炼为单一Transformer模型★ღ,真正实现了「边想边做」★ღ。
在长程任务实验中★ღ,OneTwoVLA加持的机器人能顺利流畅完成涮火锅★ღ、炒菜★ღ、调鸡尾酒等复杂任务★ღ,成功率比纯动作VLA提升30%★ღ。
如下示例中★ღ,当你要求「帮我涮牛肉」★ღ,OneTwoVLA会在每一步预测开始推理★ღ,还是开始执行★ღ。
OneTwoVLA的通用视觉定位★ღ,还能准确识别未见过的雪碧罐★ღ,或是星巴克杯子★ღ,展现了超强的开放世界理解能力★ღ。
OneTwoVLA的代码与数据已全部开源安齐美绪★ღ,标志着千寻在通用机器人技术路线上的新里程碑★ღ,也为行业提供了更简洁★ღ、可扩展的具身智能路径★ღ。
他们基于成熟的商业化经验★ღ,精准切入高价值场景★ღ,大规模部署高效收集的海量数据★ღ,持续反哺模型优化★ღ。
在办公场景中★ღ,千寻机器人展现出了强大的灵活性★ღ。我们看到了安齐美绪★ღ,Moz1能自主完成会议室清洁任务★ღ,收纳笔★ღ、擦拭白板等等气功★ღ,★ღ。
据判断★ღ,在物流场景中★ღ,智能仓储体系对高效★ღ、灵活机器人的需求将极其旺盛★ღ,正好千寻机器人也能适配货物分拣★ღ、动态搬运等复杂任务★ღ。
放眼未来安齐美绪★ღ,千寻还计划从办公场景逐步向制造★ღ、服务业★ღ、医疗★ღ、康养等高附加值场景渗透★ღ,目标直指万亿级市场★ღ。
尤其在海外市场★ღ,欧美高人工的成本地区★ღ,付费意愿强★ღ。而创始团队的国际化经验★ღ,恰恰为其提供了坚实支撑★ღ。
深挖之后可以发现★ღ,在如今竞争激烈的具身赛道★ღ,最终突出重围的之所以是千寻智能★ღ,还是因为它走了一条「少有人走的路」★ღ。
