R1在AWE2026现场被围得水泄不通,不是因为多高多帅,而是真有人蹲下跟它聊了五分钟天气,它一边点头一边指窗外的云。这不是拍短视频,是现场实录,好几个媒体都拍到了。 它说中文、英文、日语都能接上,不是背稿,是听清了再回。比如你说“把桌上那杯水拿过来”,它得先看哪儿有桌、哪儿有杯、水在不在那儿,再走过去、弯腰、伸手、递来——中间没卡、没停、没重来。 这背后不是靠一个大模型硬撑。京东自己弄了个JoyAI,专干这一件事:让人说话它就懂,懂了就动。没塞一堆参数堆算力,反而把反应压到0.3秒内。语音模块也不光听声,还带看人表情、识声源方向,你侧身说一句,它自动转头看你。 R1用的宇树本体,轻,关节顺,走路不僵。官方没讲电池续航和重量,但现场视频里它端着纸杯来回走三趟,手不抖,杯不晃,动作像人,不像机器。 关键是,它不是孤零零一台。京东把JoyInside这套东西拆成模块,已经塞进洗衣机、空调、大路灯里了。格力的空调能听懂“调低两度,别吹我脸”,创维电视收到“找上周的亲子节目”,自动跳到儿童专区。不是每家都重做AI,是直接调用京东那一套。 现在接入的家电品牌快一百家,机器人公司二十多个,童视界做教育机器人、云鲸搞清洁版,全用同一套语音加运动接口。协议没公开,但各家都说“接得上,调得快”。
有人问它是不是替代保姆?不是。它连倒水都只递到你手边,不松手,等你接稳才缩回去。它不主动做事,只等你开口,说完才动。这反而让很多老人试完说:“不吓人,像家里多个人。” 现场没人问它能跑多快、跳多高。大家摸它的胳膊,问“它冷不冷”“摔了疼不疼”。有个小孩拍它肩膀,它歪头笑了一下,嘴没动,眼睛亮了两秒——那是屏幕里的微表情反馈。 R1还没开卖,京东只说“今年小批量交付”,没讲价格,没讲渠道,展台旁边只放了三台,轮流换电池。 它没有喊口号,不讲颠覆,也没说要改变世界。 它就在那儿站着,等你说话。
