这些问题,将我们引向一个重新审视“智能”本质的概念:具身智能。

A老男孩

<p data-mpa-action-id="meoaqwxea0j" data-pm-slice="0 0 []">上周末,全球首个以人形机器人为参赛主体的综合性体育盛会“2025世界人形机器人运动会”在国家速滑馆“冰丝带”正式开幕。</h3></br><h3>来自16个国家的280支参赛队伍齐聚北京,为大家展现了当代人形机器人的未来黑历史发展盛况。(多gif预警~)</h3></br> <p data-mpa-action-id="meoccxb91cx5" data-pm-slice="0 0 []" mpa-font-style="meoccxaw1scg">古风小机器人来也</h3></br> <p data-mpa-action-id="meocj87v1kay" data-pm-slice="0 0 []" mpa-font-style="meocj876jl5">叠罗汉和再起不能</h3></br> <p data-mpa-action-id="meocj87v1kay" data-pm-slice="0 0 []" mpa-font-style="meocj876jl5">机器人撞人事件</h3></br> <p data-mpa-action-id="meocznq61omd" data-pm-slice="0 0 []" mpa-font-style="meocznp91u9b">哎呦这地儿是不是不平啊</h3></br> 我头呢我头呢 <p data-mpa-action-id="meocrg7j1xz" data-pm-slice="0 0 []" mpa-font-style="meocrg6r24d5">我倒了 大家加油</h3></br><h3>在田径、足球、拳击等项目中,最引人注目的无疑是百米短跑。当发令枪响,一台名为“具身天公Ultra”的人形机器人从起跑线上冲出,它由北京人形机器人创新中心自主研发的机器人,最终以21.50秒的成绩夺冠。而在所有硅基运动员中,“天公Ultra”是唯一一台采用全自主导航系统,全程无需人工遥控在赛场奔跑的选手。</h3></br> <p class="ql-block">宇树科技王兴兴赛后总结</p><p class="ql-block"><br></p><p class="ql-block">相信大家在看完运动会中机器人的诸多洋相精彩表现之后,会产生和小编相似的疑问:</p><p class="ql-block"><br></p><p class="ql-block">为什么学会奔跑——这个人类幼童即可掌握的技能——对机器人而言如此困难?为什么不让轮胎机器人参赛,着重于“人形”机器人?</p><p class="ql-block"><br></p><p class="ql-block">这些问题,将我们引向一个重新审视“智能”本质的概念:<b>具身智能</b>。这意味着AI试着从虚拟的数字空间回归物理现实,从抽象的符号处理走向与世界互动的真实存在。</p> <h3><strong>莫拉维克悖论</strong></h3></br> <h3>要理解机器人奔跑的意义,我们必须首先面对人工智能领域一个基本难题,即 “莫拉维克悖论”(Moravec's Paradox)。</h3></br><h3>这是由人工智能和机器人学者所发现的一个和常识相左的现象,在1980年代提出,其核心是:人类所独有的高阶智慧能力只需要非常少的计算能力,例如推理,但是无意识的技能和直觉却需要极大的运算能力。</h3></br><h3>如莫拉维克所说,要让电脑如成人般地下棋是相对容易的,但是要让电脑有如一岁小孩般的感知和行动能力却是相当困难甚至是不可能的。</h3></br><h3>莫拉维克曾经根据自己的研究,绘制了一张“人类能力景观图”。</h3></br><h3> <p data-mpa-action-id="meodnpyx2dm" data-pm-slice="0 0 []" mpa-font-style="meodnpy31ezc">不是这个,后空翻小编也做不到</h3></br><h3>但随着深度学习、神经网络和传感器技术的发展,某些“莫拉维克难题”已经被部分攻克,“具身智能”也逐渐在现实世界崭露头角。</h3></br> <h3><strong>具身智能</strong></h3></br> <h3>具身智能(Embodied Intelligence)是一种强调智能系统必须拥有物理身体,并通过这个身体与动态、复杂的真实环境进行实时交互,从而在交互中学习、优化并展现其智能的理论。</h3></br> <h3>具身智体的典型架构</h3></br><h3>其实质是人工智能与机器人技术的深度融合:AI为机器人提供“大脑”,使其具备感知、思考和决策的能力;而机器人则为AI提供“身体”,使其能够与真实世界互动,获取经验和知识 。</h3></br><h3>AI领域著名大佬李飞飞曾指出:“具身的含义不是身体本身,而是与环境交互以及在环境中做事的整体需求和功能。”</h3></br><h3> <p data-mpa-action-id="meodx6z6126e" data-pm-slice="2 3 []">罗德尼・布鲁克斯</h3></br><h3>2023年,英伟达创始人黄仁勋在半导体大会上指出,具身智能是能够理解、推理并与物理世界互动的智能系统,预示着其将成为人工智能的下一波浪潮。</h3></br><h3>2025年,“具身智能”首次被写入政府工作报告,成为未来产业发展的重点方向之一。</h3></br><h3>今年举办的全球机器人马拉松、世界机器人大会、世界人形机器人运动会,都让最新的机器人乃至具身智能“幼儿”们一个亮相的机会。</h3></br> <h3>没断奶也可以来比赛!</h3></br> <h3><strong>具身认知</strong></h3></br> <h3>如前文所言,图灵对人工智能未来的展望,除了具身智能,它的对立面则是我们更为熟悉的——<b>离身智能</b>(Disembodied Intelligence)。</h3></br><h3>像ChatGPT或AlphaGo这样的模型,就是离身智能的典型代表。它们存在于服务器的虚拟世界中,处理的是抽象的符号数据(文字、图片、棋盘状态),能够输出信息,但无法直接作用于物理世界。</h3></br><h3>AlphaGo虽然精于棋局推演,但面对真实的棋盘,它可能连一颗棋子都拿不稳。</h3></br><h3>但具身智能与离身智能并不相互排斥, 特别是在方法层面上, 包括深度学习、强化学习等方法都已成为解决离身智能和具身智能问题的重要工具。</h3></br><h3> <h3>1.具身认知:认知不是抽象的符号操作,是通过身体和环节的互动实现的。身体不仅是认知的工具,更是认知内容的塑造者。</h3></br><h3>2.感知-行动循环:认知过程不仅依赖大脑的计算,还与身体的动作和感官反馈形成动态循环。若感知和行动被人为分离,认知能力会显著下降。</h3></br><h3>3.身体形态:身体的物理结构和动作模式在认知中起着至关重要的作用,人类的思维和概念受到身体形态的深刻影响。比如“抓握”这一概念就是来源于人类手指形态。</h3></br><h3>4.情景化:认知活动并非孤立,而是嵌入在具体的身体和环境背景中的。同样的动作在不同文化中可能具有不同的涵义。</h3></br> <h3>在生物学验证上,通过著名的“小猫实验”(kittens experiment),验证了视觉、发展和运动之间的关系。</h3></br><h3> <h3>竞争对手也可以抱一抱~</h3></br><h3>最后,让我们回到开头的世界人形机器人运动会,试想,为什么要用人形机器人?</h3></br><h3>(说起来,今年举办的机器人大会中,只有“运动会”的名字里加上了“人形”呢)</h3></br><h3>首先,我们的世界——从建筑、工具到社会规范——都是为人类的身体形态量身定做的。因此,制造人形机器人,拥有两只手两条腿,让它们能够无缝地融入我们的环境,是一个非常务实的选择。</h3></br> <p data-mpa-action-id="meocrg7j1xz" data-pm-slice="0 0 []" mpa-font-style="meocrg6r24d5">人 不要阻挡我的跳舞之魂</h3></br><h3>其次,机器人学习现实世界中的技能,能够直接学习现成的人类行为。比如对机器人学习打打乒乓球,可以直接观察人类动作进行多模态学习,分析人类的技巧、速度、肌肉等等。</h3></br><h3>还有,人们对具有人形的机器人有更多亲近感,也能更好理解彼此的动作信号——比如点头、比ok等等。</h3></br> <p class="ql-block">good!</p><p class="ql-block"><br></p><p class="ql-block">当然,这些并不意味着非人形机器人的弱势。无论是宇树的四足机器人,还是场景赛中的分拣机器人,都以非人的方式呈现。根据具体的需要,能够以不同的形态更好地满足。</p> <p class="ql-block">真正的、通用的、拥有常识并能适应我们这个混乱且不可预测的世界的智能,不可能在纯粹抽象的数字真空中诞生。它需要被<b>具身化</b>、它需要拥有一个身体,去与世界互动,去将其知识植根于物理经验,去在永不停歇的感知与行动的循环中学习和进化。</p> <p class="ql-block">  原文转载自微信公众号,著作权归作者所有</p>