超级智能为何遭世界三千多名人共同阻止?

岳建国

<p class="ql-block">【每日遐想997 岳建国/文】</p><p class="ql-block"><br></p><p class="ql-block"> 由非营利组织“未来生命研究所”发起的“限制超级人工智能发展”的声明,截至10月23日,签署人数已达3193,包括人工智能先驱辛顿、苹果公司联合创始人沃兹尼亚克、英国哈里王子等。中国科学院院士、图灵奖得主姚期智等中国学者也位列其中。</p><p class="ql-block"><br></p><p class="ql-block"> 超级人工智能代表了人类科技的最新最高成果,为何他们群起反对?因为它是一种在所有认知任务上都超过人类的人工智能形式,现在很多顶尖AI企业都正在打造它,短期看可能会导致经济崩溃、大规模剥夺公民就业权,制造以假乱真的大量信息、对知识法律道德等形成巨大冲击。长远看更可怕,人类可能会对其失去控制权,甚至导致人类灭绝,但目前没有可靠办法确保其安全。</p><p class="ql-block"><br></p><p class="ql-block"> 这次联名声明是人类对科技文明的第一次集体反思。历史教训告诉我们,科学发展太慢不行,会让人类像欧洲中世纪那样蜗行,但也并非越快越好,如果不限制和阻止毒气、核武器、“换头手术”、改变人类基因等科技项目高速更新换代,那后果更不堪设想。人工智能也一样,绝不能让它超出人类的承受和制约能力,否则它不但不为人类造福,而且会带来巨大灾难。</p><p class="ql-block"><br></p><p class="ql-block"> 还有更深层的警示——世界是以大致平衡、和谐的趋势存在的,这是千古不变的自然规律,一旦某类事物像恐龙那样在地球上突飞猛进、一骑绝尘,碾压同类竞争对手,打乱其它生物的生存逻辑和宇宙秩序,制造危机,那么,大自然一定会不计成本硬起手腕把它彻底铲除,就像干干净净毁灭恐龙那样。 </p><p class="ql-block"><br></p><p class="ql-block"> 人类控制科学过快和畸形发展的武器都有哪些?一方面是受害者出于私人利益的本能反抗,如英国工业革命初期工人因害怕失业怒砸新机器,如中国目前的出租车司机在网上对汽车自动驾驶技术的谴责咒骂等。更重要的则是人类伦理和道德的苏醒和提升,是保护生命的怜悯之心及崇高的社会责任感和自觉性,正如这3193人所做的那样。 </p><p class="ql-block"><br></p><p class="ql-block"><span style="font-size:18px;"> 期待这个行动得到应有的呼应和支持。人类是地球上唯一有理性、 能够发现和顺从自然规律的特殊生物,是唯一能在自然规律忍无可忍、即将对人类严重违规行为发出残酷惩罚之前,立马回头是岸、痛改前非的物种。比如目前已经大幅度减少砍伐森林、猎杀野生动物、尽量少建水电站、不破坏臭氧层等。相信人类会像以往那样,让超级智能在安全的框架下谨慎前行。</span></p><p class="ql-block"> 2025.10</p>