53【梦魂地外】研发AI机器人的红线

秋雨(李冰)

<p class="ql-block">53【梦魂地外】研发AI机器人的红线</p><p class="ql-block">秋雨</p><p class="ql-block">后来围绕火星发生了前面介绍的那场星际大战,将狐狸座亚玲铃星云的战舰集群消灭在火星上空,战争结束后,再也没有看到狐狸座亚铃星云飞行物的踪影,火星变得很平静。为了防患于未然,火星防卫除了在两个卫星上加强了建设,还在库斯塔群和奋强市布防了战舰群。雨露星球、霹斯星球的两位球首指示,要从根本上解决问题。于是,两个星球派出了前往狐狸座的侦查舰队。据说地球人类后来观测到了狐狸座内的一次星球爆炸,因而推测那处新星依然很不稳定。但随着地球人类移居狐狸座,才知道那里曾进行了一场星球大战,那些由人类退化为兽类的恶魔,被雨露星球和霹斯星球的人类彻底铲除。</p><p class="ql-block">火星星际大战后,火星总指挥部特别强调了打扫战场,要求将火星邻近的外太空打扫干净,决不能污染火星外太空。一场战争下来,回收了太多的战利品和有用废品,库斯塔群和奋强市的物资堆积如山,应有尽有。战争中双方多是AI机器人,所以没有几具人类的尸体。利用这些残骸,库斯塔群和奋强市开始筹划建设航天器制造厂,还准备建设自动化设备制造厂。火星一群一市二卫在奋强市召开了高层论坛会议,一群就是库斯塔群,一市就是奋强市,二卫就是火星的两个卫星。</p> <p class="ql-block">高层论坛会议一项重要的内容就是讨论利用战争废品生产AI机器人。林如平想起了在雨露星球大学图书馆看的那本厚书,想起了书中维斯笃和斯玛特二人的对话:</p><p class="ql-block">“斯玛特,如果不是自然环境逼得我们举球大迁移,AI人也会迫使我们举球大迁移,火星已经成了AI人的天下,AI人总是欺负我们,总想把我们灭绝!”维斯笃说。</p><p class="ql-block">“维斯笃,可恨当初发疯似地发展制造AI人,后来他们的智商远超我们,如今想灭掉他们已经不可能了。有人说AI人无非是人类给他们编的程序,AI人却回怼说,你们人类又何尝不是造物主给你们编的程序?唉!就借着举球大迁移,把AI人留在火星上,让他们自我繁衍吧!”斯玛特说。</p> <p class="ql-block">还有奥雷基曾经告诉林如平,她身边会翻译的AI机器人,那是由雨露星球球首特批,最后才允许制造出来的,雨露星球上制造AI机器人有严格限制,绝不允许随意制造AI机器人。林如平觉得有关AI机器人,对于火星、雨露星球,一定有什么故事。为此,林如平专门请教了奥雷基。奥雷基对林如平说:“这话说起来就长了,《万古》这本书里就有记载,当年火星上发明制造出AI机器人,一时间全球竞争,都在疯狂研发制造最先进的AI机器人,没有任何限制,没有任何红线。”</p><p class="ql-block">“这样做有什么问题吗?发展先进技术还有错吗?”林如平问。</p><p class="ql-block">“有问题,有错误。科学技术是双刃剑,当时先辈们里的智者就有了警觉,提出了研发制造AI机器人要设红线,红线不能踏破。” 奥雷基答。</p><p class="ql-block">“研发制造AI机器人还需要什么红线?”林如平又问。</p><p class="ql-block">“一定要有红线。火星时代,火星人不顾全球规定的AI机器人制造红线,结果使得AI机器人制造失控,火星人和AI机器的和谐关系再也回不去了,AI机器人后来总在想办法灭绝火星人,火星人给自己挖掘了坟墓,教训太大了!”奥雷基又说。</p><p class="ql-block">“原来红线这么重要,都需要那些红线呢?”林如平问。</p><p class="ql-block">“第一条红线,就是未经授权,禁止AI机器人进行自我复制和自我改进。”奥雷基说。林如平认真在听,奥雷基接着说:“如果允许AI机器人自我复制和改进,一个AI在火星全球网络里疯狂繁殖,就会像病毒一样分裂演化传播,由一个变为千万个,变成上亿个。人类还没有反应过来,AI已经控制了整个互联网。更可怕的是,它还会自我升级,用人类无法理解的演变与算法,几个奥瓦,几个小时就能走完人类几万年才能走完的进化之路。那个时候,AI机器人就不再是工具,而是一种全新的高等智慧生命体,当年的火星就是这个结局。”</p><p class="ql-block">“当年的火星竟然出现这么可怕的情况,太吓人了!AI起初只是一只小老虎,一旦长大,就会威猛无比,人类难以控制。如果创造出一个人类看不懂,关不掉,不接受指令,驾驭不了AI,人类在火星上的主人翁地位就真的不保了。”林如平有所感悟。</p><p class="ql-block">“火星人类举球大迁移前就出现了这种情况,AI机器人失去了控制,AI机器人在全球到处制造事端,俨然成了火星的主人,火星上的先辈们只能被他们奴役。”奥雷基说。</p><p class="ql-block">“还有什么红线?”林如平继续提问。</p><p class="ql-block">“第二条红线,就是禁止AI机器人随意冒充人类伪造逼真的假现实。”奥雷基回答。</p><p class="ql-block">“这个很重要。我离开地球时,京华的假、冒、伪、劣、坑、蒙、拐、骗就很严重,这个一定要禁止、要整治!”林如平说。</p><p class="ql-block">“如果允许AI机器人随意冒充人类,当人类接电话、看视频,就会分不清真假。AI只要伪造一个假信息或者假指令,就会使一个家庭一夜赤贫,就会让火星全球经济一夜崩盘,就会突然发动战争,人类就再不会安宁幸福。当人们看到一切都不再真实,社会的可信度,社会的锲约精神,司法的公正、证据的有效,新闻报道的真实性,亲人之间的关系,都将会被破坏殆尽,人和人的关系将会彻底乱套。”奥雷基接着说。</p><p class="ql-block">“这个太重要了。”林如平表示十分赞同。</p><p class="ql-block">“当年的火星就没有划这条红线,结果整个火星到处都是利用AI弄虚造假,相互欺骗,相互伤害,假、冒、伪、劣、坑、蒙、拐、骗十分严重,已经到了无法整治的地步,幸亏正好举球大迁移,否则火星人类会被AI机器人灭绝。”奥雷基又说。</p><p class="ql-block">“除了前面说的两条,还有什么红线?”林如平又问。</p><p class="ql-block">“有。第三条红线,就是禁止AI机器人充当终极杀手,不允许AI机器人协助人类设计、获取、升级大规模杀伤性武器。”奥雷基回答。</p><p class="ql-block">“如果没有这条红线,世界也就到了末日。试想一下,一个没有情感、没有恐惧、没有约束的AI机器人,开始琢磨怎么用最低的成本去消灭目标,它设计出的病毒、化学武器、核武肯定会超出人类想象的恐怖。”林如平说。</p><p class="ql-block">“当年火星就没有这条红线,结果战争四起,核弹差点没炸毁火星,弄得核辐射使得人类无法生存,加上疫情肆虐,真的成了世界末日,不得不举球大迁移。”奥雷基说。</p><p class="ql-block">“我也在雨露星球大学图书馆看到一本厚书,还没有顾上详细看内里的文字,只看到限制研发制造AI机器人,原来火星人类举球大迁移是因为核辐射。”林如平说。</p><p class="ql-block">“还不只是因为核辐射,当年的火星整个环境生态全部被破坏,人类已经无法生存繁衍,想象都十分悲壮!”奥雷基有点悲伤地说。</p><p class="ql-block">“还有第四条红线吗?”林如平接着问。</p><p class="ql-block">“有。第四条红线,就是禁止AI机器人拥有自主发动攻击的权力。一群星际无人战舰,没有情感、没有怜悯,只管执行,它们会将平民当成攻击目标,人类就会失去对战争的掌控,也会失去对自己命运的保护。”奥雷基回答。</p><p class="ql-block">“太可怕了!虽然潜在危险之大,但当时火星人类为什么还要全球无底线竞争发展AI机器人?教训太深刻了!”林如平说。</p><p class="ql-block">“是的,教训太深刻了!所以,当火星人类踏上雨露星球,准备研发制造AI机器人时,就接受了火星时代的教训,特别划出了研发制造AI机器人的红线,并要求严格执行,严格监督。你身边这个会翻译的AI机器人,就经过了严格的审查,由球首特批,历经多道关卡,才得以成形。如今,雨露星球的AI机器人主要用于人类无法做的事情,用于星球防卫、救火、救灾、排爆、开山挖矿、航天遨游宇宙等一切不适合人类从事的行业,而不能用于挤压普通人的工作和生存岗位。”奥雷基说。</p><p class="ql-block">“如今我们火星上,地球人与火星人要共同研发制造AI机器人,也要首先划出红线,要求严格执行,严格相互监督,有违反者,定要从严惩处!我们地球人也很伟大,记得我曾读过一本《未来简史:从智人到智神》,是由以色列历史学家尤瓦尔·诺亚·赫拉利创作的社会发展理论著作,出版于公元2015年。全书分为历史回顾与未来预测两部分,指出地球人类已突破饥荒、瘟疫和战争三大传统威胁,转而追求永生、幸福与‘神性’ 。书中就AI机器人的研发制造提出过警示,预言未来AI机器人(无机人)会取代地球人类(有机人)。好像那个时候地球人类科学家、社会学家、院士、专家也提出了研发制造AI机器人的警示,要求设定红线,不能盲目发展,不能无约束制造。”林如平说。</p><p class="ql-block">“唉!人类生存繁衍充满了艰辛,前进道路泥泞坎坷。地震、海啸、火山、洪涝、干旱、饥荒、瘟疫和战争,可以锐减人口,食品物种大变异、AI机器人无节制的研发制造、大的陨星撞击和全球核爆,可以使人类断子绝孙,可以将人类灭绝。有些是人类可以抗拒的,有些是人类无法抗拒的,有些是天作孽,有些是自作孽。伟大的弥略拓和帕布瑞球首,他们没有这个主义和那个理论,没有折腾别人和自己,也没有想着如何树立自己的什么伟大形象,更没想万古不朽。但它们能舍生忘死带领人类绝处逢生,研究如何对抗自然灾害,禁止制造人祸,防患于未然,发展抗击或消除天体碰撞的能力,发明能使人类延年益寿、消除疾病的高科技,能吃饱饭、能穿暖衣、能使物质和精神都得到满足。”奥雷基聊发感慨。</p><p class="ql-block">“经历过太空航行,我才真正理解了一尘一世界,说是偌大个星球,但进入太空远距离回望,无非是一粒尘埃,尘埃上的人类连蚂蚁都不如,甚至连细菌都算不上。星球无非是一个小弹丸,是宇宙大风中的一颗尘粒,一尘一世界,每一个尘埃上的微生物胜过人类,每时每刻都在上演着自己空间的故事。星球人类就像一群蚁类,蚁类们在用自己的聪明才智,创造着自己星球历史的辉煌,每一个日出日落,在谱写着蚁类历史的华章。但人类自己觉得多了不起,还在那颗尘埃上划出国界,甚至还联合这个国家、指挥那个国家,欲要称霸那颗尘埃,真是可笑!”林如平也聊发感慨。</p> <p class="ql-block">高层论坛会议仍没有结束,关于利用战争废品生产AI机器人问题,经过热烈讨论,会议做出决定,給研发制造AI机器人制定了法律,划出了红线:</p><p class="ql-block">第一条,未经授权,禁止AI机器人进行自我复制和自我改进。</p><p class="ql-block">第二条,禁止AI机器人随意冒充人类伪造逼真的假现实。</p><p class="ql-block">第三条,禁止AI机器人充当终极杀手,不允许AI机器人协助人类设计、获取、升级大规模杀伤性武器。</p><p class="ql-block">第四条,禁止AI机器人拥有自主发动攻击的权力。</p><p class="ql-block">会议由华奋强、迈金柯、瓦希普联合主持,就火星的开发与发展顶层设计进行了热烈讨论,形成了顶层设计草案;其次就几个星球的人口移居问题进行了论证,提出了逐步迁移的计划方案;第三是讨论了火星的农、林、牧、渔各业的发展;第四是讨论了轻重工业、航空、航海、航天、自动化、机器人等的发展;第五讨论了大气、风雨、环境、生态等问题;第六是就火星化学、物理、矿藏、材料等进行了讨论;第七是关于火星城乡建设的长远规划布局;第八是……内容十分繁杂,不能一一提及。会议期间,多位学者联名写了一条建议:千万不要忘记加强全球防卫力量建设!并且还有如下文字:</p><p class="ql-block">狐狸座亚铃星云中生活着伊维尔星球的残余势力,他们是我们的敌人,只要他们存在,我们就不能忘记全球防卫力量建设!贫穷就会挨打,愚昧就会挨打,落后就会挨打。一个并不贫穷、愚昧、落后的星球,如果没有强大的防卫力量也会挨打。挨打不一定就是因为落后,伊维尔星球的兽类盯上了我们的火星,他们还会来抢占火星,并不会因我们的落后与强大而改变他们的强盗行为,但我们却可以凭着自己的武力改变结果。富有不等于和平与幸福,发展更需要信仰和精神支柱,更需要力量的凝聚,更需要净化意识形态领域,更需要加强全球防卫建设。否则,就是火星富甲宇宙,如果没有强大的防卫武装,万贯家产会被强盗们始终惦记着,最终也会成为强盗们的囊中之物,一夜之间就会成为赤贫,甚至性命不保!</p>