AI 个人电脑时代正在来临

陌上秋草

<h5>刘桓中,2025年10月</h5><div><br></div> 1943年,时任IBM公司董事长的老沃森说:全球有5台计算机就够了。IBM公司是计算机开创者之一,老沃森的预言成为经久不息的笑谈。其核心误解是:大型计算机就是一切。<div><br> 如今,同样的看法再次流行。近几年AI 迅速腾飞,将世界导入AI 时代,其主角是AI大模型。于是,大公司纷纷投入巨资建造 AI 大模型。几乎所有人都认为:大模型就是一切。</div><div><br> 然而,大模型的优势正临近边际,其局限性逐渐浮现。有识之士开始反思:也许大模型只相当于早年的大型计算机,那不过是一切的开端,不过是AI时代的婴儿期。</div><div><br> 那么,下一步朝何处去?计算机的成熟期始于个人电脑的普及。同样,AI 的成熟期也将始于AI 个人电脑的普及。这个时代正在来临。<br></div> <h5>早期大型计算机和近期依托服务器集群的大模型都属于婴儿期</h5><div><br></div> <h1><b>AI大模型的局限</b></h1> AI 大模型要依托服务器集群作为硬件支撑,才能实现所需算力,不仅价格昂贵,而且耗电极大。很多训练数据需要人工标注,人工费用也很高。因此,各大公司把自己的大模型看做掌上明珠,非常注重其通用性和安全性。训练数据要经过严格筛选,尽量剔除非权威数据和个性化数据。再加人工神经网络是按出现频度调节神经元之间的连接强度,频度低的数据自然会被筛选掉。<div><br> 于是,AI 大模型与人脑就产生了两大差别。一、AI 靠统计概率来下结论,一旦结论形成就很难推翻,除非有大量新数据能改变原来的统计。人脑除了统计概率,还有很多推导结论的其他路径,甚至一个简单事实就能将原有的推理基础摧垮。二、大脑神经网络中的弱连接比人工神经网络多得多。人脑中保存着大量问号,即大量有待证实的假设。这些假设随时随地都可能被强化或弱化,甚至在睡梦中都会被整合。</div><div><br> AI 经常显得非常固执,正是由于统计概率很难被推翻。按这种统计概率模式,最容易被淘汰的是什么?是爱因斯坦那样的天才构想。爱因斯坦最初提出相对论时,世上几乎无人能理解。假如爱因斯坦不幸早逝,相对论很可能会推迟几十年,甚至更久。</div><div><br> 由于AI 大模型缺少大脑中那么多假设和联想,所以大模型没有人类特有的顿悟能力,无法产生一通百通的惊喜。它只能日复一日,按部就班地接受海量数据训练,并且呈现边际效用递减。现在这种高度通用化的大模型,如同一个八面玲珑的人类个体,难以产生人类的高级智慧。</div><div><br>千百年来,人类曾产生无数极具智慧的思维,但大都随着人的逝去而消失,只有很少部分以文本、图像和实物形式留存。这非常可惜。AI 本可以改变局面,但大模型只接受训练者提供的数据,继续把亿万人的思维拒之门外。这也非常可惜。<br></div><div><br></div> <h1><b>一道难以逾越的坎</b></h1> AI 和人脑最大的差别是神经元之间的连接方式。大脑神经网络可以动态生成新连接。普通神经元通常可产生数千个突触连接,最多可至上万个。初生婴儿的神经元会迅速生长,然后显著减速,直至基本停止生长。但神经元连接还会大量新生。AI的神经元连接也可以动态调节,但目前调节范围很小,除非技术能力有根本性突破(参见我另一篇文章:<a href="https://www.meipian.cn/5gk6dq4i?share_depth=1" target="_blank" class="link"><i class="iconfont icon-iconfontlink"> </i>“AI 与人脑究竟有何差别”</a>)。<div><br>这一巨大差别像一道难以逾越的坎,横亘于AI 发展之路。人工神经网络的电路传导比大脑的电化学传导快数百万倍。这在很大程度上弥补了神经元数量不足和缺少动态连接的缺陷。例如,AI 可在短期内快速比对上千万张图片,为刑侦提供证据,人工完全做不到。</div><div><br>人脑的广泛联想能力目前的AI 无法胜任。通过定向训练和人工标注的引导,AI 可在某些尖端科学领域有新发现,那在本质上还是人类的发现,只是借助了AI作为工具。人脑可在不经意间,由偶然的外来信息激发一系列联想,产生新发现,目前AI做不到。</div><div><br>另外,人脑神经元会产生大量无预定目标的连接。这种无外来刺激的内部试错式连接随时随地都可能发生。静思是人类思维的一大特点,“胡思乱想”是高智力的表现。人在睡梦中也会有这种静思,一些奇特梦境正是其反映。头天难以解决的问题,睡一觉就想通了,也是其反映。<br></div> <h5>AI 大模型缺少大脑中那种动态连接</h5> 那么,AI 出路何在?<div><br></div> <h1><b>由AI 终端实现本地化算力</b></h1> 训练AI 大模型需要巨大算力,头部大公司所需服务器往往是顶尖配置。例如,一个T的GPU存储器,几个T的普通内存,几十到上百内核的CPU。这样的服务器需要许多台形成集群,并且同时运算,才能支撑目前的海量数据训练。典型训练环境需要25,000块英伟达80G 图形卡的支持。<div><br>这种训练模式不仅初期成本高昂,而且耗电巨大,运行成本也极高。人们发现,训练效果并未随着硬件提升成比例提高,呈现边际效用递减。有些资深学者因此发出悲观叹息。</div><div><br>其实事情没那么坏。类脑计算机和光计算已有显著进展。一旦理论和技术有突破,将会呈现柳暗花明又一村的景象,AI 将迈上新高度。与之相比,更容易落地的是普通AI 终端的普及。</div><div><br>所谓AI 终端,目前主要是内置强大GPU图形卡或图形芯片的电脑和手机,并且预装AI 软件。未来会涉及更多用户端AI设备,如AI 机器人、智能驾驶汽车,以及具有AI 功能的各种设备。当然,最实用最容易落地的是 AI 个人电脑。不难预计,随着 AI 应用的广泛普及,一个新的个人电脑潮正在来临。从普及角度看,2026年很可能成为 AI 终端元年。</div><div><br>AI 终端主要是承担本地化 AI 运算,也就是在用户端直接做 AI 运算,而不是依赖云端服务器集群。这不仅能显著提高反应速度,降低用户成本,还能实现AI 模型的个性化,也就是在用户端形成一个与特定用户相配的独特智能体,而不是云端那样的通用智能体。有此一变,必将引发意义深远的一系列深刻变化。<br></div> <h5>众多AI终端形成分布式智能体 </h5><div><br></div> <h1><b>千百万AI 终端构成AI社会</b></h1> 目前由云端提供的 AI 服务仅把用户当作信息接受者。用户上传的信息只暂存于服务器,过了既定时间便被删除。理由是减轻服务器的负荷。用户数据更不会被当作训练数据接受。理由是保证训练数据的权威性和安全性。<div><br>千百万用户头脑中隐藏着各方面智慧。这些智慧经过筛选和整合,可以有效提高AI 的智能。当AI 终端广泛普及后,用户端的本地算力可以承担大部分运算,用户数据也仅用于本地AI 的训练,上述理由将不复存在。</div><div><br>用户端的AI 模型,无论是电脑、手机还是其他AI 设备,都不是从零开始。预装时AI 大模型的智能便被复制到AI 终端的小模型中,如同婴儿一出生就带有父母 DNA 提供的遗传信息,只是AI 模型的遗传信息比婴儿多得多,它从诞生之初就有了强大智能。</div><div><br>用户与AI 终端的日常交互可以为小模型提供后续训练。这是一种极具个性化的日常训练。AI 终端越来越熟悉其特定用户,越来越适应用户的特定需求。长此以往,AI 终端将俱备大模型所缺乏的特定智能。</div><div><br>单个小模型的算力远不及大模型,但千千万万各具特色的小模型组成的智能群体,其整体智能将超过任何一个大模型。届时将出现由众多AI 终端构成的AI 社会,并通过网络相互连接。如同蚂蚁构成的小社会,单个蚂蚁非常弱小,无数蚂蚁通过信息素相互协作,就有了强大能力。</div><div><br>很多科幻故事描述过无与伦比的AI超级智能,其形象往往是庞大的计算中心。真正的超级智能却非如此,它将存在于由AI 终端组成的宏大社会中。关于这一点,我将单独撰文介绍。<br></div> <h5>由许多AI终端构成超级大脑</h5>