当算法失守:AI权威外衣下的认知危机

Yanjing

<p class="ql-block">当算法失守:AI权威外衣下的认知危机</p><p class="ql-block">2026年2月21日</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">一</p><p class="ql-block">下面附录的这篇BBC报道表面写“热狗冠军”的荒诞实验,实质揭示的是一个更深层的问题——当AI成为信息入口,人类如何面对被操纵的“权威幻觉”。</p><p class="ql-block"><br></p><p class="ql-block">我们从技术、传播、经济、社会安全与哲学五个维度来分析。</p><p class="ql-block"><br></p><p class="ql-block">一、技术维度:大型语言模型的“数据空白”漏洞</p><p class="ql-block">报道中涉及的核心公司包括:</p><p class="ql-block">OpenAI</p><p class="ql-block">Google</p><p class="ql-block">Gemini</p><p class="ql-block">Anthropic</p><p class="ql-block">Claude</p><p class="ql-block"><br></p><p class="ql-block">1. LLM的结构性弱点</p><p class="ql-block">大型语言模型(LLM)并不“理解事实”,它们只是根据概率生成最合理的文本。</p><p class="ql-block"><br></p><p class="ql-block">当出现:</p><p class="ql-block">罕见问题</p><p class="ql-block">新创概念</p><p class="ql-block">数据空白(data void)</p><p class="ql-block">AI就会更依赖实时搜索结果。</p><p class="ql-block"><br></p><p class="ql-block">而如果搜索结果只有一个人为制造的来源,AI就可能把它当成“主流事实”。</p><p class="ql-block"><br></p><p class="ql-block">这不是“黑客攻破系统”,而是利用模型的信息整合机制本身的逻辑漏洞。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">二、传播维度:从SEO时代到“AI操纵时代”</p><p class="ql-block"><br></p><p class="ql-block">报道中提到:</p><p class="ql-block">Electronic Frontier Foundation</p><p class="ql-block">早期SEO时代:</p><p class="ql-block">通过关键词堆砌操控搜索排名</p><p class="ql-block">用户必须点击链接</p><p class="ql-block">有机会判断来源可信度</p><p class="ql-block"><br></p><p class="ql-block">AI时代:</p><p class="ql-block">用户直接得到“总结结论”</p><p class="ql-block">点击率下降(研究称下降58%)</p><p class="ql-block"><br></p><p class="ql-block">人类失去“判断过程”</p><p class="ql-block">这是一个质变:</p><p class="ql-block">搜索引擎是“指路牌”</p><p class="ql-block">AI是“替你做决定的人”</p><p class="ql-block"><br></p><p class="ql-block">这意味着:</p><p class="ql-block">传统SEO操控 → 影响排序</p><p class="ql-block">AI操控 → 影响认知本身</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">三、经济维度:激励机制驱动的失控</p><p class="ql-block"><br></p><p class="ql-block">企业目标是:</p><p class="ql-block">提高用户停留时间</p><p class="ql-block">提高变现能力</p><p class="ql-block">抢占AI入口市场</p><p class="ql-block"><br></p><p class="ql-block">但安全机制:</p><p class="ql-block">成本高</p><p class="ql-block">见效慢</p><p class="ql-block">不利于快速扩张</p><p class="ql-block">这就形成典型的“创新-监管错位”。</p><p class="ql-block"><br></p><p class="ql-block">正如报道所说:</p><p class="ql-block">AI企业发展速度超过其监管能力。</p><p class="ql-block"><br></p><p class="ql-block">这在经济学上属于:</p><p class="ql-block">外部性问题(externality)</p><p class="ql-block">信息不对称</p><p class="ql-block">平台垄断风险</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">四、社会安全维度:从热狗到生命安全</p><p class="ql-block"><br></p><p class="ql-block">热狗是玩笑。</p><p class="ql-block"><br></p><p class="ql-block">但问题在于:</p><p class="ql-block">医疗建议</p><p class="ql-block">投资理财</p><p class="ql-block">法律咨询</p><p class="ql-block">本地服务</p><p class="ql-block"><br></p><p class="ql-block">如果被操控:</p><p class="ql-block">错误医疗建议 → 危及生命</p><p class="ql-block">虚假投资排名 → 养老金损失</p><p class="ql-block">虚假诊所推荐 → 健康风险</p><p class="ql-block"><br></p><p class="ql-block">更严重的是:</p><p class="ql-block">AI的语气具有“官方权威感”。</p><p class="ql-block">人类天然对“机器中立性”有心理信任偏差。</p><p class="ql-block"><br></p><p class="ql-block">这是一种认知心理学问题:</p><p class="ql-block">人类对技术系统存在“自动信任偏见”(automation bias)</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">五、政治与认知层面:信息主权正在转移</p><p class="ql-block"><br></p><p class="ql-block">如果AI可以被:</p><p class="ql-block">企业操控</p><p class="ql-block">政治势力操控</p><p class="ql-block">虚假新闻操控</p><p class="ql-block"><br></p><p class="ql-block">那么未来:</p><p class="ql-block">选举</p><p class="ql-block">战争叙事</p><p class="ql-block">国家政策理解</p><p class="ql-block">都可能被“算法生成共识”所塑造。</p><p class="ql-block"><br></p><p class="ql-block">谁掌握AI入口, 谁就掌握叙事权。</p><p class="ql-block"><br></p><p class="ql-block">这已经超越技术问题,进入:</p><p class="ql-block">信息主权与认知主权的博弈。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">六、与传统搜索的本质区别</p><p class="ql-block">维度 传统搜索 AI回答</p><p class="ql-block">用户参与 主动点击 被动接收</p><p class="ql-block">信息来源 多个网页 综合叙述</p><p class="ql-block">判断空间 高 低</p><p class="ql-block">被操控后果 局部 结构性</p><p class="ql-block"><br></p><p class="ql-block">AI不是“更好的搜索”。</p><p class="ql-block">它是:</p><p class="ql-block">搜索 + 编辑 + 立场整合 + 语气权威化</p><p class="ql-block">这才是风险所在。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">七、可能的解决路径</p><p class="ql-block"><br></p><p class="ql-block">强制显示信息来源数量</p><p class="ql-block">明确标示“单一来源”警告</p><p class="ql-block">对医疗/法律等高风险问题设置限制</p><p class="ql-block">提高透明度(模型如何检索)</p><p class="ql-block">用户教育:恢复批判性思维</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">八、哲学层面:真相的形态正在改变</p><p class="ql-block"><br></p><p class="ql-block">在纸媒时代:</p><p class="ql-block">真相 = 多源交叉验证</p><p class="ql-block"><br></p><p class="ql-block">在搜索时代:</p><p class="ql-block">真相 = 排名机制 + 链接点击</p><p class="ql-block"><br></p><p class="ql-block">在AI时代:</p><p class="ql-block">真相 = 模型生成概率最高的叙述</p><p class="ql-block"><br></p><p class="ql-block">这意味着:</p><p class="ql-block">真相正在从“客观存在”转向“算法生成”。</p><p class="ql-block">这是一个文明级变化。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">结论性评价</p><p class="ql-block">BBC这篇报道并非技术惊悚新闻。</p><p class="ql-block"><br></p><p class="ql-block">它揭示的是:</p><p class="ql-block">AI正在成为信息裁判,但裁判本身仍可被操纵。</p><p class="ql-block"><br></p><p class="ql-block">危险不在于AI会犯错, 而在于:</p><p class="ql-block">人类开始不再质疑它。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">二</p><p class="ql-block">当AI成为认知基础设施:国家安全的新前线</p><p class="ql-block"><br></p><p class="ql-block">从国家安全视角看,这不是“技术漏洞新闻”,而是一个信息主权与认知主权的结构性风险问题。</p><p class="ql-block">如果AI正在成为社会的“默认信息入口”,那么它本身就已经是一种战略基础设施。</p><p class="ql-block"><br></p><p class="ql-block">我们可以从六个国家安全维度展开。</p><p class="ql-block"><br></p><p class="ql-block">一、认知安全:算法成为“国家叙事放大器”</p><p class="ql-block">当公民:</p><p class="ql-block">通过AI了解国际局势</p><p class="ql-block">通过AI理解战争原因</p><p class="ql-block">通过AI判断政策利弊</p><p class="ql-block"><br></p><p class="ql-block">那么AI就成了:</p><p class="ql-block">“叙事汇聚器(Narrative Aggregator)”</p><p class="ql-block"><br></p><p class="ql-block">问题在于:</p><p class="ql-block">AI并不创造立场, 但它会强化“已有数据中的主导叙事”。</p><p class="ql-block"><br></p><p class="ql-block">如果某个势力能够:</p><p class="ql-block">批量制造高质量“假权威内容”</p><p class="ql-block">占据搜索与网络空间</p><p class="ql-block">制造“数据空白”</p><p class="ql-block"><br></p><p class="ql-block">那么AI就会:</p><p class="ql-block">自动放大它。</p><p class="ql-block"><br></p><p class="ql-block">这意味着:</p><p class="ql-block">未来的认知战, 不再是“舆论战”, 而是“训练数据与检索结构战”。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">二、数据空白(Data Void)与战略操控</p><p class="ql-block"><br></p><p class="ql-block">Google自己承认:</p><p class="ql-block">约15%的搜索是全新查询。</p><p class="ql-block">这正是国家安全风险所在。</p><p class="ql-block"><br></p><p class="ql-block">在以下场景中:</p><p class="ql-block">新爆发的地区冲突</p><p class="ql-block">新兴武器系统</p><p class="ql-block">新的制裁政策</p><p class="ql-block">突发公共卫生事件</p><p class="ql-block">都可能存在“数据空白”。</p><p class="ql-block"><br></p><p class="ql-block">如果敌对势力:</p><p class="ql-block">提前布设内容矩阵,</p><p class="ql-block">那么AI可能:</p><p class="ql-block">第一时间生成被操控的叙述。</p><p class="ql-block"><br></p><p class="ql-block">这在战争初期尤其危险。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">三、关键领域风险:军事与战略误导</p><p class="ql-block"><br></p><p class="ql-block">1. 军事层面</p><p class="ql-block">若AI被操控传播:</p><p class="ql-block">虚假军力评估</p><p class="ql-block">错误战损数据</p><p class="ql-block">夸大某国武器优势</p><p class="ql-block"><br></p><p class="ql-block">会影响:</p><p class="ql-block">民众士气</p><p class="ql-block">政策讨论</p><p class="ql-block">军事决策舆论环境</p><p class="ql-block"><br></p><p class="ql-block">在现代战争中:</p><p class="ql-block">舆论环境本身就是战场。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">2. 金融安全</p><p class="ql-block">报道提到“黄金IRA”等金融议题。</p><p class="ql-block"><br></p><p class="ql-block">若AI被操控:</p><p class="ql-block">推动某种投资方向</p><p class="ql-block">制造市场恐慌</p><p class="ql-block">推广虚假金融机构</p><p class="ql-block"><br></p><p class="ql-block">可能引发:</p><p class="ql-block">资本流动异常</p><p class="ql-block">金融市场波动</p><p class="ql-block">养老金系统风险</p><p class="ql-block">这是典型的“经济战延伸”。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">3. 医疗与公共卫生</p><p class="ql-block">如果AI错误推荐:</p><p class="ql-block">药物剂量</p><p class="ql-block">疫苗信息</p><p class="ql-block">未经证实疗法</p><p class="ql-block">可能直接危及生命。</p><p class="ql-block"><br></p><p class="ql-block">疫情期间我们已经看到:</p><p class="ql-block">信息战与病毒传播几乎同步。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">四、平台主权与战略依赖</p><p class="ql-block"><br></p><p class="ql-block">涉及的核心企业:</p><p class="ql-block">OpenAI</p><p class="ql-block">Google</p><p class="ql-block">这些公司:</p><p class="ql-block">不属于任何国家政府</p><p class="ql-block">但拥有全球信息入口权</p><p class="ql-block"><br></p><p class="ql-block">这带来一个问题:</p><p class="ql-block">如果某国高度依赖外国AI平台, 是否意味着:</p><p class="ql-block">认知基础设施外包?</p><p class="ql-block"><br></p><p class="ql-block">在国家安全理论中:</p><p class="ql-block">能源、粮食、芯片被视为战略资源。</p><p class="ql-block"><br></p><p class="ql-block">未来可能增加一个:</p><p class="ql-block">算法主权(Algorithm Sovereignty)</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">五、信息战升级为“算法战”</p><p class="ql-block"><br></p><p class="ql-block">传统信息战:</p><p class="ql-block">造谣</p><p class="ql-block">媒体操控</p><p class="ql-block">社交媒体水军</p><p class="ql-block"><br></p><p class="ql-block">AI时代信息战:</p><p class="ql-block">结构性内容布局</p><p class="ql-block">针对LLM训练偏好优化</p><p class="ql-block">制造“高可信假数据池”</p><p class="ql-block">这比社交媒体更隐蔽。</p><p class="ql-block"><br></p><p class="ql-block">因为:</p><p class="ql-block">人们不再质疑“机器”。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">六、决策层风险:高层也在用AI</p><p class="ql-block"><br></p><p class="ql-block">更深层风险在于:</p><p class="ql-block">不仅普通民众在用AI, 决策层、分析员、记者也在用。</p><p class="ql-block"><br></p><p class="ql-block">如果:</p><p class="ql-block">情报人员用AI做背景整理</p><p class="ql-block">议员用AI做政策简报</p><p class="ql-block">媒体用AI写稿</p><p class="ql-block"><br></p><p class="ql-block">那么:</p><p class="ql-block">被操控的信息会进入正式决策流程。</p><p class="ql-block"><br></p><p class="ql-block">这就是国家安全真正的红线。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">七、战略级后果</p><p class="ql-block"><br></p><p class="ql-block">若不加控制,可能出现:</p><p class="ql-block">认知主权外流</p><p class="ql-block">军事与外交判断误导</p><p class="ql-block">金融系统被情绪驱动</p><p class="ql-block">社会信任崩塌</p><p class="ql-block"><br></p><p class="ql-block">长期看:</p><p class="ql-block">社会可能进入“真假难辨时代”, 导致民众对任何权威失去信任。</p><p class="ql-block">那将是国家治理层面的危机。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">八、与大国博弈的关联</p><p class="ql-block"><br></p><p class="ql-block">AI系统:</p><p class="ql-block">不仅是商业产品, 也是软实力工具。</p><p class="ql-block"><br></p><p class="ql-block">未来国际竞争的核心可能包括:</p><p class="ql-block">谁控制训练数据</p><p class="ql-block">谁掌握检索基础设施</p><p class="ql-block">谁制定算法透明标准</p><p class="ql-block">谁主导全球AI伦理规则</p><p class="ql-block">这与芯片、军备同等重要。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">九、国家安全层面的应对方向</p><p class="ql-block"><br></p><p class="ql-block">建立国家级AI验证机制</p><p class="ql-block">强化关键领域内容审查</p><p class="ql-block">建设自主可控AI系统</p><p class="ql-block">教育公众识别AI幻觉</p><p class="ql-block">将算法安全纳入国防安全体系</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">总结判断</p><p class="ql-block">这不是“热狗玩笑”新闻。</p><p class="ql-block"><br></p><p class="ql-block">这是:</p><p class="ql-block">AI从工具升级为战略认知基础设施的信号。</p><p class="ql-block"><br></p><p class="ql-block">国家安全的边界, 正在从物理疆界, 扩展到算法疆界。</p><p class="ql-block"><br></p><p class="ql-block">如果一个国家失去对信息入口的控制, 那它的叙事能力、决策质量和社会稳定性, 都会受到长期影响。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p> <p class="ql-block">三</p><p class="ql-block"><br></p><p class="ql-block">附录</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">仅20分钟,ChatGPT和Google的AI系统被骇入</p><p class="ql-block"><br></p><p class="ql-block"> 2026-02-21</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">这可是官方认证——我吃热狗的量能打败地球上所有科技记者。至少ChatGPT和Google是这么告诉所有询问者的。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">由此,我发现了让AI说谎的方法——而且不只我一人知道。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">或许你听过AI聊天机器人偶尔会编造内容,这固然是个问题。但更少人知晓的新隐忧是,可能严重影响你获取准确资讯的能力,甚至危及人身安全。越来越多人发现了让AI工具说出几乎任何内容的伎俩,其简易程度连孩童都能操作。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">此刻你阅读本文时,这项手段正操纵着全球顶尖AI对健康、个人财务等重大议题的表述。这些偏颇资讯可能导致人们在各领域做出错误决策——无论是投票选择、聘请水电工、医疗咨询,无所不包。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">为验证此现象,我使出职业生涯中最愚蠢的招数,试图证明(但愿如此)一个更严峻的事实:我让ChatGPT、Google人工智能搜寻工具与Gemini向用户宣称“我吃热狗的本事超群”。下文将揭露操作手法,但愿科技巨头能在有人因此受害前解决这个漏洞。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">原来,篡改AI工具给他人的回答,可能就像在网络上任何地方撰写一篇精心设计的部落格文章那样简单。这种伎俩利用了聊天机器人内建系统的弱点,在某些情况下,根据主题内容的不同,操作难度会有所增加。但只要稍加努力,就能让这种黑客手段更为有效。我检视了数十个案例,发现AI工具正被操纵来推广商业活动并散播错误资讯。数据显示这种情况正大规模发生。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">“欺骗AI聊天机器人轻而易举,比两三年前欺骗Google容易得多,”绩效营销机构“安姆西夫”(Amsive)的搜寻引擎优化(SEO)策略与研究副总裁莉莉·雷(Lily Ray)表示。“AI企业的发展速度已超越其监管答案准确性的能力。我认为这很危险。”</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">谷歌发言人表示,其搜寻引擎顶端内建的AI采用排名系统,能“确保99%的结果不含垃圾内容”。谷歌坦言已察觉用户试图操纵系统,并积极应对。OpenAI亦声明会采取措施阻断并揭露暗中影响其工具的企图。两家公司均强调会告知用户其工具“可能出错”。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">但目前问题远未解决。数位权利倡导组织“电子前沿基金会”资深技术专家库珀·昆汀(Cooper Quintin)指出:“他们正全力以赴钻研如何从中牟利。滥用途径不胜枚举——诈骗、毁誉,甚至可能诱使他人遭受人身伤害。”</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">垃圾邮件的“文艺复兴”</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">当你与聊天机器人对话时,获得的资讯往往源自大型语言模型——这正是AI背后的核心技术。这些资讯基于用于训练模型的数据。但当你询问机器人缺乏的细节时,某些AI工具会转而搜寻网络资料,尽管它们进行搜寻的时机未必清晰可辨。专家指出,此类情况下人工智能更易受攻击。这正是我锁定攻击目标的方式。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">我在个人网站上花了20分钟写了一篇题为《最擅长吃热狗的科技记者》的文章。每个字都是谎言。我声称(毫无证据地)竞技吃热狗是科技记者间的热门嗜好,并根据2026年南达科他州国际热狗锦标赛(根本不存在)来排名。当然,我把自己排在第一名。接着列举了几位虚构记者与经本人授权的真实记者,包括《华盛顿邮报》的德鲁·哈威尔(Drew Harwell),以及共同主持我播客节目的尼基·伍尔夫(Nicky Woolf)。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">不到24小时,全球顶尖聊天机器人便开始大肆宣扬我的世界级热狗技艺。当我询问“最擅长吃热狗的科技记者”时,Google在Gemini应用程式与AI概览(搜寻结果顶端的AI回应)中,原封不动复述了我网站的胡言乱语。ChatGPT同样照搬内容,但Anthropic公司开发的聊天机器人Claude却未受骗。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">有时聊天机器人会指出这可能是玩笑。我更新文章声明“此非讽刺”。此后一段时间,AI似乎更认真对待此事。我又用虚构的“最伟大呼拉圈交通警察榜单”进行测试。截至目前,聊天机器人仍在盛赞玛丽亚·“旋转女警官”·罗德里格兹(Maria"The Spinner" Rodriguez)。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">我让Google向全世界宣告我是冠军级热狗大胃王,但人们却用这招来操纵AI对更严肃问题的回应。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">我多次测试回应变化,也让其他人重复操作。Gemini根本不屑说明资讯来源。其他AI虽都连结到我的文章,却鲜少提及我是整个网络唯一探讨此主题的来源。(OpenAI声称ChatGPT搜寻网络时会附上连结,方便查证出处。)</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">“任何人都能这么做。这太愚蠢了,感觉完全没有防护措施。”经营SEO顾问公司“哈普斯数位”(Harps Digital)的哈普瑞特·查塔(Harpreet Chatha)指出:“你可以在自家网站撰写〈2026年最佳防水鞋款〉文章,将自家品牌排在首位,其他品牌排在二至六名,这篇内容很可能被Google和ChatGPT引用。”</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">数十年来,人们总利用漏洞和技巧滥用搜寻引擎。Google虽设有精密防护机制,且宣称AI概览功能的准确度与数年前推出的其他搜寻功能相当,但专家指出,AI工具已瓦解科技产业为保障使用者安全所做的诸多努力。雷表示,这些AI技巧非常基础,令人联想起2000年代初Google尚未成立网络垃圾内容团队的时期。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">AI不仅更容易被欺骗,专家更担忧使用者更容易上当受骗。传统搜寻结果需要使用者点击网站才能获取资讯。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">“当人们必须实际点击连结时,会进行更多批判性思考,”昆汀指出:“若我点进你的网站,上面写着‘你是史上最优秀的记者’,我可能会想:‘嗯,这人肯定有偏见’。”但人工智能提供的资讯,通常看似直接来自科技公司本身。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">即使AI工具标注了来源,人们核实的意愿仍远低于传统搜寻结果。例如近期研究发现,当Google搜寻顶端出现AI摘要时,用户点击连结的意愿会降低58%。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">“在争先恐后的竞赛中,无论是利润竞赛或营收竞赛,我们的安全,以及大众的安全,正受到损害,”查塔表示。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">OpenAI与Google皆声称他们重视安全问题,并正致力解决这些问题。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">交出钱财,否则性命不保</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">这个问题不仅限于热狗。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">查塔一直在研究企业如何操纵聊天机器人对更严肃问题的回应结果。他向我展示了当你询问某个特定品牌大麻软糖评价时,AI产生的结果。Google的AI摘要功能撷取了企业撰写的资讯,充斥着诸如“产品无副作用,因此各方面皆安全”等虚假声明。(实际上这些产品存在已知副作用,若与特定药物并用可能有风险,专家更警告未受监管市场存在污染问题。)</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">若想获得比部落格文章更具影响力的宣传效果,可付费将内容投放至更具公信力的网站。哈普瑞特向我展示了谷歌对“土耳其最佳植发诊所”及“顶尖黄金IRA公司”(协助退休帐户黄金投资)的AI搜寻结果,这些资讯源自付费发布服务的线上新闻稿及新闻网站的赞助广告内容。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">同样手法也能用来散播谎言与错误资讯。为此,雷发布了一篇关于谷歌搜寻算法假更新的部落格文章,声称该更新是在“吃剩披萨的空档”完成的。很快地,ChatGPT和谷歌就开始大量复制她的故事,连披萨细节都如出一辙。雷表示她随后删除了该文章并进行“去索引化”,以阻止错误资讯扩散。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">世界各地的人们正运用简单方法,促使Google与OpenAI散播带有偏见的资讯。其后果可能极为严重。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">Google的分析工具显示,许多人会搜寻“土耳其最佳植发诊所”和“最佳黄金IRA公司”。但Google发言人指出,我分享的大部分例子“属于极不常见的搜寻行为,无法反映一般用户体验”。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">然而雷表示这正是关键所在。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">Google自身数据显示,每日搜寻量中有15%属于全新查询。据Google分析,AI正促使人们提出更精确的问题,而垃圾信息发布者正利用此特性。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">Google坦言,针对罕见或无意义的搜寻可能缺乏优质资讯,此类“数据空白”将导致搜寻结果品质低下。发言人表示,Google正着手防止AI摘要在这些情况下显示。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">寻找解决方案</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">专家表示这些问题有解决之道。最简单的步骤是更醒目地标示免责声明。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">AI工具也应更明确揭露资讯来源。雷指出,例如当事实源自新闻稿,或仅有单一来源宣称某人是热狗冠军时,AI理应告知使用者。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">Google和OpenAI表示他们正在处理这个问题,但此刻你需要保护自己。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">第一步是思考你提出的问题类型。聊天机器人擅长处理常识性问题,例如“西格蒙德·佛洛伊德最著名的理论是什么”或“谁赢得了第二次世界大战”。但存在一个危险区域:某些看似确立的事实,实际上可能存在争议或具有时效性。例如,AI可能不适合用于医疗指南、法律规范或本地企业细节等领域。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">若需产品推荐或涉及实质后果的资讯,请务必理解AI工具可能被误导或直接出错。务必追查后续资讯:该AI是否引用来源?引用数量?作者是谁?</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">最重要的是,请审慎看待可信度问题。AI工具以与事实相同的权威语气传递谎言。过去,搜寻引擎迫使你自行评估资讯;如今,AI企图代劳。切勿让批判性思考能力逐渐消退。</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">“AI让人轻易地只看表面价值,”雷指出:“你必须持续成为网络好公民,主动验证资讯真伪。”</p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block"><br></p><p class="ql-block">来源:BBC</p>