AI面临的伦理挑战

黄蘅玉

<p class="ql-block">2026年2月10日,加拿大BC省 Tumbler Ridge 中学和一处住宅发生枪击事件,造成9人死亡(包括枪手在內),另有27人受伤。嫌犯Jesse Van Rootselaar是一名曾就读該校的18岁跨性別女性。</p><p class="ql-block">Tumbler Ridge 的那场悲剧,不仅是一起令人痛心的社会事件,更成为了AI伦理史上的一个分水岭。这起枪击案将一个极具争议的伦理问题推向了风口浪尖:当AI预判到即将发生的暴力犯罪时,它是否有权(或有义务)打破隐私保密原则向警方报警?</p><p class="ql-block">这背后隐藏着技术开发者的道德枷锁、法律的灰色地带,以及人类对“数字老大哥”的深层恐惧。</p><p class="ql-block">根据最新披露的调查资料,OpenAI 早在案发前 8个月(2025年6月)就通过内部监测系统识别并封禁了嫌疑人 Jesse Van Rootselaar 的账号,因为她的对话涉及“暴力活动的推进”以及模拟“枪击场景”。</p><p class="ql-block">OpenAI 公司承认,当时内部曾讨论过是否向加拿大皇家骑警(RCMP)举报。内部安全团队按照当下精神健康的法规,若“没有具体时间,没有具体地点,没有明确受害者,没有已实施步骤的证据”,那么,该行为未达到“紧迫且可信的严重身体伤害风险”这一上报门槛。于是,OpenAI按照当前行业规范下,作出了“封号但不报警”的决定。</p> <p class="ql-block">加拿大警方在案发前对此一无所知,直到案发后 OpenAI 主动联系加拿大警方。</p><p class="ql-block">2026年2月24日,加拿大人工智能部长已传唤 OpenAI 的高级安全团队到渥太华接受面对面质询。</p><p class="ql-block">目前我们所关注的问题是:当一个人在 AI 平台上反复表达暴力幻想、仇恨言论甚至具体攻击构想时,或者一个人在AI平台上表述自己的自杀企图,AI 是否应当突破“用户保密”原则,向警方或其他机构报告?报告的“阈值”(界限)是什么?</p><p class="ql-block">按照目前的精神健康法规,若“没有具体时间,没有具体地点,没有明确受害者,没有已实施步骤的证据”,那就不能打破“保密原则”。原因是,若没有确凿的证据,有可能是误报,那么对服务者,无论是心理咨询工作人员还是AI,都面临信任塌陷的问题,当然还包括资源的浪费。</p><p class="ql-block">可是,面对加拿大枪击案的可怕现实,公众自然会问:如果 AI 早就知道此人反复表达暴力意图,为何不预警?一次成功预警可能挽救数十条生命。</p><p class="ql-block">那么,AI 的“保密原则”是什么?</p><p class="ql-block">这不是技术问题,而是一场关于自由、责任与风险边界的伦理大辩论。</p>