<p class="ql-block">习近平总书记强调,“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控”,“加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德”。</p> <p class="ql-block">欧盟《人工智能法》对AI风险的分类主要基于潜在影响的严重性和性质。该法案将AI系统的风险划分为以下四个主要类型:</p><p class="ql-block">首先,是不可接受的风险。这一类别涵盖了那些可能严重侵犯基本人权、危害人类生命安全或行为自由的AI应用。例如,利用潜意识技术影响、利用或操控人类行为,尤其是针对特定弱势群体的特征(如年龄、身体或心理残疾)进行操控,并可能因此造成心理和生理伤害的系统,都属于这一类别。此外,如果AI系统用于公共机关收集或生成的数据,进行基于个人社会行为及特征的评估与分类,并对自然人或自然人群体造成不利对待,也被视为不可接受的风险。</p><p class="ql-block">其次,是高风险。这一类别涵盖了可能对人类健康、安全、基础人权等产生显著负面影响的AI应用。这些领域包括生物识别分类、关键基础设施的管理和运行、教育业、人力管理、执法、移民和难民事务,以及社会公正和民主等方面。对于这类AI系统,欧盟采取了更为严格的监管措施。</p><p class="ql-block">再次,是有限风险。这一类别包括那些可能对个人或社会造成一定程度影响,但风险相对较低的AI应用。这些系统在使用时可能需要遵循一定的规范和标准,以确保其安全和可控性。</p><p class="ql-block">最后,是轻微风险。这一类别涵盖了风险极低的AI应用,这些系统通常不会对个人或社会造成显著影响。尽管如此,它们仍需遵守基本的法规和标准,以确保其合法和合规的使用。</p><p class="ql-block">通过这样的风险分类,欧盟《人工智能法》为不同类型的AI系统制定了相应的监管措施和要求,旨在确保AI技术的健康发展,并最大程度地保护公民的基本权利和自由。</p> <p class="ql-block">在我国人工智能的应用,要防范数据滥用与隐私泄露风险,保障公民合法权益。人工智能的运行离不开海量数据,尤其在社会治理领域的应用往往涉及大量敏感的个人信息和公共数据。政务、医疗、金融等领域应用大量采集和处理个人敏感数据,如果数据采集、存储、使用、共享等环节缺乏严格规范和有效保护,极易引发数据滥用、隐私泄露等问题。例如,过度收集个人生物特征信息、未经授权共享公民健康数据、利用大数据进行精准画像并用于不当商业营销或社会控制等行为,都将严重侵犯公民隐私权和其他合法权益。更严重的是,人工智能可能被不法分子利用,进行深度伪造、网络攻击、数据窃取、制造传播虚假信息等,带来新的安全威胁。为此,应加快完善数据安全和个人信息保护的法律法规体系,明确数据控制者和处理者的责任,规范数据采集的范围和方式,强化数据加密、匿名化等技术保护措施,建立健全数据跨境流动的监管机制。着力提升公民的数据素养和维权意识,确保数据在赋能社会治理的同时,公民的各项权益得到充分尊重和保护。</p> <p class="ql-block">在人工智能的应用中,要防范警惕算法偏见与歧视风险,维护社会公平。人工智能系统的决策依赖于训练数据和算法模型。如果训练数据本身存在偏见,如性别、种族、地域等,或者算法设计未能充分考虑公平性,就可能导致人工智能系统在社会治理应用中产生歧视性结果。例如,在信贷审批、司法辅助、公共资源分配等领域,有偏见的系统可能会对特定群体做出不利决策,加剧社会不公。这就需要建立算法审计制度,定期检查系统的决策公平性;建立算法偏见的申诉和纠正渠道,保障公民的平等权利不受技术因素的侵害,坚守社会公平正义的底线。</p> <p class="ql-block">要推动建立健全的人工智能监管方面相关的法律、法规和标准,是保障人工智能高水平提升、高质量发展的重要一环,应逐步完善人工智能的安全保障和伦理规范,保障人工智能的安全和可信度。</p>