今年以来,以ChatGPT为代表的人工智能技术迅速发展,使人惊呼“未来已来”。当前,人工智能技术正广泛应用于金融、医疗、交通、制造业等领域,对经济社会发展和人类文明进步产生深远影响,给世界带来巨大机遇。同时,也不能忽视其蕴含的潜在风险挑战,很可能在不久的将来深刻改变现有国家安全格局。
这就引出一个国家安全的新领域——人工智能安全。让我们看看人工智能可能带来哪些国家安全领域的风险,又应当如何化解?
——数据窃取风险。人工智能需要海量的数据来进行学习和训练,这些数据中可能包含用户大量敏感信息。如果这些信息被滥用或泄露,可能会对个人隐私、国家安全造成严重危害。
——网络攻击风险。人工智能可以成为破坏网络安全和管理的“帮凶”。在人工智能的协助下,网络攻击者可以随时随地对特定目标轻易发起针对性和隐蔽性很强的进攻,将互联网空间变成人人自危的“黑暗森林”。
——经济安全风险。人工智能技术在一定程度上会成为人力工作的“高效替代品”,进而对国家经济安全、社会安全甚至政治安全造成冲击;人工智能技术也可以被用来实施经济破坏活动,例如通过操纵宣传导致金融市场恐慌。
——“数据投毒”风险。“数据投毒”是指在人工智能训练数据中投放恶意数据,干扰数据分析模型正常运行的行为。在智能汽车系统中“投毒”,可能导致交通事故;在舆论宣传中“投毒”,一些负面思想可以更加隐蔽地渗透到群众思想观念中。
——军事安全风险。一方面,人工智能可被用在致命性自主武器(LAW)上,通过自主识别攻击目标、远程自动化操作等,隐藏攻击者来源、建立对抗优势;另一方面,人工智能可以将网络、决策者和操作者相连接,让军事行动针对性更强、目标更明确、打击范围更广。
面对人工智能技术发展带来的新机遇和新挑战,如何应对人工智能风险并把握人工智能发展的战略主动,有效保障国家安全,是全球国家安全治理的重要议题。
10月18日,总书记在第三届“一带一路”国际合作高峰论坛开幕式主旨演讲中宣布,中方将提出《全球人工智能治理倡议》。《倡议》围绕人工智能发展、安全和治理三个方面系统阐述了人工智能治理的中国方案。我们要保持战略定力,增强战略信心,统筹人工智能发展与安全,稳妥应对各种风险挑战,为人工智能注入更多“安全基因”。
10月13日,位于廊坊开发区的河北人工智能计算中心上线运营。
——完善法律法规,聚焦人工智能重点领域安全应用、伦理道德约束等方面,制定更多更明确的法规政策、行业规范,保障人工智能研发和应用中的个人隐私与数据安全,确保人工智能安全、可靠、可控。
——加强前瞻布局,支持以人工智能技术防范人工智能风险,积极发展用于人工智能治理的相关技术开发与应用,贯彻敏捷治理和多维治理原则,积极构建多方参与的人工智能治理体系。
——坚决打击犯罪,依法打击利用人工智能进行危害国家安全的犯罪行为,并督促人工智能行业和用户个人自觉提升防范意识、遵守法律法规,履行维护国家安全主体责任。
——推动全球治理,积极发挥多边机制作用,拓展“以人为本”、“智能向善”共识,形成具有广泛共识的治理框架和标准规范,推动各国在人工智能治理中加强信息交流和技术合作,共同做好风险防范。
国家安全机关将强化科技赋能、数字赋能,不断推进国家安全体系和能力现代化,为应对人工智能的风险挑战筑牢国家安全屏障。