“欧盟就《人工智能法案》达成协议,具有里程碑意义。”英国《卫报》9日报道称,经过马拉松式的谈判之后,欧洲议会、欧盟成员国和欧盟委员会三方8日晚就《人工智能法案》达成协议。欧盟委员会内部市场专员蒂埃里·布雷顿在社交平台X写道:“这是一个‘历史性’协议。欧盟成为第一个为人工智能(AI)使用设立明确规则的地区。《人工智能法案》不仅是一本规则手册,也将成为帮助欧盟初创企业和研究人员引领全球人工智能竞赛的平台。”
对两大监管重点,这样规定
如何监管像ChatGPT一样的先进人工智能模型是此次谈判的争论点之一。彭博社看到的一份欧盟文件显示,所有通用型人工智能系统的开发者都必须满足基本的透明度要求,除非它们是免费的或者开源的,透明度要求包括:具有可接受的使用策略、更新训练大模型的最新信息、遵守欧盟版权法以及报告用于训练其模型的数据信息。
根据该文件,被视为有“系统性风险”的模型将受到额外的约束。欧盟将根据用于训练模型的计算能力来确定这种风险。专家表示,目前唯一能自动达到这一门槛的模型只有人工智能公司OpenAI的GPT-4。
此外,有关另一项颇具争议的生物识别监控技术,协议中规定,各国政府只能在公共场所使用实时生物识别监控,防止像恐怖袭击等可预见的威胁公共安全的事件,以及搜索犯罪嫌疑人等。文件还规定,禁止有目的地操纵技术,利用分类系统来推断用户种族、宗教信仰等个人信息。消费者有权提出投诉并获得相应解释,违规者将被罚款。事实上,关于生物识别监控技术,欧洲议会希望能够全面禁止。
美国《纽约时报》报道称,该法规的许多细节预计在未来两年内都难以敲定,这为人工智能的发展留足了时间。直到谈判的最后一分钟,立法者和欧盟各国仍在为“如何在促进创新与防范可能的伤害间取得平衡”这一问题辩论。
执行能力受到质疑
即将到来的《人工智能法案》受到全球的密切关注,因为其不仅会影响谷歌、Meta、微软和OpenAI等主要人工智能开发商,还会影响使用该技术的教育、医疗保健、银行等领域。政府部门因为近年来在公共业务方面更多地转向人工智能,也将受到影响。
德国工业联合会(BDI)表示,欧洲目前在人工智能关键技术方面面临落后危险。“随着对人工智能基础模型及应用的全面监管,《人工智能法案》危及制造商和用户双方的竞争力和创新能力”,BDI相关负责人艾里斯·普洛格表示,该法规基于不成熟的标准,给公司带来的法律确定性不是更多,而是更少。
此外,该法案的执行情况也遭到质疑。《纽约时报》认为,《人工智能法案》涉及27个国家的监管机构,并要求在政府预算紧张之际聘请新的专家。像欧盟之前的《通用数据保护条例》,后期就因在各国执行不均而受到批评。
成为“榜样角色”?
《纽约时报》在报道中表示,三方在艰难达成协议之后意味着《人工智能法案》的关键轮廓已经确定,为那些寻求利用这项技术潜在好处的国家设定了一个新的全球基准。美国《华盛顿邮报》援引哥伦比亚大学专门研究数字监管的法学教授阿努·布拉德福德的话称,欧盟全面的规则“可以为许多考虑监管的政府树立榜样角色”。
在达成协议之前,欧盟各成员国和欧洲议会议员已就应如何管控人工智能进行了多年的讨论。2021年,欧盟委员会就曾提议通过《人工智能法案》。在去年ChatGPT发布后,监管人工智能变得紧迫起来,包括中国、美国、英国在内的国家,都在快速地推进关于人工智能治理的规则建设。
今年7月,中国国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》,自8月15日起施行。
北京社科院副研究员王鹏在接受《环球时报》记者采访时表示,中欧在人工智能监管的合作空间是非常巨大的。中欧作为全球人工智能的领先力量,可以在多个方面展开合作:首先,双方可以分享各自在人工智能监管方面的经验和政策,相互借鉴;其次,双方可以共同制定人工智能技术和应用的标准,促进国际标准的互联互通,确保人工智能技术的安全应用;第三,双方可以在合法合规的前提下共享人工智能技术的数据资源,为人工智能的研发和产业化提供支持;此外,人工智能人才培养也是一个未来重要的合作方面。
2023年12月11日