回到顶部
近期,美、英等多国在立陶宛正式签署了首个具有法律约束力的人工智能国际公约,即《人工智能、人权、民主和法治框架公约》。该公约是全球首个具有法律约束力的人工智能国际公约,旨在确保人工智能系统生命周期内的活动完全符合人权、民主和法治,同时有利于技术进步和创新。
随着人工智能技术取得了显著的进步,其应用已经渗透到社会的各个领域,包括医疗、交通、教育、金融等。这种快速发展带来了前所未有的机遇,但同时也引发了一系列挑战和风险,如隐私泄露、数据安全、算法偏见、就业替代等。各国政府开始制定一系列新法规、承诺和协议以监督这一领域。鉴于AI技术的全球性和跨国性,任何单一国家都无法独自应对AI技术带来的挑战和风险。因此,国际合作成为解决这些问题的关键。通过制定国际公约,各国可以共同商讨和制定AI技术的规范和标准,促进技术的健康发展。
该公约由57个国家协商通过,其中包括加拿大、以色列、日本和澳大利亚等国。9月5日,美国、英国、欧盟、安道尔、格鲁吉亚、冰岛、挪威、摩尔多瓦、圣马力诺和以色列共同签署了该公约。
《人工智能框架公约》签署现场
公约的制定工作于2019年启动,由欧洲委员会人工智能特设委员会(CAHAI)研究该公约的可行性。2022年9月,在欧洲委员会成立的人工智能委员会(CAI)的主持下,开始了关于该公约的谈判。公约由欧洲委员会的46个成员国起草,所有观察员国均参与制定工作,同时也有大量非成员国以及来自民间社会、学术界、工业界和其他国际组织的代表参与,确保了谈判的全面性和包容性。
公约旨在保障人权、民主和法治的前提下,推动人工智能技术的负责任发展和应用。主要目标是确保人工智能系统生命周期内的活动完全符合人权、民主和法治。该公约为开放条约,任何国家都有机会签署。签署国需自行决定采取何种立法、行政或其他措施以确保条款的实施。设立缔约方大会作为后续机制,由公约缔约方的官方代表组成,负责确定公约条款的执行程度。缔约方大会的调查结果和建议有助于确保各国遵守公约,并保证公约的长期有效性。
该公约内容涵盖了人工智能系统的整个生命周期,特别关注人工智能在公共和私营部门使用中可能带来的风险。它要求签署国对人工智能系统造成的有害和歧视性后果负责,并保障受害者的法律追索权。该公约有助于平衡技术创新与风险管理,为全球在人工智能领域的合作奠定了法律基础。
英国司法部长沙巴娜·马哈茂德表示:“这份公约是确保新兴技术在不损害人权和法治的前提下得到合理运用的重要一步。”该公约允许各国自行决定采取何种立法、行政或其他措施以确保条款的实施。与此前欧盟内部统一的人工智能法案不同,该公约不仅涵盖公共当局,也覆盖了私人行为者对人工智能系统的使用。此外还规定,该公约不适用于国防事务或研发活动,除非对人工智能系统的测试可能会干扰人权、民主或法治。签署各方无需将公约条款应用于与保护其国家安全利益有关的活动,但必须确保此类活动尊重国际法和民主制度与进程。
该公约是全球首个具有法律约束力的人工智能国际公约标志着全球在人工智能监管方面迈出了历史性一步,为人工智能技术的监管提供了明确的法律框架。公约的签署也促进了各国在人工智能领域的国际合作,通过共同商讨和制定规范,各国可以加强彼此之间的理解和信任,共同应对人工智能带来的挑战和风险。