如何深化人工智能立法
时间:2023-11-13
作者:
来源:江苏机械门户网
对外经济贸易大学兼职教授邵长茂在《数字法治》撰文指出,人工智能正在一点一点地当然也是迅速地颠覆着人类既有的社会结构、组织形式和生活状态。在这个过程中,一定会有大量的、意想不到的风险出现。对于这些风险,有两种应对方式:一种是搭建法治轨道,另一种是划出法治边界。
搭建法治轨道,就是设定目的地,至少有明确的方向;严格的过程控制,以及标准化的流程;对发展规律的全面把握,加上完备的制度体系。比如,正在制定的欧盟《人工智能法案》要求在人工智能发展过程中进行前置规划和连续监督,以严格缜密的规范体系引导技术前行,这就是典型的轨道性立法。但是,对我国而言,人工智能立法宜采用法治边界模式而非法治轨道模式。这是因为,人工智能还处于质变前夜,方向未明,标准的制式监管既不现实更不合时宜。实际上,欧盟法案也建立了监管沙盒机制,允许并不成熟的技术与社会直接接触,通过监管上的极大松动和更加灵活的机制为人工智能发展拓展空间。
划出法治边界,就是在法律上划出人工智能发展不能逾越的红线,并列明具体的负面清单。具体来说,应基于产业发展、权利保护、伦理捍卫三原则,分别从技术、社会和伦理的层面研究与应对风险。就技术层面而言,至少有三类风险:人工智能技术自身导致的不确定风险,人工智能偏离设计
免责声明:本网站部 分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请立即联系管理
员,我们会予以更改或删除相关文章,保证您的权利。对使用本网站信息和服务所引起的后果,本网站不作任何承诺。