谷歌韩国举办“负责任人工智能论坛”深入探讨人工智能基本法核心问题

谷歌韩国数字责任委员会宣布,今年上半年已举办两次“负责任的人工智能论坛”,讨论了去年12月颁布的《人工智能促进和信托基金会创建框架法》(以下简称《人工智能框架法》)的相关关键问题。

负责任的人工智能论坛是谷歌韩国去年初推出的数字责任委员会旗下的论坛之一,旨在打造负责任的数字生态系统。今年将有14位来自法律界、政策界、IT/技术界、初创企业等各个领域的专家作为成员参与,每年四次探讨国内外人工智能发展相关的立法动向以及社会和伦理问题,寻求更负责任的人工智能开发和利用方式。

3月份举行的首届论坛以“高影响力人工智能的定义与前景”为主题,被认为是《人工智能基本法》的重点议题之一。 《人工智能框架法》将能够对人类生命、安全和基本权利产生重大影响的人工智能系统定义为11个领域的“高影响人工智能”。不过,也有人指出,法案中对高影响人工智能的具体类别规定模糊,这可能导致法律适用上的解释分歧。

因此,负责任的人工智能论坛邀请了高丽大学技术经营研究生院人工智能监管法专家李成业教授作为演讲者,回顾高影响人工智能的定义和标准以及监管的现状,并讨论了在确保安全的同时促进人工智能行业创新的方法。与会专家一致认为,法案需要修改,以充分反映人工智能产业生态的视角和现状,同时需要对模糊或重叠的条款进行梳理,并补充后续职责和程序。

5月21日举行的第二场论坛讨论了《人工智能基本法》规定的“确保人工智能安全和透明度以及人工智能影响评估”这一主题。 《人工智能框架法》规定了人工智能安全透明措施和人工智能影响评估,以提前预防快速发展的人工智能技术可能产生的各种风险,保护人民的基本权利。然而,也有人指出,该政策存在局限性,例如▲在人工智能行业各个层面统一执行安全和透明度措施的规定可能会构成过度监管,以及▲对人工智能影响评估的主体、范围和方法的定义标准模糊等。

对此,建国大学法学院李相镕教授以“AI规制的两种范式:基于情境的规制与基于能力的规制”为题进行了演讲,将AI风险分为以具体使用情况为中心的“情境风险”和以潜力为中心的“能力风险”,强调为了应对AI产业的变化,需要灵活自主的规制以及国家战略和方向。嘉泉大学法学院权恩贞教授也在题为《人工智能影响评估:意义、现状和任务》的演讲中介绍了影响评估制度的意义和国内外现状,并提到需要制定考虑到多样化风险类型的人工智能监管立法,并建立官民合作的综合人工智能评估平台。

当天与会专家一致认为,应从技术和社会伦理角度制定更有效的人工智能影响评估方法论,并就人工智能影响评估的主体和范围、影响评估主体的责任及在政策上的体现方向等进行了全面的讨论。专家们特别强调,评估人工智能的影响时必须充分考虑包括初创企业在内的各主体的责任负担、人工智能技术的发展速度以及与国际规范的一致性,并一致认为需要采取更加灵活、循序渐进的方法来确保人工智能使用的责任和监管的合法性。

“在大量公司、组织和个人使用人工智能程序的时代,安全高效地使用人工智能比以往任何时候都更加重要,”负责任人工智能论坛主席、韩国科学技术研究院金在哲人工智能研究生院教授兼XAI研究中心主任崔在植表示。 “我们如何应对现有人工智能服务的局限性和脆弱性将成为决定人工智能未来责任和安全的一个因素,进而决定人工智能领导方向的一个因素。”

同时,负责任的人工智能论坛将在上半年深入讨论以《人工智能基本法》为中心的人工智能法规,并在下半年探讨人工智能代理和人工智能机器人等将给各行业带来创新变化的人工智能技术的影响和前景。


  • 查看更多相关文章