《人工智能基础法案》:人工智能初创企业必备的法律

本文由崔李律师事务所的Jaesik Moon律师撰写。如果您也想为创业公司投稿,请联系Venture Square编辑团队,邮箱地址为editor@venturesquare.net。

Chat GPT刚出现时,人们只是把它当作消遣工具,拿来开玩笑,认为人工智能技术不过是昙花一现。Chat GPT于2022年11月发布,如今不到三年,人工智能似乎已经无处不在。它已被用于创建文档、照片、音频和视频,甚至包括律师起草的法律文件。虽然它确实提高了工作和日常生活的效率,但任何新技术都存在风险,人们也对其潜在的负面影响感到担忧。人工智能可能被用于犯罪活动,例如语音钓鱼;也有报道称,有人盲目信任人工智能起草法律文件,结果提交的文件引用了错误的先例,可能导致损失。

为了应对人工智能快速发展和普及带来的风险,美国、日本和欧盟等主要国家正在制定人工智能相关的法律和制度。韩国也认识到此类人工智能规范的必要性,于2024年12月颁布了《人工智能框架法》(正式名称为《人工智能发展与信任基础构建框架法》),并计划于2026年1月生效。近期,韩国科学技术信息通信部已制定并公布了《人工智能框架法》下属各项附属法规的草案和方向,目前正在征求公众意见。鉴于基于人工智能技术的众多人工智能初创企业以及我们公司的客户,我们认为熟悉《人工智能框架法》至关重要。因此,在本专栏中,我们将介绍《人工智能框架法》的核心条款和内容,作为基本框架;在后续文章中,我们将介绍近期公布的附属法规的方向和主要内容。

1. 人工智能基本法的制定目的和方向

《人工智能框架法》第一条规定:“本法旨在通过规定人工智能健康发展和建立信任基础所必需的基本事项,保护人民的权利和利益,促进提高人民生活质量,增强国家竞争力。” 正如其正式名称所示,该法更侧重于发展和建立人工智能产业的安全与信任基础,而非对其进行监管。

因此,《人工智能基本法》的大部分内容涉及人工智能政策治理和产业发展支持,旨在促进人工智能技术和产业的发展。其余部分则涉及企业为人工智能建立安全可靠的基础所承担的义务和责任。最后一部分对于运营人工智能初创企业的企业而言至关重要。

2. 人工智能基本法的关键条款

首先,我们来探讨一下国家人工智能政策治理体系的建立,以及人工智能技术及相关产业的发展。《人工智能框架法》设立了总统领导的国家人工智能支持委员会,并授权设立若干小组委员会和专门委员会,按专业领域或具体议题开展委员会的工作(第7至10条)。该法还指定并设立了人工智能政策中心和人工智能安全研究所(第11和12条),为人工智能政策制定、研发及其他相关领域的工作和支持奠定了基础。

此外,《人工智能框架法》为各种政府支持措施奠定了基础,包括支持人工智能技术的开发和安全使用(第13条)、促进人工智能技术标准化项目(第14条)、支持人工智能技术的引进和使用(第16条)、支持中小企业和初创企业(第17条和第18条)以及促进与人工智能数据中心相关的政策(第25条),以便政府能够为人工智能技术的开发、引进和利用提供各种支持措施,从而推动人工智能产业的发展。

最后,为了建立人工智能安全可靠的基础,制定了以下规定:人工智能伦理原则(第 27 条)、私人自主人工智能伦理委员会(第 28 条),以及对各种政策、检查和认证的支持,以确保安全性和可靠性。

接下来,我们来看一下企业经营者在构建安全可靠的人工智能基础架构方面的义务和责任。《人工智能框架法》规定,“高影响力人工智能”和“生成式人工智能”企业经营者有义务确保其人工智能使用过程的透明度(第31条)和安全性(第32条)。具体而言,“高影响力人工智能企业经营者”有责任事先审查其提供的人工智能是否符合高影响力人工智能的定义(第33条),制定并实施风险管理计划,制定并实施用户保护措施,并对高影响力人工智能进行监督和管理。此外,对于符合特定条件且没有国内营业场所的人工智能企业经营者,该法还规定其有义务指定一名国内代理人(第36条)。

其次,作为对违反上述对经营者施加的义务的措施或处罚,科学和信息通信技术部长有权调查事实并发布暂停或纠正命令(第 40 条),不遵守此规定的人工智能经营者可能会被处以最高 3000 万韩元的罚款(第 43 条)。

3. 人工智能业务经营者所承担义务的具体细节

在上述条款中,人工智能初创企业和其他人工智能业务经营者应特别关注《人工智能基本法》第31条至第34条中关于人工智能业务经营者义务的规定。如上所述,这些规定大致分为三类:确保人工智能透明度的义务(第31条)、确保人工智能安全性的义务(第32条)以及高影响力人工智能业务经营者的义务(第33条和第34条)。
首先,确保人工智能透明度的义务(第 31 条)规定,如果向消费者提供的产品或服务由人工智能运行,或者任何结果由人工智能生成或难以与现实区分开来,则必须通知或展示这一事实。

具体而言,人工智能业务经营者若打算使用高影响力人工智能或生成式人工智能提供产品或服务,必须“提前告知”用户该产品或服务是基于人工智能运行的(第1条);若提供生成式人工智能或使用该技术的产品或服务,必须“标明”该结果是由人工智能生成的(第2条);若使用人工智能系统提供难以与现实区分的虚拟声音、图像或视频,必须“以用户能够清楚识别的方式告知或显示”该结果是由人工智能系统生成的(第3条)。

其次,确保人工智能安全的义务(第 32 条)要求在人工智能生命周期内实施与识别、评估和减轻风险相关的事项,监测与人工智能相关的安全事故,并建立风险管理系统以确保安全。对于因担心出现功能错误、数据偏差和滥用等风险而导致累计计算量超过一定标准的人工智能系统,更应如此。

最后,对于高影响力人工智能(定义为可能对公民的生命、身体和基本权利产生重大影响的事物),人工智能服务提供商必须进行事先审查,以确定其使用的人工智能是否属于高影响力人工智能(第33条)。如果经事先审查确定其属于高影响力人工智能,则必须采取以下措施以确保人工智能的安全性和可靠性:1)建立并实施风险管理计划;2)在技术可行的范围内,建立并实施人工智能最终结果解释计划,包括最终结果的推导依据、主要推导标准以及人工智能开发和使用过程中所用学习数据的概述;3)建立并实施用户保护计划;4)对高影响力人工智能进行人工管理和监督;5)准备并保存证明各项安全可靠措施内容的文档。 6)委员会审议并决定的其他措施,以确保高影响力人工智能的安全性和可靠性(第 34 条)。

我们已审阅了《人工智能框架法》的概要和关键条款。然而,仅就该法本身而言,对于高影响力人工智能的定义、确保透明度和安全性的具体方法和手段,以及具备一定学习积累水平的高性能人工智能的标准,仍存在一些不明确之处。正如前文所述,这些问题将在《人工智能框架法》的附属法规中进行具体规定。政府近期公布了该立法的方向和草案,我们将在后续文章中继续提供详细信息。


  • 查看更多相关专栏