
구글코리아 디지털책임위원회는 올해 상반기 ‘책임감있는AI포럼’을 두 차례 개최해 지난 12월 제정된 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법 (이하 AI 기본법)에 관한 주요 쟁점을 논의했다고 밝혔다.
책임감있는AI포럼은 구글코리아가 책임감 있는 디지털 생태계 조성을 위해 지난해 초 발족한 디지털책임위원회 산하 포럼 중 하나다. 올해는 법조계, 정책, IT·기술, 스타트업 등 각계 분야 전문가 14인이 멤버로 참여, 연간 4회 AI 발전을 둘러싼 국내외 법제화 동향 및 사회윤리적 문제 등을 살펴보고 보다 책임감 있는 AI 개발과 활용 방안을 모색한다.
지난 3월 열린 1회차 포럼은 AI 기본법의 핵심 쟁점 중 하나로 꼽히는 ‘고영향 AI의 정의와 전망’을 주제로 진행됐다. AI 기본법은 인간의 생명과 안전, 기본권 등에 중대한 영향을 미칠 수 있는 AI 시스템을 11개 분야에 걸쳐 ‘고영향 AI’로 규정하고 있으나, 일각에서는 법안에 포함된 고영향 AI의 구체적인 범주가 모호해 법률 적용에 있어 해석의 차이가 발생할 수 있다는 지적이 나온다.
이에 책임감있는AI포럼은 AI 규제법 전문가인 이성엽 고려대학교 기술경영전문대학원 교수를 발제자로 초청해 고영향 AI의 정의와 기준, 규제 현황 등을 검토하고, AI 산업 혁신을 촉진하는 동시에 안전성도 확보할 수 있는 접근 방안을 논의했다. 포럼에 참여한 전문가들은 AI 산업 생태계의 관점과 현황이 충분히 반영되도록 법안을 개정하는 한편, 모호하거나 중복되는 조항은 재정비하고 후속되는 책무 및 절차를 보완해갈 필요가 있다고 의견을 모았다.
이어 5월 21일 진행된 2회차 포럼은 AI 기본법이 의무화한 ‘AI 안전성·투명성 확보와 AI 영향 평가’를 주제로 다뤘다. AI 기본법은 급격하게 발전하는 AI 기술이 야기할 수 있는 여러 위험을 사전에 예방하고 국민의 기본권을 보호한다는 취지로 AI 안전성 및 투명성 확보 조치와 AI 영향 평가를 의무화하고 있으나, ▲다양한 층위의 AI 산업에 안전성·투명성 확보 조치를 일괄적으로 강제하는 규정이 과잉 규제에 해당할 수 있다는 점과 ▲AI 영향 평가의 대상과 범위, 방법을 규정한 기준이 모호하다는 점 등이 한계로 지적돼 왔다.
이와 관련해 이상용 건국대학교 법학전문대학원 교수는 ‘AI 규제의 두 가지 패러다임: 맥락 기반 규제와 능력 기반 규제’를 주제로 발표에 나서 AI 위험을 특정 이용 상황 중심의 ‘맥락 위험’과 잠재력 중심의 ‘능력 위험’으로 구분하고, AI 산업 변화에 대응하기 위해 유연하고 자율적인 규제와 국가적 전략 및 방향성이 필요하다고 강조했다. 권은정 가천대학교 법과대학 교수도 ‘AI 영향평가: 의의, 현황, 과제’ 발표에서 영향평가 제도의 의의와 국내외 현황을 소개하면서 다변화되는 리스크 유형을 고려한 AI 규제 법제화와 정부와 민간이 협력하는 AI 평가 통합 플랫폼 구축의 필요성을 언급했다.
이날 포럼에 참석한 전문가들은 기술과 사회윤리 측면에서 보다 효과적인 AI 영향 평가 방법론을 도출해야 한다는 데 공감하고, AI 영향 평가의 대상 및 범위부터 영향 평가 주체의 책임과 정책상의 반영 방향 등에 대해 종합적으로 논의했다. 특히 전문가들은 스타트업을 비롯한 다양한 주체의 책임 부담과 AI 기술의 발전 속도, 국제 규범과의 정합성 등이 AI 영향 평가 시 두루 고려돼야 한다고 강조하면서 AI 활용의 책임성과 규제의 정당성을 확보하는 데는 보다 유연하고 단계적인 접근 방식이 필요하다고 입을 모았다.
책임감있는AI포럼 의장을 맡고 있는 최재식 카이스트 김재철AI대학원 교수 겸 XAI 연구센터장은 “대다수의 기업과 기관, 개인들이 AI 프로그램을 사용하는 시대에 AI의 안전하고도 효율적인 사용이 그 어느 때보다 중요하다”면서 “기존의 AI 서비스들이 갖는 한계와 취약성에 얼마나 잘 대응하는지가 앞으로 AI의 책임성과 안전성, 나아가 AI 리더십의 향배를 결정짓는 요인이 될 것”이라고 밝혔다.
한편 책임감있는AI포럼은 상반기 중 AI 기본법을 중심으로 AI 규제에 관한 심층적인 논의를 진행한 데 이어, 하반기에는 AI 에이전트, AI 로봇기술 등 산업 전반에 혁신적인 변화를 가져올 AI 기술의 영향과 전망을 살펴볼 예정이다.
- 관련 기사 더 보기
Google Korea, In-depth Discussion of Core Issues of AI Basic Law through 'Responsible AI Forum'

Google Korea's Digital Responsibility Committee announced that it held the 'Responsible AI Forum' twice in the first half of this year and discussed key issues related to the Framework Act on the Promotion of Artificial Intelligence and Creation of a Trust Foundation (hereinafter referred to as the Framework Act on AI), which was enacted in December of last year.
The Responsible AI Forum is one of the forums under the Digital Responsibility Committee launched by Google Korea early last year to create a responsible digital ecosystem. This year, 14 experts from various fields such as law, policy, IT/technology, and startups participated as members, and four times a year, they will examine domestic and international legislative trends and social and ethical issues surrounding the development of AI and seek more responsible AI development and utilization methods.
The first forum held in March was held under the theme of ‘Definition and Prospects of High-Impact AI,’ which is considered one of the key issues of the Basic AI Act. The Basic AI Act defines AI systems that can have a significant impact on human life, safety, and basic rights as ‘high-impact AI’ in 11 fields, but some point out that the specific categories of high-impact AI included in the bill are ambiguous, which may lead to differences in interpretation in the application of the law.
Accordingly, the Responsible AI Forum invited Professor Lee Seong-yeop of Korea University’s Graduate School of Technology Management, an expert in AI regulation law, as a presenter to review the definition and standards of high-impact AI, the current status of regulations, and discuss approaches that can promote AI industry innovation while ensuring safety. Experts who participated in the forum agreed that it is necessary to revise the bill to sufficiently reflect the perspectives and current status of the AI industry ecosystem, while reorganizing ambiguous or overlapping provisions and supplementing follow-up responsibilities and procedures.
The second forum held on May 21st dealt with the topic of 'Securing AI Safety and Transparency and AI Impact Assessment', which is mandatory under the Framework Act on AI. The Framework Act on AI mandates AI safety and transparency measures and AI impact assessments in order to prevent various risks that may arise from rapidly developing AI technology in advance and to protect the basic rights of the people. However, it has been pointed out as a limitation that ▲regulations that uniformly enforce safety and transparency measures across various levels of the AI industry may amount to excessive regulation, and ▲the standards that define the subject, scope, and method of AI impact assessments are ambiguous.
In this regard, Professor Lee Sang-yong of Konkuk University Law School gave a presentation on the topic of 'Two Paradigms of AI Regulation: Context-Based Regulation and Capability-Based Regulation' and divided AI risks into 'contextual risks' centered on specific usage situations and 'capability risks' centered on potential, and emphasized the need for flexible and autonomous regulations and national strategies and directions to respond to changes in the AI industry. Professor Kwon Eun-jung of Gachon University Law School also introduced the significance of the impact assessment system and its current status at home and abroad in her presentation on 'AI Impact Assessment: Significance, Current Status, and Tasks', and mentioned the need for AI regulation legislation that takes into account diversifying risk types and establishing an integrated AI assessment platform in which the government and the private sector cooperate.
The experts who attended the forum that day agreed that a more effective AI impact assessment methodology should be developed in terms of technology and social ethics, and comprehensively discussed the subject and scope of AI impact assessment, the responsibility of the impact assessment entity, and the direction of reflection in policy. In particular, the experts emphasized that the responsibility of various entities including startups, the speed of AI technology development, and consistency with international norms should be thoroughly considered in AI impact assessment, and agreed that a more flexible and step-by-step approach is necessary to secure the responsibility for AI utilization and the legitimacy of regulation.
“In an era where a large number of companies, organizations, and individuals are using AI programs, safe and efficient use of AI is more important than ever,” said Choi Jae-sik, chairman of the Responsible AI Forum and professor at KAIST’s Kim Jae-chul AI Graduate School and director of the XAI Research Center. “How well we respond to the limitations and vulnerabilities of existing AI services will be a factor in determining the future responsibility and safety of AI, and furthermore, the direction of AI leadership.”
Meanwhile, the Responsible AI Forum will hold in-depth discussions on AI regulations centered on the Basic AI Act in the first half of the year, and in the second half of the year, it will examine the impact and prospects of AI technologies that will bring about innovative changes across industries, such as AI agents and AI robotics.
- See more related articles
Googleコリア、「責任感のあるAIフォーラム」を通じてAI基本法の核心争点を深く議論

Googleコリアデジタル責任委員会は今年上半期「責任感のあるAIフォーラム」を2度開催し、12月に制定された人工知能の発展と信頼基盤の造成などに関する基本法(以下、AI基本法)に関する主要な争点を議論したと明らかにした。
責任感のあるAIフォーラムは、グーグルコリアが責任感のあるデジタル生態系の造成のため、昨年初め発足したデジタル責任委員会傘下のフォーラムの一つだ。今年は法曹界、政策、IT・技術、スタートアップなど各界分野の専門家14人がメンバーとして参加し、年間4回AIの発展をめぐる国内外の法制化動向及び社会倫理的問題などを見て、より責任感のあるAI開発と活用方案を模索する。
去る3月に開かれた1回目のフォーラムはAI基本法の核心争点の一つに挙げられる「高影響AIの定義と展望」をテーマに進行された。 AI基本法は、人間の生命と安全、基本権などに重大な影響を及ぼすことができるAIシステムを11分野にわたって「高影響AI」と規定しているが、一部では法案に含まれる高影響AIの具体的なカテゴリがあいまいで、法律適用において解釈の差が生じる可能性があると指摘されている。
これに責任感のあるAIフォーラムは、AI規制法の専門家であるイ・ソンヨプ高麗大学技術経営専門大学院教授を発表者として招待し、高影響AIの定義と基準、規制現況などを検討し、AI産業革新を促進するとともに安全性も確保できるアプローチ案を議論した。フォーラムに参加した専門家は、AI産業生態系の視点と現状が十分に反映されるように法案を改正する一方、曖昧または重複する条項は再整備し、後続の責務および手続きを補完する必要があると意見を集めた。
続いて5月21日に行われた2回目のフォーラムは、AI基本法が義務化した「AI安全性・透明性確保とAI影響評価」をテーマにした。 AI基本法は、急激に発展するAI技術が引き起こす可能性のある様々なリスクを事前に予防し、国民の基本権を保護するという趣旨で、AI安全性および透明性確保措置とAI影響評価を義務化しているが、▲様々な層位のAI産業に安全性・透明性確保措置を一括して強制する規定の過剰範囲、方法を規定した基準があいまいだという点などが限界で指摘されてきた。
これに関連して、理想用建国大学法学専門大学院教授は「AI規制の2つのパラダイム:コンテキストベースの規制と能力ベースの規制」をテーマに発表し、AIリスクを特定の利用状況中心の「コンテキストリスク」と潜在力中心の「能力リスク」と区分し、AI産業の変化と戦略方向性が必要だと強調した。クォン・ウンジョン加川大学法科大学教授も「AI影響評価:意義、現況、課題」発表で、影響評価制度の意義と国内外の現況を紹介し、多様化するリスクタイプを考慮したAI規制法制化と政府と民間が協力するAI評価統合プラットフォームの構築の必要性を述べた。
この日、フォーラムに出席した専門家たちは、技術と社会倫理の観点からより効果的なAI影響評価方法論を導出しなければならないことに共感し、AI影響評価の対象と範囲から影響評価主体の責任と政策上の反映方向などについて総合的に議論した。特に専門家らはスタートアップをはじめとする多様な主体の責任負担とAI技術の発展速度、国際規範との整合性などがAI影響評価の際に考慮すべきだと強調し、AI活用の責任性と規制の正当性を確保するには、より柔軟で段階的なアプローチが必要だと口をそろえた。
責任感のあるAIフォーラム議長を務めているチェ・ジェシクカイストキム・ジェチョルAI大学院教授兼XAI研究センター長は「大多数の企業や機関、個人がAIプログラムを使用する時代にAIの安全かつ効率的な使用がこれまで以上に重要だ」とし「既存のAIサービスが持つ限界と脆弱性にどれほど対応リーダーシップの香りを決める要因になるだろう」と明らかにした。
一方、責任感のあるAIフォーラムは上半期中にAI基本法を中心にAI規制に関する深層な議論を進めたのに続き、下半期にはAIエージェント、AIロボット技術など産業全般に革新的な変化をもたらすAI技術の影響と見通しを見ていく予定だ。
- 関連記事をもっと見る
谷歌韩国举办“负责任人工智能论坛”深入探讨人工智能基本法核心问题

谷歌韩国数字责任委员会宣布,今年上半年已举办两次“负责任的人工智能论坛”,讨论了去年12月颁布的《人工智能促进和信托基金会创建框架法》(以下简称《人工智能框架法》)的相关关键问题。
负责任的人工智能论坛是谷歌韩国去年初推出的数字责任委员会旗下的论坛之一,旨在打造负责任的数字生态系统。今年将有14位来自法律界、政策界、IT/技术界、初创企业等各个领域的专家作为成员参与,每年四次探讨国内外人工智能发展相关的立法动向以及社会和伦理问题,寻求更负责任的人工智能开发和利用方式。
3月份举行的首届论坛以“高影响力人工智能的定义与前景”为主题,被认为是《人工智能基本法》的重点议题之一。 《人工智能框架法》将能够对人类生命、安全和基本权利产生重大影响的人工智能系统定义为11个领域的“高影响人工智能”。不过,也有人指出,法案中对高影响人工智能的具体类别规定模糊,这可能导致法律适用上的解释分歧。
因此,负责任的人工智能论坛邀请了高丽大学技术经营研究生院人工智能监管法专家李成业教授作为演讲者,回顾高影响人工智能的定义和标准以及监管的现状,并讨论了在确保安全的同时促进人工智能行业创新的方法。与会专家一致认为,法案需要修改,以充分反映人工智能产业生态的视角和现状,同时需要对模糊或重叠的条款进行梳理,并补充后续职责和程序。
5月21日举行的第二场论坛讨论了《人工智能基本法》规定的“确保人工智能安全和透明度以及人工智能影响评估”这一主题。 《人工智能框架法》规定了人工智能安全透明措施和人工智能影响评估,以提前预防快速发展的人工智能技术可能产生的各种风险,保护人民的基本权利。然而,也有人指出,该政策存在局限性,例如▲在人工智能行业各个层面统一执行安全和透明度措施的规定可能会构成过度监管,以及▲对人工智能影响评估的主体、范围和方法的定义标准模糊等。
对此,建国大学法学院李相镕教授以“AI规制的两种范式:基于情境的规制与基于能力的规制”为题进行了演讲,将AI风险分为以具体使用情况为中心的“情境风险”和以潜力为中心的“能力风险”,强调为了应对AI产业的变化,需要灵活自主的规制以及国家战略和方向。嘉泉大学法学院权恩贞教授也在题为《人工智能影响评估:意义、现状和任务》的演讲中介绍了影响评估制度的意义和国内外现状,并提到需要制定考虑到多样化风险类型的人工智能监管立法,并建立官民合作的综合人工智能评估平台。
当天与会专家一致认为,应从技术和社会伦理角度制定更有效的人工智能影响评估方法论,并就人工智能影响评估的主体和范围、影响评估主体的责任及在政策上的体现方向等进行了全面的讨论。专家们特别强调,评估人工智能的影响时必须充分考虑包括初创企业在内的各主体的责任负担、人工智能技术的发展速度以及与国际规范的一致性,并一致认为需要采取更加灵活、循序渐进的方法来确保人工智能使用的责任和监管的合法性。
“在大量公司、组织和个人使用人工智能程序的时代,安全高效地使用人工智能比以往任何时候都更加重要,”负责任人工智能论坛主席、韩国科学技术研究院金在哲人工智能研究生院教授兼XAI研究中心主任崔在植表示。 “我们如何应对现有人工智能服务的局限性和脆弱性将成为决定人工智能未来责任和安全的一个因素,进而决定人工智能领导方向的一个因素。”
同时,负责任的人工智能论坛将在上半年深入讨论以《人工智能基本法》为中心的人工智能法规,并在下半年探讨人工智能代理和人工智能机器人等将给各行业带来创新变化的人工智能技术的影响和前景。
- 查看更多相关文章
Google Corée : Discussion approfondie sur les questions fondamentales de la loi fondamentale sur l'IA via le « Forum sur l'IA responsable »

Le Comité de responsabilité numérique de Google Corée a annoncé qu'il avait organisé le « Forum sur l'IA responsable » à deux reprises au cours du premier semestre de cette année et avait discuté des questions clés liées à la loi-cadre sur la promotion de l'intelligence artificielle et la création d'une fondation de confiance (ci-après dénommée la loi-cadre sur l'IA), qui a été promulguée en décembre de l'année dernière.
Le Forum sur l'IA responsable est l'un des forums du Comité de responsabilité numérique lancé par Google Corée au début de l'année dernière pour créer un écosystème numérique responsable. Cette année, 14 experts de divers domaines, notamment la profession juridique, la politique, l'informatique/la technologie et les startups, participeront en tant que membres et examineront les tendances législatives nationales et internationales et les questions sociales et éthiques entourant le développement de l'IA quatre fois par an et chercheront des moyens plus responsables de développer et d'utiliser l'IA.
Le premier forum organisé en mars s’est tenu sous le thème « Définition et perspectives de l’IA à fort impact », considéré comme l’un des points clés de la loi fondamentale sur l’IA. La loi-cadre sur l’IA définit les systèmes d’IA qui peuvent avoir un impact significatif sur la vie humaine, la sécurité et les droits fondamentaux comme « IA à fort impact » dans 11 domaines. Toutefois, certains soulignent que les catégories spécifiques d’IA à fort impact incluses dans le projet de loi sont ambiguës, ce qui peut conduire à des différences d’interprétation dans l’application de la loi.
En conséquence, le Forum sur l'IA responsable a invité le professeur Lee Seong-yeop de l'École supérieure de gestion technologique de l'Université de Corée, expert en droit de la réglementation de l'IA, en tant que présentateur pour examiner la définition et les normes de l'IA à fort impact, ainsi que l'état actuel de la réglementation, et a discuté des approches qui peuvent promouvoir l'innovation dans l'industrie de l'IA tout en garantissant la sécurité. Les experts qui ont participé au forum ont convenu que le projet de loi doit être révisé pour refléter suffisamment les perspectives et l'état actuel de l'écosystème de l'industrie de l'IA, tandis que les dispositions ambiguës ou qui se chevauchent doivent être réorganisées et les responsabilités et procédures de suivi doivent être complétées.
Le deuxième forum qui s’est tenu le 21 mai a porté sur le thème « Assurer la sécurité et la transparence de l’IA et l’évaluation de l’impact de l’IA », comme le prévoit la loi fondamentale sur l’IA. La loi-cadre sur l’IA impose des mesures de sécurité et de transparence de l’IA ainsi que des évaluations d’impact de l’IA afin de prévenir à l’avance divers risques pouvant découler du développement rapide de la technologie de l’IA et de protéger les droits fondamentaux des personnes. Toutefois, il a été souligné qu’il comporte des limites, notamment que ▲les réglementations qui appliquent uniformément les mesures de sécurité et de transparence à différents niveaux de l’industrie de l’IA peuvent constituer une réglementation excessive, et ▲les normes qui définissent l’objet, la portée et la méthode des évaluations d’impact de l’IA sont ambiguës.
À cet égard, le professeur Lee Sang-yong de la faculté de droit de l'université Konkuk a fait une présentation sur le thème « Deux paradigmes de la réglementation de l'IA : la réglementation basée sur le contexte et la réglementation basée sur les capacités », divisant les risques de l'IA en « risques contextuels » centrés sur des situations d'utilisation spécifiques et « risques de capacité » centrés sur le potentiel, et soulignant que des réglementations flexibles et autonomes ainsi que des stratégies et des orientations nationales sont nécessaires pour répondre aux changements dans l'industrie de l'IA. La professeure Eun-Jeong Kwon de la faculté de droit de l'université Gachon a également présenté l'importance du système d'évaluation d'impact et son statut actuel au niveau national et international dans sa présentation intitulée « Évaluation d'impact de l'IA : importance, statut actuel et tâches », et a mentionné la nécessité d'une législation de régulation de l'IA qui prenne en compte la diversification des types de risques et l'établissement d'une plate-forme intégrée d'évaluation de l'IA dans laquelle le gouvernement et les secteurs privés coopèrent.
Les experts présents au forum ce jour-là ont convenu qu’une méthodologie d’évaluation de l’impact de l’IA plus efficace devrait être développée en termes de technologie et d’éthique sociale, et ont discuté de manière approfondie du sujet et de la portée de l’évaluation de l’impact de l’IA, ainsi que de la responsabilité du sujet de l’évaluation de l’impact et de l’orientation de la réflexion dans la politique. En particulier, les experts ont souligné que la charge de responsabilité de diverses entités, y compris les startups, la vitesse de développement de la technologie de l’IA et la cohérence avec les normes internationales doivent être soigneusement prises en compte lors de l’évaluation de l’impact de l’IA, et ont convenu qu’une approche plus flexible et progressive est nécessaire pour garantir la responsabilité de l’utilisation de l’IA et la légitimité de la réglementation.
« À une époque où un grand nombre d'entreprises, d'organisations et d'individus utilisent des programmes d'IA, une utilisation sûre et efficace de l'IA est plus importante que jamais », a déclaré Choi Jae-sik, président du Responsible AI Forum et professeur à la Kim Jae-chul AI Graduate School du KAIST et directeur du XAI Research Center. « La manière dont nous répondons aux limites et aux vulnérabilités des services d’IA existants sera un facteur déterminant pour la responsabilité et la sécurité futures de l’IA, et en outre, pour l’orientation du leadership en matière d’IA. »
Parallèlement, le Forum sur l'IA responsable tiendra des discussions approfondies sur les réglementations de l'IA centrées sur la loi fondamentale sur l'IA au cours du premier semestre de l'année, et au cours du second semestre, il examinera l'impact et les perspectives des technologies de l'IA qui apporteront des changements innovants dans tous les secteurs, tels que les agents d'IA et la robotique de l'IA.
- Voir plus d'articles connexes
You must be logged in to post a comment.