
Le Comité de responsabilité numérique de Google Corée a annoncé qu'il avait organisé le « Forum sur l'IA responsable » à deux reprises au cours du premier semestre de cette année et avait discuté des questions clés liées à la loi-cadre sur la promotion de l'intelligence artificielle et la création d'une fondation de confiance (ci-après dénommée la loi-cadre sur l'IA), qui a été promulguée en décembre de l'année dernière.
Le Forum sur l'IA responsable est l'un des forums du Comité de responsabilité numérique lancé par Google Corée au début de l'année dernière pour créer un écosystème numérique responsable. Cette année, 14 experts de divers domaines, notamment la profession juridique, la politique, l'informatique/la technologie et les startups, participeront en tant que membres et examineront les tendances législatives nationales et internationales et les questions sociales et éthiques entourant le développement de l'IA quatre fois par an et chercheront des moyens plus responsables de développer et d'utiliser l'IA.
Le premier forum organisé en mars s’est tenu sous le thème « Définition et perspectives de l’IA à fort impact », considéré comme l’un des points clés de la loi fondamentale sur l’IA. La loi-cadre sur l’IA définit les systèmes d’IA qui peuvent avoir un impact significatif sur la vie humaine, la sécurité et les droits fondamentaux comme « IA à fort impact » dans 11 domaines. Toutefois, certains soulignent que les catégories spécifiques d’IA à fort impact incluses dans le projet de loi sont ambiguës, ce qui peut conduire à des différences d’interprétation dans l’application de la loi.
En conséquence, le Forum sur l'IA responsable a invité le professeur Lee Seong-yeop de l'École supérieure de gestion technologique de l'Université de Corée, expert en droit de la réglementation de l'IA, en tant que présentateur pour examiner la définition et les normes de l'IA à fort impact, ainsi que l'état actuel de la réglementation, et a discuté des approches qui peuvent promouvoir l'innovation dans l'industrie de l'IA tout en garantissant la sécurité. Les experts qui ont participé au forum ont convenu que le projet de loi doit être révisé pour refléter suffisamment les perspectives et l'état actuel de l'écosystème de l'industrie de l'IA, tandis que les dispositions ambiguës ou qui se chevauchent doivent être réorganisées et les responsabilités et procédures de suivi doivent être complétées.
Le deuxième forum qui s’est tenu le 21 mai a porté sur le thème « Assurer la sécurité et la transparence de l’IA et l’évaluation de l’impact de l’IA », comme le prévoit la loi fondamentale sur l’IA. La loi-cadre sur l’IA impose des mesures de sécurité et de transparence de l’IA ainsi que des évaluations d’impact de l’IA afin de prévenir à l’avance divers risques pouvant découler du développement rapide de la technologie de l’IA et de protéger les droits fondamentaux des personnes. Toutefois, il a été souligné qu’il comporte des limites, notamment que ▲les réglementations qui appliquent uniformément les mesures de sécurité et de transparence à différents niveaux de l’industrie de l’IA peuvent constituer une réglementation excessive, et ▲les normes qui définissent l’objet, la portée et la méthode des évaluations d’impact de l’IA sont ambiguës.
À cet égard, le professeur Lee Sang-yong de la faculté de droit de l'université Konkuk a fait une présentation sur le thème « Deux paradigmes de la réglementation de l'IA : la réglementation basée sur le contexte et la réglementation basée sur les capacités », divisant les risques de l'IA en « risques contextuels » centrés sur des situations d'utilisation spécifiques et « risques de capacité » centrés sur le potentiel, et soulignant que des réglementations flexibles et autonomes ainsi que des stratégies et des orientations nationales sont nécessaires pour répondre aux changements dans l'industrie de l'IA. La professeure Eun-Jeong Kwon de la faculté de droit de l'université Gachon a également présenté l'importance du système d'évaluation d'impact et son statut actuel au niveau national et international dans sa présentation intitulée « Évaluation d'impact de l'IA : importance, statut actuel et tâches », et a mentionné la nécessité d'une législation de régulation de l'IA qui prenne en compte la diversification des types de risques et l'établissement d'une plate-forme intégrée d'évaluation de l'IA dans laquelle le gouvernement et les secteurs privés coopèrent.
Les experts présents au forum ce jour-là ont convenu qu’une méthodologie d’évaluation de l’impact de l’IA plus efficace devrait être développée en termes de technologie et d’éthique sociale, et ont discuté de manière approfondie du sujet et de la portée de l’évaluation de l’impact de l’IA, ainsi que de la responsabilité du sujet de l’évaluation de l’impact et de l’orientation de la réflexion dans la politique. En particulier, les experts ont souligné que la charge de responsabilité de diverses entités, y compris les startups, la vitesse de développement de la technologie de l’IA et la cohérence avec les normes internationales doivent être soigneusement prises en compte lors de l’évaluation de l’impact de l’IA, et ont convenu qu’une approche plus flexible et progressive est nécessaire pour garantir la responsabilité de l’utilisation de l’IA et la légitimité de la réglementation.
« À une époque où un grand nombre d'entreprises, d'organisations et d'individus utilisent des programmes d'IA, une utilisation sûre et efficace de l'IA est plus importante que jamais », a déclaré Choi Jae-sik, président du Responsible AI Forum et professeur à la Kim Jae-chul AI Graduate School du KAIST et directeur du XAI Research Center. « La manière dont nous répondons aux limites et aux vulnérabilités des services d’IA existants sera un facteur déterminant pour la responsabilité et la sécurité futures de l’IA, et en outre, pour l’orientation du leadership en matière d’IA. »
Parallèlement, le Forum sur l'IA responsable tiendra des discussions approfondies sur les réglementations de l'IA centrées sur la loi fondamentale sur l'IA au cours du premier semestre de l'année, et au cours du second semestre, il examinera l'impact et les perspectives des technologies de l'IA qui apporteront des changements innovants dans tous les secteurs, tels que les agents d'IA et la robotique de l'IA.
- Voir plus d'articles connexes
You must be logged in to post a comment.