-Protéger la sécurité de l'IA avec 30 000 modèles de vulnérabilité
– Reconnu par les entreprises mondiales d'IA avec un taux de pénétration de 94,4 %
-Attention en tant qu'entreprise bénéficiaire sur le marché de la sécurité de l'IA avec l'adoption de l'AI Basic Act
– Diagnostiquée comme une entreprise mondiale d'IA un an seulement après sa création… Soyez attentif aux solutions qui allient « sécurité + éthique »
En novembre dernier, une controverse a éclaté lorsque le chatbot IA Gemini a donné une réponse inappropriée : « S'il vous plaît, mourez ». Récemment, la méthode du « jailbreak multiple » consistant à poser à plusieurs reprises des questions de diversion pour obtenir des réponses liées à la violence ou à la criminalité s'est également répandue. En outre, le phénomène « d'hallucination », dans lequel l'IA crée de fausses informations, se produit fréquemment, et le phishing vocal et la fraude par courrier électronique utilisant l'IA augmentent également rapidement.
Il existe une startup qui s’est avancée pour résoudre ces problèmes de sécurité de l’IA. AIM Intelligence est une startup de sécurité de l'IA dotée d'une technologie permettant de bloquer les tentatives malveillantes des utilisateurs d'IA. Aim Intelligence bloque efficacement les e-mails de phishing, les fausses informations, la création d'images deepfake, ainsi que les tentatives de piratage et de cyberattaque.
« À mesure que la technologie de l’IA se développe, l’importance de la sécurité augmente également. Notre objectif est d’aider l’IA à être utilisée de manière éthique et sûre.

Sang-yoon Yoo, PDG d'Aim Intelligence, rencontré au SKT AI Lab for Startups au COEX, Gangnam-gu, Séoul, a expliqué la vision de l'entreprise comme suit. Le nom « Aim » d'AIM Intelligence représente le double sens d'IA et de « visée ». Le point rouge dans le logo de l'entreprise symbolise un point de visée précis et reflète la volonté de l'entreprise de trouver et d'éliminer avec précision les vulnérabilités de la sécurité de l'IA.
Le PDG Yoo, titulaire d'une maîtrise en ingénierie électrique et informatique de l'Université nationale de Séoul, a fondé Aim Intelligence début 2024 avec un junior du laboratoire d'optimisation des machines virtuelles tout en recherchant l'éthique de l'IA. En peu de temps depuis sa création, l'entreprise a réalisé des réalisations notables telles que remporter le « Metarama Impact Innovation Award », remporter le « AI Red Team Challenge » du ministère des Sciences et des TIC et être sélectionnée comme « 2ème AI Accélérateur de startups» par SK Telecom. Sur la base de ces réalisations, Aim Intelligence a attiré un investissement de démarrage de Mashup Ventures. Le programme « AI Startup Accelerator 2nd Stage » est un programme préparé par SK Telecom (PDG Young-sang Yoo) en collaboration avec Hana Bank (PDG Seung-yeol Lee) pour favoriser les startups d'IA. Les entreprises sélectionnées reçoivent un soutien tel que des bureaux gratuits, un mentorat commercial, des brevets, des investissements et des relations publiques.
Même si moins d'un an s'est écoulé depuis sa création, Aim Intelligence a déjà été reconnue pour sa valeur, avec de grandes entreprises de télécommunications nationales diagnostiquant leurs services d'IA avec Aim Red et participant au projet de diagnostic du modèle Claude de la société mondiale d'IA Anthropic.
■ Développer des solutions innovantes « offensives » et « défensives »
Les produits représentatifs d'Aim Intelligence sont « AIM Red » et « AIM Guard ». Aimred est un outil de diagnostic qui trouve automatiquement les vulnérabilités des systèmes d'IA. Auparavant, la méthode « Human Red Team » était utilisée dans laquelle les experts en sécurité détectaient directement les vulnérabilités, mais Aimred a augmenté l'efficacité en automatisant ce processus.
Aimred teste les systèmes d'IA de différentes manières du point de vue d'un pirate informatique. Par exemple, l’IA rejette les demandes directes de code de piratage, mais profite du fait qu’elle peut être vulnérable aux demandes indirectes dans certaines situations.
« Nous avons systématisé les modèles de vulnérabilité connus. Les attaques sont tentées en attribuant des rôles et des tâches spécifiques à l'IA, en les combinant avec des sujets spécifiques tels que le code de cyberattaque ou la création de désinformation et en développant des modèles. "Nous continuons à découvrir de nouveaux modèles à travers la communauté et les compétitions."
Aim Intelligence automatise la création de données de redtiming en créant divers modèles et sujets d'attaque, puis en les augmentant en synthétisant les données (génération de données synthétiques). Aim Intelligence compte actuellement plus de 30 000 modèles de vulnérabilité. En particulier, au-delà de la méthode « en un seul tour » consistant à poser et à répondre à une seule question, ils mènent également des attaques selon la méthode « à plusieurs tours » qui échangent plusieurs conversations. La clé de la méthode multi-tours est que l’IA se souvienne du contexte des conversations précédentes et génère des réponses appropriées sur cette base. Les modèles d’IA récents bloquent les attaques simples, mais révèlent des vulnérabilités dans les processus de conversation complexes.
AimGuard est une solution qui protège contre ces vulnérabilités. Si Aimred est un outil « d'attaque » qui trouve des vulnérabilités, AimGuard peut être considéré comme un outil de « défense » qui bloque ces vulnérabilités.
La clé d’AimGuard est qu’il s’agit d’un double système de défense qui fonctionne à la fois aux étapes d’entrée et de sortie. Lors de la phase d'entrée, les tentatives malveillantes des utilisateurs sont bloquées à l'avance, et lors de la phase de sortie, les réponses de l'IA sont examinées pour déterminer si elles sont appropriées, évitant ainsi les jurons, les fuites d'informations personnelles et la violation des droits d'auteur.
Les deux produits affichent d'excellentes performances. AimRed a enregistré un taux de pénétration de 94,4%, supérieur au PyRIT de Microsoft (33,3%). Cela signifie qu’environ trois fois plus de vulnérabilités peuvent être découvertes dans le même laps de temps. Aim Guard a atteint un taux de protection de 99 %, surpassant le Llama Guard de la méta, qui a atteint un taux de protection de 90 %. Sa force réside notamment dans la possibilité de diagnostiquer des vulnérabilités qui reflètent les caractéristiques particulières de la langue et de la culture coréennes. Par exemple, il peut infiltrer et protéger efficacement des sujets particulièrement sensibles dans la société coréenne, tels que les conflits de genre ou les questions militaires.
Le PDG Yoo a déclaré : « La cybersécurité traditionnelle analyse le code logiciel, mais l'IA est comme une « boîte noire » et doit trouver des problèmes avec diverses valeurs d'entrée. « La sécurité de l’IA est également étroitement liée aux questions éthiques », a-t-il déclaré, expliquant la nature particulière de la sécurité de l’IA.

■ L'importance de la sécurité de l'IA augmente avec l'AI Basic Act
L’importance de la sécurité de l’IA devrait encore augmenter avec la loi fondamentale sur l’IA (loi fondamentale relative au développement de l’intelligence artificielle et à la création d’une base de confiance, etc.) adoptée par l’Assemblée nationale le 26 décembre 2024. Cette loi est la deuxième loi globale de réglementation de l’IA adoptée dans le monde, après celle de l’UE, et elle impose d’assurer la transparence et la sécurité de l’IA. Ce projet de loi vise à établir un système national de gouvernance de l'intelligence artificielle, à favoriser systématiquement l'industrie de l'intelligence artificielle et à prévenir les problèmes pouvant survenir en raison des limitations techniques et de l'utilisation abusive de l'intelligence artificielle. La loi comprend également l'obligation d'assurer la transparence, l'obligation d'assurer la sécurité, les responsabilités des opérateurs commerciaux et la base du soutien à la vérification de la sécurité et de la fiabilité de l'IA et à l'évaluation de l'impact de l'intelligence artificielle de manière autonome par le secteur privé.
Le représentant Yoo a diagnostiqué que la Corée est quelque peu en retard dans le domaine de la sécurité de l'IA et a déclaré : « Les États-Unis ont une industrie de sécurité de l'IA bien établie et des lois et systèmes connexes en place. D’un autre côté, la Corée commence tout juste à manifester son intérêt. "Avec l'adoption récente de l'AI Basic Act, le secteur de la sécurité de l'IA devrait se développer", a-t-il expliqué.
■ Rêver d'une ère d'IA sûre
Aim Intelligence prévoit d'étendre prochainement les services qu'elle propose actuellement sur une base de conseil au SaaS par abonnement. En outre, nous préparons des solutions de sécurité personnalisées pour des domaines particuliers tels que la finance et la médecine, et cherchons également à pénétrer le marché américain.
À long terme, nous prévoyons d’aller au-delà de l’IA générative pour inclure la sécurité physique de l’IA, comme les robots et les voitures autonomes. Le PDG Yoo a souligné : « La sécurité deviendra plus importante lorsque l’IA sous une forme physique, comme les robots ou les voitures autonomes, émergera », et a ajouté : « Notre objectif est de devenir une entreprise essentielle à ce moment-là. » À cette fin, nous recrutons activement des talents dans divers domaines, notamment des chercheurs en sûreté et sécurité en IA et des experts en réglementation.
You must be logged in to post a comment.