셀렉트스타, AI 안전성 검증 기술 ICLR 2026 메인 컨퍼런스 채택

셀렉트스타(대표 김세엽)의 AI Safety팀이 개발한 논문 ‘CAGE: A Framework for Culturally Adaptive Red-Teaming Benchmark Generation’이 오는 4월 브라질에서 열리는 ICLR 2026 메인 컨퍼런스에 채택됐다.

ICLR은 AI와 머신러닝 분야에서 최상위권 국제 학회로, 올해 약 1만 9천 건의 논문 중 상위 28%만이 채택됐다. 셀렉트스타 논문은 메인 트랙에 선정되며 독창성과 기술적 완성도를 국제적으로 인정받았다. 연구는 외부 기관 없이 회사 내부 인력만으로 진행됐다.

CAGE 기술은 각국의 문화와 법적 환경을 반영해 AI 모델의 안전성을 검증할 레드티밍 데이터를 자동 생성한다. 기존 방식이 영미권 중심 데이터의 번역에 의존했던 것과 달리, ‘시맨틱 몰드(Semantic Mold)’를 통해 현지화된 공격 질문을 생성, AI 모델의 방어율을 테스트하고 잠재적 위험을 효과적으로 탐지한다. 캄보디아어 등 데이터가 부족한 언어권에서도 우수한 성능을 보였다.

논문에서는 한국형 안전성 벤치마크 ‘KoRSET’도 공개됐다. KoRSET은 기존 단순 번역 데이터셋보다 AI 모델의 취약점을 더 효과적으로 탐지하며, 한국 문화 기반 안전성 검증에 최적화된 성능을 입증했다.

CAGE 기술은 산업 현장에도 적용돼, 셀렉트스타가 협업하는 대기업 AI 프로젝트에서 모델 취약점 점검과 운영 효율 개선에 활용되고 있다. 김민우 AI Safety 팀장은 “ICLR 채택은 셀렉트스타가 독보적 AI 원천 기술 기업임을 보여주는 사례”라고 말했다.

셀렉트스타는 이번 성과를 기반으로 금융·공공 등 고도의 안전성이 요구되는 산업군으로 신뢰성 평가 솔루션을 확대할 계획이며, 논문은 3월 오픈소스 플랫폼 Arxiv에서 공개될 예정이다.

 


  • 관련 기사 더 보기

SelectStar's AI Safety Verification Technology Adopted for ICLR 2026 Main Conference

The paper 'CAGE: A Framework for Culturally Adaptive Red-Teaming Benchmark Generation' developed by the AI Safety team of Selectstar (CEO Se-yeop Kim) has been accepted for the main conference of ICLR 2026 to be held in Brazil in April.

ICLR is a top-tier international conference in the fields of AI and machine learning. This year, only the top 28% of approximately 19,000 papers were accepted. SelectStar papers are selected for the main track, demonstrating international recognition for their originality and technical sophistication. The research was conducted entirely by the company's internal staff, without any external agencies.

CAGE technology automatically generates red-teaming data to verify the safety of AI models, reflecting the cultural and legal environments of each country. Unlike existing methods that rely on translations of data primarily from English-speaking countries, CAGE generates localized attack questions through "Semantic Mold," testing the defense rate of AI models and effectively detecting potential risks. It has also demonstrated excellent performance in data-poor language regions, such as Cambodian.

The paper also unveiled "KoRSET," a Korean-style safety benchmark. KoRSET detects AI model vulnerabilities more effectively than existing simple translation datasets, demonstrating its performance optimized for safety verification based on Korean culture.

CAGE technology is also being applied in industrial settings, where it is being utilized to identify model vulnerabilities and improve operational efficiency in large-scale AI projects with which SelectStar collaborates. Kim Min-woo, AI Safety Team Leader, stated, "The adoption of ICLR demonstrates SelectStar's unrivaled position as a leading AI technology company."

Based on this achievement, SelectStar plans to expand its reliability assessment solution to industries requiring high levels of security, such as finance and the public sector. The paper is scheduled to be released on the open-source platform Arxiv in March.


  • See more related articles

セレクトスター、AI安全性検証技術ICLR 2026メインカンファレンスを採用

セレクトスター(代表キム・セヨプ)のAI Safetyチームが開発した論文「CAGE: A Framework for Culturally Adaptive Red-Teaming Benchmark Generation」が4月、ブラジルで開かれるICLR 2026メインカンファレンスに採択された。

ICLRはAIと機械学習の分野で最上位圏国際学会で、今年約1万9千件の論文のうち上位28%だけが採択された。セレクトスター論文はメイントラックに選ばれ、独創性と技術的完成度を国際的に認められた。研究は外部機関なしで会社内部人材だけで行われた。

CAGE技術は各国の文化と法的環境を反映してAIモデルの安全性を検証するレッドティーミングデータを自動生成する。既存の方式が英米圏中心データの翻訳に依存していたのとは異なり、「セマンティックモールド(Semantic Mold)」を通じてローカライズされた攻撃質問を生成し、AIモデルの防御率をテストし、潜在的なリスクを効果的に検出する。カンボジア語などのデータが不足している言語圏でも優れた性能を見せた。

論文では韓国型安全性ベンチマーク「KoRSET」も公開された。 KoRSETは、既存の単純翻訳データセットよりもAIモデルの脆弱性をより効果的に検出し、韓国文化ベースの安全性検証に最適化された性能を実証した。

CAGE技術は産業現場にも適用され、セレクトスターがコラボレーションする大企業AIプロジェクトでモデルの脆弱性点検と運用効率改善に活用されている。キム・ミンウAI Safetyチーム長は「ICLR採用はセレクトスターが独歩的なAI源泉技術企業であることを示す事例」と話した。

セレクトスターは今回の成果を基に金融・公共など高度な安全性が求められる産業群として信頼性評価ソリューションを拡大する計画であり、論文は3月オープンソースプラットフォームArxivで公開される予定だ。


  • 関連記事をもっと見る

SelectStar的AI安全验证技术被ICLR 2026主会议采用

Selectstar (CEO 金世烨)人工智能安全团队开发的论文《CAGE:文化适应性红队基准生成框架》已被 ICLR 2026 主会议接受,该会议将于 4 月在巴西举行。

ICLR是人工智能和机器学习领域顶尖的国际会议。今年,在约19,000篇论文中,仅有28%的优秀论文被接收。SelectStar论文入选主会场,代表着其原创性和技术深度获得了国际认可。该研究完全由公司内部员工完成,未涉及任何外部机构。

CAGE技术能够自动生成红队演练数据,以验证人工智能模型的安全性,并充分考虑各国的文化和法律环境。与现有方法主要依赖于翻译来自英语国家的数据不同,CAGE通过“语义模具”生成本地化的攻击问题,测试人工智能模型的防御率,并有效检测潜在风险。即使在数据匮乏的语言地区,例如柬埔寨,CAGE也展现出了卓越的性能。

该论文还发布了名为“KoRSET”的韩国式安全基准测试工具。KoRSET 比现有的简单翻译数据集更能有效地检测出人工智能模型的漏洞,这表明其性能已针对韩国文化进行了优化,更适合进行安全验证。

CAGE技术也被应用于工业领域,用于识别模型漏洞并提高SelectStar合作的大型人工智能项目的运营效率。人工智能安全团队负责人金敏宇表示:“采用ICLR证明了SelectStar作为领先的人工智能技术公司无可匹敌的地位。”

基于此项成果,SelectStar计划将其可靠性评估解决方案扩展到对安全性要求较高的行业,例如金融和公共部门。该论文计划于3月在开源平台arXiv上发布。


  • 查看更多相关文章

La technologie de vérification de sécurité par IA de SelectStar adoptée pour la conférence principale ICLR 2026

L'article intitulé « CAGE : Un cadre pour la génération de benchmarks d'équipes rouges culturellement adaptées », développé par l'équipe de sécurité IA de Selectstar (PDG Se-yeop Kim), a été accepté pour la conférence principale de l'ICLR 2026 qui se tiendra au Brésil en avril.

ICLR est une conférence internationale de premier plan dans les domaines de l'IA et de l'apprentissage automatique. Cette année, seuls les 28 % meilleurs articles parmi environ 19 000 ont été retenus. Les articles SelectStar sont sélectionnés pour la session principale, témoignant d'une reconnaissance internationale pour leur originalité et leur rigueur technique. La recherche a été menée intégralement par les équipes internes de l'entreprise, sans intervention extérieure.

La technologie CAGE génère automatiquement des données d'entraînement à l'attaque (red teaming) pour vérifier la sécurité des modèles d'IA, en tenant compte des contextes culturels et juridiques de chaque pays. Contrairement aux méthodes existantes qui s'appuient sur des traductions de données provenant principalement de pays anglophones, CAGE génère des questions d'attaque localisées grâce à la technique du « moule sémantique », testant ainsi la robustesse des modèles d'IA et détectant efficacement les risques potentiels. Elle a également démontré d'excellentes performances dans des régions linguistiques où les données sont rares, comme le Cambodge.

L'article présente également « KoRSET », un banc d'essai de sécurité adapté au contexte coréen. KoRSET détecte les vulnérabilités des modèles d'IA plus efficacement que les jeux de données de traduction classiques, démontrant ainsi des performances optimisées pour la vérification de la sécurité en fonction de la culture coréenne.

La technologie CAGE est également utilisée dans le secteur industriel pour identifier les vulnérabilités des modèles et améliorer l'efficacité opérationnelle des projets d'IA à grande échelle auxquels SelectStar participe. Kim Min-woo, responsable de l'équipe Sécurité IA, a déclaré : « L'adoption d'ICLR témoigne de la position incontestée de SelectStar en tant qu'entreprise leader dans le domaine des technologies d'IA. »

S’appuyant sur ce succès, SelectStar prévoit d’étendre sa solution d’évaluation de la fiabilité aux secteurs exigeant un niveau de sécurité élevé, tels que la finance et le secteur public. L’article sera publié en mars sur la plateforme open source arXiv.


  • Voir plus d'articles connexes
%d bloggers like this: