-독자적인 ‘From-Scratch’ 사전학습 방식과 ‘언어 간 상호학습 시스템(XLDA)’을 통해 학습 비용 1/12로 절감, 비용과 성능 간 가장 이상적인 구조 구현
-수학, 코딩 등 고난도 추론 벤치마크에서 글로벌 모델과 견줄만한 성능을 보였으며, 특히 한국어 이해력 부문에서 탁월한 역량 입증
-자체 기술력만으로 대규모 언어 모델 개발, 풀사이즈 LLM포트폴리오로 산업 전반에 AI 적용을 확대하고, 기술 주도권 확보에 나설 것

트릴리온랩스(대표 신재민)는 단순한 텍스트 생성 능력을 넘어 고차원적 언어 이해와 복잡한 문제 해결을 동시에 수행할 수 있도록 설계된 차세대 대규모 언어모델(LLM) ‘트리(Tri)-21B’를 오픈소스로 공개했다.
트리(Tri)-21B’는 단순한 텍스트 생성 능력을 넘어 고차원적 언어 이해와 복잡한 문제 해결을 동시에 수행할 수 있도록 설계된 대규모 언어모델이다. 전작인 트릴리온(Trillion)-7B 대비 파라미터 수를 3배 이상 확장한 약 210억 개 규모로 성능을 대폭 끌어올렸으며, 1대의 GPU에서도 원활하게 작동할 수 있는 경량성과 효율성을 동시에 갖췄다.
트릴리온랩스의 독보적인 기술력으로 LLM 엔진부터 완전한 사전학습(From-scratch) 방식으로 개발된 이번 모델은 고정밀 추론이 필요한 작업에서 강력한 성능을 발휘하도록 설계되었다. 수학과 코딩 등 단계적 사고가 요구되는 문제에 대해 구조화된 답변을 생성하는 생각사슬(CoT, Chain of Thought)구조를 채택했으며, 특히 트릴리온랩스만의 기술력인 언어 간 상호학습 시스템(Cross-lingual Document Attention, XLDA)을 적용했다.
XLDA는 영어 기반 지식을 한국어 및 일본어와 같은 저자원 언어로 효과적으로 전이하는 데이터 학습 방법론으로, 기존 대비 1/12 수준으로 학습 비용을 대폭 절감하는 혁신을 이뤄냈다. 이는 데이터가 부족한 산업 분야에서도 LLM 활용도를 획기적으로 끌어올릴 수 있는 기반을 마련했다는 점에서 의미가 크다. 또한 XLDA를 통해 한국어뿐 아니라 데이터가 적은 일본어와 같은 동북아 언어권에서도 더욱 자연스럽고 정확한 문장 생성이 가능하다.
트릴리온-21B는 종합지식(MMLU), 한국어 언어 이해(KMMLU), 수학(MATH), 코딩(MBPP Plus) 등 고난도 추론 중심 벤치마크에서 알리바바의 Qwen 3, 메타 LLaMA 3, 구글의 Gemma 3 등 글로벌 대표 중형 모델과 견줄만한 성능을 보였다. 특히 추론능력 검증(MMLU)에서는 77.93(CoT적용 시 85)점, 수학(MATH)에서 77.89점, 코딩 영역(MBPP Plus)에서 75.4점의 정확도를 기록하며 실제 문제 해결 능력에서도 강점을 입증했다.
주요 한국어 벤치마크에서도 두각을 드러냈다. 한국문화의 이해도를 측정하는 해례(Hae-Rae)에서 86.62점, 한국어 지식과 추론능력(KMMLU)에서 62점(CoT적용시 70)을 기록, 글로벌 모델 대비 월등히 높은 점수를 기록하며 어휘와 문맥 이해, 문화적 맥락 반영에서 독보적인 한국어 이해능력을 보였다. 또한 금융, 의료, 법률 등 높은 신뢰도가 요구되는 분야에서도 안정적인 결과를 도출해, 산업 전반에 걸친 적용 가능성을 높였다.
신재민 트릴리온랩스 대표는 “트리(Tri)-21B는 플라이휠 구조를 통해 70B급 대형 모델의 성능을 21B에 효과적으로 전이해 모델 사이즈와 비용, 성능 간 균형에서 현존하는 가장 이상적인 구조를 구현했다”며 “이번 모델처럼 바닥부터 사전학습으로 개발한 고성능 LLM을 통해 비용 효율성과 성능 개선을 빠르게 달성하여 한국 AI 기술력의 완성도를 높이고, 향후 공개될 트리(Tri)-70B와 함께 풀사이즈 LLM 포트폴리오를 완성해 나가겠다”고 덧붙였다.
한편 2024년 8월 설립된 트릴리온랩스는 한국어 중심 LLM을 독자적으로 설계하고 사전 학습(from-scratch)부터 진행해온 국내 유일의 스타트업이다. 생성형 AI 분야의 개척자인 신재민 대표를 주축으로 카이스트, 옥스포드, 버클리, 아마존, 네이버 출신 등 국내외 최고 수준의 AI 엔지니어 및 연구원으로 구성된 팀이다. 2024년 9월 580만달러(약 90억원) 규모의 프리-시드 투자를 유치했으며, 2025년 3월 선공개모델 트릴리온-7B(Trillion-7B-preview)를 오픈소스로 공개했다.
신재민 대표는 2017년부터 공감형 대화 시스템 분야의 선도적 연구자로 네이버 하이퍼클로바 X(7B~60B 모델) 사전 학습의 핵심 연구자로 참여했다. 주요 저자로 저술한 ‘프로메테우스(Prometheus)’ 논문 시리즈는 북미컴퓨터언어학회(NAACL)의 2025 최우수 논문상(2025 Best Paper Award)을 수상하였으며 한국형 LLM 개발 성과를 인정받아 ‘엔비디아 GTC 2025’ 초청 강연자로 ‘소버린 AI’에 대해 발표하며 한국을 대표하는 AI 기업으로 국제적 위상 강화에도 기여하고 있다.
Trillion Labs Opens Source for LLM 'Tri-21B' Based on Pre-Learning from the Beginning
-Reduced learning costs by 1/12 through the unique 'From-Scratch' pre-learning method and 'X-Language Cross-Learning System (XLDA)', implementing the most ideal structure between cost and performance
– Demonstrated performance comparable to global models in high-difficulty reasoning benchmarks such as mathematics and coding, and demonstrated outstanding capabilities, especially in the Korean language comprehension area.
– We will develop large-scale language models using our own technology, expand the application of AI across industries with a full-size LLM portfolio, and secure technological leadership.

Trillion Labs (CEO Jae-min Shin) has released as open source the next-generation large-scale language model (LLM) 'Tri-21B', which is designed to go beyond simple text generation and simultaneously perform high-dimensional language understanding and complex problem solving.
Tri-21B is a large-scale language model designed to go beyond simple text generation capabilities and simultaneously perform high-dimensional language understanding and complex problem solving. Compared to its predecessor, Trillion-7B, it has significantly improved performance by expanding the number of parameters by more than three times to approximately 21 billion, and it is lightweight and efficient enough to run smoothly on a single GPU.
This model, developed using the LLM engine and a complete from-scratch method using Trillion Labs’ unique technology, is designed to demonstrate powerful performance in tasks requiring high-precision inference. It adopts the Chain of Thought (CoT) structure that generates structured answers to problems requiring step-by-step thinking such as mathematics and coding, and in particular, applied Cross-lingual Document Attention (XLDA), a technology unique to Trillion Labs.
XLDA is a data learning methodology that effectively transfers English-based knowledge to low-resource languages such as Korean and Japanese, and has achieved an innovation that drastically reduces learning costs to 1/12 of the existing level. This is significant in that it has laid the foundation for dramatically increasing the utilization of LLM in industries with insufficient data. In addition, XLDA enables more natural and accurate sentence generation not only in Korean but also in Northeast Asian languages such as Japanese, which have limited data.
Trillion-21B demonstrated performance comparable to that of global representative mid-sized models such as Alibaba's Qwen 3, Meta LLaMA 3, and Google's Gemma 3 in difficult reasoning-oriented benchmarks such as General Knowledge (MMLU), Korean Language Understanding (KMMLU), Mathematics (MATH), and Coding (MBPP Plus). In particular, it demonstrated strength in actual problem-solving capabilities, recording an accuracy of 77.93 (85 when CoT is applied) in reasoning ability verification (MMLU), 77.89 in mathematics (MATH), and 75.4 in the coding area (MBPP Plus).
It also stood out in major Korean benchmarks. It scored 86.62 points in Hae-Rae, which measures understanding of Korean culture, and 62 points (70 when CoT is applied) in Korean language knowledge and reasoning ability (KMMLU), which is significantly higher than the global model, showing unrivaled Korean comprehension ability in vocabulary, contextual understanding, and reflection of cultural context. It also produced stable results in fields that require high reliability such as finance, medicine, and law, increasing the possibility of application across industries.
Shin Jae-min, CEO of Trillion Labs, said, “The Tri-21B effectively transfers the performance of a large 70B model to the 21B through its flywheel structure, and has implemented the most ideal structure to date in terms of balance between model size, cost, and performance.” He added, “With this model, we will quickly achieve cost efficiency and performance improvements through high-performance LLMs developed from the ground up through pre-learning, thereby increasing the perfection of Korean AI technology, and together with the Tri-70B, which will be released in the future, we will complete our full-size LLM portfolio.”
Meanwhile, Trillion Labs, established in August 2024, is the only startup in Korea that has independently designed a Korean-centered LLM and conducted pre-learning (from-scratch). It is a team comprised of top-notch AI engineers and researchers from Korea and abroad, including Jae-min Shin, a pioneer in the field of generative AI, and from KAIST, Oxford, Berkeley, Amazon, and Naver. In September 2024, it attracted $5.8 million (approximately 9 billion won) in pre-seed investment, and in March 2025, it released the pre-release model Trillion-7B (Trillion-7B-preview) as open source.
CEO Shin Jae-min has been a leading researcher in the field of empathic dialogue systems since 2017, and has been a key researcher in the pre-learning of Naver HyperClova X (7B~60B model). The 'Prometheus' paper series, written as the main author, won the 2025 Best Paper Award from the North American Association for Computational Linguistics (NAACL). In addition, he was recognized for his achievements in developing a Korean-style LLM and presented 'Sovereign AI' as an invited lecturer at 'NVIDIA GTC 2025', contributing to strengthening Korea's international status as a representative AI company.
トリリオンラプス、最初から事前学習した基盤LLM「Tri(Tri)-21B」オープンソース公開
-独自の「From-Scratch」事前学習方式と「言語間相互学習システム(XLDA)」を通じて学習コスト1/12に削減、コストと性能の間で最も理想的な構造を実現
-数学、コーディングなど高難度推論ベンチマークでグローバルモデルと並ぶ性能を見せ、特に韓国語理解力部門で卓越した力量立証
– 自社技術力だけで大規模言語モデル開発、フルサイズLLMポートフォリオで産業全般にAI適用を拡大し、技術主導権確保に乗り出すこと

トリリオンラプス(代表シンジェミン)は、単純なテキスト生成能力を超えて高次元の言語理解と複雑な問題解決を同時に遂行できるように設計された次世代大規模言語モデル(LLM)「ツリー(Tri)-21B」をオープンソースで公開した。
Tree-21B 'は、単純なテキスト生成能力を超えて、高次元の言語理解と複雑な問題解決を同時に実行できるように設計された大規模な言語モデルです。前作のトリリオン(Trillion)-7B比パラメータ数を3倍以上に拡張した約210億個規模で性能を大幅に引き上げ、1台のGPUでもスムーズに動作できる軽量性と効率性を同時に備えた。
トリリオンラプスの独自の技術力でLLMエンジンから完全な事前学習(From-scratch)方式で開発された今回のモデルは、高精度推論が必要な作業で強力な性能を発揮するように設計された。数学やコーディングなど、段階的思考が要求される問題に対して構造化された回答を生成する思考連鎖(CoT, Chain of Thought)構造を採用し、特にトリリオンラプスだけの技術力である言語間相互学習システム(Cross-lingual Document Attention, XLDA)を適用した。
XLDAは、英語ベースの知識を韓国語や日本語などの低資源言語に効果的に転移するデータ学習方法論で、従来比1/12レベルで学習コストを大幅に削減するイノベーションを成し遂げた。これは、データが不足している産業分野でもLLM活用度を画期的に引き上げることができる基盤を設けたという点で意味が大きい。また、XLDAを通じて韓国語だけでなく、データが少ない日本語のような北東アジア言語圏でもさらに自然で正確な文章生成が可能だ。
トリリオン-21Bは総合知識(MMLU)、韓国語言語理解(KMMLU)、数学(MATH)、コーディング(MBPP Plus)など高難度推論中心ベンチマークでアリババのQwen 3、メタ LLaMA 3、グーグルのGemma 3などグローバル代表中型モデルと比べると性能。特に推論能力検証(MMLU)では77.93(CoT適用時85)点、数学(MATH)で77.89点、コーディング領域(MBPP Plus)で75.4点の精度を記録し、実際の問題解決能力でも強みを立証した。
主要韓国語ベンチマークでも頭角を現わした。韓国文化の理解度を測定する解例(Hae-Rae)で86.62点、韓国語知識と推論能力(KMMLU)で62点(CoT適用時70)を記録、グローバルモデルに比べて格段に高いスコアを記録し、語彙と文脈理解、文化的文脈反映で独歩的な韓国語理解また、金融、医療、法律など高い信頼性が求められる分野でも安定した結果を導き出し、産業全般にわたる適用可能性を高めた。
シン・ジェミントリリオンラプス代表は「トリ(Tri)-21Bはフライホイール構造を通じて70B級大型モデルの性能を21Bに効果的に転移し、モデルサイズとコスト、性能間バランスで現存する最も理想的な構造を実装した」とし「今回のモデルのように床から事前学習で開発した高性能LLMを通じて技術効率を達成高め、今後公開されるツリー(Tri)-70BとともにフルサイズLLMポートフォリオを完成していく」と付け加えた。
一方、2024年8月に設立されたトリリオンラプスは、韓国語中心LLMを独自に設計し、事前学習(from-scratch)から進めてきた国内唯一のスタートアップだ。生成型AI分野の先駆者であるシン・ジェミン代表を主軸にカイスト、オックスフォード、バークレー、アマゾン、ネイバー出身など国内外最高レベルのAIエンジニアおよび研究員で構成されたチームだ。 2024年9月580万ドル(約90億ウォン)規模のプレシード投資を誘致し、2025年3月先行公開モデルトリリオン-7B(Trillion-7B-preview)をオープンソースで公開した。
シン・ジェミン代表は2017年から共感型対話システム分野の先導的研究者で、ネイバーハイパークローバーX(7B~60Bモデル)事前学習の核心研究者として参加した。主な著者として書かれた「プロメテウス(Prometheus)」論文シリーズは、北米コンピュータ言語学会(NAACL)の2025最優秀論文賞(2025 Best Paper Award)を受賞し、韓国型LLM開発成果を認められ、「NVIDIA GTC 2025」を発表韓国を代表するAI企業として国際的位相強化にも貢献している。
Trillion Labs 开源基于预学习的法学硕士“Tri-21B”课程
-通过独有的“From-Scratch”预学习方式和“X语言交叉学习系统(XLDA)”,将学习成本降低1/12,实现成本与性能之间的最理想结构
– 在数学、编码等高难度推理基准上展现出可与全球模型相媲美的性能,尤其在韩语理解领域展现出卓越的能力。
– 我们将利用自己的技术开发大规模语言模型,通过完整的LLM项目组合拓展人工智能在各行业的应用,并确保技术领先地位。

Trillion Labs(首席执行官 Jae-min Shin)已开源下一代大规模语言模型(LLM)“Tri-21B”,该模型旨在超越简单的文本生成,同时执行高维语言理解和复杂问题解决。
Tri-21B 是一个大规模语言模型,旨在超越简单的文本生成能力,同时执行高维语言理解和复杂问题求解。与其前身 Trillion-7B 相比,该模型的参数数量增加了三倍以上,达到约 210 亿个,性能显著提升,并且轻量高效,足以在单个 GPU 上流畅运行。
该模型采用LLM引擎和Trillion Labs独有技术,完全从零开始开发,旨在在需要高精度推理的任务中展现强大的性能。它采用“思维链”(CoT)结构,能够针对数学和编程等需要循序渐进思考的问题生成结构化答案,尤其应用了Trillion Labs独有的跨语言文档注意力(XLDA)技术。
XLDA 是一种数据学习方法,能够有效地将英语知识迁移到韩语和日语等资源匮乏的语言,并实现了一项创新,将学习成本大幅降低至现有水平的十二分之一。这一创新意义非凡,因为它为大幅提升数据不足行业中法学硕士 (LLM) 的利用率奠定了基础。此外,XLDA 不仅能为韩语,还能为日语等数据有限的东北亚语言生成更自然、更准确的句子。
Trillion-21B 在常识类(MMLU)、韩语理解类(KMMLU)、数学类(MATH)、编码类(MBPP Plus)等推理类高难度基准测试中,展现出与阿里巴巴Qwen 3、Meta LLaMA 3、谷歌Gemma 3等全球代表性中型模型相当的性能。尤其是在实际问题解决能力方面,其准确率在推理能力验证类(MMLU)中达到77.93(应用CoT时为85),在数学类(MATH)中达到77.89,在编码类(MBPP Plus)中达到75.4,展现出强大的实力。
在韩国语主要基准测试中,该语言也表现出色。在衡量韩国文化理解能力的“Hae-Rae”测试中获得了86.62分,在韩国语知识与推理能力(KMMLU)测试中获得了62分(应用CoT则为70分),远高于全球标准,在词汇理解、语境理解、文化背景反映等方面展现出无与伦比的韩国语理解能力。此外,该语言在金融、医疗、法律等对可靠性要求较高的领域也取得了稳定的成绩,提升了其跨行业应用的可能性。
Trillion Labs 首席执行官 Shin Jae-min 表示:“Tri-21B 通过飞轮结构有效地将大型 70B 模型的性能转移到 21B,并在模型尺寸、成本和性能之间的平衡方面实现了迄今为止最理想的结构。” 他补充道:“凭借该模型,我们将通过预学习从头开始开发的高性能 LLM 迅速实现成本效益和性能提升,从而提高韩国 AI 技术的完善度。此外,与未来即将发布的 Tri-70B 一起,我们将完善全尺寸 LLM 产品组合。”
另一方面,成立于2024年8月的Trillion Labs是韩国唯一一家自主设计以韩语为核心的法学硕士(LLM)课程并进行预学习(从零开始)的初创企业。该团队由国内外顶尖的AI工程师和研究人员组成,其中包括生成AI领域的先驱者申载民,以及来自韩国科学技术院(KAIST)、牛津大学、伯克利大学、亚马逊和Naver等院校的研究人员。2024年9月,该公司获得了580万美元(约90亿韩元)的种子轮投资,并于2025年3月开源了预发布模型Trillion-7B(Trillion-7B-preview)。
申在民代表自2017年以来一直是共情对话系统领域的领军研究者,并担任Naver HyperClova X(7B~60B模型)预学习的核心研究员。作为主要作者撰写的“Prometheus”系列论文荣获北美计算语言学协会(NAACL)2025年度最佳论文奖。此外,他因开发韩国式法学硕士(LLM)而获得认可,并在“NVIDIA GTC 2025”上作为特邀讲师发表了“Sovereign AI”主题演讲,为巩固韩国作为代表性AI企业的国际地位做出了贡献。
Trillion Labs ouvre le code source du LLM « Tri-21B » basé sur un apprentissage préalable dès le début
-Coûts d'apprentissage réduits de 1/12 grâce à la méthode unique de pré-apprentissage « From-Scratch » et au « X-Language Cross-Learning System (XLDA) », mettant en œuvre la structure la plus idéale entre coût et performance
– A démontré des performances comparables aux modèles mondiaux dans des tests de raisonnement de haute difficulté tels que les mathématiques et le codage, et a démontré des capacités exceptionnelles, en particulier dans le domaine de la compréhension de la langue coréenne.
– Nous développerons des modèles linguistiques à grande échelle en utilisant notre propre technologie, étendrons l'application de l'IA dans tous les secteurs avec un portefeuille LLM complet et assurerons le leadership technologique.

Trillion Labs (PDG Jae-min Shin) a publié en open source le modèle de langage à grande échelle (LLM) de nouvelle génération « Tri-21B », conçu pour aller au-delà de la simple génération de texte et réaliser simultanément une compréhension du langage à haute dimension et une résolution de problèmes complexes.
Tri-21B est un modèle de langage à grande échelle conçu pour dépasser la simple génération de texte et assurer simultanément la compréhension d'un langage de grande dimension et la résolution de problèmes complexes. Comparé à son prédécesseur, Trillion-7B, il a considérablement amélioré ses performances en multipliant par plus de trois le nombre de paramètres, pour atteindre environ 21 milliards. Il est également suffisamment léger et performant pour fonctionner de manière fluide sur un seul GPU.
Ce modèle, développé à l'aide du moteur LLM et d'une méthode complète et entièrement nouvelle utilisant la technologie unique de Trillion Labs, est conçu pour démontrer des performances exceptionnelles dans les tâches exigeant une inférence de haute précision. Il adopte la structure de la chaîne de pensée (CoT) qui génère des réponses structurées aux problèmes exigeant une réflexion étape par étape, tels que les mathématiques et le codage, et en particulier l'attention multilingue appliquée aux documents (XLDA), une technologie exclusive à Trillion Labs.
XLDA est une méthodologie d'apprentissage de données qui transfère efficacement les connaissances en anglais vers des langues à faibles ressources comme le coréen et le japonais. Cette innovation a permis de réduire considérablement les coûts d'apprentissage, les ramenant à 1/12 du niveau actuel. Cet atout est significatif, car il a posé les bases d'une augmentation spectaculaire de l'utilisation du LLM dans les secteurs où les données sont insuffisantes. De plus, XLDA permet une génération de phrases plus naturelle et plus précise, non seulement en coréen, mais aussi dans les langues d'Asie du Nord-Est, comme le japonais, dont les données sont limitées.
Trillion-21B a démontré des performances comparables à celles de modèles mondiaux représentatifs de taille moyenne tels que Qwen 3 d'Alibaba, Meta LLaMA 3 et Gemma 3 de Google dans des tests de raisonnement complexes tels que les connaissances générales (MMLU), la compréhension du coréen (KMMLU), les mathématiques (MATH) et le codage (MBPP Plus). Il a notamment démontré sa force dans la résolution de problèmes réels, enregistrant une précision de 77,93 (85 lorsque CoT est appliqué) en vérification des capacités de raisonnement (MMLU), 77,89 en mathématiques (MATH) et 75,4 dans le domaine du codage (MBPP Plus).
Il s'est également distingué dans les principaux tests coréens. Il a obtenu 86,62 points au Hae-Rae, qui mesure la compréhension de la culture coréenne, et 62 points (70 en appliquant le CoT) en connaissance de la langue coréenne et capacité de raisonnement (KMMLU), un score nettement supérieur au modèle mondial, démontrant une capacité inégalée de compréhension du coréen en termes de vocabulaire, de compréhension contextuelle et de prise en compte du contexte culturel. Il a également obtenu des résultats stables dans des domaines exigeant une grande fiabilité tels que la finance, la médecine et le droit, augmentant ainsi les possibilités d'application dans tous les secteurs.
Shin Jae-min, PDG de Trillion Labs, a déclaré : « Le Tri-21B transfère efficacement les performances d'un grand modèle 70B au 21B grâce à sa structure à volant d'inertie, et a mis en œuvre la structure la plus idéale à ce jour en termes d'équilibre entre taille, coût et performances du modèle. » Il a ajouté : « Avec ce modèle, nous allons rapidement améliorer la rentabilité et les performances grâce à des LLM hautes performances développés de A à Z par pré-apprentissage, améliorant ainsi le perfectionnement de la technologie d'IA coréenne. Avec le Tri-70B, qui sera commercialisé prochainement, nous compléterons notre portefeuille de LLM complets. »
Parallèlement, Trillion Labs, créée en août 2024, est la seule startup coréenne à avoir conçu de manière indépendante un LLM centré sur la Corée et à avoir mené une phase de pré-apprentissage (à partir de zéro). Son équipe est composée d'ingénieurs et de chercheurs en IA de haut niveau, originaires de Corée et de l'étranger, dont Jae-min Shin, pionnier de l'IA générative, et issus de KAIST, Oxford, Berkeley, Amazon et Naver. En septembre 2024, elle a levé 5,8 millions de dollars (environ 9 milliards de wons) d'investissements de pré-amorçage et, en mars 2025, elle a publié le modèle préliminaire Trillion-7B (Trillion-7B-preview) en open source.
Le PDG Shin Jae-min est un chercheur de premier plan dans le domaine des systèmes de dialogue empathique depuis 2017 et a joué un rôle clé dans le pré-apprentissage de Naver HyperClova X (modèle 7B~60B). La série d'articles « Prometheus », rédigée en tant qu'auteur principal, a remporté le prix du meilleur article 2025 de la North American Association for Computational Linguistics (NAACL). Il a également été récompensé pour ses réalisations dans le développement d'un LLM de style coréen et a présenté « Sovereign AI » en tant que conférencier invité à la NVIDIA GTC 2025, contribuant ainsi à renforcer le statut international de la Corée en tant qu'entreprise représentative de l'IA.
You must be logged in to post a comment.