벤처스퀘어
  • StartupSquare
  • Startup News
  • Venturesquare 투자(200+)
  • FAQ
Ventursquare news
2025년 12월 19일 (금)
Venturesquare 투자(200+)
투자포트폴리오 & 관련기사
FAQ
보도자료 접수/게재 등
[광고문의 / 광고 홍보 패키지 문의]
문의하기

トリリオンラプス、最初から事前学習した基盤LLM「Tri(Tri)-21B」オープンソース公開

07/23/2025

-独自の「From-Scratch」事前学習方式と「言語間相互学習システム(XLDA)」を通じて学習コスト1/12に削減、コストと性能の間で最も理想的な構造を実現

-数学、コーディングなど高難度推論ベンチマークでグローバルモデルと並ぶ性能を見せ、特に韓国語理解力部門で卓越した力量立証

– 自社技術力だけで大規模言語モデル開発、フルサイズLLMポートフォリオで産業全般にAI適用を拡大し、技術主導権確保に乗り出すこと

トリリオンラプス(代表シンジェミン)は、単純なテキスト生成能力を超えて高次元の言語理解と複雑な問題解決を同時に遂行できるように設計された次世代大規模言語モデル(LLM)「ツリー(Tri)-21B」をオープンソースで公開した。

Tree-21B 'は、単純なテキスト生成能力を超えて、高次元の言語理解と複雑な問題解決を同時に実行できるように設計された大規模な言語モデルです。前作のトリリオン(Trillion)-7B比パラメータ数を3倍以上に拡張した約210億個規模で性能を大幅に引き上げ、1台のGPUでもスムーズに動作できる軽量性と効率性を同時に備えた。

トリリオンラプスの独自の技術力でLLMエンジンから完全な事前学習(From-scratch)方式で開発された今回のモデルは、高精度推論が必要な作業で強力な性能を発揮するように設計された。数学やコーディングなど、段階的思考が要求される問題に対して構造化された回答を生成する思考連鎖(CoT, Chain of Thought)構造を採用し、特にトリリオンラプスだけの技術力である言語間相互学習システム(Cross-lingual Document Attention, XLDA)を適用した。

XLDAは、英語ベースの知識を韓国語や日本語などの低資源言語に効果的に転移するデータ学習方法論で、従来比1/12レベルで学習コストを大幅に削減するイノベーションを成し遂げた。これは、データが不足している産業分野でもLLM活用度を画期的に引き上げることができる基盤を設けたという点で意味が大きい。また、XLDAを通じて韓国語だけでなく、データが少ない日本語のような北東アジア言語圏でもさらに自然で正確な文章生成が可能だ。

トリリオン-21Bは総合知識(MMLU)、韓国語言語理解(KMMLU)、数学(MATH)、コーディング(MBPP Plus)など高難度推論中心ベンチマークでアリババのQwen 3、メタ LLaMA 3、グーグルのGemma 3などグローバル代表中型モデルと比べると性能。特に推論能力検証(MMLU)では77.93(CoT適用時85)点、数学(MATH)で77.89点、コーディング領域(MBPP Plus)で75.4点の精度を記録し、実際の問題解決能力でも強みを立証した。

主要韓国語ベンチマークでも頭角を現わした。韓国文化の理解度を測定する解例(Hae-Rae)で86.62点、韓国語知識と推論能力(KMMLU)で62点(CoT適用時70)を記録、グローバルモデルに比べて格段に高いスコアを記録し、語彙と文脈理解、文化的文脈反映で独歩的な韓国語理解また、金融、医療、法律など高い信頼性が求められる分野でも安定した結果を導き出し、産業全般にわたる適用可能性を高めた。

シン・ジェミントリリオンラプス代表は「トリ(Tri)-21Bはフライホイール構造を通じて70B級大型モデルの性能を21Bに効果的に転移し、モデルサイズとコスト、性能間バランスで現存する最も理想的な構造を実装した」とし「今回のモデルのように床から事前学習で開発した高性能LLMを通じて技術効率を達成高め、今後公開されるツリー(Tri)-70BとともにフルサイズLLMポートフォリオを完成していく」と付け加えた。

一方、2024年8月に設立されたトリリオンラプスは、韓国語中心LLMを独自に設計し、事前学習(from-scratch)から進めてきた国内唯一のスタートアップだ。生成型AI分野の先駆者であるシン・ジェミン代表を主軸にカイスト、オックスフォード、バークレー、アマゾン、ネイバー出身など国内外最高レベルのAIエンジニアおよび研究員で構成されたチームだ。 2024年9月580万ドル(約90億ウォン)規模のプレシード投資を誘致し、2025年3月先行公開モデルトリリオン-7B(Trillion-7B-preview)をオープンソースで公開した。

シン・ジェミン代表は2017年から共感型対話システム分野の先導的研究者で、ネイバーハイパークローバーX(7B~60Bモデル)事前学習の核心研究者として参加した。主な著者として書かれた「プロメテウス(Prometheus)」論文シリーズは、北米コンピュータ言語学会(NAACL)の2025最優秀論文賞(2025 Best Paper Award)を受賞し、韓国型LLM開発成果を認められ、「NVIDIA GTC 2025」を発表韓国を代表するAI企業として国際的位相強化にも貢献している。

Related



← セリマックス、上半期エイブリービューティーアワーズサンクリーム・クレンジングフォーム部門1位達成
中小ベンチャー企業認証院、産業通商資源部長官表彰受賞 →
  • 뉴스레터신청
  • 광고상품문의
벤처스퀘어
액셀러레이터 등록번호 : 제 2017-24호 I 사업자등록번호 : 211-88-48126 I 인터넷신문 등록번호: 서울, 아01225 I 제호 : 벤처스퀘어 I 발행일자 : 2014년 9월 1일 발행 I 등록일자 : 2010년 4월 29일 I 편집인 : 명승은, 발행인 : 명승은 I 청소년책임자 : 박진형 I 전화번호 : 1877-6503
액셀러레이션 · 투자 · 미디어 · 서비스운영 · 투자조합 운영
서울시 강남구 영동대로 646, 1604호 (위레벤646)
경기도 성남시 분당구 대왕판교로 645번길 12, 5층

Copyright © VENTURESQUARE. All Rights Reserved.

editor@venturesquare.net
 

Loading Comments...
 

You must be logged in to post a comment.