트릴리온랩스, 국내 최초 70B LLM 및 모델 체크포인트 공개

-한국에서 프롬 스크래치로 개발된 최대 규모 모델인 트리(Tri)-70B(700억 파라미터), 사후학습 최소화된 베이스모델 형태로 공개

-동시에 오픈소스위크’ 선언하며 0.5B, 1.8B, 7B, 70B에 걸쳐 가장 개방된 라이선스인 Apache 2.0으로 공개, 연구·산업계 모두 상업적 활용까지 가능한 개방성 제공

-중간 체크포인트까지 전면 공개해 훈련 과정의 투명성 강화 및 연구 재현성과 학습 다이나믹스 분석이 가능하도록 한 글로벌 연구 표준 제시

초지능 AI 스타트업 트릴리온랩스(대표 신재민)가 국내 최초로 700억(70B) 파라미터 규모의 대규모 언어모델(LLM) 트리(Tri)-70B를 공개했다. 이번 모델은 현재까지 한국에서 프롬 스크래치(from-scratch)로 개발된 가장 큰 언어모델이라는 점에서 의미가 크다. 또한 사후학습이 최소화된 베이스모델 형태로 공개되어 연구자와 기업들이 손쉽게 커스터마이징할 수 있다는 점에서 학계 및 산업계 모두에 기여할 것으로 예상된다.

또한 트릴리온랩스는 70B 모델 공개와 함께 ‘오픈소스 먼스(Open Source Month)’를 선언하고, 0.5B, 1.8B, 7B, 70B 전 라인업을 Apache 2.0 라이선스로 공개했다. 이를 통해 트릴리온랩스의 언어모델 라인업을 연구 목적은 물론 상업적 활용까지 가장 개방된 형태로 제공하며, 단순한 결과물 공유를 넘어 연구와 산업 현장에서 실제로 활용할 수 있는 자산을 제공한다.

특히 트릴리온랩스는 이번 오픈소스 먼스에서 매주 최종 모델뿐 아니라 학습 도중 생성된 중간 체크포인트(Intermediate Checkpoint)까지 전면 공개한다. 이를 통해 학계 및 산업계는 대규모 모델의 학습 과정을 세밀하게 연구할 수 있으며, 효율적인 재학습 및 응용 연구를 수행할 수 있다.

이는 글로벌 차원에서도 매우 드문 시도다. 지금까지는 비영리기관인 앨런연구소(AllenAI)나 허깅페이스(Hugging Face) 정도만 제한적으로 해왔으며 트릴리온랩스가 전 세계 세 번째 이자 한국에서는 처음이다. 트릴리온랩스는 국내 최초이자 세계적으로도 손에 꼽히는 규모의 연구 공개를 통해 학습 전 과정의 투명성과 재현성을 보장하는 새로운 연구 표준을 제시한 것으로 평가된다.

이번 공개에는 다국어 번역 특화 모델과 실시간 검색(Search) 특화 모델도 포함됐다. 특히 검색 모델은 덕덕고(DuckDuckGo)와 같은 검색 엔진과 연동하여 최신 정보를 실시간으로 반영할 수 있어, 대규모 언어모델이 지속적으로 새로운 지식을 학습하고 활용할 수 있는 가능성을 보여준다.

신재민 트릴리온랩스 대표는 “우리는 단순히 언어 모델을 만드는 데 그치지 않고, 훈련 과정과 핵심 기법까지 모두 공개해 연구의 투명성을 확보하고 한국은 물론 글로벌 AI 연구 생태계 발전의 토대를 마련하고자 한다”며 “이번 공개는 한국에서 처음 시도되는 의미 있는 도전으로, 국내 AI 기업들이 기술적 우수성과 개방적 연구 문화를 통해 글로벌 경쟁력을 확보할 수 있음을 보여주는 중요한 출발점이 될 것”이라고 강조했다.

한편 2024년 8월 설립된 트릴리온랩스는 한국어 중심 LLM을 독자적으로 설계하고 사전 학습(from-scratch)부터 진행해온 국내 유일의 스타트업이다. 생성형 AI 분야의 개척자인 신재민 대표를 주축으로 카이스트, 옥스포드, 버클리, 아마존, 네이버 출신 등 국내외 최고 수준의 AI 엔지니어 및 연구원으로 구성된 팀이다. 2024년 9월 580만달러(약 90억원) 규모의 프리-시드 투자를 유치했으며, 2025년 3월 선공개모델 트릴리온-7B(Trillion-7B-preview), 지난 7월 트리(Tri)-21B를 오픈소스로 공개했다.

Trillion Labs Unveils Korea's First 70B LLM and Model Checkpoint

-Tri-70B (70 billion parameters), the largest model developed from scratch in Korea, released as a base model with minimal post-learning.

– Simultaneously , ' Open Source Week' was declared, and the most open license, Apache 2.0, was released across 0.5B, 1.8B, 7B, and 70B, providing openness that can be used commercially by both research and industry.

-Provides a global research standard that enhances the transparency of the training process by fully disclosing all checkpoints, enabling research reproducibility and analysis of learning dynamics.

Trillion Labs (CEO Jaemin Shin), a super-intelligent AI startup, has unveiled Tri-70B, Korea's first large-scale language model (LLM) with 70 billion (70B) parameters. This model is significant as it is the largest language model developed from scratch in Korea to date. Furthermore, it is released as a base model with minimal post-training, allowing researchers and companies to easily customize it, which is expected to contribute to both academia and industry.

Additionally, with the release of the 70B model, Trillion Labs declared "Open Source Month" and released its entire lineup of 0.5B, 1.8B, 7B, and 70B models under the Apache 2.0 license. This provides Trillion Labs' language model lineup in the most open form possible, from research purposes to commercial use, going beyond simple sharing of results to providing assets that can be utilized in research and industrial settings.

Notably, during this Open Source Month, Trillion Labs will fully disclose not only the final model but also intermediate checkpoints generated during training. This will allow academia and industry to closely study the training process of large-scale models and conduct efficient retraining and applied research.

This is a rare endeavor, even on a global scale. Previously, only non-profit organizations like AllenAI and Hugging Face had undertaken such efforts, and Trillion Labs is the third globally and the first in Korea to do so. Trillion Labs is considered to have established a new research standard, ensuring transparency and reproducibility throughout the entire learning process through research disclosure, a first in Korea and one of the largest of its kind globally.

This release also includes models specialized for multilingual translation and real-time search. The search model, in particular, can be integrated with search engines like DuckDuckGo to reflect the latest information in real time, demonstrating the potential for large-scale language models to continuously learn and utilize new knowledge.

Shin Jae-min, CEO of Trillion Labs, emphasized, “We are not simply creating a language model, but we are also disclosing the training process and core techniques to ensure research transparency and lay the foundation for the development of the AI research ecosystem not only in Korea but also globally.” He added, “This disclosure is a meaningful challenge that is being attempted for the first time in Korea, and it will be an important starting point to show that domestic AI companies can secure global competitiveness through technological excellence and an open research culture.”

Meanwhile, Trillion Labs, founded in August 2024, is the only startup in Korea to have independently designed and implemented a Korean-focused LLM program from scratch. Led by CEO Jaemin Shin, a pioneer in generative AI, the team comprises top-tier AI engineers and researchers from Korea and abroad, including graduates from KAIST, Oxford, Berkeley, Amazon, and Naver. The company secured $5.8 million (approximately KRW 9 billion) in pre-seed funding in September 2024 and open-sourced its pre-released model, Trillion-7B (Trillion-7B-preview), in March 2025, and Tri-21B in July.

トリリオンラプスが国内初の70B LLMとモデルチェックポイントを公開

-韓国でプロムスクラッチで開発された最大規模モデルであるツリー(Tri)-70B(700億パラメータ)、事後学習最小化されたベースモデル形態で公開

-同時にオープンソースウィーク」宣言し、 0.5B、1.8B、7B、70Bにわたって最も開放されたライセンスであるApache 2.0で公開、研究・産業界とも商業活用まで可能な開放性を提供

-中間チェックポイントまで全面公開し、訓練過程の透明性強化及び研究再現性と学習ダイナミクス分析が可能にしたグローバル研究標準提示

超知能AIスタートアップのトリリオンラプス(代表シン・ジェミン)が韓国で初めて700億(70B)パラメータ規模の大規模言語モデル(LLM)ツリー(Tri)-70Bを公開した。今回のモデルは、現在まで韓国でプロムスクラッチ(from-scratch)で開発された最大の言語モデルという点で意味が大きい。また、事後学習が最小化されたベースモデルの形で公開され、研究者と企業が簡単にカスタマイズできるという点で学界と産業界の両方に寄与すると予想される。

また、トリリオンラプスは70Bモデル公開とともに「オープンソースモンス(Open Source Month)」を宣言し、0.5B、1.8B、7B、70B全ラインナップをApache 2.0ライセンスで公開した。これによりトリリオンラプスの言語モデルラインナップを研究目的はもちろん商業活用まで最も開放された形で提供し、単純な結果物共有を超えて研究と産業現場で実際に活用できる資産を提供する。

特にトリリオンラプスは今回のオープンソースマンスから毎週最終モデルだけでなく、学習途中生成された中間チェックポイント(Intermediate Checkpoint)まで全面公開する。これにより、学界と産業界は大規模モデルの学習過程を細かく研究することができ、効率的な再学習および応用研究を行うことができる。

これはグローバルレベルでも非常にまれです。これまでは非営利機関であるアレンAI(AllenAI)やハギングフェイス(Hugging Face)程度だけ制限的にやってきたし、トリリオンラプスが世界3番目で韓国では初めてだ。トリリオンラプスは国内初で世界的にも手に挙げられる規模の研究公開を通じて、学習前の過程の透明性と再現性を保障する新しい研究標準を提示したと評価される。

今回の公開には多言語翻訳特化モデルとリアルタイム検索(Search)特化モデルも含まれた。特に、検索モデルはDuckDuckGoなどの検索エンジンと連動して最新の情報をリアルタイムで反映することができ、大規模な言語モデルが継続的に新しい知識を学習して活用できる可能性を示す。

シン・ジェミントリリオンラプス代表は「私たちは単に言語モデルを作るのにとどまらず、訓練過程と核心技法まで共に公開し、研究の透明性を確保し、韓国はもちろんグローバルAI研究生態系発展の土台を設けたい」とし「今回の公開は韓国で初めて試みられる意味ある挑戦で、国内AI企業が技術的優秀性と開放的研究を」と強調した。

一方、2024年8月に設立されたトリリオンラプスは、韓国語中心LLMを独自に設計し、事前学習(from-scratch)から進めてきた国内唯一のスタートアップだ。生成型AI分野の先駆者であるシン・ジェミン代表を主軸にカイスト、オックスフォード、バークレー、アマゾン、ネイバー出身など国内外最高レベルのAIエンジニアおよび研究員で構成されたチームだ。 2024年9月には580万ドル(約90億ウォン)規模のプレシード投資を誘致し、2025年3月に先行公開モデルトリリオン-7B(Trillion-7B-preview)、去る7月にツリー(Tri)-21Bをオープンソースで公開した。

Trillion Labs 推出韩国首个 70B 法学硕士项目和模型检查点

-Tri-70B(700 亿个参数),韩国从零开始开发的最大模型,作为极少后期学习的基础模型发布。

– 同时宣布启动开源周”,并发布最开放的许可证Apache 2.0,覆盖5亿、18亿、7亿、70亿,为科研和工业界提供商业用途的开放性。

-提供全球研究标准,通过全面公开所有检查点来提高培训过程的透明度,从而实现研究的可重复性和学习动态的分析。

超智能AI初创公司Trillion Labs(CEO:Jaemin Shin)发布了Tri-70B,这是韩国首个拥有700亿(70B)个参数的大规模语言模型(LLM)。该模型意义重大,因为它是迄今为止韩国从零开始开发的最大的语言模型。此外,它以基础模型的形式发布,后期训练工作极少,方便研究人员和企业轻松定制,预计将为学术界和产业界做出贡献。

此外,随着 70B 模型的发布,Trillion Labs 宣布“开源月”,并根据 Apache 2.0 许可证发布了其全部 0.5B、1.8B、7B 和 70B 模型产品线。这使得 Trillion Labs 的语言模型产品线以尽可能开放的形式,涵盖从研究用途到商业用途,超越了简单的成果共享,提供了可用于研究和工业环境的资产。

值得一提的是,在本次开源月期间,Trillion Labs 不仅将全面公开最终模型,还将公开训练过程中生成的中间检查点。这将使学术界和工业界能够深入研究大规模模型的训练过程,并开展高效的再训练和应用研究。

即使在全球范围内,这都是一项罕见的举措。此前,只有像AllenAI和Hugging Face这样的非营利组织开展过此类工作,而Trillion Labs是全球第三家、韩国首家开展此类工作的机构。Trillion Labs被认为建立了新的研究标准,通过研究公开确保整个学习过程的透明度和可重复性,这在韩国尚属首例,也是全球同类项目中规模最大的之一。

此版本还包含专门用于多语言翻译和实时搜索的模型。特别是搜索模型,可以与 DuckDuckGo 等搜索引擎集成,实时反映最新信息,展现了大规模语言模型持续学习和利用新知识的潜力。

Trillion Labs 首席执行官 Shin Jae-min 强调:“我们并非简单地创建语言模型,而是公开训练流程和核心技术,以确保研究透明度,为韩国乃至全球 AI 研究生态系统的发展奠定基础。” 他补充道:“此次公开是韩国首次尝试的一项意义深远的挑战,它将成为展示韩国 AI 企业如何通过卓越的技术和开放的研究文化确保全球竞争力的重要起点。”

与此同时,成立于2024年8月的Trillion Labs是韩国唯一一家从零开始独立设计并实施韩语法学硕士(LLM)项目的初创公司。在生成式人工智能先驱、首席执行官Jaemin Shin的带领下,团队由来自国内外的顶尖人工智能工程师和研究人员组成,其中包括来自韩国科学技术院(KAIST)、牛津大学、伯克利大学、亚马逊和Naver的毕业生。该公司于2024年9月获得580万美元(约90亿韩元)的种子轮融资,并于2025年3月开源了其预发布模型Trillion-7B(Trillion-7B-preview),并于7月开源了Tri-21B。

Trillion Labs dévoile le premier LLM et le premier point de contrôle de modèle de 70 milliards de dollars de Corée

-Tri-70B (70 milliards de paramètres), le plus grand modèle développé à partir de zéro en Corée, publié comme modèle de base avec un post-apprentissage minimal.

– Simultanément , la « Semaine de l'Open Source » a été déclarée et la licence la plus ouverte, Apache 2.0, a été publiée sur 0.5B, 1.8B, 7B et 70B, offrant une ouverture qui peut être utilisée commercialement par la recherche et l'industrie.

-Fournit une norme de recherche mondiale qui améliore la transparence du processus de formation en divulguant entièrement tous les points de contrôle, permettant la reproductibilité de la recherche et l'analyse de la dynamique d'apprentissage.

Trillion Labs (PDG : Jaemin Shin), start-up spécialisée dans l'IA ultra-intelligente, a dévoilé Tri-70B, le premier modèle linguistique à grande échelle (LLM) de Corée, doté de 70 milliards de paramètres. Ce modèle est important car il s'agit du plus grand modèle linguistique développé de toutes pièces en Corée à ce jour. De plus, il est disponible sous forme de modèle de base avec un minimum de post-formation, ce qui permet aux chercheurs et aux entreprises de le personnaliser facilement, ce qui devrait profiter au monde universitaire et à l'industrie.

De plus, avec la sortie du modèle 70B, Trillion Labs a déclaré le « Mois de l'Open Source » et a publié l'intégralité de sa gamme de modèles 0,5B, 1,8B, 7B et 70B sous licence Apache 2.0. Ainsi, la gamme de modèles linguistiques de Trillion Labs est disponible sous la forme la plus ouverte possible, de la recherche à l'utilisation commerciale, allant au-delà du simple partage de résultats pour fournir des ressources utilisables en recherche et dans des contextes industriels.

Il est à noter qu'au cours de ce Mois de l'Open Source, Trillion Labs dévoilera intégralement non seulement le modèle final, mais également les points de contrôle intermédiaires générés lors de l'entraînement. Cela permettra aux universités et à l'industrie d'étudier de près le processus d'entraînement des modèles à grande échelle et de mener des activités de recyclage et de recherche appliquée efficaces.

Il s'agit d'une initiative rare, même à l'échelle mondiale. Auparavant, seules des organisations à but non lucratif comme AllenAI et Hugging Face avaient entrepris de telles initiatives, et Trillion Labs est la troisième au monde et la première en Corée à le faire. Trillion Labs est considérée comme ayant établi une nouvelle norme de recherche, garantissant transparence et reproductibilité tout au long du processus d'apprentissage grâce à la divulgation des résultats de recherche, une première en Corée et l'une des plus importantes du genre au monde.

Cette version inclut également des modèles spécialisés pour la traduction multilingue et la recherche en temps réel. Ce modèle de recherche, en particulier, peut être intégré à des moteurs de recherche comme DuckDuckGo pour refléter les informations les plus récentes en temps réel, démontrant ainsi le potentiel des modèles linguistiques à grande échelle pour apprendre et exploiter en continu de nouvelles connaissances.

Shin Jae-min, PDG de Trillion Labs, a souligné : « Nous ne nous contentons pas de créer un modèle de langage, mais nous divulguons également le processus de formation et les techniques de base afin de garantir la transparence de la recherche et de jeter les bases du développement de l'écosystème de recherche en IA, non seulement en Corée, mais aussi à l'échelle mondiale. » Il a ajouté : « Cette divulgation est un défi de taille, relevé pour la première fois en Corée, et constituera un point de départ important pour démontrer que les entreprises nationales d'IA peuvent garantir leur compétitivité mondiale grâce à l'excellence technologique et à une culture de recherche ouverte. »

Parallèlement, Trillion Labs, fondée en août 2024, est la seule startup coréenne à avoir conçu et mis en œuvre de manière indépendante un programme de LLM coréen de A à Z. Dirigée par son PDG Jaemin Shin, pionnier de l'IA générative, l'équipe est composée d'ingénieurs et de chercheurs en IA de haut niveau, originaires de Corée et de l'étranger, notamment des diplômés de KAIST, Oxford, Berkeley, Amazon et Naver. L'entreprise a levé 5,8 millions de dollars (environ 9 milliards de wons coréens) en financement de pré-amorçage en septembre 2024 et a mis en open source son modèle préliminaire, Trillion-7B (Trillion-7B-preview), en mars 2025, et Tri-21B en juillet.

%d bloggers like this: