-韓国でプロムスクラッチで開発された最大規模モデルであるツリー(Tri)-70B(700億パラメータ)、事後学習最小化されたベースモデル形態で公開
-同時に「オープンソースウィーク」宣言し、 0.5B、1.8B、7B、70Bにわたって最も開放されたライセンスであるApache 2.0で公開、研究・産業界とも商業活用まで可能な開放性を提供
-中間チェックポイントまで全面公開し、訓練過程の透明性強化及び研究再現性と学習ダイナミクス分析が可能にしたグローバル研究標準提示

超知能AIスタートアップのトリリオンラプス(代表シン・ジェミン)が韓国で初めて700億(70B)パラメータ規模の大規模言語モデル(LLM)ツリー(Tri)-70Bを公開した。今回のモデルは、現在まで韓国でプロムスクラッチ(from-scratch)で開発された最大の言語モデルという点で意味が大きい。また、事後学習が最小化されたベースモデルの形で公開され、研究者と企業が簡単にカスタマイズできるという点で学界と産業界の両方に寄与すると予想される。
また、トリリオンラプスは70Bモデル公開とともに「オープンソースモンス(Open Source Month)」を宣言し、0.5B、1.8B、7B、70B全ラインナップをApache 2.0ライセンスで公開した。これによりトリリオンラプスの言語モデルラインナップを研究目的はもちろん商業活用まで最も開放された形で提供し、単純な結果物共有を超えて研究と産業現場で実際に活用できる資産を提供する。
特にトリリオンラプスは今回のオープンソースマンスから毎週最終モデルだけでなく、学習途中生成された中間チェックポイント(Intermediate Checkpoint)まで全面公開する。これにより、学界と産業界は大規模モデルの学習過程を細かく研究することができ、効率的な再学習および応用研究を行うことができる。
これはグローバルレベルでも非常にまれです。これまでは非営利機関であるアレンAI(AllenAI)やハギングフェイス(Hugging Face)程度だけ制限的にやってきたし、トリリオンラプスが世界3番目で韓国では初めてだ。トリリオンラプスは国内初で世界的にも手に挙げられる規模の研究公開を通じて、学習前の過程の透明性と再現性を保障する新しい研究標準を提示したと評価される。
今回の公開には多言語翻訳特化モデルとリアルタイム検索(Search)特化モデルも含まれた。特に、検索モデルはDuckDuckGoなどの検索エンジンと連動して最新の情報をリアルタイムで反映することができ、大規模な言語モデルが継続的に新しい知識を学習して活用できる可能性を示す。
シン・ジェミントリリオンラプス代表は「私たちは単に言語モデルを作るのにとどまらず、訓練過程と核心技法まで共に公開し、研究の透明性を確保し、韓国はもちろんグローバルAI研究生態系発展の土台を設けたい」とし「今回の公開は韓国で初めて試みられる意味ある挑戦で、国内AI企業が技術的優秀性と開放的研究を」と強調した。
一方、2024年8月に設立されたトリリオンラプスは、韓国語中心LLMを独自に設計し、事前学習(from-scratch)から進めてきた国内唯一のスタートアップだ。生成型AI分野の先駆者であるシン・ジェミン代表を主軸にカイスト、オックスフォード、バークレー、アマゾン、ネイバー出身など国内外最高レベルのAIエンジニアおよび研究員で構成されたチームだ。 2024年9月には580万ドル(約90億ウォン)規模のプレシード投資を誘致し、2025年3月に先行公開モデルトリリオン-7B(Trillion-7B-preview)、去る7月にツリー(Tri)-21Bをオープンソースで公開した。
You must be logged in to post a comment.