Trillion Labs dévoile le premier LLM et le premier point de contrôle de modèle de 70 milliards de dollars de Corée

-Tri-70B (70 milliards de paramètres), le plus grand modèle développé à partir de zéro en Corée, publié comme modèle de base avec un post-apprentissage minimal.

– Simultanément , la « Semaine de l'Open Source » a été déclarée et la licence la plus ouverte, Apache 2.0, a été publiée sur 0.5B, 1.8B, 7B et 70B, offrant une ouverture qui peut être utilisée commercialement par la recherche et l'industrie.

-Fournit une norme de recherche mondiale qui améliore la transparence du processus de formation en divulguant entièrement tous les points de contrôle, permettant la reproductibilité de la recherche et l'analyse de la dynamique d'apprentissage.

Trillion Labs (PDG : Jaemin Shin), start-up spécialisée dans l'IA ultra-intelligente, a dévoilé Tri-70B, le premier modèle linguistique à grande échelle (LLM) de Corée, doté de 70 milliards de paramètres. Ce modèle est important car il s'agit du plus grand modèle linguistique développé de toutes pièces en Corée à ce jour. De plus, il est disponible sous forme de modèle de base avec un minimum de post-formation, ce qui permet aux chercheurs et aux entreprises de le personnaliser facilement, ce qui devrait profiter au monde universitaire et à l'industrie.

De plus, avec la sortie du modèle 70B, Trillion Labs a déclaré le « Mois de l'Open Source » et a publié l'intégralité de sa gamme de modèles 0,5B, 1,8B, 7B et 70B sous licence Apache 2.0. Ainsi, la gamme de modèles linguistiques de Trillion Labs est disponible sous la forme la plus ouverte possible, de la recherche à l'utilisation commerciale, allant au-delà du simple partage de résultats pour fournir des ressources utilisables en recherche et dans des contextes industriels.

Il est à noter qu'au cours de ce Mois de l'Open Source, Trillion Labs dévoilera intégralement non seulement le modèle final, mais également les points de contrôle intermédiaires générés lors de l'entraînement. Cela permettra aux universités et à l'industrie d'étudier de près le processus d'entraînement des modèles à grande échelle et de mener des activités de recyclage et de recherche appliquée efficaces.

Il s'agit d'une initiative rare, même à l'échelle mondiale. Auparavant, seules des organisations à but non lucratif comme AllenAI et Hugging Face avaient entrepris de telles initiatives, et Trillion Labs est la troisième au monde et la première en Corée à le faire. Trillion Labs est considérée comme ayant établi une nouvelle norme de recherche, garantissant transparence et reproductibilité tout au long du processus d'apprentissage grâce à la divulgation des résultats de recherche, une première en Corée et l'une des plus importantes du genre au monde.

Cette version inclut également des modèles spécialisés pour la traduction multilingue et la recherche en temps réel. Ce modèle de recherche, en particulier, peut être intégré à des moteurs de recherche comme DuckDuckGo pour refléter les informations les plus récentes en temps réel, démontrant ainsi le potentiel des modèles linguistiques à grande échelle pour apprendre et exploiter en continu de nouvelles connaissances.

Shin Jae-min, PDG de Trillion Labs, a souligné : « Nous ne nous contentons pas de créer un modèle de langage, mais nous divulguons également le processus de formation et les techniques de base afin de garantir la transparence de la recherche et de jeter les bases du développement de l'écosystème de recherche en IA, non seulement en Corée, mais aussi à l'échelle mondiale. » Il a ajouté : « Cette divulgation est un défi de taille, relevé pour la première fois en Corée, et constituera un point de départ important pour démontrer que les entreprises nationales d'IA peuvent garantir leur compétitivité mondiale grâce à l'excellence technologique et à une culture de recherche ouverte. »

Parallèlement, Trillion Labs, fondée en août 2024, est la seule startup coréenne à avoir conçu et mis en œuvre de manière indépendante un programme de LLM coréen de A à Z. Dirigée par son PDG Jaemin Shin, pionnier de l'IA générative, l'équipe est composée d'ingénieurs et de chercheurs en IA de haut niveau, originaires de Corée et de l'étranger, notamment des diplômés de KAIST, Oxford, Berkeley, Amazon et Naver. L'entreprise a levé 5,8 millions de dollars (environ 9 milliards de wons coréens) en financement de pré-amorçage en septembre 2024 et a mis en open source son modèle préliminaire, Trillion-7B (Trillion-7B-preview), en mars 2025, et Tri-21B en juillet.