
AI 반도체 스타트업 하이퍼엑셀이 업스테이지 컨소시엄을 통해 정부의 독자 AI 파운데이션 모델 협력 생태계에 합류한다.
하이퍼엑셀은 생성형 AI의 실제 응용 환경에 최적화된 LLM 추론 전용 AI 반도체를 설계·개발하는 기업이다. 초거대 언어모델 서비스 단계에서 발생하는 연산 병목과 전력 및 운영 비용 문제를 해결하기 위해 독자 아키텍처 기반의 LPU(LLM Processing Unit)를 개발해왔다.
이번 컨소시엄 참여를 통해 하이퍼엑셀은 독자 AI 모델 확산을 위한 추론 인프라 고도화 및 효율화에 협력할 계획이다. LLM 추론에 특화된 LPU 설계와 성능 개선, 생성형 AI 응용 환경에 최적화된 추론 가속 기술 연구개발을 기반으로 고효율·저비용 AI 서비스 인프라 구현에 나선다.
또한 vLLM과 PyTorch 기반의 고가용성(HA) 풀스택 소프트웨어 스택 개발 및 제공을 주요 역할로 수행할 예정이다. 이를 통해 추론 성능과 안정성을 동시에 확보하는 인프라 구조를 마련한다는 방침이다.
하이퍼엑셀은 단순 반도체 공급을 넘어 하드웨어와 서빙 소프트웨어를 통합한 구조를 구축함으로써 초거대 모델 상용화 과정에서 요구되는 처리 효율, 전력 대비 성능, 운영 안정성을 종합적으로 강화할 계획이다.
이를 통해 독자 AI 파운데이션 모델이 실제 데이터센터 및 산업 서비스 환경에서 경제성과 확장성을 갖춘 형태로 운영될 수 있도록 지원한다는 설명이다.
김주영 하이퍼엑셀 대표는 초거대 AI 경쟁은 모델 규모뿐 아니라 이를 얼마나 효율적으로 서비스할 수 있는지에 달려 있다며, LPU 기반 추론 가속 기술을 통해 국내 AI 인프라의 기술 자립과 글로벌 수준의 비용 경쟁력 확보에 기여하겠다고 밝혔다.
- 관련 기사 더 보기
HyperAccel Joins Upstage Consortium, Collaborating on Independent AI Foundation Model Infrastructure

AI semiconductor startup HyperExcel is joining the government's independent AI foundation model cooperation ecosystem through the Upstage Consortium.
HyperExcel designs and develops AI semiconductors specifically for LLM inference, optimized for real-world application environments of generative AI. To address computational bottlenecks and power and operating cost issues arising during the service phase of ultra-large language models, HyperExcel has developed an LPU (LLM Processing Unit) based on its proprietary architecture.
Through its participation in this consortium, HyperExcel plans to collaborate on enhancing and streamlining the inference infrastructure for the widespread adoption of proprietary AI models. Based on LPU design and performance improvements specialized for LLM inference, and research and development of inference acceleration technology optimized for generative AI application environments, HyperExcel will move forward with implementing a high-efficiency, low-cost AI service infrastructure.
Additionally, the company will primarily develop and deliver a high-availability (HA) full-stack software stack based on vLLM and PyTorch. This will establish an infrastructure that simultaneously ensures inference performance and stability.
HyperExcel plans to comprehensively enhance the processing efficiency, power-to-performance ratio, and operational stability required for commercializing ultra-large models by building a structure that integrates hardware and serving software beyond simple semiconductor supply.
This is explained as supporting the operation of the reader AI foundation model in an economical and scalable manner in actual data centers and industrial service environments.
Kim Joo-young, CEO of HyperExcel, said that the competition in the ultra-large-scale AI depends not only on the size of the model, but also on how efficiently it can be serviced, and that he would contribute to securing technological independence of domestic AI infrastructure and global-level cost competitiveness through LPU-based inference acceleration technology.
- See more related articles
ハイパーエクセル、アップステージコンソーシアム合流…独自AIファンデーションモデルインフラ協力

AI半導体スタートアップハイパーエクセルがアップステージコンソーシアムを通じて政府の独自AIファンデーションモデル協力エコシステムに合流する。
ハイパーエクセルは、生成型AIの実際の応用環境に最適化されたLLM推論専用のAI半導体を設計・開発する企業だ。超巨大言語モデルサービス段階で発生する演算ボトルネックと電力および運用コストの問題を解決するために、独自のアーキテクチャベースのLPU(LLM Processing Unit)を開発してきました。
今回のコンソーシアム参加を通じて、ハイパーエクセルは独自のAIモデル拡散のための推論インフラの高度化と効率化に協力する計画だ。 LLM推論に特化したLPU設計と性能改善、生成型AIアプリケーション環境に最適化された推論加速技術研究開発をベースに、高効率・低コストAIサービスインフラの実現に乗り出す。
また、vLLMとPyTorchベースの高可用性(HA)フルスタックソフトウェアスタックの開発と提供を主な役割で行う予定です。これにより推論性能と安定性を同時に確保するインフラ構造を設ける方針だ。
ハイパーエクセルは、単純半導体供給を超えてハードウェアとサービングソフトウェアを統合した構造を構築することで、超巨大モデルの商用化過程で求められる処理効率、電力対比性能、運用安定性を総合的に強化する計画だ。
これにより、独自のAIファンデーションモデルが実際のデータセンターや産業サービス環境で経済性と拡張性を備えた形で運営できるように支援するという説明だ。
キム・ジュヨンのハイパーエクセル代表は、超巨大AI競争はモデル規模だけでなく、これをどれだけ効率的にサービスできるかによって決まる。
- 関連記事をもっと見る
HyperAccel 加入 Upstage 联盟,合作构建独立人工智能基础模型基础设施

AI半导体初创公司HyperExcel正通过Upstage联盟加入政府的独立AI基金会模式合作生态系统。
HyperExcel 专门设计和开发用于语言模型推理的 AI 半导体,并针对生成式 AI 的实际应用环境进行了优化。为了解决超大型语言模型服务阶段出现的计算瓶颈、功耗和运营成本问题,HyperExcel 基于其专有架构开发了 LPU(语言模型处理单元)。
通过参与该联盟,HyperExcel计划合作增强和简化推理基础设施,以促进专有AI模型的广泛应用。基于专为LLM推理设计的LPU设计和性能改进,以及针对生成式AI应用环境优化的推理加速技术的研究与开发,HyperExcel将推进高效、低成本的AI服务基础设施的建设。
此外,该公司将主要开发并交付基于 vLLM 和 PyTorch 的高可用性 (HA) 全栈软件栈。这将建立一个能够同时确保推理性能和稳定性的基础设施。
HyperExcel 计划通过构建一个超越简单半导体供应的、集成硬件和服务软件的架构,全面提高商业化超大型模型所需的处理效率、功耗性能比和运行稳定性。
这被解释为在实际数据中心和工业服务环境中,以经济且可扩展的方式支持读者 AI 基础模型的运行。
HyperExcel 首席执行官金柱英表示,超大规模人工智能领域的竞争不仅取决于模型的大小,还取决于其维护效率。他将通过基于 LPU 的推理加速技术,为确保国内人工智能基础设施的技术独立性和全球水平的成本竞争力做出贡献。
- 查看更多相关文章
HyperAccel rejoint le consortium Upstage et collabore à la création d'une infrastructure de modèle de fondation d'IA indépendante

La start-up HyperExcel, spécialisée dans les semi-conducteurs et l'IA, rejoint l'écosystème de coopération du modèle de fondation indépendante pour l'IA du gouvernement via le consortium Upstage.
HyperExcel conçoit et développe des semi-conducteurs pour l'IA, spécifiquement dédiés à l'inférence LLM et optimisés pour les environnements d'application réels de l'IA générative. Afin de pallier les limitations de calcul et les problèmes de consommation d'énergie et de coûts d'exploitation rencontrés lors de la phase de service des modèles de langage de très grande taille, HyperExcel a développé une unité de traitement LLM (LPU) basée sur son architecture propriétaire.
Grâce à sa participation à ce consortium, HyperExcel prévoit de collaborer à l'amélioration et à la rationalisation de l'infrastructure d'inférence afin de favoriser l'adoption généralisée de modèles d'IA propriétaires. S'appuyant sur des améliorations de conception et de performance des unités de traitement léger (LPU) spécialisées pour l'inférence LLM, ainsi que sur la recherche et le développement de technologies d'accélération de l'inférence optimisées pour les environnements d'application d'IA générative, HyperExcel poursuivra la mise en œuvre d'une infrastructure de services d'IA performante et économique.
De plus, l'entreprise développera et fournira principalement une pile logicielle complète à haute disponibilité (HA) basée sur vLLM et PyTorch. Ceci permettra de mettre en place une infrastructure garantissant simultanément les performances et la stabilité de l'inférence.
HyperExcel prévoit d'améliorer considérablement l'efficacité de traitement, le rapport puissance/performance et la stabilité opérationnelle nécessaires à la commercialisation de modèles ultra-larges en construisant une structure qui intègre le matériel et les logiciels de service au-delà de la simple fourniture de semi-conducteurs.
Ceci est présenté comme un moyen de soutenir le fonctionnement du modèle de base d'IA du lecteur de manière économique et évolutive dans des centres de données réels et des environnements de services industriels.
Kim Joo-young, PDG d'HyperExcel, a déclaré que la concurrence dans le domaine de l'IA à très grande échelle dépend non seulement de la taille du modèle, mais aussi de l'efficacité avec laquelle il peut être géré, et qu'il contribuerait à garantir l'indépendance technologique de l'infrastructure d'IA nationale et la compétitivité des coûts au niveau mondial grâce à une technologie d'accélération de l'inférence basée sur les LPU.
- Voir plus d'articles connexes
You must be logged in to post a comment.