-디지털엣지 부평 데이터센터에 초고성능 AI 전용 GPU 인프라 구축
-국내 GPU 수요에 발맞춰 안정적이고 경쟁력 있는 가격으로 고성능, 저전력의 AI, HPC, 데이터 분석 등에 사용되는 하이엔드 클라우드 기반 서비스 런칭

양자컴퓨팅 연구개발 및 양자보안, AI 인프라 운영 기업인 한국퀀텀컴퓨팅(이하 KQC, 대표 김준영)은 디지털엣지 부평 데이터센터에 엔비디아(NVIDIA) H200 GPU 기반의 초고성능 ‘AI GPU 팜(AI GPU Farm)’을 구축하고, 7월 4일부터 클라우드 기반 고성능 컴퓨팅서비스(이하 GPUaaS)를 시작한다고 밝혔다.
KQC는 LLM과 AI 코파일럿, 멀티모델 AI 등 새로운 응용 시장이 성장하고 보다 더 큰 메모리에 대한 니즈와 연산 수요가 폭증하고 있는 최근 시장에 발맞춰, 국내 기업과 기관들이 클라우드를 통해 유연하게 컴퓨팅 자원을 이용할 수 있도록 할 예정이다. 이제 고객들은 직접 운영체제를 설치하고 제어할 수 있는 물리서버(Dedicated Bare Metal) 환경에서 직접 GPU를 사용하는 것과 같은 높은 성능과 안정성을 누릴 수 있다.
KQC가 이번에 선보인 AI GPU 팜은 엔비디아의 최신 GPU 아키텍처 호퍼(Hopper) 기반으로 병렬 배치한 클러스터로 구성되었으며, GPT-4, Claude, Gemini 등 초거대 언어모델(이하 LLM), 생성형 AI(GenAI), 복잡한 시뮬레이션, 고성능 데이터 분석 등 연산 집약적인 워크로드에 최적화된 인프라이다. H200 GPU는 기존 H100 대비 메모리 용량과 속도가 대폭 향상되었으며, 내장된 Transformer Engine을 통해 LLM 훈련과 추론 효율을 극대화할 수 있다.
KQC 김준영 대표는 “KQC의 GPU 팜은 빅테크 기업, AI 스타트업, 복잡한 시뮬레이션 및 데이터 분석을 요하는 산업군, 국가 연구기관, HPC 센터 등에게 많은 수요가 있을 것이다”라면서 “안정적이고 합리적인 가격으로 AI 및 HPC에 최적화된 인프라를 제공함으로써 향후 양자컴퓨팅 인프라와 연계한 고도화된 서비스도 선보일 계획이다”라고 밝혔다.
KQC의 AI GPUaaS(서비스형 GPU) 서비스는 대규모 데이터셋 처리와 복잡한 AI 모델 학습을 가속화할 수 있으며, GPU 가상화 및 공유 기능을 통해 여러 사용자가 동시에 효율적으로 GPU 리소스를 활용할 수 있다. 또한, 엔비디아(NVIDIA) AI Enterprise 소프트웨어 스택이 포함되어 있어 최신 기술 환경에서의 개발과 운영을 원활히 지원한다.
뿐만 아니라, 사용자의 필요에 따라 컴퓨팅, 스토리지, 네트워크 리소스를 탄력적으로 조정할 수 있으며, 종량제 과금 방식을 통해 초기 투자 부담 없이 경제적으로 이용할 수 있다. 예측 분석 기능을 통해 예산 관리를 보다 효과적으로 수행할 수 있으며, 인프라 모니터링, 자동 배포, 업데이트 등 운영 효율성을 대폭 향상시킬 수 있다.
이번 서비스 런칭을 총괄한 KQC 김창회 전무는 “서비스 안정성이나 비용적 측면에서 매우 경쟁력 있는 서비스가 될 것이다.’라며 ‘시장의 니즈에 맞춰 다양한 시스템을 지속적으로 선보일 계획이다”라고 덧붙였다.
Korea Quantum Computing (KQC) to 'Enter AI Market Full-scale' by Building High-End, High-Performance AI Data Center
-Building ultra-high-performance AI-dedicated GPU infrastructure in the Digital Edge Bupyeong data center
-Launching a high-end cloud-based service for high-performance, low-power AI, HPC, and data analysis at a stable and competitive price in line with domestic GPU demand

Korea Quantum Computing (KQC, CEO Kim Jun-young), a quantum computing research and development, quantum security, and AI infrastructure operation company, announced that it will build an ultra-high-performance 'AI GPU Farm' based on NVIDIA H200 GPUs at the Digital Edge Bupyeong Data Center and begin a cloud-based high-performance computing service (GPUaaS) from July 4.
KQC will enable domestic companies and institutions to flexibly utilize computing resources through the cloud in line with the recent market where new application markets such as LLM, AI copilot, and multi-model AI are growing and the need for larger memory and computational demands are exploding. Now, customers can enjoy high performance and stability similar to using GPUs directly in a physical server (Dedicated Bare Metal) environment where they can install and control the operating system themselves.
The AI GPU farm introduced by KQC this time is composed of a parallel cluster based on NVIDIA's latest GPU architecture Hopper, and is an infrastructure optimized for computationally intensive workloads such as ultra-large language models (hereinafter referred to as LLMs) such as GPT-4, Claude, and Gemini, generative AI (GenAI), complex simulations, and high-performance data analysis. The H200 GPU has significantly improved memory capacity and speed compared to the existing H100, and can maximize LLM training and inference efficiency through the built-in Transformer Engine.
KQC CEO Kim Jun-young said, “KQC’s GPU farm will be in great demand from big tech companies, AI startups, industries requiring complex simulations and data analysis, national research institutes, HPC centers, etc.” He added, “By providing infrastructure optimized for AI and HPC at a stable and reasonable price, we plan to introduce advanced services linked with quantum computing infrastructure in the future.”
KQC's AI GPUaaS (GPU as a Service) service It can accelerate the processing of large data sets and the training of complex AI models, and GPU virtualization and sharing functions allow multiple users to efficiently utilize GPU resources simultaneously. In addition, it includes the NVIDIA AI Enterprise software stack to smoothly support development and operation in the latest technology environment.
In addition, computing, storage, and network resources can be flexibly adjusted according to the user's needs, and can be used economically without initial investment burden through a pay-as-you-go billing method. Budget management can be performed more effectively through predictive analysis functions, and operational efficiency can be significantly improved through infrastructure monitoring, automatic deployment, and updates.
“This will be a very competitive service in terms of service stability and cost,” said KQC Managing Director Kim Chang-hoe, who oversaw the launch of this service. “We plan to continuously introduce various systems to meet the needs of the market,” he added.
韓国クォンタムコンピューティング(KQC)、ハイエンド高性能AIデータセンター構築で「AI市場本格進出」
– デジタルエッジ富平データセンターに超高性能AI専用GPUインフラを構築
– 国内GPU需要に合わせて安定的で競争力のある価格で高性能、低電力のAI、HPC、データ分析などに使用されるハイエンドクラウドベースのサービス立ち上げ

量子コンピューティング研究開発及び量子セキュリティ、AIインフラ運営企業である韓国クォンタムコンピューティング(以下KQC、代表キム・ジュニョン)は、デジタルエッジ富平データセンターにNVIDIA(NVIDIA)H200 GPUベースの超高性能「AI GPUファーム(AI GPU Farm)」を構築し、7月4日GPUaaS)を起動すると述べた。
KQCは、LLMとAIコパイロット、マルチモデルAIなどの新しい応用市場が成長し、より大きなメモリに対するニーズと演算需要が急増している最近の市場に合わせて、国内企業と機関がクラウドを通じて柔軟にコンピューティングリソースを利用できるようにする予定だ。性能と安定性を享受できる。
KQCが今回リリースしたAI GPUファームは、NVIDIAの最新GPUアーキテクチャホッパー(Hopper)ベースで並列配置したクラスタで構成されており、GPT-4、Claude、Geminiなどの超巨大言語モデル(以下LLM)、生成型AI(GenAI)、複雑なシミュレーション、高性能データ解析など、 H100と比較してメモリ容量と速度が大幅に向上し、組み込みのTransformer Engineを使用してLLMトレーニングと推論効率を最大化することができます。
KQCキム・ジュニョン代表は「KQCのGPUファームはビッグテック企業、AIスタートアップ、複雑なシミュレーションおよびデータ分析を要する産業群、国家研究機関、HPCセンターなどに多くの需要があるだろう」とし「安定的かつリーズナブルな価格でAIおよびHPCに最適化されたインフラを提供することで今後の量子コンピューティング計画だ」と明らかにした。
KQCのAI GPUaaS(サービス型GPU)サービスは 大規模なデータセット処理と複雑なAIモデルの学習を加速し、GPU仮想化と共有機能により、複数のユーザーが同時に効率的にGPUリソースを活用できるようになり、NVIDIA AI Enterpriseソフトウェアスタックが含まれており、最新の技術環境での開発と運営を円滑にサポートする。
さらに、ユーザーのニーズに応じてコンピューティング、ストレージ、ネットワークリソースを弾力的に調整することができ、従量制課金方式により初期投資負担なく経済的に利用できる。
今回のサービス立ち上げを総括したKQCキム・チャン会専務は「サービスの安定性やコスト的側面で非常に競争力のあるサービスになるだろう」とし、「市場のニーズに合わせて多様なシステムを継続的に披露する計画だ」と付け加えた。
韩国量子计算公司(KQC)将建设高端、高性能人工智能数据中心,全面进军人工智能市场
-在Digital Edge富平数据中心建设超高性能AI专用GPU基础设施
-根据国内GPU需求,推出稳定且具有竞争力的价格,用于高性能、低功耗的AI、HPC和数据分析的高端云服务

量子计算研发、量子安全和AI基础设施运营公司韩国量子计算(KQC,代表金俊英)宣布,将在Digital Edge富平数据中心建设基于NVIDIA H200 GPU的超高性能“AI GPU农场”,并从7月4日起开始提供基于云端的高性能计算服务(GPUaaS)。
KQC 将帮助国内企业和机构通过云端灵活利用计算资源,以顺应当前市场形势。近年来,LLM、AI 副驾驶和多模型 AI 等新兴应用市场蓬勃发展,对更大内存和计算能力的需求也呈爆炸式增长。现在,客户可以享受到与直接在物理服务器(专用裸机)环境中使用 GPU 类似的高性能和稳定性,并且可以自行安装和控制操作系统。
KQC 此次推出的 AI GPU 集群由基于 NVIDIA 最新 GPU 架构 Hopper 的并行集群组成,是针对 GPT-4、Claude、Gemini 等超大型语言模型(以下简称 LLM)、生成式 AI(GenAI)、复杂模拟、高性能数据分析等计算密集型工作负载优化的基础架构。H200 GPU 与现有的 H100 相比,内存容量和速度均有显著提升,并可通过内置的 Transformer Engine 最大限度地提高 LLM 的训练和推理效率。
KQC首席执行官金俊永表示:“KQC的GPU集群将受到大型科技公司、人工智能初创公司、需要复杂模拟和数据分析的行业、国家研究机构、高性能计算中心等的热烈追捧。” 他补充道:“通过以稳定合理的价格提供针对人工智能和高性能计算优化的基础设施,我们计划在未来推出与量子计算基础设施相关的先进服务。”
KQC的AI GPUaaS(GPU即服务)服务 它可以加速处理大型数据集和训练复杂的AI模型,GPU虚拟化和共享功能允许多个用户同时高效利用GPU资源。此外,它还包含NVIDIA AI Enterprise软件堆栈,以流畅地支持最新技术环境中的开发和运行。
此外,计算、存储和网络资源可根据用户需求灵活调整,通过按需付费的计费方式,经济地使用,无需承担前期投资负担。通过预测分析功能,可以更有效地进行预算管理,并通过基础设施监控、自动部署和更新,显著提升运营效率。
负责此项服务启动的韩国铁路公司总经理金昌会表示:“就服务稳定性和成本而言,这将是一项极具竞争力的服务。”他补充道:“我们计划持续推出各种系统,以满足市场需求。”
Korea Quantum Computing (KQC) va « entrer à grande échelle sur le marché de l'IA » en construisant un centre de données d'IA haut de gamme et hautes performances
-Construction d'une infrastructure GPU dédiée à l'IA ultra-performante dans le centre de données Digital Edge Bupyeong
– Lancement d'un service cloud haut de gamme pour l'IA, le HPC et l'analyse de données hautes performances et à faible consommation d'énergie à un prix stable et compétitif, en phase avec la demande nationale de GPU

Korea Quantum Computing (KQC, PDG Kim Jun-young), une société de recherche et développement en informatique quantique, de sécurité quantique et d'exploitation d'infrastructures d'IA, a annoncé qu'elle construirait une « ferme de GPU IA » ultra-performante basée sur des GPU NVIDIA H200 au centre de données Digital Edge Bupyeong et lancerait un service de calcul haute performance basé sur le cloud (GPUaaS) à partir du 4 juillet.
KQC permettra aux entreprises et institutions nationales d'exploiter leurs ressources informatiques de manière flexible grâce au cloud, en phase avec le marché actuel, marqué par la croissance de nouveaux marchés d'applications tels que le LLM, le copilote d'IA et l'IA multi-modèles, et par l'explosion des besoins en mémoire et en puissance de calcul. Les clients bénéficient désormais de performances et d'une stabilité élevées, comparables à celles obtenues avec des GPU directement dans un environnement de serveur physique (Dedicated Bare Metal), où ils peuvent installer et contrôler eux-mêmes le système d'exploitation.
La ferme de GPU IA présentée par KQC est composée d'un cluster parallèle basé sur la dernière architecture GPU Hopper de NVIDIA. Il s'agit d'une infrastructure optimisée pour les charges de travail gourmandes en calcul, telles que les modèles de langage ultra-larges (ci-après dénommés LLM) tels que GPT-4, Claude et Gemini, l'IA générative (GenAI), les simulations complexes et l'analyse de données haute performance. Le GPU H200 offre une capacité mémoire et une vitesse nettement améliorées par rapport au H100 existant, et peut optimiser l'entraînement et l'efficacité de l'inférence des LLM grâce au moteur Transformer intégré.
Kim Jun-young, PDG de KQC, a déclaré : « La ferme de GPU de KQC sera très demandée par les grandes entreprises technologiques, les startups d'IA, les industries nécessitant des simulations et des analyses de données complexes, les instituts de recherche nationaux, les centres HPC, etc. » Il a ajouté : « En fournissant une infrastructure optimisée pour l'IA et le HPC à un prix stable et raisonnable, nous prévoyons d'introduire des services avancés liés à l'infrastructure de calcul quantique à l'avenir. »
Service GPUaaS (GPU as a Service) d'IA de KQC Il peut accélérer le traitement de grands ensembles de données et l'entraînement de modèles d'IA complexes. Les fonctions de virtualisation et de partage du GPU permettent à plusieurs utilisateurs d'exploiter efficacement les ressources GPU simultanément. De plus, il intègre la pile logicielle NVIDIA AI Enterprise pour un développement et un fonctionnement fluides dans les environnements technologiques les plus récents.
De plus, les ressources de calcul, de stockage et de réseau peuvent être ajustées de manière flexible en fonction des besoins de l'utilisateur et utilisées de manière économique sans investissement initial grâce à une facturation à l'utilisation. La gestion budgétaire est optimisée grâce aux fonctions d'analyse prédictive, et l'efficacité opérationnelle peut être considérablement améliorée grâce à la surveillance de l'infrastructure, au déploiement automatique et aux mises à jour.
« Ce service sera très compétitif en termes de stabilité et de coût », a déclaré Kim Chang-hoe, directeur général de KQC, qui a supervisé le lancement de ce service. « Nous prévoyons de déployer continuellement divers systèmes pour répondre aux besoins du marché », a-t-il ajouté.
You must be logged in to post a comment.