케이투스, ‘인공지능 엑스포 코리아 2025 국제인공지능대전’ 참가

선도적인 엔드투엔드(end-to-end) AI 및 액체 냉각 솔루션 제공업체 케이투스(KAYTUS)가 오는 14일부터 16일까지 코엑스에서 개최되는 ‘AI EXPO KOREA 2025 국제인공지능대전’에 참가해 AI DevOps 소프트웨어 ‘MotusAI’와 통합형 ‘AI DevOps 솔루션’을 선보인다. 케이투스의 엔드투엔드 AI DevOps 솔루션은 MotusAI와 클러스터 시스템을 통합해 AI 모델 개발부터 배포까지 전 주기를 원활하게 지원한다.

오늘날 생성형 AI(GenAI)는 모델 학습 단계를 넘어, 대규모 배포와 실시간 추론 단계로 빠르게 진화하고 있다. 특히, 자율주행차, 스마트시티, 퀀트금융, 헬스케어, 제조업 등 다양한 산업 분야에서 AI가 본격적으로 활용되며 비즈니스 혁신을 이끄는 핵심 동력으로 자리잡고 있다. 하지만 기업들은 AI를 실제 비즈니스 환경에 적용하는 과정에서 여전히 상당한 기술적 장벽에 직면하고 있다. GPU 자원의 비효율적인 활용, 낮은 리소스 스케줄링 효율, 잦은 애플리케이션 중단, 느린 데이터 처리 속도, 더딘 배포 등이 AI 전환을 가로막는 주요 장애 요소로 지적된다.

케이투스는 AI 시스템의 복잡성을 근본적으로 해소하고, AI 애플리케이션이 실질적인 비즈니스 성과로 이어질 수 있도록 지원하는 통합 인프라 솔루션을 제공하고 있다. 이번 ‘AI EXPO KOREA 2025 국제인공지능대전’에서 ‘MotusAI’와 AI 애플리케이션을 위한 통합 서버 솔루션이 전시될 예정이다. MotusAI의 현장 라이브 데모를 통해 한 명의 운영자가 복잡한 AI 클러스터를 효율적으로 관리하며 딥러닝 모델과 추론 서비스를 5분 이내에 배포하는 모습을 직접 확인할 수 있다. 또한 관람객은 개발 환경의 초 단위 배포, 리소스 스케줄링, 신속한 모델 배포 등 핵심 기능을 직접 체험해볼 수 있다.

이처럼 케이투스는 MotusAI와 엔드투엔드 ‘AI DevOps’ 솔루션을 통해 AI 인프라 과제에 대한 전방위적 대응 방안을 제시하며, 기업들이 AI 워크플로우를 보다 빠르고 안정적으로 통합할 수 있도록 지원하고 있다.

◆ 케이투스 MotusAI, AI 리소스 스케줄링 및 태스크 오케스트레이션 강화

케이투스 MotusAI는 AI 모델의 개발부터 배포까지 전 과정에서 효율성, 안정성, 단순성을 획기적으로 향상시키는 AI DevOps 플랫폼이다. 리소스 투입을 대폭 절감하고 개발 효율성을 높이며 클러스터 컴퓨팅 자원 활용률을 70% 이상으로 끌어올리는 동시에 대규모 학습 작업의 스케줄링 성능을 크게 향상 시킨다.

MotusAI는 효율적인 GPU 스케줄링과 워크로드 오케스트레이션을 통해 리소스 효율성을 향상시킨다. 네트워크 친화성(network affinity) 및 GPU 로드 스케줄러를 포함한 고급 리소스 스케줄링 전략을 제공해 활용도를 극대화하며, 온디맨드(on demand) GPU 리소스 할당 및 정밀한 GPU 분할을 지원하여 리소스 활용률을 70% 이상으로 끌어올린다. 또한, MotusAI는 수백 개의 포드(POD)를 빠르게 기동하고 환경을 신속히 구성할 수 있는 효율적인 워크로드 스케줄링 기능을 통해, 커뮤니티 스케줄러 대비 처리량을 5배 향상시키고 지연 시간은 5분의 1 수준으로 감소 시킨다.

MotusAI는 안정적인 모델 운영을 위한 고가용성(HA) 및 장애 복구 기능을 갖추고 있다. HA 아키텍처와 구성 요소를 함께 적용하며 3노드 액티브-액티브(Active-Active) 구조를 채택해 고가용성 서비스를 보장하고, 마이크로서비스가 로드 밸런싱 전략에 따라 호출되어 플랫폼의 안정성을 높인다. MotusAI는 장애 복구 기능을 통해 서비스 중단 시 자동으로 서비스를 이전할 수 있으며, 애플리케이션은 수 초 내에 복구 된다. 아울러 통합 그래픽 사용자 인터페이스(GUI)를 통해 모니터링, 운영 및 유지보수를 손쉽게 수행할 수 있어 관리 부담과 운영 비용을 줄여준다.

이외에도 MotusAI는 모델 학습과 추론 과정의 워크플로우를 간소화하도록 설계됐다.

  • MotusAI는 파이토치(PyTorch), 텐서플로(TensorFlow) 등 주요 딥러닝 프레임워크는 물론, 메가트로(Megatron), 딥스피드(DeepSpeed)와 같은 분산 학습 프레임워크와도 호환되며, 주피터 노트북(Jupyter Notebook), 웹쉘(Webshell), IDE 등 다양한 개발 도구를 포함하고 있다. 또한, 데이터 전송 가속화를 통해 빠른 모델 개발을 가능하게 하며, 원격 데이터의 로컬 로딩, 제로 카피(zero-copy) 데이터 전송 등 다양한 전략을 통해 데이터 지연 시간과 캐싱 주기를 단축시켜 데이터 학습 효율을 2~3배 향상 시킨다.
  • MotusAI는 모델 추론의 효율성을 높이기 위한 다양한 기능도 함께 제공한다. 로우코드(Low-code) 배포 기능을 통해 원클릭으로 모델을 서비스에 적용할 수 있으며, 트래픽이 급증하는 상황에서도 리소스를 자동으로 확장해 수만 건의 요청이 동시에 발생하는 고병렬 추론 환경에서도 평균 지연 시간을 수 밀리초 이내로 유지하고, 응답 효율성을 50% 이상 향상 시킨다.

◆ 케이투스 AI DevOps 솔루션, AI 전 주기 지원하는 턴키(Turnkey) 인프라

MotusAI는 안정적이고 효율적인 AI 클러스터 관리와 간소화된 AI 워크플로우에 초점을 맞춘 솔루션이다. 케이투스는 MotusAI를 클러스터 하드웨어 플랫폼과 결합해, 개발부터 배포 및 운영까지 AI 전 주기를 포괄하는 엔드투엔드 AI 인프라 솔루션 ‘KAYTUS AI DevOps 솔루션’을 제공한다. 이 솔루션은 컴퓨팅, 스토리지, 오케스트레이션, 자동화 기능이 통합된 단일 플랫폼으로 구성되어 인프라 병목 현상을 해소하고 AI 워크플로우의 효율성을 극대화한다. 단순한 AI 툴이 아닌, 기업의 혁신을 뒷받침하는 대규모 AI 생태계를 지향하는 것이 특징이다.

AI DevOps는 고성능·고밀도·고처리량을 갖춘 애플리케이션 지향형 하드웨어를 기반으로 구축되어 고객의 AI 개발 수요를 폭넓게 수용할 수 있도록 설계됐다. AI 학습 및 추론에 최적화된 설계를 바탕으로, 연산 성능과 입출력 효율성을 극대화한 다양한 제품군을 제공하며, 컴퓨팅·스토리지·네트워킹이 유기적으로 통합되어 일체화 된 성능을 구현하는 클러스터 단위의 턴키 제품으로 제공된다.

또한 케이투스는 사용자가 예상하는 컴퓨팅 수요를 분석해 클러스터 설계와 성능 최적화 서비스를 함께 제공한다. 하드웨어부터 시스템 환경까지 아우르는 원스톱 클러스터 구축을 통해 사전 구성된 이미지와 스크립트를 활용한 원클릭 환경 설정이 가능하며, 복잡한 시스템 설정 없이도 최적화된 인프라를 빠르게 구현할 수 있다. 클러스터 상단에 탑재된 MotusAI는 다중 인스턴스 GPU 리소스 분할 및 분배, 병렬 연산, 토폴로지 인식, 데이터 가속, 로우코드 배포 등 다양한 기능을 통해 클러스터 전반의 활용률과 운영 효율을 획기적으로 높인다.

한편 케이투스는 ‘AI EXPO KOREA 2025 국제인공지능대전’ 기간 동안 서울 코엑스 전시장 L01 부스에 참가해 관람객을 맞이할 예정이다. 현장에서는 MotusAI 시연을 비롯해 케이투스의 차세대 AI 인프라 전략을 직접 확인할 수 있다.

 


  • 관련 기사 더 보기

KTUS participates in 'AI Expo Korea 2025 International AI Competition'

KAYTUS, a leading provider of end-to-end AI and liquid cooling solutions, will be participating in the 'AI EXPO KOREA 2025 International Artificial Intelligence Exhibition' held at COEX from the 14th to the 16th, where it will showcase its AI DevOps software 'MotusAI' and its integrated 'AI DevOps solution'. KAYTUS's end-to-end AI DevOps solution integrates MotusAI and cluster systems to seamlessly support the entire cycle from AI model development to deployment.

Today, generative AI (GenAI) is rapidly evolving beyond the model learning stage to large-scale deployment and real-time inference stages. In particular, AI is being fully utilized in various industries such as autonomous vehicles, smart cities, quantitative finance, healthcare, and manufacturing, and is establishing itself as a key driving force for business innovation. However, companies still face significant technical barriers in the process of applying AI to actual business environments. Inefficient use of GPU resources, low resource scheduling efficiency, frequent application interruptions, slow data processing speed, and slow deployment are pointed out as major obstacles hindering the AI transition.

KTUS is providing an integrated infrastructure solution that fundamentally resolves the complexity of AI systems and supports AI applications to lead to real business results. At this year's 'AI EXPO KOREA 2025 International Artificial Intelligence Exhibition', 'MotusAI' and an integrated server solution for AI applications will be exhibited. Through MotusAI's live demo, you can directly see how one operator efficiently manages a complex AI cluster and deploys deep learning models and inference services in less than 5 minutes. In addition, visitors can directly experience key functions such as second-by-second deployment of the development environment, resource scheduling, and rapid model deployment.

In this way, K2US is presenting a comprehensive response plan for AI infrastructure tasks through MotusAI and its end-to-end 'AI DevOps' solution, helping companies integrate AI workflows more quickly and stably.

◆ K2US MotusAI, strengthening AI resource scheduling and task orchestration

KTUS MotusAI is an AI DevOps platform that dramatically improves efficiency, stability, and simplicity throughout the entire process from AI model development to deployment. It drastically reduces resource input, increases development efficiency, and raises cluster computing resource utilization to over 70%, while greatly improving the scheduling performance of large-scale learning tasks.

MotusAI improves resource efficiency through efficient GPU scheduling and workload orchestration. It provides advanced resource scheduling strategies including network affinity and GPU load scheduler to maximize utilization, and supports on-demand GPU resource allocation and precise GPU partitioning to increase resource utilization to over 70%. In addition, MotusAI improves throughput by 5x and reduces latency by 1/5th compared to community schedulers through efficient workload scheduling that can quickly launch hundreds of PODs and quickly configure environments.

MotusAI has high availability (HA) and disaster recovery functions for stable model operation. It applies HA architecture and components together and adopts a 3-node active-active structure to ensure high availability services, and microservices are called according to load balancing strategies to enhance platform stability. MotusAI can automatically transfer services in the event of service interruption through disaster recovery functions, and applications are restored within seconds. In addition, monitoring, operation, and maintenance can be easily performed through an integrated graphical user interface (GUI), reducing management burden and operating costs.

Additionally, MotusAI is designed to simplify the workflow of model training and inference processes.

  • MotusAI is compatible with major deep learning frameworks such as PyTorch and TensorFlow, as well as distributed learning frameworks such as Megatron and DeepSpeed, and includes various development tools such as Jupyter Notebook, Webshell, and IDE. In addition, it enables fast model development through data transfer acceleration, and improves data learning efficiency by 2-3 times by shortening data latency and caching cycles through various strategies such as local loading of remote data and zero-copy data transfer.
  • MotusAI also provides various functions to improve the efficiency of model inference. The low-code deployment function allows you to apply the model to the service with one click, and automatically expands resources even in situations where traffic suddenly increases, maintaining the average delay time within milliseconds even in a highly parallel inference environment where tens of thousands of requests occur simultaneously, and improving response efficiency by more than 50%.

◆ K2US AI DevOps Solution, Turnkey Infrastructure Supporting the Entire AI Cycle

MotusAI is a solution that focuses on stable and efficient AI cluster management and simplified AI workflow. K2US combines MotusAI with a cluster hardware platform to provide the 'KAYTUS AI DevOps Solution', an end-to-end AI infrastructure solution that covers the entire AI cycle from development to deployment and operation. This solution consists of a single platform that integrates computing, storage, orchestration, and automation functions, eliminating infrastructure bottlenecks and maximizing the efficiency of AI workflows. It is characterized by its goal of being a large-scale AI ecosystem that supports corporate innovation, rather than a simple AI tool.

AI DevOps is built on application-oriented hardware with high performance, high density, and high throughput, and is designed to accommodate a wide range of customer AI development needs. Based on a design optimized for AI learning and inference, it provides a variety of product lines that maximize computational performance and input/output efficiency, and is provided as a turnkey product in cluster units that organically integrates computing, storage, and networking to implement integrated performance.

In addition, KTUS analyzes the computing demands expected by the user and provides cluster design and performance optimization services. Through one-stop cluster construction covering everything from hardware to system environment, one-click environment settings are possible using pre-configured images and scripts, and optimized infrastructure can be quickly implemented without complex system settings. MotusAI, which is installed at the top of the cluster, dramatically increases the utilization rate and operational efficiency of the entire cluster through various functions such as multi-instance GPU resource division and distribution, parallel operation, topology recognition, data acceleration, and low-code distribution.

Meanwhile, K2US will be welcoming visitors to the L01 booth at COEX in Seoul during the 'AI EXPO KOREA 2025 International Artificial Intelligence Expo'. At the site, visitors can directly experience K2US' next-generation AI infrastructure strategy, including the MotusAI demonstration.


  • See more related articles

ケイトス、「人工知能エキスポコリア2025国際人工知能大戦」参加

先導的なエンドツーエンド(end-to-end) AIおよび液体冷却ソリューションプロバイダーKATUS(KAYTUS)が来る14日から16日までCOEXで開催される「AI EXPO KOREA 2025国際人工知能大戦」に参加してAI DevOpsソフトウェア「MotusAI」と統合型ケイトスのエンドツーエンドのAI DevOpsソリューションは、MotusAIとクラスタシステムを統合し、AIモデル開発から展開までの全周期を円滑にサポートする。

今日、生成型AI(GenAI)はモデル学習段階を超えて、大規模な配布とリアルタイム推論段階に急速に進化している。特に、自律走行車、スマートシティ、クアント金融、ヘルスケア、製造業など多様な産業分野でAIが本格的に活用され、ビジネス革新を導く核心動力に位置している。しかし、企業はAIを実際のビジネス環境に適用する過程で依然としてかなりの技術的障壁に直面しています。 GPUリソースの非効率的な活用、低リソーススケジューリング効率、頻繁なアプリケーションの中断、遅いデータ処理速度、ダディンデプロイなどがAI移行を妨げる主な障害要因と指摘されている。

ケイトスは、AIシステムの複雑さを根本的に解消し、AIアプリケーションが実質的なビジネスパフォーマンスにつながるのを支援する統合インフラストラクチャソリューションを提供しています。今回の「AI EXPO KOREA 2025国際人工知能大戦」で「MotusAI」とAIアプリケーションのための統合サーバーソリューションが展示される予定だ。 MotusAIの現場ライブデモにより、1人のオペレータが複雑なAIクラスタを効率的に管理し、ディープラーニングモデルと推論サービスを5分以内に配布する様子を直接確認することができる。また、観覧客は開発環境の秒単位配布、リソーススケジューリング、迅速なモデル配布など、コア機能を直接体験してみることができる。

このようにケイトスはMotusAIとエンドツーエンドの「AI DevOps」ソリューションを通じてAIインフラ課題に対する全方位的対応方案を提示し、企業がAIワークフローをより迅速かつ安定的に統合できるように支援している。

◆ ケイトスMotusAI、AIリソーススケジューリング、タスクオーケストレーションの強化

ケイトスMotusAIは、AIモデルの開発から展開まで、全過程で効率性、安定性、シンプルさを劇的に向上させるAI DevOpsプラットフォームです。リソース投入を大幅に削減し、開発効率を高め、クラスタコンピューティングリソース利用率を70%以上に引き上げるとともに、大規模な学習作業のスケジューリング性能を大幅に向上させる。

MotusAIは、効率的なGPUスケジューリングとワークロードオーケストレーションにより、リソース効率を向上させます。ネットワークアフィニティとGPUロードスケジューラを含む高度なリソーススケジューリング戦略を提供し、利用率を最大化し、オンデマンドGPUリソース割り当てと精密なGPU分割をサポートし、リソース利用率を70%以上に引き上げます。さらに、MotusAIは、数百のポッド(POD)をすばやく起動し、環境をすばやく設定できる効率的なワークロードスケジューリング機能により、コミュニティスケジューラと比較してスループットを5倍向上させ、遅延時間を5分の1レベルに短縮します。

MotusAIは、安定したモデル運用のための高可用性(HA)およびフェイルバック機能を備えています。 HAアーキテクチャとコンポーネントを一緒に適用し、3ノードのアクティブ-アクティブ(Active-Active)構造を採用して高可用性サービスを保証し、マイクロサービスがロードバランシング戦略に従って呼び出され、プラットフォームの安定性を高める。 MotusAIはフェイルオーバー機能を使用してサービスが停止したときに自動的にサービスを移行することができ、アプリケーションは数秒で回復します。また、統合グラフィカルユーザーインターフェース(GUI)により、監視、運用、メンテナンスを簡単に行うことができ、管理負担と運用コストを削減します。

さらに、MotusAIはモデル学習と推論プロセスのワークフローを簡素化するように設計されています。

  • MotusAIはPyTorch、TensorFlowなどの主要なディープラーニングフレームワークはもちろん、メガトロン、ディープスピードなどの分散学習フレームワークとも互換性があり、ジュピターノートブック(Jupyter Notebook)、Webシェル(Webshell)また、データ転送の加速により高速モデル開発を可能にし、リモートデータのローカルローディング、ゼロコピー(zero-copy)データ転送など多様な戦略を通じてデータ遅延時間とキャッシュ周期を短縮し、データ学習効率を2~3倍向上させる。
  • MotusAIには、モデル推論の効率を高めるためのさまざまな機能も付属しています。ローコード配布機能により、ワンクリックでモデルをサービスに適用でき、トラフィックが急増する状況でもリソースを自動的に拡張し、数万件の要求が同時に発生する高並列推論環境でも平均遅延時間を数ミリ秒以内に維持し、応答効率を50%以上向上させる。

◆ ケイトスAI DevOpsソリューション、AI全周期サポートするターンキー(Turnkey)インフラ

MotusAIは、信頼性が高く効率的なAIクラスタ管理と合理化されたAIワークフローに焦点を当てたソリューションです。ケイトスは、MotusAIをクラスタハードウェアプラットフォームと組み合わせ、開発から展開、運用までAI全周期を包括するエンドツーエンドのAIインフラソリューション「KAYTUS AI DevOpsソリューション」を提供する。このソリューションは、コンピューティング、ストレージ、オーケストレーション、自動化機能を統合した単一プラットフォームで構成され、インフラストラクチャのボトルネックを解消し、AIワークフローの効率を最大化します。単純なAIツールではなく、企業の革新を支える大規模なAIエコシステムを目指すのが特徴だ。

AI DevOpsは、高性能・高密度・高処理量を備えたアプリケーション指向型ハードウェアを基盤に構築され、顧客のAI開発需要を幅広く収容できるように設計された。 AI学習と推論に最適化された設計をもとに、演算性能と入出力効率性を最大化した多様な製品群を提供し、コンピューティング・ストレージ・ネットワーキングが有機的に統合され、一体化された性能を実現するクラスタ単位のターンキー製品として提供される。

ケイトスはまた、ユーザーが期待するコンピューティング需要を分析し、クラスター設計とパフォーマンス最適化サービスを一緒に提供します。ハードウェアからシステム環境に至るワンストップクラスター構築により、事前構成されたイメージとスクリプトを活用したワンクリック環境設定が可能で、複雑なシステム設定なしで最適化されたインフラストラクチャを迅速に実装することができる。クラスタの上部に搭載されたMotusAIは、マルチインスタンスGPUリソースの分割と配布、並列演算、トポロジ認識、データ加速、ローコード配布など、さまざまな機能を通じてクラスタ全体の活用率と運用効率を劇的に高める。

一方、ケイトスは「AI EXPO KOREA 2025国際人工知能大戦」期間中、ソウルCOEX展示場L01ブースに参加して観覧客を迎える予定だ。現場では、MotusAIのデモンストレーションをはじめ、ケイトスの次世代AIインフラストラクチャ戦略を直接確認することができる。


  • 関連記事をもっと見る

KTUS参加‘AI Expo Korea 2025国际人工智能大赛’

领先的端到端AI和液冷解决方案提供商KAYTUS将参加14日至16日在COEX举办的‘AI EXPO KOREA 2025国际人工智能展’,并展示AI DevOps软件‘MotusAI’和集成‘AI DevOps解决方案’。 KTUS 端到端 AI DevOps 解决方案集成了 MotusAI 和集群系统,无缝支持从 AI 模型开发到部署的整个周期。

如今,生成式人工智能(GenAI)正在迅速发展,从模型训练转向大规模部署和实时推理。尤其是人工智能在自动驾驶汽车、智慧城市、量化金融、医疗健康、制造业等各个产业领域得到充分应用,成为商业创新的重要驱动力。然而,企业在将人工智能应用于现实商业环境时仍然面临着重大的技术障碍。 GPU资源使用效率低、资源调度效率低、应用程序频繁中断、数据处理速度慢、部署速度慢被认为是阻碍向AI转型的主要障碍。

KTUS提供一体化基础设施解决方案,从根本上解决AI系统的复杂性,支持AI应用产生实际的业务成果。在今年的‘AI EXPO KOREA 2025国际人工智能展’上,‘MotusAI’及其AI应用集成服务器解决方案将展出。 MotusAI 的现场演示将向您展示单个操作员如何在不到 5 分钟的时间内高效管理复杂的 AI 集群并部署深度学习模型和推理服务。此外,参观者还可以亲身体验开发环境的亚秒级部署、资源调度和快速模型部署等关键功能。

由此,K2US通过MotusAI及其端到端的“AI DevOps”解决方案,为AI基础设施任务提供全面的响应计划,帮助企业更快、更稳定地整合AI工作流程。

◆ K2US MotusAI,强化AI资源调度和任务编排

KTUS MotusAI 是一个 AI DevOps 平台,可显著提高从 AI 模型开发到部署的整个过程的效率、稳定性和简便性。大幅降低资源投入,提升开发效率,将集群计算资源利用率提升至70%以上,同时大幅提升大规模学习任务的调度性能。

MotusAI 通过高效的 GPU 调度和工作负载编排来提高资源效率。它提供包括网络亲和性和 GPU 负载调度器在内的高级资源调度策略,以最大限度地提高利用率,并支持按需分配 GPU 资源和精确的 GPU 分区,以将资源利用率提高到 70% 以上。此外,MotusAI 拥有高效的工作负载调度能力,可以快速启动数百个 POD 并快速配置环境,与社区调度器相比,吞吐量提高 5 倍,延迟降低 1/5。

MotusAI 具有高可用性(HA)和灾难恢复功能,可确保模型稳定运行。采用HA架构与组件化相结合,采用3节点Active-Active结构保障服务高可用,并按照负载均衡策略调用微服务,增加平台的稳定性。 MotusAI可以通过其灾难恢复功能在服务中断时自动转移服务,并在几秒钟内恢复应用程序。此外,可以通过集成的图形用户界面(GUI)轻松执行监控、操作和维护,从而减轻管理负担和运营成本。

此外,MotusAI 旨在简化模型训练和推理过程的工作流程。

  • MotusAI 兼容 PyTorch、TensorFlow 等主流深度学习框架,以及 Megatron、DeepSpeed 等分布式学习框架,并包含 Jupyter Notebook、Webshell、IDE 等各种开发工具。此外,它通过数据传输加速实现快速模型开发,并通过远程数据本地加载、零拷贝数据传输等策略缩短数据延迟时间和缓存周期,将数据学习效率提高2-3倍。
  • MotusAI还提供各种功能来提高模型推理的效率。低代码部署能力,一键即可将模型部署到服务,并在流量突发时自动扩展资源,即使在数万请求同时发生的高度并行推理环境中,也能保持毫秒级的平均延迟,同时提升50%以上的响应效率。

◆ K2US AI DevOps 解决方案,支持整个 AI 周期的交钥匙基础设施

MotusAI 是一款专注于稳定高效的 AI 集群管理和简化 AI 工作流程的解决方案。 KAYTUS将MotusAI与集群硬件平台相结合,提供了“KAYTUS AI DevOps解决方案”,这是一种端到端的AI基础设施解决方案,涵盖从开发到部署和运营的整个AI周期。该解决方案由一个集成计算、存储、编排和自动化功能的单一平台组成,以消除基础设施瓶颈并最大限度地提高人工智能工作流程的效率。其特点是目标是成为支持企业创新的大型AI生态系统,而不是简单的AI工具。

AI DevOps 构建于高性能、高密度、高吞吐量的应用型硬件之上,旨在满足广泛客户的 AI 开发需求。基于针对AI学习和推理优化的设计,提供最大化计算性能和输入输出效率的多种产品线,并以集群为单位的交钥匙产品形式提供,将计算、存储、网络有机融合,实现综合性能。

此外,KTUS还分析用户预期的计算需求,并提供集群设计和性能优化服务。从硬件到系统环境的一站式集群构建,使用预先配置的图像和脚本,一键设置环境,无需复杂的系统设置即可快速实现优化的基础架构。搭载在集群之上的MotusAI,通过多实例GPU资源划分与分配、并行计算、拓扑感知、数据加速、低代码部署等功能,大幅提高整个集群的利用率和运行效率。

同时,K2US将参加‘AI EXPO KOREA 2025国际人工智能博览会’,在首尔COEX展厅L01展位迎接参观者。在现场,您可以直接体验K2US的下一代AI基础设施战略,包括MotusAI的演示。


  • 查看更多相关文章

KTUS participe au concours international d'IA « AI Expo Korea 2025 »

KAYTUS, l'un des principaux fournisseurs de solutions d'IA et de refroidissement liquide de bout en bout, participera au « AI EXPO KOREA 2025 International Artificial Intelligence Exhibition » qui se tiendra au COEX du 14 au 16, et présentera le logiciel AI DevOps « MotusAI » et une « solution AI DevOps » intégrée. La solution DevOps IA de bout en bout de KTUS intègre MotusAI et les systèmes de cluster pour prendre en charge de manière transparente l'ensemble du cycle, du développement du modèle d'IA au déploiement.

Aujourd’hui, l’IA générative (GenAI) évolue rapidement au-delà de la formation de modèles vers un déploiement à grande échelle et une inférence en temps réel. En particulier, l’IA est pleinement utilisée dans divers domaines industriels tels que les voitures autonomes, les villes intelligentes, la finance quantitative, les soins de santé et la fabrication, et s’impose comme un moteur clé de l’innovation commerciale. Cependant, les entreprises sont toujours confrontées à des obstacles techniques importants lorsqu’elles appliquent l’IA à des environnements commerciaux réels. L’utilisation inefficace des ressources GPU, la faible efficacité de la planification des ressources, les interruptions fréquentes des applications, la lenteur du traitement des données et la lenteur du déploiement sont identifiées comme les principaux obstacles entravant la transition vers l’IA.

KTUS fournit une solution d'infrastructure intégrée qui résout fondamentalement la complexité des systèmes d'IA et prend en charge les applications d'IA pour conduire à des résultats commerciaux réels. Lors du salon international de l'intelligence artificielle « AI EXPO KOREA 2025 » de cette année, « MotusAI » et sa solution de serveur intégrée pour les applications d'IA seront exposés. La démonstration en direct de MotusAI vous montrera comment un seul opérateur peut gérer efficacement un cluster d'IA complexe et déployer des modèles d'apprentissage en profondeur et des services d'inférence en moins de 5 minutes. De plus, les visiteurs pourront découvrir de première main des fonctionnalités clés telles que le déploiement en moins d'une seconde de l'environnement de développement, la planification des ressources et le déploiement rapide du modèle.

De cette manière, K2US présente un plan de réponse complet pour les tâches d'infrastructure d'IA via MotusAI et sa solution de bout en bout « AI DevOps », aidant les entreprises à intégrer les flux de travail d'IA plus rapidement et de manière plus stable.

◆ K2US MotusAI, renforce la planification des ressources IA et l'orchestration des tâches

KTUS MotusAI est une plateforme DevOps d'IA qui améliore considérablement l'efficacité, la stabilité et la simplicité tout au long du processus, du développement du modèle d'IA au déploiement. Il réduit considérablement l'investissement en ressources, améliore l'efficacité du développement et augmente l'utilisation des ressources de calcul en cluster à plus de 70 %, tout en améliorant considérablement les performances de planification des tâches d'apprentissage à grande échelle.

MotusAI améliore l'efficacité des ressources grâce à une planification GPU efficace et à une orchestration de la charge de travail. Il fournit des stratégies avancées de planification des ressources, notamment l'affinité réseau et le planificateur de charge GPU pour maximiser l'utilisation, et prend en charge l'allocation des ressources GPU à la demande et le partitionnement GPU précis pour augmenter l'utilisation des ressources à plus de 70 %. De plus, MotusAI dispose de capacités de planification de charge de travail efficaces qui peuvent lancer rapidement des centaines de POD et configurer rapidement des environnements, améliorant ainsi le débit de 5 fois et réduisant la latence de 1/5 par rapport au planificateur communautaire.

MotusAI dispose de fonctionnalités de haute disponibilité (HA) et de reprise après sinistre pour un fonctionnement stable du modèle. Il applique l'architecture et les composants HA ensemble et adopte une structure active-active à 3 nœuds pour garantir des services à haute disponibilité, et les microservices sont appelés selon une stratégie d'équilibrage de charge pour augmenter la stabilité de la plate-forme. MotusAI peut transférer automatiquement des services en cas de panne de service grâce à ses capacités de reprise après sinistre, et les applications sont restaurées en quelques secondes. De plus, la surveillance, l’exploitation et la maintenance peuvent être facilement effectuées via une interface utilisateur graphique (GUI) intégrée, réduisant ainsi la charge de gestion et les coûts d’exploitation.

De plus, MotusAI est conçu pour simplifier le flux de travail des processus de formation et d’inférence des modèles.

  • MotusAI est compatible avec les principaux frameworks d'apprentissage en profondeur tels que PyTorch et TensorFlow, ainsi qu'avec les frameworks d'apprentissage distribué tels que Megatron et DeepSpeed, et comprend divers outils de développement tels que Jupyter Notebook, Webshell et IDE. De plus, il permet un développement rapide du modèle grâce à l'accélération du transfert de données et améliore l'efficacité de l'apprentissage des données de 2 à 3 fois en raccourcissant le temps de retard des données et les cycles de mise en cache grâce à diverses stratégies telles que le chargement local de données distantes et le transfert de données sans copie.
  • MotusAI fournit également diverses fonctions pour améliorer l’efficacité de l’inférence du modèle. Les capacités de déploiement low-code vous permettent de déployer des modèles sur des services en un seul clic et de mettre automatiquement à l'échelle les ressources lorsque le trafic augmente soudainement, en maintenant la latence moyenne en quelques millisecondes, même dans des environnements d'inférence hautement parallèles où des dizaines de milliers de requêtes se produisent simultanément, tout en améliorant l'efficacité de la réponse de plus de 50 %.

◆ Solution DevOps AI K2US, infrastructure clé en main prenant en charge l'ensemble du cycle de l'IA

MotusAI est une solution axée sur la gestion stable et efficace des clusters d'IA et sur un flux de travail d'IA rationalisé. En combinant MotusAI avec une plate-forme matérielle en cluster, KAYTUS fournit la « KAYTUS AI DevOps Solution », une solution d'infrastructure d'IA de bout en bout qui couvre l'ensemble du cycle de l'IA, du développement au déploiement et à l'exploitation. La solution consiste en une plate-forme unique qui intègre des capacités de calcul, de stockage, d'orchestration et d'automatisation pour éliminer les goulots d'étranglement de l'infrastructure et maximiser l'efficacité des flux de travail de l'IA. Il se caractérise par son objectif d’être un écosystème d’IA à grande échelle qui soutient l’innovation des entreprises, plutôt qu’un simple outil d’IA.

AI DevOps repose sur un matériel orienté application avec des performances élevées, une densité élevée et un débit élevé, et est conçu pour répondre à un large éventail de besoins de développement d'IA des clients. Basé sur une conception optimisée pour l'apprentissage et l'inférence de l'IA, il fournit une variété de gammes de produits qui maximisent les performances de calcul et l'efficacité des entrées/sorties, et est fourni sous la forme d'un produit clé en main dans des unités de cluster qui intègrent de manière organique le calcul, le stockage et la mise en réseau pour mettre en œuvre des performances intégrées.

De plus, KTUS analyse les demandes informatiques attendues des utilisateurs et fournit des services de conception de cluster et d'optimisation des performances. La construction de clusters à guichet unique englobant l'environnement matériel et système permet une configuration de l'environnement en un clic à l'aide d'images et de scripts préconfigurés, permettant une mise en œuvre rapide d'une infrastructure optimisée sans configuration système complexe. MotusAI, qui est monté au-dessus du cluster, augmente considérablement l'utilisation et l'efficacité opérationnelle du cluster grâce à diverses fonctions telles que le partitionnement et la distribution des ressources GPU multi-instances, le calcul parallèle, la connaissance de la topologie, l'accélération des données et le déploiement low-code.

Pendant ce temps, K2US participera à l'« AI EXPO KOREA 2025 International Artificial Intelligence Expo » sur le stand L01 du hall d'exposition COEX à Séoul pour accueillir les visiteurs. Sur le site, vous pourrez découvrir directement la stratégie d'infrastructure d'IA de nouvelle génération de K2US, y compris la démonstration MotusAI.


  • Voir plus d'articles connexes
%d bloggers like this: