
先導的なエンドツーエンド(end-to-end) AIおよび液体冷却ソリューションプロバイダーKATUS(KAYTUS)が来る14日から16日までCOEXで開催される「AI EXPO KOREA 2025国際人工知能大戦」に参加してAI DevOpsソフトウェア「MotusAI」と統合型ケイトスのエンドツーエンドのAI DevOpsソリューションは、MotusAIとクラスタシステムを統合し、AIモデル開発から展開までの全周期を円滑にサポートする。
今日、生成型AI(GenAI)はモデル学習段階を超えて、大規模な配布とリアルタイム推論段階に急速に進化している。特に、自律走行車、スマートシティ、クアント金融、ヘルスケア、製造業など多様な産業分野でAIが本格的に活用され、ビジネス革新を導く核心動力に位置している。しかし、企業はAIを実際のビジネス環境に適用する過程で依然としてかなりの技術的障壁に直面しています。 GPUリソースの非効率的な活用、低リソーススケジューリング効率、頻繁なアプリケーションの中断、遅いデータ処理速度、ダディンデプロイなどがAI移行を妨げる主な障害要因と指摘されている。
ケイトスは、AIシステムの複雑さを根本的に解消し、AIアプリケーションが実質的なビジネスパフォーマンスにつながるのを支援する統合インフラストラクチャソリューションを提供しています。今回の「AI EXPO KOREA 2025国際人工知能大戦」で「MotusAI」とAIアプリケーションのための統合サーバーソリューションが展示される予定だ。 MotusAIの現場ライブデモにより、1人のオペレータが複雑なAIクラスタを効率的に管理し、ディープラーニングモデルと推論サービスを5分以内に配布する様子を直接確認することができる。また、観覧客は開発環境の秒単位配布、リソーススケジューリング、迅速なモデル配布など、コア機能を直接体験してみることができる。
このようにケイトスはMotusAIとエンドツーエンドの「AI DevOps」ソリューションを通じてAIインフラ課題に対する全方位的対応方案を提示し、企業がAIワークフローをより迅速かつ安定的に統合できるように支援している。
◆ ケイトスMotusAI、AIリソーススケジューリング、タスクオーケストレーションの強化
ケイトスMotusAIは、AIモデルの開発から展開まで、全過程で効率性、安定性、シンプルさを劇的に向上させるAI DevOpsプラットフォームです。リソース投入を大幅に削減し、開発効率を高め、クラスタコンピューティングリソース利用率を70%以上に引き上げるとともに、大規模な学習作業のスケジューリング性能を大幅に向上させる。
MotusAIは、効率的なGPUスケジューリングとワークロードオーケストレーションにより、リソース効率を向上させます。ネットワークアフィニティとGPUロードスケジューラを含む高度なリソーススケジューリング戦略を提供し、利用率を最大化し、オンデマンドGPUリソース割り当てと精密なGPU分割をサポートし、リソース利用率を70%以上に引き上げます。さらに、MotusAIは、数百のポッド(POD)をすばやく起動し、環境をすばやく設定できる効率的なワークロードスケジューリング機能により、コミュニティスケジューラと比較してスループットを5倍向上させ、遅延時間を5分の1レベルに短縮します。
MotusAIは、安定したモデル運用のための高可用性(HA)およびフェイルバック機能を備えています。 HAアーキテクチャとコンポーネントを一緒に適用し、3ノードのアクティブ-アクティブ(Active-Active)構造を採用して高可用性サービスを保証し、マイクロサービスがロードバランシング戦略に従って呼び出され、プラットフォームの安定性を高める。 MotusAIはフェイルオーバー機能を使用してサービスが停止したときに自動的にサービスを移行することができ、アプリケーションは数秒で回復します。また、統合グラフィカルユーザーインターフェース(GUI)により、監視、運用、メンテナンスを簡単に行うことができ、管理負担と運用コストを削減します。
さらに、MotusAIはモデル学習と推論プロセスのワークフローを簡素化するように設計されています。
- MotusAIはPyTorch、TensorFlowなどの主要なディープラーニングフレームワークはもちろん、メガトロン、ディープスピードなどの分散学習フレームワークとも互換性があり、ジュピターノートブック(Jupyter Notebook)、Webシェル(Webshell)また、データ転送の加速により高速モデル開発を可能にし、リモートデータのローカルローディング、ゼロコピー(zero-copy)データ転送など多様な戦略を通じてデータ遅延時間とキャッシュ周期を短縮し、データ学習効率を2~3倍向上させる。
- MotusAIには、モデル推論の効率を高めるためのさまざまな機能も付属しています。ローコード配布機能により、ワンクリックでモデルをサービスに適用でき、トラフィックが急増する状況でもリソースを自動的に拡張し、数万件の要求が同時に発生する高並列推論環境でも平均遅延時間を数ミリ秒以内に維持し、応答効率を50%以上向上させる。
◆ ケイトスAI DevOpsソリューション、AI全周期サポートするターンキー(Turnkey)インフラ
MotusAIは、信頼性が高く効率的なAIクラスタ管理と合理化されたAIワークフローに焦点を当てたソリューションです。ケイトスは、MotusAIをクラスタハードウェアプラットフォームと組み合わせ、開発から展開、運用までAI全周期を包括するエンドツーエンドのAIインフラソリューション「KAYTUS AI DevOpsソリューション」を提供する。このソリューションは、コンピューティング、ストレージ、オーケストレーション、自動化機能を統合した単一プラットフォームで構成され、インフラストラクチャのボトルネックを解消し、AIワークフローの効率を最大化します。単純なAIツールではなく、企業の革新を支える大規模なAIエコシステムを目指すのが特徴だ。
AI DevOpsは、高性能・高密度・高処理量を備えたアプリケーション指向型ハードウェアを基盤に構築され、顧客のAI開発需要を幅広く収容できるように設計された。 AI学習と推論に最適化された設計をもとに、演算性能と入出力効率性を最大化した多様な製品群を提供し、コンピューティング・ストレージ・ネットワーキングが有機的に統合され、一体化された性能を実現するクラスタ単位のターンキー製品として提供される。
ケイトスはまた、ユーザーが期待するコンピューティング需要を分析し、クラスター設計とパフォーマンス最適化サービスを一緒に提供します。ハードウェアからシステム環境に至るワンストップクラスター構築により、事前構成されたイメージとスクリプトを活用したワンクリック環境設定が可能で、複雑なシステム設定なしで最適化されたインフラストラクチャを迅速に実装することができる。クラスタの上部に搭載されたMotusAIは、マルチインスタンスGPUリソースの分割と配布、並列演算、トポロジ認識、データ加速、ローコード配布など、さまざまな機能を通じてクラスタ全体の活用率と運用効率を劇的に高める。
一方、ケイトスは「AI EXPO KOREA 2025国際人工知能大戦」期間中、ソウルCOEX展示場L01ブースに参加して観覧客を迎える予定だ。現場では、MotusAIのデモンストレーションをはじめ、ケイトスの次世代AIインフラストラクチャ戦略を直接確認することができる。
- 関連記事をもっと見る
You must be logged in to post a comment.