-NAT TraversalでアイドルPC接続…オートスケーリングでリソースを自動割り当てしてコストを下げる
-AIモデルの安定した運用、パフォーマンスの最適化、コスト効率化のための自動化された運用インフラストラクチャ
-パイロットテスト終了後、来年にサービス正式ローンチ… 2026年上半期シリーズA投資誘致推進
AIサービスの実装の鍵は、学習(Training)と推論(Inference)です。学習がAIモデルが大規模データからパターンを認識し、関連性を把握するようにモデルを訓練するプロセスである場合、推論は学習されたモデルがユーザーの質問に答えを生成し、実際にサービスが運営されるプロセスである。
AIサービスを行うには、大規模なデータセットと高性能コンピューティングが不可欠です。数千から数万のGPUを配置し、GPU間の通信を最適化するための高帯域幅ネットワークを備えたデータセンターを運営する必要があります。 GPUは1台あたり1,500万ウォン以上で、2,000万ウォンを超えることもある。このように膨大なインフラコスト、特に高価なGPU購入と運営コストがAIをサービスするほとんどの企業が収益性を確保できない核心要因となっている。
AIをサービスする企業にインフラコストを下げる企業がある。モデル開発には高仕様GPUが必要だが、推論は完成したモデルで定められた作業だけ繰り返すため、低仕様GPUでも十分だ。この点に注目したaieev(aieev)は、推論に必要なGPUリソースを家庭やPCルームなどアイドルPCを接続した分散型仮想クラウドインフラとして構築し、GPUコストを画期的に下げた。
Aieevのパク・セジン代表は「大型言語モデルを開発するにはGPU数千、数万枚が必要だが、推論サービスは数枚でも十分です。AIインフラ構築コストを下げれば多くの人がより多くのAIサービスを利用できる」と説明した。
朴代表はコインマイニングで多くのGPUが使用され、AIサービス企業がGPU不足に苦しんでいることを発見し、2024年初めにaieevを設立した。
朴代表はポステックでシステムソフトウェアで博士学位を取得しており、現在戒明大学コンピュータ工学と兼任教授として在職中だ。 aieevチームはフォステック、カイスト、高麗大学出身のシステムソフトウェア専攻者で構成されており、ほとんど15年以上の業界キャリアを持っている。
aieevは設立後10の特許を出願し、現在2つの商用顧客を確保し、10の企業とPoCを進めている。去る8月にはSKテレコムの「AI Startup Accelerator 3期」プログラムに選定された。技術商用化のために2026年上半期シリーズA投資を推進する計画だ。
aieev江南(カンナム)のオフィスで会ったパク・セジン代表からアイドルGPUをつなぐ方法、分散GPUの安定的な運用方法、そしてAIインフラのコスト削減を追求するaieevのビジョンについて話を聞いた。

世界中のパーソナルPCを接続する
それでは、アイドルGPUをどのように接続しますか?
一般的に個人PCやPCルームのコンピュータは公開IPアドレスを持たず、外部接続ができない。外部接続ができないPCをどのように接続できますか?
aieevはNAT Traversalの技術によって個人的なPCと接続する。接続したいパーソナルPCがaieevサーバーに接続を要求すると、ルーターは自動的に通路を開き、aieevはこの通路を介してPCのGPUを制御できます。この方法が機能しない場合は、中間サーバー(Relay Server)を介して接続します。 aieevは技術テストの結果、10万台以上のノードを接続するテストを終えました。
データセンターが必要ないという点は価格競争力に直結する。伝統的なデータセンターでは、電力比の50%が冷却に入ります。多くの機器が狭い空間に集積されているため、膨大な発熱が発生します。
「データセンターの建物を建て、運営し、管理する人材だけでもかなり多いです。aieevはセキュリティ、運営、メンテナンスなどに必要な担当者を置く必要はありません。」
つながったからといって終わるわけではない。大規模ネットワークを管理するには、各ノード間の効率的な通信と障害の分離が必要です。
「多くのノードを管理するには、単純なネットワーク接続だけでは不十分です。各ノードの状態を効率的に監視し、あるノードに障害が発生した場合は、そのタスクを別のノードにすばやく移行する必要があります。」
安定した運用と自動配分技術によるコスト削減
分散システムにとって重要なのはサービスの安定性です。
AIサービスを運営するには数多くのオープンソースライブラリが必要ですが、これらのいずれかが欠けたりバージョンが合わないとサービスが正常に動作しない。 aieevはこの問題を解決するためにコンテナ技術を開発しました。コンテナ技術により、AIモデルの駆動に必要なすべてのオープンソースライブラリ、システム設定、依存性などを1つのパッケージにまとめて提供することで、どこでも同じ環境で安定してモデルを実行することができる。
大型クラウドサービスやデータセンターは、すべてのサービスが一箇所に集中している。そのため、データセンターのネットワークに問題が発生したり、電力供給に異常が生じた場合、サービス全体が中断される事態が発生する。そのため、1台のサーバーに障害が発生してもサービスが中断されないように冗長化を構成し、自動回復システムを備える必要があります。
aieevはこのプロセス全体を完全に自動化した。 aieevプラットフォームにモデルだけを載せれば、それ以降のすべてのAIサービス化過程、すなわち性能監視、二重化構成、自動復旧などがすべて自動的に処理される。あるノードに問題が発生しても、内部スケジューラが別のノードにそのジョブを直ちに切り替えるため、ユーザの立場では論理的に障害を感じることができない。
「あるノードで障害が発生しても、内部スケジューラによってそのタスクがすぐに別のノードで自動的に切り替えられます。ユーザーの立場では物理的には障害が発生しましたが、論理的にはその障害を感じません。」
これと共に重要な機能がオートスケーリング(Auto Scaling)だ。一般的なクラウドでは、予想されるトラフィックに合わせて事前にサーバーを準備する必要があります。問題は顧客がどれだけ追い込まれるか予測できないということにある。それで保守的に資源をあらかじめ確保しておく。費用がかかるにもかかわらず、サービスの中断が悪いからだ。
使用量に応じてリソースを効率的に分配すれば、それだけコストを削減できる。 aieevはこの問題をオートスケーリングで解決します。トラフィックが増加すると、必要なノードとコンテナが自動的に拡張され、トラフィックが減少すると自動的に縮小されます。ゲストが集まったらスタッフをさらに配置し、暇なときは減らすようにトラフィックに合わせてリソースを自動的に増やして減ったということができる。それだけ費用を節約できるようになるのだ。ユーザーは感度を調整して拡張速度を制御できます。
「企業が望む程度に応じて自動拡張速度を調整することができます。ある顧客の場合、このオートスケーリング技術により、既存のクラウドに比べ約80%のコストを削減できました。」
aieevは、AIモデルの信頼性の高い運用、パフォーマンスの最適化、コスト効率化の両方を担保する自動化された運用インフラストラクチャを提供しています。スタートアップでも大企業レベルのインフラの安定性をすぐに確保できるという意味だ。
スタートアップから大企業まで
aieevは現在、全国のPCルームを管理する企業と協力してパイロットテストを進めている。テストが完了すると、全国約4,000個のPCルームに分散されたアイドルGPUを活用してAIサービス企業にコンピューティングリソースを供給できるようになる。企業とも協力議論が活発だ。特に小規模AI資源が必要な企業の需要が徐々に増加しており、これらがaieevの主要ターゲット顧客になる予定だ。
- 低コスト推論クラウド 'Air Cloud' & 'Air Container'
aieevの「Air Cloud」は、AWSに代わる低コストAI推論プラットフォームです。顧客のニーズに応じて2つのオプションがあります。
Air Cloud Standardは、パーソナルPCとPCルームのアイドルGPUをクラウドソーシングする方式で運営される。経済性を最優先にするため、スタートアップと開発者が最小限のコストでAIモデルをテストして配布することができる。 Air Cloud Plusは、エンタープライズクラスの安定性とパフォーマンスを必要とする企業向けに設計されています。検証済みのカスタムビルドノードで構成された分散クラスタであり、99.99%の可用性を保証し、ミッションクリティカルなAIサービスも安定的に運営できる。
顧客はトラフィックに合わせて必要なだけのGPUを流動的に割り当てられ、使用した時間だけ課金されます。これは、予測不可能なトラフィックの変化に柔軟に対応できることを意味します。また、aieevのダッシュボードを使用して、APIエンドポイントのパフォーマンスと状態をリアルタイムで監視し、詳細なログを分析できます。これにより、顧客は自分のAIサービスが正しく機能していることをいつでも確認し、必要に応じて迅速に問題に対応することができます。
- OpenAI互換AI APIサービス「Air API」
「Air API」は、開発者が自分のサービスに即座に統合できる生成型AIインターフェースだ。複雑なAIモデルを構築することなく、API呼び出しだけでChatGPTなどのAI機能を実装できます。
Air APIは、コール(コール)ごとに課金する方法で、企業が実際に使用した分だけ費用を支払えばよい。 Air APIは完全なサーバーレスAIソリューションです。顧客は、インフラストラクチャ管理やサーバーの運営を心配することなく、ビジネスロジックだけに集中できます。トラフィックが増加すると自動的にスケールされ、減少すると自動的に縮小されます。
Air APIは2026年の正式サービスのローンチを目指している。ローンチ後、韓国語LLMベースの多様なモデルをサポートする予定だ。
- 企業のアイドルGPU最適化「Private Air Cloud」
Private Air Cloudは、大企業内に散在したGPUリソースを単一の統合プラットフォームとして運営するソリューションです。各部署やチームが必要に応じてGPUを確保しているため、戦士レベルの効率的な運営が難しい。 Private Air Cloudはこの問題を根本的に解決します。 Air Cloudが世界中の分散GPUを集めるように、Private Air Cloudは企業内の分散GPUをリアルタイムで統合管理し、必要な部門に動的に割り当てることができます。

「すべての人のAI」
aieevはAI Equality、Everyone's Valueの英語の略語から名前を取った。 AI平等、皆の価値という意味を込めている。
「情報ギャップは今後も引き続き広がると思います。情報アクセシビリティのギャップは目に見えないが深刻になるでしょう。今でも無料でChatGPTを使う人がいる一方、月30万ウォンずつ出してChatGPT Plusを使う人もいます。
朴代表の懸念は現実になっている。 AIサービスがすべての産業に拡大し、AIにアクセス可能な企業とそうでない企業の格差はますます広がっている。
「このようなギャップはあってはならないと思います。AIの恩恵は誰でも享受できなければなりません。aieevは、誰もが気軽にAIを書くことができる世界を作ろうとしています。
aieevは単純な低コストサービスを作ることを越えて、技術を通じて社会の格差を減らそうとする努力を試みている。それを可能にするには、インフラの革新が不可欠です。 aieevの挑戦が成功すれば、数年後にAIの利用構図は今と完全に変わっているだろう。
You must be logged in to post a comment.