Amazon Web Services ブログ

ユビタスの AWS 生成 AI 事例 : Amazon EC2 や AWS Parallel Cluster による大規模言語モデルの開発を加速

本ブログは、株式会社ユビタスと Amazon Web Services Japan が共同で執筆いたしました。

株式会社ユビタスは、NVIDIA の投資を受けたテクノロジー企業で、世界有数の GPU 仮想化とクラウドストリーミング技術を有しています。クラウドと AI 分野での最高のサービスを提供することを目指しています。ユビタスは、台湾大学や東京大学などの著名大学と協力し、繁体字・日本語の大規模言語モデル(LLM)を学習させるほか、AI キャラクターソリューション「UbiONE」を立ち上げ、ブランドキャラクター「AI Vtuber: Ubi-chan」を発表するなど、生成 AI の分野でイノベーションと実用化を行っています。

課題

UbiONE は、金融や医療など様々な業界向けにカスタマイズされた対話型 AI キャラクターソリューションになります。各業界には固有の要件があり、それに対応する対話機能とフロントエンド・バックエンドの構築が求められていました。しかし、従来の開発アプローチでは、このカスタマイズ作業に多大な労力とリソースを要していました。

検証内容

そこで、LLM の開発を加速するため、Amazon EC2 P5 インスタンスと AWS ParallelCluster を活用した検証を行いました。まず 16 台の NVIDIA H100 GPU 搭載 Amazon EC2 P5 インスタンスで 1 ヶ月間の事前学習を実施し、高性能なクラウド計算環境を構築できました。その結果、深層学習とAIモデルのトレーニングスピードが大幅に向上しました。

次に、AWS の技術支援を受けながら AWS ParallelCluster を導入しました。この優れたクラスタ管理ツールにより、計算リソースの使い勝手が格段に改善され、学習時間が従来比で 90% 短縮されました。さらに Slurm システムを活用してリソース割り当てと管理を最適化することで、効率的なリソース活用を実現しています。

フロントエンド環境では、Amazon S3Amazon CloudFrontAmazon EKSElastic Load Balancing などの AWS サービスを組み合わせてアプリケーションとサービスをサポートしています。これらのサービスにより、ストレージ、トラフィック分散、動的プロビジョニングが可能になり、複数のカスタマイズされた AI キャラクターバージョンを高速に構築・管理し、効率的に展開および更新することができます。

検証結果

その結果として、従来の開発プロセスに比べて大幅な作業量の削減と開発効率の向上をもたらすことが確認できました。さらに、AWS のスケーラブルなクラウドインフラストラクチャを活用することで、様々な業界のお客様の要件を的確に満たすカスタマイズされた AI キャラクターを柔軟に提供できることが実証されました。

今後の展望

今後もユビタスは AWS が提供する先進的なクラウドサービスを積極的に活用し、プロダクト開発のさらなる効率化、機能拡張、精度向上を図っていく方針です。
幅広い観点からは、UbiONE を金融や医療に留まらず、さまざまな業界への展開を視野に入れています。各業界の専門知識を AI モデルに取り込むことで、高度な対話機能を備えた特化ソリューションの開発を図っていく予定です。
一方で深さの面でも、対話エンジンの高度化や API 機能の拡充、ユーザーインターフェースの改善など、リッチでシームレスなユーザー体験を実現するための継続的な開発投資を行っていく予定です。

まとめ

今回の検証を通して、Amazon EC2 P5 と AWS ParallelCluster の組み合わせが AI モデル開発の大幅な効率化に有効であることが確認できました。さらに、Amazon S3、Amazon CloudFront、Amazon EKS、Elastic Load Balancing を活用したサービスのプロビジョニングにより、AI における競争力が一層高まりました。ユビタスは引き続き AWS の技術を活用し、革新的な AI ソリューションの提供に注力していきます。