Amazon Web Services ブログ
週刊生成AI with AWS – re:Invent 2024特別号 (2024/12/2週)
みなさん、こんにちは。AWS ソリューションアーキテクトの木村です。
先週は AWS re:Invent 2024 が開催されました。キーノートや多くのセッションで生成 AI に関する最新の取り組みやアップデートが発表されました。 Youtube に動画がアップロードされているので、見逃したセッションがある方はご覧ください。
発表された新サービスをサクッと確認されたい方向けには、12 月 6日 に開催された「AWS Black Belt Online Seminar 2024 年 AWS re:Invent 速報」の資料と動画がアップロードされていますのでこちらをご覧ください。
また、2025 年 2 月には re:Invent で発表されたアップデートをより深掘って振り返る Recap イベントを開催します。以下のリンクからお申し込みいただけます。
今週は特別号として re:Invent で特に注目を集めた生成 AI 関連の新サービスを、木村の独断でピックアップして紹介していきます。それでは見ていきましょう!
サービスアップデート – 生成AIを組み込んだ構築済みアプリケーション
-
- Amazon Q Developer にて、ドキュメント生成、コードレビュー、ユニットテスト機能を提供開始
Amazon Q Developer は、ソフトウェア開発ライフサイクル全般で開発者を支援する生成 AI 搭載アシスタントです。今回のアップデートで、ドキュメント生成、コードレビュー、ユニットテスト機能といったコーディング以外のタスクを加速するための機能を提供開始しました。開発者は、IDE のチャットパネルを開いて/doc
と入力すると、コードに関する readme やデータフロー図などのドキュメントを生成することができます。また、/review
と入力すると、コードレビューが開始され、命名規則違反やセキュリティ脆弱性などの問題を特定してコード修正案を生成します。そのままコードエディタ上で変更を適用することができます。また、/test
と入力すると、テストケースの特定からユニットテストの作成まで自動で行われます。開発者は生成されたユニットテストを受け入れるかを選択することができます。これらは Amazon Q Developer が利用可能なすべての AWS リージョンで利用可能です。詳細はこちらのブログを参照ください。 - Amazon Q Developer にて .NET、Mainframe、VMware ワークロード向け変換機能を発表 (プレビュー)
Amazon Q Developer にて、大規模なエンタープライズワークロードのモダナイズを加速するための、3 つの変換機能のパブリックプレビューを発表しました。変換機能を提供する専用の web ページが用意されています。.NET 変換機能では、.NET Framework から .NET への自動変換をサポートします。Amazon Q Developer が移植処理を自動的に行い、変換後のコードを新しいブランチにコミットします。Mainframe 変換機能では、COBOL コードから Java コードへのリファクタリングをサポートします。変換では、まずコードの分析が行われドキュメントが作成されます。その後、ビジネスドメイン単位への分解と移行計画の作成を行い、 COBOL から Java への自動リファクタリングを行います。VMware 変換機能では、VMware 仮想マシンから Amazon EC2 への移行をサポートします。VMwareのネットワーク構成とファイアウォールルールをネイティブのAWSネットワーク構成に変換し、到達可能性を検証します。各処理の重要な決定ポイントでは、Amazon Q Developer がユーザーの入力を促進します。詳細はこちらのブログを参照ください。 - Amazon Q Developer に運用調査機能を追加 (プレビュー)
Amazon Q Developer にて、AWS 環境全体の運用上の問題を調査・修正する機能がプレビューで追加されました。これにより運用負荷を下げ時間と労力を節約することが可能です。アラートがあがった Amazon CloudWatch アラームにて「調査」を選択すると、Amazon Q Developer が問題の仮説と修正のガイドを提示します。修正のガイドでは、問題を修正する AWS Systems Manager Automation ランブック が提案され、詳細を確認後そのまま実行することが可能です。詳細はこちらのブログをご覧ください。 - GitLab Duo with Amazon Q のプレビューを発表
開発者が慣れ親しんだ GitLab 環境内で、Amazon Q Developer の AI エージェント機能を有効化できる GitLab Duo with Amazon Q のプレビューを発表しました。これにより、GitLab 環境上で生成 AI を活用し、機能開発、コードレビュー、単体テスト、変換を加速することができます。例えば、Issue にて/q dev
とコメントを追加すると、Issue の内容に基づいてコードを生成したり、マージリクエストページで/q review
とコメントを送信すると、変更をスキャンし脆弱性などの検査を行ったりすることが可能です。詳細はこちらのブログをご覧ください。 - Amazon Q Index により ISV が生成AIエクスペリエンスを強化可能に
ISV 向けの新しい Amazon Q Business 機能を発表しました。ISV は、アプリケーションと Amazon Q Index を統合することで、アプリケーション外の複数のソースからデータを取得しよりパーソナライズされた応答を顧客に提供できるようになります。Asana、Miro、PagerDuty、Zoom などの ISV は、Amazon Q Index をアプリケーションに統合しています。詳細はこちらのブログを参照ください。
- Amazon Q Developer にて、ドキュメント生成、コードレビュー、ユニットテスト機能を提供開始
サービスアップデート – アプリケーション開発のためのツール
-
- Amazon Bedrockにて Amazon Nova 基盤モデルを提供開始
Amazon Bedrock で 最先端の知能と高いコストパフォーマンスを提供する 5 つの Amazon Nova 基盤モデルが利用できるようになりました。Nova Micro は、低コスト・低レイテンシーの応答を提供するテキストのみのモデルです。Nova Lite は、画像、動画、テキスト入力の処理が高速かつ低コストのマルチモーダルモデルです。Nova Pro は、幅広いタスクに対して精度、速度、コストの最適な組み合わせを持つ高性能マルチモーダルモデルです。これらのモデルは、特に RAG やエージェントアプリケーションで高い効果が出るよう最適化されています。日本語もサポートされています。またこれらに加え、Nova Canvas という画像生成モデルと、Nova Reel という動画生成モデルも提供開始しました。詳細はブログをご覧ください。 - 100 以上のモデルが用意されている Amazon Bedrock Marketplace を発表
Amazon Bedrock Marketplace は、従来から提供している Amazon Bedrock のサーバーレスモデルに加えて、100 以上の公開および独自の基盤モデルへのアクセスを提供する新機能です。Amazon Bedrock Marketplace のモデルは、Bedrockの統一 API を通じてアクセスでき、Converse API と互換性のあるモデルは、Amazon Bedrock エージェント、ナレッジベース、ガードレールなどのツールと共に使用できます。Amazon Bedrock Marketplace はアジアパシフィック(東京)含む 14 リージョンでサポートされています。詳細はブログを参照ください。 - Amazon Bedrock Model Distillation (蒸留) が利用可能に(プレビュー)
Amazon Bedrock Model Distillation により、お客様はより小型で高速かつコスト効率の高いモデルを使用できるようになりました。蒸留とはモデルの圧縮手法の1つです。これまで蒸留には、プロンプトと応答の作成、トレーニングパラメータの調整など多くのステップが必要でしたが、Model Distillation は応答データの生成・トレーニング・評価・ホスティングなどのプロセスを自動化します。Model Distillation は Anthropic、Meta、Amazon のモデルをサポートしています。詳細はブログを参照ください。 - Amazon Bedrockにて、基盤モデルの低レイテンシー最適化推論機能を提供開始(ブリックプレビュー)
Amazon Bedrockにて、基盤モデルの低レイテンシー最適化推論機能がパブリックプレビューで利用可能となりました。これにより、生成 AI アプリケーションでより速いレスポンスをユーザーに提供できるようになりました。現在こちらの新しい推論オプションは、Anthropic の Claude 3.5 Haiku と、Meta の Llama 3.1 405B および 70B をサポートしています。本機能は、米国東部(オハイオ)リージョンでクロスリージョン推論を通じて利用可能です。 - コストとレイテンシーを削減する Amazon Bedrock Intelligent Prompt Routing と prompt cachingを提供開始(プレビュー)
Amazon Bedrock は生成 AI アプリケーションのコストとレイテンシーを削減するための 2 つの機能をプレビューで発表しました。Amazon Bedrock Intelligent Prompt Routing は、ユーザーからのリクエストに対して、望ましい応答を低コストで提供する可能性が高いと予測されるモデルに動的にルーティングする機能です。これにより、お客様は応答の品質とコストの最適化を図りやすくなります。現在は、Claude Sonnet 3.5 と Claude Haiku 間、または Llama 3.1 8B と Llama 3.1 70B 間のルーティングをサポートしています。prompt caching は、頻繁に使用されるプロンプトをキャッシュすることで、モデルのコストを最大 90%、レイテンシーを最大 85% 削減可能な新機能です。キャッシュによりリクエスト処理の高速化だけでなく、出力の生成に必要な計算リソースが少なくなるためコスト削減にも繋がりやすくなります。Converse API で 対象のメッセージをcachePoint ブロック
で指定して呼び出します。これらの詳細はブログを参照ください。 - Amazon Bedrock Data Automation (プレビュー)、Knowledge Basesのマルチモーダルデータ処理、Knowledge BasesのGraphRAG対応 (プレビュー)、構造化データの検索機能、といったデータ処理と検索を強化する機能を提供開始
Amazon Bedrock はデータ処理を効率化するための 4 つの機能強化を発表しました。Amazon Bedrock Data Automation (DBA) は、文書、画像、動画、音声といった非構造化データの分析とインサイトの生成を自動化する機能です。例えば、ドキュメントの解析や動画の要約などが可能で、ブループリントを定義することで出力形式の指定も可能になっています。またKnowledge Bases のパーサーとして DBA を指定することで、より高い精度の RAG の構築が期待できます。次に、Amazon Bedrock Knowledge Basesにて、画像、図表などのマルチモーダルデータを処理できるようになりました。テキストとマルチモーダルの両方のデータに基づいて回答を生成することで、RAG で得られる回答の精度を向上させることができます。パーサーには DBA もしくは既存の基盤モデル (Claude 3.5 Sonnet もしくは Haiku 3) を指定することができます。Knowledge Bases の GraphRAG 対応は、RAG とグラフ DB を組み合わせて、より関連性が高い応答を提供するための新機能です。グラフ DB を使うことで、データ同士の関係性を考慮した検索が可能になります。Knowledge Bases のベクトルストアとして Amazon Neptune Analytics を選択すると GraphRAG を有効化できます。構造化データの検索機能は、自然言語クエリを SQL クエリに変換しソースから直接データを取得できるようにする機能です。現在、ソースとして Amazon Redshift と Amazon Sagemaker Lakehouse をサポートしています。これらの詳細はブログを参照ください。 - Amazon Bedrockがマルチエージェントコラボレーションに対応 (プレビュー)
Amazon Bedrock がマルチエージェントコラボレーションに対応し、複雑な多段階タスクに協力して取り組む複数の AI エージェントを構築、管理することができるようになりました。例えば SNS 投稿を生成するエージェントと、投稿内容と過去データから最適な投稿時間を予測するエージェントを活用してより効果の高い SNS キャンペーンを行うといったユースケースが挙げられます。セットアップが容易である点や複数エージェントのオーケストレーションを実現する機能がマネージドで提供されている点が嬉しいポイントとなります。詳細はブログを参照ください。 - Amazon Bedrock Guardrails が Automated Reasoning Check (自動推論チェック) をサポート(プレビュー)
Amazon Bedrock Guardrails に新しいセーフガードとして Automated Reasoning Check (自動推論チェック) がプレビューで追加されました。この機能により、LLM の出力の正確性が数学的に検証され、ハルシネーションの検出を行いやすくなりました。事前設定として、企業のガイドラインや仕様が書かれたドキュメントをアップロードすると自動推論ポリシーが作成されます。Amazon Bedrock Guardrails は、LLM の出力と自動推論ポリシーを照合して検証を行い、不正確な回答を特定します。事実の正確性と説明可能性が重要なユースケースに特に有用です。詳細はブログを参照ください。
- Amazon Bedrockにて Amazon Nova 基盤モデルを提供開始
サービスアップデート – 生成AI開発のためのインフラストラクチャー
-
- 次世代の Amazon SageMaker を発表
AWS の機械学習と分析機能を統合し、データへの統一されたアクセスとガバナンスを備えた統合プラットフォームサービスとして、次世代の Amazon SageMaker を発表しました。次世代の Amazon SageMaker には、Amazon SageMaker Unified Studio (プレビュー)、Amazon SageMaker Lakehouse、Amazon SageMaker Data and AI Governance といった新サービスが含まれます。モデル開発、生成 AI アプリケーション開発、データ処理、SQL分析などを、単一の開発環境から実施することができるようになっています。これまでの Amazon SageMaker は Amazon SageMaker AI に名称変更されています。SageMaker AI は次世代 SageMaker に統合されています。詳細はこちらのブログを参照ください。 - AI/ML トレーニングと推論のための Amazon EC2 Trn2 インスタンスと Trn2 UltraServer が利用可能に
AI/ML トレーニングと推論のための最も強力な EC2 コンピューティングオプションである Amazon EC2 Trn2 インスタンスと Trn2 UltraServer が利用可能になりました。Trn2 インスタンスは第 1 世代の Trn1 インスタンスと比較して 4 倍高速で、EC2 P5e および P5en インスタンスと比較して 30〜40% 優れた価格性能比を提供します。Trn2 UltraServer は 64 個の Trainium2 チップを、高帯域幅・低レイテンシの独自インターコネクトNeuronLink で接続しており、モデルトレーニングの速度向を実現します。
- 次世代の Amazon SageMaker を発表