業務をサポートする適切な AI と ML のサービス、フレームワーク、基盤モデルを選択しましょう
はじめに
最も基本的な機械学習 (ML) は、データから学び、パターンを特定し、予測を行い、その予測に基づいて行動するためのデジタルツールとサービスを提供するように設計されています。現在、ほとんどすべての人工知能 (AI) システムは ML を使用して作成されています。ML は大量のデータを使用して意思決定ロジックの作成と検証を行います。この決定ロジックは、AI「モデル」の基礎を形成します。
機械学習のサブセットとして急成長しているのが生成系 AI です。生成系 AI は、一般に基盤モデル (FM) と呼ばれる、膨大なデータセットで事前トレーニングされた大規模モデルを利用しています。生成系 AI に基づく AWS サービスには次が含まれます。
- Amazon Bedrock (FM を使用して生成系 AI ベースのアプリケーションを構築およびスケールする方法を提供します)
- Amazon CodeWhisperer (自然言語でのコメントと統合開発環境での以前のコードに基づいて、リアルタイムでコード候補を生成する AI コーディング支援ツール)
この意思決定ガイドは、適切な質問をし、基準とビジネス上の問題を評価して、どのサービスがニーズに最も適しているかを判断するのに役立ちます。
2 分もかからずに、Amazon CTO の 博士 Werner Vogels が、生成系 AI の仕組みと使用方法について説明します。この動画は、Vogels 博士と AWS のデータベース、分析および ML 担当副社長の Swami Sivasubramanian による、生成系 AI の全体像、誇大広告ではない理由、AWS がどのようにして大規模な言語と基盤モデルへのアクセスを民主化しているかについての長時間の話し合いの一部を取り上げたものです。
所要時間
25 分
目的
どの AWS ML サービスがお客様のニーズに最適かを判断するのをサポートすること。
レベル
初心者
最終更新日
2023 年 7 月 26 日
対象サービス
理解
さらに、AWS は、高性能な ML トレーニングと推論のために、次の専用高速ハードウェアを提供しています。
- Amazon EC2 P4d インスタンスは NVIDIA A100 Tensor Core GPU を搭載し、機械学習のトレーニングタスクと推論タスクの両方に適しています。AWS Trainium は、AWS が 1,000 億以上のパラメータモデルの DL トレーニング専用に構築した第 2 世代の ML アクセラレーターです。
- AWS Inferentia2 ベースの Amazon EC2 Inf2 インスタンスは、DL 推論アプリケーションと生成系 AI アプリケーションにおいて、Amazon EC2 内で最も低いコストで高いパフォーマンスを実現するように設計されています。
検討事項
AWS の ML サービスを利用してビジネス上の問題を解決する場合、いくつかの重要な基準を検討することで、成功がより確実になります。次のセクションでは、ML サービスを選択する際に考慮すべき重要な基準のいくつかを概説します。
-
問題定義
-
ML アルゴリズム
-
セキュリティ
-
レイテンシー
-
精度
-
AWS と責任ある AI
-
ML ライフサイクルの第一歩は、ビジネス上の問題を具体化することです。解決しようとしている問題を理解することは、適切な AWS ML サービスを選択する上で不可欠です。さまざまなサービスが種々の問題に対処するように設計されているためです。抱えているビジネス上の問題に ML が最適であるかどうかを判断することも重要です。
ML が最適であると判断したら、まず、AWS のさまざまな目的別 AI サービス (音声、ビジョン、ドキュメントなどの分野) から選択します。
Amazon SageMaker は、独自のモデルを構築およびトレーニングする必要があるお客様のために、フルマネージド型のインフラストラクチャを提供します。AWS では、高度にカスタマイズされた特殊な ML モデルが必要な場合のために、高度な ML フレームワークとインフラストラクチャの選択肢を幅広くご用意しています。また、AWS は生成系 AI を使用して新しいアプリケーションを構築するための一般的な基盤モデルを幅広く提供しています。
-
解決しようとしているビジネス上の問題のために選択すべき ML アルゴリズムは、利用するデータの種類と、求める結果によって異なります。主要な AWS の各 AI/ML サービスカテゴリで、そのアルゴリズムをどのように活用できるかの概要を次に示します。
- 専門的な AI サービス: これらのサービスは、特定のタスク向けに最適化された事前トレーニング済みのモデルであるため、ML アルゴリズムをカスタマイズするための機能は限定的です。通常、入力データや一部のパラメータをカスタマイズできますが、基盤となる ML モデルにアクセスしたり、独自のモデルを構築したりすることはできません。
- Amazon SageMaker: このサービスは ML アルゴリズムを極めて柔軟に制御できます。SageMaker を利用して、独自のアルゴリズムやフレームワークを使用してカスタムモデルを構築したり、AWS が提供する事前構築済みのモデルやアルゴリズムを使用したりできます。これにより、ML プロセスの高度なカスタマイズと制御が可能になります。
- 下位レベルの ML フレームワークとインフラストラクチャ: これらのサービスは、ML アルゴリズムを極めて柔軟に制御できます。これらのサービスを利用して、独自のアルゴリズムとフレームワークを使用して高度にカスタマイズされた ML モデルを構築できます。ただし、これらのサービスを利用するには ML に関するかなりの専門知識が必要であり、あらゆるユースケースに適しているとは限りません。
-
VPC でプライベートエンドポイントが必要な場合、オプションは利用している AWS の ML サービスのレイヤーによって異なります。これらのオプションには次が含まれます。
- 専門的な AI サービス: 現在、ほとんどの専門的な AI サービスは VPC のプライベートエンドポイントをサポートしていません。ただし、Amazon Rekognition Custom Labels と Amazon Comprehend Custom には VPC エンドポイントを使用してアクセスできます。
- 中核となる AI サービス (Amazon Translate、Amazon Transcribe、Amazon Comprehend) はすべて VPC エンドポイントをサポートしています。
- Amazon SageMaker: SageMaker には VPC エンドポイントのサポートが組み込まれているため、トレーニング済みのモデルを VPC 内からのみアクセスできるエンドポイントとしてデプロイできます。
- 下位レベルの ML フレームワークとインフラストラクチャ: モデルを Amazon EC2 インスタンスまたは VPC 内のコンテナにデプロイして、ネットワーク設定を完全に制御できます。
-
Amazon Rekognition や Amazon Transcribe などのより高いレベルの AI サービスは、さまざまなユースケースに対応し、速度の面でも高いパフォーマンスを発揮するように設計されています。ただし、これらのサービスは特定のレイテンシー要件を満たさない場合があります。
下位レベルの ML フレームワークとインフラストラクチャを使用している場合は、Amazon SageMaker を活用することをお勧めします。このオプションは、フルマネージドサービスと最適化されたデプロイオプションを備えているため、通常はカスタムモデルを構築するよりも高速です。高度に最適化されたカスタムモデルは SageMaker よりも優れているかもしれませんが、構築にはかなりの専門知識とリソースが必要です。
-
AWS ML サービスの精度は、特定のユースケースと必要なカスタマイズのレベルによって異なります。Amazon Rekognition などの高レベルの AI サービスは、特定のタスクに最適化された事前トレーニング済みのモデルに基づいて構築されており、多くのユースケースで高い精度を実現します。
場合によっては、カスタム ML モデルの構築とトレーニングのためにより柔軟でカスタマイズ可能なプラットフォームを提供する Amazon SageMaker を利用することを選択できます。独自のモデルを構築することで、事前トレーニング済みのモデルで実現可能な精度よりもさらに高い精度を実現できる場合があります。
TensorFlow や Apache MXNet などの ML フレームワークとインフラストラクチャを使用して、特定のユースケースで可能な限り高い精度を実現する高度にカスタマイズされたモデルを構築することも選択できます。
-
AWS は、開発プロセスの各段階で責任ある AI を念頭に置いて基盤モデル (FM) を構築しています。設計、開発、デプロイ、運用を通じて、当社は次のようなさまざまな要素を考慮します。
- 精度 (要約が基礎となるドキュメントとどの程度一致しているか、経歴が事実に照らして正しいかどうか)
- 公平性 (出力が人口統計グループを同じように扱っているかどうか)
- 知的財産権と著作権に関する検討事項
- 適切な利用 (法的助言、医療診断を求めるユーザーのリクエスト、または違法行為の除外)
- 毒性 (ヘイトスピーチ、冒涜、侮辱)
- プライバシー (個人情報とお客様のプロンプトの保護)
AWS は、これらの問題に対処するソリューションを、トレーニングデータの取得に使用されるプロセス、FM 自体、および前処理のユーザープロンプトと後処理の出力に使用されるテクノロジーに組み込んでいます。
選択
ML サービスオプションを評価する基準が明らかになったので、組織のニーズに適した AWS の ML サービスを選択する準備が整いました。
次の表は、どの ML サービスがどの状況向けに最適化されているかを示しています。これは、ユースケースに最適な AWS の ML サービスを決定するのに役立ちます。
Amazon Comprehend では、感情分析、エンティティ認識、トピックモデリング、言語検出などの自然言語処理タスクをテキストデータで実行できます。
Amazon Lex は、自然言語のインターフェイスでユーザーと対話できるチャットボットと音声アシスタントの構築に役立ちます。あらかじめ組み込まれたダイアログ管理、言語理解、音声認識機能を備えています。
Amazon Polly を使用してテキストを本物そっくりの音声に変換することで、音声対応のアプリケーションやサービスを簡単に作成できます。
Amazon Rekognition は、アプリケーションに画像分析と動画分析を追加できるように設計されています。画像や動画を Amazon Rekognition API に提供すると、物、人、テキスト、シーン、アクティビティが自動的に識別されます。また、不適切なコンテンツも検出できます。
Amazon Textract を使用すると、スキャンしたドキュメント、フォーム、テーブルからテキストとデータを抽出できるため、そのようなデータの保存、分析、管理が容易になります。
Amazon Transcribe を使用すると、お客様は音声録音と録画を自動的にテキストに書き起こすことができます。これにより、手作業による文字起こしに比べて時間と労力を節約できます。
このサービスを使用すると、テキストをある言語から別の言語にリアルタイムで翻訳できます。これは、事業を複数の国で運営している場合や、母国語を話さない人とコミュニケーションをとる必要がある場合に特に役立ちます。
Amazon Bedrock は、主要な AI スタートアップや Amazon の基盤モデルを API 経由で利用できるようにするフルマネージド型サービスです。そのため、さまざまな基盤モデルの中からお客様に最適なモデルを見つけることができます。
Amazon CodeWhisperer はリアルタイムの AI コーディングコンパニオンであり、日常的または時間のかかる差別化されていないタスク用のコード作成、なじみのない API や SDK の操作、AWS API の正確かつ効果的な使用、およびファイルの読み取りと書き込み、画像処理、単体テストの作成などの他の一般的なコーディングシナリオに役立ちます。
Amazon SageMaker Autopilot は、ML モデル構築のための重労働を軽減するように設計されています。表形式のデータセットを提供し、予測対象の列を選択するだけで、SageMaker Autopilot が自動的にさまざまなソリューションを探索し、最適なモデルを見つけます。その後、ワンクリックでモデルを本番に直接デプロイするか、推奨ソリューションを繰り返して、モデルの品質をさらに向上させることができます。
Amazon SageMaker Canvas では、コードを記述しなくても機械学習を使用して予測を生成できます。
Amazon SageMaker Data Wrangler は、ML 用表形式データや画像データの集約と準備に要する時間を短縮します。SageMaker Data Wrangler を使用すると、データ準備と特徴量エンジニアリングのプロセスを簡素化し、データ選択、クレンジング、探索、視覚化、大規模処理など、データ準備ワークフローの各ステップを単一のビジュアルインターフェイスから実行できます。
SageMaker Ground Truth は、機械学習モデルのトレーニングと改善のためにデータにラベルを付けるマネージドサービスです。人間のアノテーターと機械学習アルゴリズムを組み合わせて使用することで、大規模データセットのラベル付けを非常に正確かつ効率的に行うことができます。SageMaker Ground Truth は、テキスト、画像、動画、音声を含む幅広いデータタイプをサポートし、他の SageMaker サービスとシームレスに統合してエンドツーエンドの機械学習ワークフローを実現します。
SageMaker JumpStart には、幅広い種類の問題に対応する事前学習済みのオープンソースモデルが用意されており、機械学習を使用開始するのに役立ちます。デプロイ前にこれらのモデルを段階的にトレーニングおよび調整できます。JumpStart には、一般的なユースケース向けのインフラストラクチャをセットアップするソリューションテンプレートや、SageMaker による機械学習用の実行可能なサンプルノートブックも用意されています。
Amazon SageMaker Pipelines を使用すると、Python SDK を使用して ML ワークフローを作成し、Amazon SageMaker Studio を使用してワークフローを可視化および管理できます。Amazon SageMaker Pipelines では、SageMaker Pipelines で作成したワークフローステップを保存して再利用できます。
デベロッパーが機械学習モデルを大規模に構築、トレーニング、デプロイできるようにする、完全に統合された開発環境 (IDE)。データ準備やモデルトレーニングからデプロイや監視まで、機械学習のライフサイクル全体を管理するための単一のウェブベースのインターフェイスを提供します。SageMaker Studio は Jupyter Notebook、Git、TensorFlow などの一般的なツールもサポートしており、一般的なユースケース向けに構築済みのアルゴリズム一式も提供しています。
Amazon SageMaker Studio Lab は、事前構築済みの Jupyter Notebook を使用して機械学習を学んだり実験したりするためのクラウドベースの IDE です。これには、画像認識、自然言語処理、異常検出などのトピックを網羅したさまざまな事前構築済みノートブックが含まれています。
Apache MXNet は、Python、Scala、R などの複数のプログラミング言語をサポートするオープンソースの深層学習フレームワークです。そのスケーラビリティとスピードで知られており、ニューラルネットワークの構築とトレーニングのためのさまざまな高レベル API と、上級ユーザー向けの低レベル API を提供しています。
Amazon SageMaker での Hugging Face
Amazon SageMaker での Hugging Face は、自然言語処理 (NLP) 用のオープンソースライブラリで、テキストデータを扱うためのトレーニング済みのさまざまなモデルとツールが用意されています。使いやすさとパフォーマンスが高いことで知られており、テキスト分類、感情分析、言語翻訳などのタスクに広く使用されています。
PyTorch on AWS は、ニューラルネットワークの構築とトレーニングのための動的な計算グラフと自動微分を行うオープンソースの機械学習フレームワークです。PyTorch はその使いやすさと柔軟性で知られており、開発に貢献するデベロッパーの大規模で活発なコミュニティがあります。
TensorFlow は Google が開発したオープンソースの機械学習フレームワークで、ニューラルネットワークの構築とトレーニングに広く使用されています。スケーラビリティ、スピード、柔軟性で知られており、Python、C++、Java などのさまざまなプログラミング言語をサポートしています。TensorFlow には、画像やテキストを処理するためのさまざまな事前構築済みモデルやツールが用意されているほか、モデルをより細かく制御する必要がある上級ユーザー向けの低レベル API も用意されています。
AWS Inferentia と AWS Inferentia2
第 1 世代の AWS Inferentia アクセラレーターは、Amazon Elastic Compute Cloud (Amazon EC2) Inf1 インスタンスを駆動し、同等の Amazon EC2 インスタンスに比べて、スループットが最大 2.3 倍、推論あたりのコストが最大 70% 削減されます。AWS Inferentia2 アクセラレーターは、第 1 世代の AWS Inferentia を改良したものです。Inferentia2 は、Inferentia と比較して、最大 4 倍のスループットと最大 10 倍のレイテンシーを実現します。
AWS Trainium は、AWS が 100 B 以上のパラメータモデルの深層学習トレーニングのために専用に構築した第 2 世代の機械学習 (ML) アクセラレーターです。Amazon Elastic Compute Cloud (EC2) Trn1 の各インスタンスは、クラウドでの深層学習 (DL) トレーニングに使用できる最大 16 の AWS Trainium アクセラレーターをデプロイします。
使用
AWS の ML サービスを選択する際に適用する必要がある基準を明確に理解したので、ビジネスニーズに合うように最適化された AWS の AI/ML サービスを選択できるようになりました。
選択したサービスの利用方法や詳細をご覧いただけるよう、各サービスの仕組みを詳しく確認できる 3 つのセットのパスウェイ をご用意しました。最初のパスウェイセットには、Amazon Comprehend、Amazon Textract、Amazon Translate、Amazon Lex、Amazon Polly、Amazon Rekognition、Amazon Transcribe の利用を開始するための詳細なドキュメント、ハンズオンチュートリアル、およびリソースが用意されています。
-
Amazon Comprehend
-
Amazon Textract
-
Amazon Translate
-
Amazon Lex
-
Amazon Polly
-
Amazon Rekognition
-
Amazon Transcribe
-
Amazon Comprehend
-
Amazon Comprehend の使用を開始する
Amazon Comprehend コンソールを使用して、非同期エンティティ検出ジョブを作成および実行します。
チュートリアルを開始する »Analyze insights in text with Amazon Comprehend
Amazon Comprehend を利用して、テキストからインサイトを分析および導出する方法を学びます。
Amazon Comprehend の料金
Amazon Comprehend の料金と例に関する情報を詳しくご覧ください。 -
Amazon Textract
-
Amazon Textract の使用を開始する
Amazon Textract をフォーマットされたテキストで利用して、互いに近くにある単語や単語の行を検出する方法と、関連するテキスト、表、キーと値のペア、選択要素などの項目に対してドキュメントを分析する方法をご覧ください。
Extract text and structured data with Amazon Textract
Amazon Textract を利用して、ドキュメントからテキストと構造化データを抽出する方法をご覧ください。
AWS Power Hour: Machine Learning
このエピソードでは Amazon Textract について詳しく説明し、AWS マネジメントコンソールに時間を割き、サービス API を最大限に活用する方法を理解するのに役立つコードサンプルを確認します。
-
Amazon Translate
-
コンソールを使って Amazon Translate の使用を開始する
Amazon Translate の利用を開始する最も簡単な方法は、コンソールで何らかのテキストを翻訳してみることです。コンソールを使用して最大 10,000 文字まで翻訳する方法をご覧ください。
Translate Text Between Languages in the Cloud
本チュートリアルの例では、インターナショナルな旅行カバン製造会社の社員として、ローカルマーケットの言語であるフランス語のレビューにおいて、自社製品に関して顧客が述べていることを理解する必要があります。
Amazon Translate の料金
Amazon Translate の料金 (12 か月間にわたって 1 か月あたり 200 万文字を提供する無料利用枠を含む) を詳しくご覧ください。
ガイドを詳しく見る »
カスタマイズ可能な翻訳ソリューションで多言語ワークフローを加速する
Amazon Translate と他の AWS サービスを利用して、カスタマイズ機能を備えた統合翻訳ソリューションを構築する方法を詳しくご覧ください。
-
Amazon Lex
-
Amazon Lex V2 デベロッパーガイド
Amazon Lex V2 の開始方法、仕組み、料金に関する情報について詳しくご覧ください。
ガイドを詳しく見る »Amazon Lex のご紹介
Amazon Lex 会話型サービスと、ボットを作成してさまざまなチャットサービスにデプロイする方法を示す例をご紹介します。コースを受講する » (サインインが必要です)
Exploring Generative AI in conversational experiences
会話エクスペリエンスにおける生成系 AI の利用について詳しくご覧ください。
-
Amazon Polly
-
What is Amazon Polly?
テキストを本物そっくりの音声に変換するクラウドサービスの概要を詳しくご覧ください。このサービスはアプリケーションの開発に利用して、カスタマーエンゲージメントとアクセシビリティを改善できます。Highlight text as it’s being spoken using Amazon Polly
読み上げられているテキストを強調表示して、書籍、ウェブサイト、ブログ、その他のデジタルエクスペリエンスで音声に視覚的な機能を追加する方法をご紹介します。Create audio for content in multiple languages with the same TTS voice persona in Amazon Polly
Neural Text-to-Speech (NTTS) について説明し、サポートされている言語でさまざまな話者を提供する、幅広い音声ポートフォリオがどのように役立つのかをご紹介します。
-
Amazon Rekognition
-
Hands-on Rekognition: Automated Image and Video Analysis
ストリーミング動画で顔認識がどのように機能するかを、コード例や重要なポイントとともに自分のペースでご覧ください。
Amazon Rekognition のよくある質問
Amazon Rekognition の基礎知識と、それが深層学習の改善とアプリケーションの視覚的分析にどのように役立つかをご覧ください。 -
Amazon Transcribe
-
Amazon Transcribe とは
ML を使用して音声をテキストに変換する AWS 自動音声認識サービスについて詳しくご覧ください。このサービスをスタンドアロンの文字起こしとして利用する方法や、任意のアプリケーションに音声からテキストへの変換機能を追加する方法をご覧ください。Amazon Transcribe の料金
カスタム言語モデルのオプションや Amazon Transcribe の無料利用枠など、AWS の従量制料金の文字起こしについてご紹介します。Create an audio transcript with Amazon Transcribe
ニーズに合わせてテストするための実際のユースケースのシナリオを用いて、録音された音声ファイルのテキストトランスクリプトを作成するために Amazon Transcribe を利用する方法をご覧ください。
Build an Amazon Transcribe streaming app
ライブ音声をリアルタイムで録音、文字起こし、翻訳し、結果を直接 E メールで送信するアプリケーションを構築する方法をご覧ください。
2 番目の AI/ML AWS サービスパスウェイセットには、Amazon SageMaker ファミリーのサービスを使い始めるための詳細なドキュメント、ハンズオンチュートリアル、およびリソースが用意されています。
-
SageMaker
-
SageMaker Autopilot
-
SageMaker Canvas
-
SageMaker Data Wrangler
-
SageMaker Ground Truth/Ground Truth Plus
-
SageMaker JumpStart
-
SageMaker Pipelines
-
SageMaker Studio
-
SageMaker
-
How Amazon SageMaker works
機械学習の概要と SageMaker の仕組みを詳しくご覧ください。Amazon SageMaker の使用を開始する
Amazon SageMaker ドメインに参加する方法をご覧ください。参加することで、Amazon SageMaker Studio と RStudio on SageMaker にアクセスできるようになります。
ガイドを詳しく見る »Apache Spark と Amazon SageMaker を使用する
データの前処理に Apache Spark を利用し、モデルのトレーニングとホスティングに SageMaker を利用する方法をご覧ください。
ガイドを詳しく見る »Use Docker containers to build models
Amazon SageMaker が、構築タスクとランタイムタスクに Docker コンテナを活用している方法を詳しくご覧ください。組み込みアルゴリズム用の構築済み Docker イメージと、トレーニングおよび推論に使用されるサポート対象の深層学習フレームワークをデプロイする方法をご覧ください。
ガイドを詳しく見る »
Machine learning frameworks and languages
Amazon SageMaker Python SDK を利用して SageMaker の利用を開始する方法をご覧ください。 -
SageMaker Autopilot
-
Create an Amazon SageMaker Autopilot experiment for tabular data
表形式のデータセットでさまざまなモデル候補を探索、前処理、トレーニングするために、Amazon SageMaker Autopilot の実験を作成する方法をご覧ください。Automatically create machine learning models
Amazon SageMaker Autopilot を利用して、ML モデルを自動的に構築、トレーニング、調整し、モデルをデプロイして予測を行う方法をご覧ください。
サンプルノートブックを使用して、Amazon SageMaker Autopilot によるモデリングを詳しく知る
ダイレクトマーケティング、顧客離れの予測、および独自のデータ処理コードを Amazon SageMaker Autopilot に組み込む方法に関するサンプルノートブックを詳しくご覧ください。 -
SageMaker Canvas
-
コードを書かずに機械学習の予測を生成する
このチュートリアルでは、Amazon SageMaker Canvas を利用して ML モデルを構築し、コードを一行も記述することなく正確な予測を生成する方法を説明します。
チュートリアルを開始する »Dive deeper into SageMaker Canvas
SageMaker Canvas と、その視覚的なノーコードの ML 機能について詳しくご覧ください。Amazon SageMaker Canvas を利用して初めての ML モデルを作成する
Amazon SageMaker Canvas を利用して、新製品やサービスの E メールキャンペーンに基づいて顧客維持率を評価する ML モデルを作成する方法をご覧ください。 -
SageMaker Data Wrangler
-
Amazon SageMaker Data Wrangler の使用を開始する
SageMaker Data Wrangler の詳しい設定方法と、既存のサンプルデータセットを使用したチュートリアルをご覧ください。
ガイドを詳しく見る »最小限のコードで機械学習のためのトレーニングデータを準備する
Amazon SageMaker Data Wrangler を利用して ML 用のデータを準備する方法をご覧ください。
チュートリアルを開始する »SageMaker Data Wrangler を探求するワークショップ
データセットに適切な分析タイプを適用して異常や問題を検出する方法、導出された結果/インサイトに基づいてデータセットの変換過程で是正措置を策定する方法、SageMaker Data Wrangler が提供するクイックモデリングオプションを使用して変換の正しい選択と順序をテストする方法をご覧ください。 -
SageMaker Ground Truth/Ground Truth Plus
-
Amazon Groud Truth の使用を開始する
コンソールを使用してラベリングジョブを作成し、公共または民間のワークフォースを割り当て、ラベリングジョブをワークフォースに送信する方法を詳しくご覧ください。ラベリングジョブの進行状況をモニタリングする方法をご覧ください。
Label Training Data for Machine Learning
Amazon SageMaker Ground Truth でラベリングジョブを設定して、ML モデル用のトレーニングデータに注釈を付ける方法をご覧ください。
Amazon Ground Truth Plus の使用を開始する
Amazon SageMaker Ground Truth Plus プロジェクトを開始し、ラベルを確認して、SageMaker Ground Truth Plus の前提条件を満たすために必要なステップを完了する方法を詳しくご覧ください。Amazon Ground Truth の使用を開始する
SageMaker Ground Truth コンソールを使用して、数分でデータにラベリングする方法をご覧ください。
Amazon SageMaker Ground Truth Plus – create training datasets without code or in-house resources
エキスパートによる質の高いトレーニングデータセットを迅速に提供し、コストを最大 40% 削減するターンキーサービスである Ground Truth Plus についてご覧ください。
-
SageMaker JumpStart
-
SageMaker JumpStart を利用して機械学習を開始する
一般的なユースケース向けにインフラストラクチャを設定する SageMaker JumpStart ソリューションテンプレートや、SageMaker を利用した機械学習向けの実行可能なサンプルノートブックを詳しくご覧ください。
ガイドを詳しく見る »Amazon SageMaker JumpStart を使用して機械学習プロジェクトをすばやく始める
Amazon SageMaker JumpStart によって提供される事前トレーニング済みのモデルと事前構築済みのソリューションを利用して、ML プロジェクトを迅速に追跡する方法をご覧ください。その後、Amazon SageMaker Studio ノートブックを使用して選択したモデルをデプロイできます。
この Immersion Day ワークショップで Amazon SageMaker JumpStart を実践する
Amazon SageMaker Data Wrangler、Autopilot、Jumpstart のローコード ML 機能によって、より迅速な実験と、高精度モデルの本番環境への導入がどのように容易になるかをご覧ください。
-
SageMaker Pipelines
-
Amazon SageMaker Pipelines の使用を開始する
SageMaker のジョブを管理およびデプロイするエンドツーエンドのワークフローを作成する方法をご覧ください。SageMaker Pipelines には SageMaker Python SDK が統合されているため、Python ベースのインターフェイスを使用してパイプラインの各ステップを構築できます。
ガイドを詳しく見る »Automate machine learning workflows
Amazon SageMaker Pipelines、Amazon SageMaker Model Registry、Amazon SageMaker Clarify を利用して、エンドツーエンドの機械学習 (ML) ワークフローを作成および自動化する方法をご覧ください。
チュートリアルを開始する »How to create fully automated ML workflows with Amazon SageMaker Pipelines
あらゆるデベロッパーとデータサイエンティストがアクセスできるように設計された世界初の ML CI/CD サービスである Amazon SageMaker Pipelines についてご覧ください。SageMaker パイプラインは CI/CD パイプラインを ML で使用できるようにし、必要なコーディング時間を短縮します。
動画を視聴する » -
SageMaker Studio
-
Build and train a machine learning model locally
Amazon SageMaker Studio ノートブック内で ML モデルをローカルに構築してトレーニングする方法をご覧ください。SageMaker Studio integration with EMR workshop
分散処理を大規模に活用してデータを準備し、その後に機械学習モデルをトレーニングする方法をご覧ください。
3 番目の AI/ML AWS サービスパスウェイセットには、Amazon Bedrock、Amazon CodeWhisperer、AWS Trainium、AWS Inferentia、Amazon Titan を使い始めるための詳細なドキュメント、ハンズオンチュートリアル、およびリソースが用意されています。
-
Amazon Bedrock
-
Amazon CodeWhisperer
-
AWS Trainium
-
AWS Inferentia
-
Amazon Titan
-
Amazon Bedrock
-
Overview of Amazon Bedrock
Amazon Bedrock が、主要な AI スタートアップと Amazon からの基盤モデルを API 経由で利用できるようにする方法を理解しましょう。理解することで、さまざまな FM から選択して、ユースケースに最適なモデルを見つけることができるようになります。
Announcing New Tools for Building with Generative AI on AWS
Amazon Bedrock の開発の背景と、AWS の AI と ML に対するより広範なアプローチとの適合性、AWS の生成系 AI サービスの潜在的な用途の概要について理解しましょう。
生成系 AI の謎を解き明かす
この動画では、Amazon CTO である Werner Vogels 博士と、AWS のデータベース、分析、ML 担当 VP である Swami Sivasubramanian が、生成系 AI の全体像、誇張ではない理由、AWS がどのようにして大規模な言語と基盤モデルへのアクセスを民主化しているかについて語ります。
-
Amazon CodeWhisperer
-
What is Amazon CodeWhisperer?
CodeWhisperer が、日常的な、または時間のかかる差別化につながらないタスク用のコード作成、なじみのない API や SDK の操作、AWS API の正確かつ効果的な利用のほか、ファイルの読み取りと書き込み、画像処理、ユニットテストの作成などの一般的なコーディングシナリオに役立つように設計されているようすを理解しましょう。
Amazon CodeWhisperer の使用を開始する
IDE として使用可能な AWS Toolkit for JetBrains、AWS Toolkit for Visual Studio Code、Lambda、AWS Cloud9 の 4 つのそれぞれで利用できるように CodeWhisperer を設定する方法を説明します。
Amazon CodeWhisperer Workshop
画像認識用の本格的なイベント駆動型サーバーレスアプリケーションを構築する方法をご覧ください。Amazon CodeWhisperer を利用することで、AWS Lambda 上で実行される独自のコードを記述し、Amazon Rekognition、Amazon DynamoDB、Amazon SNS、Amazon SQS、Amazon S3、サードパーティー HTTP API と相互にやり取りして画像認識を実行できます。
-
AWS Trainium
-
Scaling distributed training with AWS Trainium and Amazon EKS
AWS Trainium を搭載した Amazon EC2 Trn1 インスタンスの一般提供からメリットを得る方法をご覧ください。AWS Trainium は、クラウドで深層学習モデルをトレーニングするための高性能で費用対効果が高く、非常にスケーラブルなプラットフォームを提供するように最適化された、目的別 ML アクセラレーターです。
AWS Trainium の概要
AWS Trainium についてご覧ください。AWS Trainium は、AWS が 1,000 億以上のパラメータモデルの深層学習トレーニング専用に構築した第 2 世代の機械学習 (ML) アクセラレーターです。各 Amazon Elastic Compute Cloud (EC2) Trn1 インスタンスは、最大 16 個の AWS Trainium アクセラレーターをデプロイし、クラウドでの深層学習 (DL) トレーニングのための高性能かつ低コストのソリューションを提供します。
Recommended Trainium Instances
深層学習モデル推論ワークロード向けに高いパフォーマンスとコスト効率を提供するために、AWS Trainium インスタンスがどのように設計されているかを詳しくご覧ください。
-
AWS Inferentia
-
AWS Inferentia の概要
深層学習 (DL) 推論アプリケーション向けに極めて低いコストで高いパフォーマンスを実現するために、AWS によってアクセラレーターがどのように設計されているかを理解しましょう。
AWS Inferentia2 builds on AWS Inferentia1 by delivering 4x higher throughput and 10x lower latency
AWS Inferentia2 が何に向けて最適化されているかを理解し、LLM と生成系 AI 推論のコストを削減しながら、より高いパフォーマンスを実現するためにどのように一から設計されたかを詳しくご覧ください。
AWS Inferentia を使用した機械学習推論
Amazon EC2 Inf1 インスタンスを実行するノードで Amazon EKS クラスターを作成し、(オプションで) サンプルアプリケーションをデプロイする方法を説明します。Amazon EC2 Inf1 インスタンスには AWS Inferentia チップが搭載されています。このチップは、クラウドにおいて、高性能で低コストの推論を提供するように AWS によって構築されています。
-
Amazon Titan
-
Amazon Titan の概要
Amazon Titan FM がどのように大規模なデータセットで事前にトレーニングされ、強力な汎用モデルとなっているかを詳しくご覧ください。それらのモデルをそのまま使用する方法、または大量のデータに注釈を付けることなく、特定のタスクに合わせて独自のデータを使用してプライベートにカスタマイズする方法をご覧ください。
詳しく見る
これらのリファレンスアーキテクチャ図には、使用中の AWS AI および ML サービスの例が示されています。
AI/ML サービスの使用を開始し、その選択と使用に関するベストプラクティスを習得するのに役立つホワイトペーパーをご覧ください。
AI と ML サービスの一般的なユースケースに関する、精査されたソリューションとアーキテクチャガイダンスを詳しくご覧ください。