Amazon Web Services ブログ

Tag: Amazon SageMaker

AWS Trainium を活用した日本語大規模言語モデルの分散学習と AWS Inferentia2 上での推論環境構築

生成 AI の進化を支える大規模言語モデルの開発及び運用に掛かるコスト、計算機リソースの確保は多くの企業が抱える大きな課題です。AWS では機械学習 (ML) アクセラレーターチップ AWS Trainium、AWS Inferentia2 を自社開発し、これらの課題解決に取り組んでいます。(Anthropic では AWS Trainium、Inferentia の活用を表明しています)
本ブログでは、前半で、AWS Trainium 搭載 Amazon EC2 Trn1 インスタンスを活用した日本語大規模言語モデルの開発事例、大規模分散学習の課題及び実現方法について解説します。
ブログ後半では、公開された日本語大規模モデルを Inferentia2 搭載 Amazon EC2 Inf2 インスタンス上で推論実行する方法について、手順を追って解説します。

32,000トークン対応の商用利用可能な日本語チャットモデル CyberAgentLM2 をワンクリックで FineTune とデプロイ

このたび株式会社サイバーエージェントから公開されている大規模言語モデルである CyberAgentLM2-7B-Chat (CALM2-7B-Chat) が JumpStart から利用できるようになりました。今回 Amazon SageMaker Jumpstart から利用できるようになったモデルは、11月に同社から発表された次世代の CALM2 シリーズのチャット用途向けの CALM2-7B-Chat です。このモデルは 1.3 兆トークンの日本語と英語の公開データセットで学習された Transformer ベース(Llama)の CyberAgentLM2-7B (CALM2-7B) をチャット向けに教師有り学習でファインチューニングしたモデルです。入出力の長さとして 32,000 トークンに対応しており、日本語の文章として約 50,000 文字を一度に処理することができます。モデルは商用利用可能な Apache License 2.0 で提供されています。

AWSのサーバーレスと機械学習のサービスを活用した列車遅延予測機能の追加とその精度向上(小田急電鉄様の取り組み)

本投稿は小田急アプリや他社サービスなどに連携する列車遅延予測機能の追加とその精度向上の取り組みについて、実際に […]

自動シャットダウンソリューションを使ってAmazon SageMaker Canvas のコストを最適化する方法

この投稿では SageMaker Canvas アプリケーションのコストをより最適化する新しい方法を紹介します。 SageMaker Canvas は現在、アプリの使用状況とアイドル時間に関するインサイトを提供する Amazon CloudWatch Metrics を収集しています。 お客様はこの情報を使用して、意図しないコストの発生を避けるために自動的にアイドル状態の SageMaker Canvas アプリケーションをシャットダウンできます。

API と OSS 、蓄積したデータで精度を改善するならどちらの基盤モデルを選択すべきか : 質問回答編

本文書では、サービスや製品に蓄積したデータを活用した精度改善を視野に入れた場合、 API と OSS のどちらがコスト効率が良くなるのかを検証します。 API は Amazon Bedrock や ChatGPT などのサービス、 OSS は Hugging Face などで公開されている基盤モデルを GPU インスタンスでホスティングする利用形態を想定しています。本 2 つの手法でデータをプロンプトに組み込む、追加学習に使用した場合の精度とコストを比較します。

クラウドを用いた PGA ツアーでのボール位置追跡システム

PGAツアーはゴルフの観戦体験を向上させるために、リアルタイムのデータを活用しています。次世代のボール位置トラッキングシステムの開発のため、Amazon Generative AI Innovation Center (GAIIC) は、PGAツアーのイベントで得たデータを用いて、畳み込みニューラルネットワークを連結したパイプラインを開発しました。この投稿では、そのパイプラインの開発とパフォーマンスの評価について説明します。