Amazon Web Services ブログ

詳解: AWS App Runner プライベートサービス

この記事は Deep Dive on AWS App Runner Private Services (記事公開日: 2022 年 11 月 1 日) を翻訳したものです。

AWS App Runner は、Web アプリケーションと API サーバーを実行するためのフルマネージドサービスです。App Runner は、お客様のアカウントのインフラストラクチャをほとんどまたはまったく使用せず、安全な Web アプリケーションを構築して実行する体験をシンプルにします。ソースコードまたはコンテナイメージを提供すると、App Runner がアプリケーションコンテナをビルドしてデプロイし、裏側では自動的にスケーリングを行い、リクエストを負荷分散します。デプロイされると、App Runner サービスは、クライアントが HTTPS リクエストを送信できるサービス URL を取得します。

本日、App Runner はプライベートサービスのサポートを発表しました。これにより、Amazon Virtual Private Cloud (VPC) 内から App Runner サービスへのプライベートアクセスが可能になりました。デフォルトでは、App Runner サービスのエンドポイントはインターネット経由でアクセスできます。このアップデートにより、VPC からのみサービス URL にアクセス可能とする App Runner サービスのプライベートエンドポイントを選択できるようになりました。この機能は、AWS PrivateLink インターフェイス VPC エンドポイントによって提供されます。このブログ記事では、App Runner のネットワーク構成の概要と、受信トラフィックが VPC から App Runner サービスに、どのようにプライベートで流れるのかの詳細について説明します。また、デモアプリケーションを使用して、その機能をデモンストレーションします。

App Runner ネットワーキングの概要

App Runner が最初に発表されたときには、受信トラフィックのためのパブリックエンドポイントと、送信トラフィックのためのパブリックネットワーキングモードが提供されました。App Runner サービスへの受信トラフィックはパブリックインターネットからのみ許可され、送信トラフィック側では、アプリケーションはパブリックエンドポイントにのみ接続することができました (図 1) 。

図1: パブリックな受信および送信トラフィックを持つ App Runner サービスを示すアーキテクチャ

図1: パブリックな受信および送信トラフィックを持つ App Runner サービスを示すアーキテクチャ

今年の初めには、App Runner の VPC サポート (訳注: 日本語訳記事) の一般提供を発表しました。これにより、お客様のサービスの送信トラフィックにおいて、Amazon Virtual Private Cloud (Amazon VPC) でホストされているデータベースなどのプライベートリソースと通信できるようになりました (図 2) 。

図 2: パブリックな受信トラフィックとプライベートな送信トラフィックを持つ App Runner サービスを示すアーキテクチャ

図 2: パブリックな受信トラフィックとプライベートな送信トラフィックを持つ App Runner サービスを示すアーキテクチャ

本日の発表では、お客様の VPC 内のプライベートエンドポイントを使用して App Runner のサービスにアクセスできるようにする追加機能が提供されます。これにより、他のすべての App Runner の機能を使用しながら、サービスを VPC 内の他のサービスやリソースに安全に公開することができます (図 3) 。

図 3: プライベートな受信トラフィックとパブリックな送信トラフィックを持つ App Runner サービスを示すアーキテクチャ

図 3: プライベートな受信トラフィックとパブリックな送信トラフィックを持つ App Runner サービスを示すアーキテクチャ

この新機能を使用して、以前にリリースされた App Runner の VPC サポート機能 (図 2) と合わせて、アプリケーションへの受信トラフィックとアプリケーションからの送信トラフィックの両方をプライベートかつ安全に保つアーキテクチャを構築できます (図 4) 。

図 4: プライベートな受信および送信トラフィックを持つ App Runner サービスのアーキテクチャ

図 4: プライベートな受信および送信トラフィックを持つ App Runner サービスのアーキテクチャ

プライベートサービスのトラフィックのルーティング

App Runner のプライベートサービス機能は、お客様の VPC から App Runner サービスへのプライベート接続を提供する AWS PrivateLink インターフェイスエンドポイントによって提供されます。プライベート App Runner サービスでは、サービス URL は VPC インターフェイスエンドポイントのプライベート IP アドレスに解決されます。VPC 内では、トラフィックは VPC インターフェイスエンドポイントから App Runner サービスに流れ、パブリックインターネット経由でアクセスすることはできません。

VPC インターフェースエンドポイントを作成するには、サブネットとセキュリティグループを設定する必要があります。設定された各サブネット内に、App Runner サービスにトラフィックが流れる Elastic Network Interface (ENI) がプロビジョニングされるため、インターネットゲートウェイや NAT ゲートウェイは不要です。VPC インターフェースエンドポイントのサブネット構成によって、プライベート App Runner サービスへのプライベート接続の可用性を制御できます。VPC 内の複数のアベイラビリティーゾーン (AZ) にまたがる少なくとも 2 つのサブネットを提供することをお勧めします。VPC インターフェイスのエンドポイントにアタッチされたセキュリティグループは、VPC 内のどのサービスまたはリソースが App Runner サービスにアクセスできるかを制御します。エンドポイントの詳細については、Interface VPC Endpoints を参照してください。以下は、VPC インターフェイスエンドポイントを経由して、VPC から App Runner サービスにリクエストがどのように流れるかを表した図です (図 5) 。

図 5: お客様の VPCからプライベート App Runner サービスへのリクエストルーティングを示すアーキテクチャ

図 5: お客様の VPCからプライベート App Runner サービスへのリクエストルーティングを示すアーキテクチャ

複数の App Runner サービスを、同じ VPC インターフェースエンドポイントを使用して、VPC からプライベートアクセスするように設定できます (図 6) 。

図 6: お客様の VPC から 2 つのプライベート App Runner サービスへのリクエストルーティングを示すアーキテクチャ

図 6: お客様の VPC から 2 つのプライベート App Runner サービスへのリクエストルーティングを示すアーキテクチャ

リーダーボードアプリケーションのサンプル

ゲームのリーダーボードは、プレーヤーがお互いのパフォーマンスを評価することを可能にします。リーダーボードは、プレイヤーが最新のランキングを表示するために常にチェックする、一般的に読み取り負荷の高いアプリケーションです。アプリケーションの UI 部分と、ランキング計算を行うバックエンド部分を分離します。このブログ記事では、App Runner でホストされる 2 つのマイクロサービスを使用して、ゲームリーダーボードアプリケーションを構築します。

1 つめのマイクロサービスは、パブリックエンドポイントを持つフロントエンドの UI アプリケーションで、2 つめのマイクロサービスは、プライベートエンドポイントを持つバックエンドアプリケーションです。フロントエンドアプリケーションは、バックエンドアプリケーションと通信して、リーダーボードのデータを取得し、それをユーザーに表示します。図 2 で示したようなネットワーク構成になります。バックエンドアプリケーションは、VPC 内の Amazon ElastiCache Redis クラスターと通信してリーダーボードのデータを取得します。図 4 で示したようなネットワーク構成になります。サンプルアプリケーションがセットアップするネットワークアーキテクチャは次の通りです (図 7) 。

  1. 受信トラフィックは、パブリックフロントエンドサービスに入ります。
  2. フロントエンドサービスは、お客様の VPC へのプライベート接続を介して通信します。
  3. バックエンドサービスは、お客様の VPC からトラフィックを受信するように設定されます。
  4. バックエンドサービスは、VPC 内の ElastiCache Redis クラスターからデータを取得します。
  5. ElastiCache Redis クラスターは、バックエンドサービスにデータを返します。
  6. バックエンドサービスは、フロントエンドサービスにレスポンスを返します。
  7. フロントエンドサービスは、ユーザーにレスポンスを返します。
図 7: リーダーボードアプリケーションのネットワーク構成を示すアーキテクチャ

図 7: リーダーボードアプリケーションのネットワーク構成を示すアーキテクチャ

前提条件

  • App Runner を利用可能な任意のリージョンにある VPC (アカウント内の既存の VPC を使用することもできます) 。このブログ記事では、バージニア北部 (us-east-1) リージョンを使用します。

ElastiCache Redis クラスターのセットアップ

1. ElastiCache Redis クラスターを設定するには、ElastiCache コンソールに移動し、Create Redis Cluster を選択します。クラスターの名前を入力し、ポートを 9000 に設定し、その他の設定はデフォルトのまま、Subnet group settings に進みます。

図 8: ElastiCache Redis クラスターの名前を設定しているコンソールのスクリーンショット

図 8: ElastiCache Redis クラスターの名前を設定しているコンソールのスクリーンショット

図 9: ElastiCache Redis クラスターのポートを設定しているコンソールのスクリーンショット

図 9: ElastiCache Redis クラスターのポートを設定しているコンソールのスクリーンショット

2. Subnet group settings セクションで、Create a new subnet group を選択し、VPC とその VPC 内のサブネットを選択します。高可用性のために、異なるアベイラビリティゾーンから少なくとも 2 つのサブネットを選択してください。

図 10: ElastiCache Redis クラスターの VPC とサブネットを設定しているコンソールのスクリーンショット

図 10: ElastiCache Redis クラスターの VPC とサブネットを設定しているコンソールのスクリーンショット

3. コンソールではすべてをデフォルトのままにし、Advanced settings で暗号化を有効にし、セキュリティグループを選択します。VPC のデフォルトセキュリティグループを選択します。他のすべての設定をデフォルトのままにして、ElastiCache Redis クラスターを作成します。

図 11: ElastiCache Redis クラスターの暗号化を有効にし、セキュリティグループを設定しているコンソールのスクリーンショット

図 11: ElastiCache Redis クラスターの暗号化を有効にし、セキュリティグループを設定しているコンソールのスクリーンショット

4. 以下のスクリーンショットは ElastiCache Redis クラスターの設定を示しています。後のステップで使用するため、Primary endpoint をメモしておきます。

図 12: ElastiCache Redis クラスターの設定概要を示すコンソールのスクリーンショット

図 12: ElastiCache Redis クラスターの設定概要を示すコンソールのスクリーンショット

5. バックエンドアプリケーションのために、ElastiCache Redis クラスターにデータを投入しましょう。こちらの手順に従って、ElastiCache Redis クラスターと同じ VPC 内の EC2 インスタンスに Redis CLI をセットアップしてください。EC2 インスタンスから Redis クラスターに接続し、Redis CLI を使用して以下のコマンドを実行して、リーダーボードゲームをプレイしているプレイヤーの名前と ID のデータを入力します。

# ElastiCache Redis クラスターに接続します
src/redis-cli -h leaderboard-db.m7jmxn.ng.0001.use1.cache.amazonaws.com -p 9000

# リーダーボードデータをセットします
leaderboard-db.m7jmxn.ng.0001.use1.cache.amazonaws.com:9000> set leaderboard_data '[ { "id": "24323", "name": "Alice" }, { "id" : "94566", "name": "Bob"}, { "id": "22568", "name": "Carol"}, { "id": "17568", "name": "Dan"},{ "id": "46168", "name": "Steve"}]'

# Redis クラスターが目的のデータを持っていることを確認します
leaderboard-db.m7jmxn.ng.0001.use1.cache.amazonaws.com:9000> get leaderboard_data
"[ { \"id\": \"24323\", \"name\": \"Alice\" }, { \"id\" : \"94566\", \"name\": \"Bob\"}, { \"id\": \"22568\", \"name\": \"Carol\"}, { \"id\": \"17568\", \"name\": \"Dan\"},{ \"id\": \"46168\", \"name\": \"Steve\"}]"

バックエンドアプリケーションのセットアップ

次に、VPC 内の ElastiCache Redis クラスターとプライベートに通信するバックエンドアプリケーションを App Runner 上にセットアップします。新しくリリースされたプライベートサービス機能を使用し、バックエンドサービスのプライベートエンドポイントを用意します。このプライベートエンドポイントは、フロントエンドサービスがバックエンドサービスにアクセスするために使用されます。

このアプリケーションのソースコードは、ここからアクセスできます。server.py は、ElastiCache Redis クラスターからプレーヤーの ID を取得し、スコアを生成し、そのデータをレスポンスの一部として返すパス /getdata を公開します。

@app.route("/getdata")
def root():
  logging.basicConfig(level=logging.DEBUG)
  REDIS_URL = os.getenv('REDIS_URL')
  logging.info("Getting redis path" + str(REDIS_URL))
  r = redis.Redis(host=REDIS_URL, port=9000, db=0)
  leaderboard_data = r.get('leaderboard_data')
  random_json = json.loads(leaderboard_data);
  for val in random_json:
    val['score'] = random.randint(1000, 3000)

  random_json.sort(key=lambda x: x["score"], reverse=True)

  rank = 0
  for val in random_json:
    rank = rank + 1
    val['id'] = rank
 
  logging.info("Response: " + str(random_json))

1. Repository typeSource code repository として、サービスを設定します。ソースコードにアクセスするために GitHub 接続を使用し、このサービスの RepositoryBranch を選択します。既存の接続がない場合は、App Runner コンソールの Add new フローから、新しい GitHub 接続を作成します。

図 13: App Runner サービスの GitHub 接続を設定しているコンソールのスクリーンショット

図 13: App Runner サービスの GitHub 接続を設定しているコンソールのスクリーンショット

2. Runtime に Python 3、Build commandpip install -r requirements.txtStart commandgunicorn server:app --log-level=debug 、サービスの Port に 8000 を選択します。

図 14: App Runner サービスの Runtime、Build command、Start command を設定しているコンソールのスクリーンショット

図 14: App Runner サービスの Runtime、Build command、Start command を設定しているコンソールのスクリーンショット

3. サービスに leaderboard-backend-service という名前を付け、環境変数として REDIS_URL を追加します。REDIS_URL には、このサービスが通信に使用する ElastiCache Redis クラスターのプライマリエンドポイントを格納します (訳注: “:9000” は不要です) 。この URL は、「ElastiCache Redis クラスターのセットアップ」セクションのステップ 4 で ElastiCache Redis クラスターの Primary endpoint から取得できます。

図 15: App Runner サービスのサービス名と環境変数を設定しているコンソールのスクリーンショット

図 15: App Runner サービスのサービス名と環境変数を設定しているコンソールのスクリーンショット

4. 以降のセクションはデフォルトのままにして、Networking セクションに移動します。Private endpoint を選択し、新しい VPC インターフェイスエンドポイントを作成します。フロントエンドサービスがバックエンドサービスとプライベートに通信するのに必要な VPC インターフェースエンドポイントを作成する VPC と、そのサブネット、セキュリティグループを選択します。既存の VPC インターフェイスエンドポイントがある場合は、それを使用することもできます。

図 16: プライベート App Runner サービスの VPC インターフェースエンドポイントを作成しているコンソールスクリーンショット

図 16: プライベート App Runner サービスの VPC インターフェースエンドポイントを作成しているコンソールスクリーンショット

図 17: App Runner サービスの受信トラフィックを設定しているコンソールのスクリーンショット

図 17: App Runner サービスの受信トラフィックを設定しているコンソールのスクリーンショット

5. VPC 内の ElastiCache Redis クラスターにプライベートで通信するように送信トラフィックを設定します。Custom VPC オプションを選択し、新しい VPC コネクタを追加します。このコネクタの VPC、サブネット、セキュリティグループを設定します。これは、ElastiCache Redis クラスターをデプロイしたのと同じ VPC です。シンプルにするために、すべての設定で同じサブネットとセキュリティグループを使用します。

図 18: App Runner サービスのための新しい VPC コネクタを作成しているコンソールのスクリーンショット

図 18: App Runner サービスのための新しい VPC コネクタを作成しているコンソールのスクリーンショット

図 19: App Runner サービスの送信トラフィックを設定しているコンソールのスクリーンショット

図 19: App Runner サービスの送信トラフィックを設定しているコンソールのスクリーンショット

6. 以降のセクションはデフォルトのままとして、設定内容をレビューし、Create & deploy を選択してバックエンドサービスを作成します。以下のスクリーンショットは、バックエンドサービスの設定の概要を示しています。フロントエンドアプリケーションのセットアップで使用するため、Default domain のサービス URL をメモします。

図 20: App Runner サービスの設定概要を示すコンソールスクリーンショット

図 20: App Runner サービスの設定概要を示すコンソールスクリーンショット

フロントエンドアプリケーションのセットアップ

この時点までに、プレイヤー ID と名前が格納された ElastiCache Redis クラスターをデプロイしました。また、ElastiCache Redis クラスターからリーダーボードのデータをプライベートに取得し、VPC にプライベートエンドポイントを持つバックエンドサービスをデプロイしました。

それでは、リーダーボードのデータをブラウザに表示するフロントエンドアプリケーションをセットアップしましょう。フロントエンドアプリケーションは、バックエンドサービスにリクエストし、レスポンスの一部としてリーダーボードデータを取得します。フロントエンドサービスはパブリックエンドポイントを持ち、VPC コネクタを介してバックエンドサービスと通信し、VPC 内のバックエンドサービスのプライベートエンドポイントにリクエストを送信します。このアプリケーションのソースコードには、ここからアクセスできます。

@app.route("/data.json")
def newroute():
  BACKEND_URL = "https://" + str(os.getenv('BACKEND_URL')) + "/getdata"
  logging.info("Getting backend data from " + str(BACKEND_URL))
  leaderboard_data = requests.get(BACKEND_URL)
  logging.info(leaderboard_data.json())
  return str(leaderboard_data.json()).replace("\'", "\"")

1. フロントエンドサービスのセットアップは、バックエンドサービスのセットアップと似ていますが、いくつかの違いがあります。

同じ GitHub 接続 (「バックエンド アプリケーションのセットアップ」セクションのステップ 1) を使用して、バックエンドアプリケーションのリポジトリ、およびブランチの値でサービスを設定します。また、同じ Runtime、Build command、Start command、および Port を選択します。バックエンドサービスのサービス URL を保持する BACKEND_URL 環境変数を設定します (訳注: “https://” は不要です) 。サービス URL は、「バックエンドサービスのセットアップ」のステップ 6 で取得することができます。

図 21: App Runner サービスのサービス名と環境変数を設定しているコンソールのスクリーンショット

図 21: App Runner サービスのサービス名と環境変数を設定しているコンソールのスクリーンショット

2. Networking 設定では、受信トラフィック用に Public endpoint を選択し、送信トラフィック用に VPC コネクタを持つ Custom VPC を選択します。これは、バックエンドサービスがプライベートエンドポイントを持つのと同じ VPC です。

図 22: App Runner サービスの受信および送信トラフィックを設定しているコンソールのスクリーンショット

図 22: App Runner サービスの受信および送信トラフィックを設定しているコンソールのスクリーンショット

3. コンソールのステップを続行し、Create & deploy を選択してフロントエンドサービスを作成します。

図 23: App Runner サービスの設定概要を示すコンソールのスクリーンショット

図 23: App Runner サービスの設定概要を示すコンソールのスクリーンショット

おめでとうございます! Service overviewDefault domain からフロントエンドサービスの URL を取得し、ブラウザで開くと以下のスクリーンショットのように表示されます。

4. Refresh Scores ボタンをクリックすると、バックエンドサービスへのリクエストが行われ、ブラウザ上にリーダーボードのデータが表示されます。

図 24: App Runner サービスにアクセスしているブラウザのスクリーンショット

図 24: App Runner サービスにアクセスしているブラウザのスクリーンショット

5. フロントエンドとバックエンドのサービスのアプリケーションログから、確かに通信が行われていることを検証してみましょう。サービスのアプリケーションログを見つけるには、サービスの Logs タブで、Application logs を選択します。

図 25: App Runner サービスのログを表示しているコンソールのスクリーンショット

図 25: App Runner サービスのログを表示しているコンソールのスクリーンショット

フロントエンドサービスとバックエンドサービスのアプリケーションログに、以下のような出力があり、フロントエンドサービスからバックエンドサービスへリクエストがどのように送信されるかを示しています。

## フロントエンドサービスのアプリケーションログ出力 
10-27-2022 05:36:10 AM INFO:root:Getting backend data from https://gmfh3n8mey.us-east-1.awsapprunner.com/getdata
10-27-2022 05:36:10 AM INFO:root:[{'id': 1, 'name': 'Carol', 'score': 2771}, {'id': 2, 'name': 'Bob', 'score': 2472}, {'id': 3, 'name': 'Alice', 'score': 1784}, {'id': 4, 'name': 'Dan', 'score': 1364}, {'id': 5, 'name': 'Steve', 'score': 1079}]

## バックエンドサービスのアプリケーションログ出力
10-27-2022 05:44:24 AM INFO:root:responding[{'id': 1, 'name': 'Carol', 'score': 2642}, {'id': 2, 'name': 'Bob', 'score': 2465}, {'id': 3, 'name': 'Steve', 'score': 1303}, {'id': 4, 'name': 'Alice', 'score': 1279}, {'id': 5, 'name': 'Dan', 'score': 1200}]
10-27-2022 05:44:24 AM INFO:root:b'[ { "id": "24323", "name": "Alice" }, { "id" : "94566", "name": "Bob"}, { "id": "22568", "name": "Carol"}, { "id": "17568", "name": "Dan"},{ "id": "46168", "name": "Steve"}]'

トラブルシューティング

セキュリティグループによって保護されている通信経路が複数あります。これらの経路での通信がセキュリティグループによって許可されていることを確認してください。フロントエンドとバックエンドサービス間の通信では、VPC の VPC インターフェースエンドポイントのセキュリティグループが、フロントエンドサービスに関連する VPC コネクタのセキュリティグループからのアクセスを許可している必要があります。同様に、バックエンドサービスと ElastiCache Redis クラスター間の通信では、VPC の ElastiCache Redis クラスターのセキュリティグループは、バックエンドサービスに関連する VPC コネクタのセキュリティグループからのアクセスを許可している必要があります。このデモでは、すべてのサービスとリソースに VPC のデフォルトセキュリティグループを使用しており、自分自身からの通信を許可しているため、必要なすべての経路で通信が可能になっています。

後片付け

このブログ記事で作成したリソースを削除するには、以下の手順を実行してください。

1. フロントエンドとバックエンドの両方の App Runner サービスを削除します。

図 26: フロントエンド App Runner サービスの設定概要を示すコンソールのスクリーンショット

図 26: フロントエンド App Runner サービスの設定概要を示すコンソールのスクリーンショット

図 27: バックエンド App Runner サービスの設定概要を示すコンソールのスクリーンショット

図 27: バックエンド App Runner サービスの設定概要を示すコンソールのスクリーンショット

2. バックエンドサービスのプライベートエンドポイントを設定するために使用した VPC インターフェースエンドポイントを削除します。これは、App Runner コンソールNetworking Configuration ビューで実行できます。Incoming Traffic の下にある VPC インターフェースエンドポイントに移動し、削除します。これは、上記のサービスが正常に削除された後に実行できます。

図 28: VPC インターフェースエンドポイントを削除する画面を示すコンソールのスクリーンショット

図 28: VPC インターフェースエンドポイントを削除する画面を示すコンソールのスクリーンショット

3. ElastiCache Redis クラスターと、Redis CLI をセットアップした EC2 インスタンスを削除します。

図 29: ElastiCache Redis クラスターを削除する画面を示すコンソールのスクリーンショット

図 29: ElastiCache Redis クラスターを削除する画面を示すコンソールのスクリーンショット

4. このブログ記事の一部として GitHub 接続をセットアップした場合、App Runner コンソールからその接続も削除します。また、接続のセットアップ中に承認された GitHub アカウントの GitHub アプリケーションを削除します。これは GitHub アカウントSettings から実行できます。

図 30: App Runner の GitHub 接続を削除する画面を示すコンソールのスクリーンショット

図 30: App Runner の GitHub 接続を削除する画面を示すコンソールのスクリーンショット

利点

この機能により、より大きなマイクロサービスアーキテクチャの一部であり、他のマイクロサービスからプライベートにアクセスする必要がある中間層やバックエンドの内部アプリケーションを構築できます。また、スタンドアローンの企業内ウェブサイトやインターネットに接続しないアプリケーションを安全に構築することができます。開発中のアプリケーションを非公開でアクセスできるようにすることもできます。また、PrivateLink との統合を利用して、App Runner サービスの前に API Gateway や AWS Load Balancer を構成できるため、App Runner サービスを既存のアーキテクチャ全体の一部として構成することが可能です。このユースケースについては、別のブログ記事で取り上げる予定です。

まとめ

このブログ記事では、プライベートサービス機能の発表に伴い、現在 App Runner で利用可能なさまざまなネットワーク構成について説明しました。App Runner は、App Runner サービスへの受信トラフィックについて、パブリックエンドポイントモードとプライベートエンドポイントモードをサポートするようになりました。プライベートエンドポイントモードでは、受信トラフィックを VPC に制限し、サービスをプライベートかつ安全にすることできます。ユースケースに応じて、特定の送信トラフィックモード (パブリックまたはカスタム VPC) と、特定の受信トラフィックモードを組み合わせて選択することができます。また、マイクロサービスアーキテクチャでリーダーボードアプリケーションのサンプルを構築し、パブリック App Runner サービス、プライベート App Runner サービス、ElastiCache Redis クラスター間のプライベート通信を可能にしました。プライベートサービス機能は、最も要望の多かった機能の 1 つであり、これをお客様に提供できることを嬉しく思います。GitHub の App Runner ロードマップへのフィードバックをお待ちしています。

翻訳はプロフェッショナルサービスの杉田が担当しました。原文はこちらです。