Meeting.ai が Amazon Bedrock を利用して時間のかかる会議タスクを自動化

このコンテンツはいかがでしたか?

電話会議、スタンドアップ、立ち話など、会議は私たちの仕事生活のほとんどに欠かせません。新しいプロジェクトの概要を受け取る、財務レポートを発表する、新しいアイデアをワークショップで検討するなど、どのような場合でも、新しい招待が受信トレイに届いたり、新しい予約がカレンダーに表示されたりするのは、誰でも見慣れています。

しかし、ビジネスパーソンの日々は目まぐるしく、出席した会議の内容の適切な処理、議論された内容のメモ作成と確認、録画の再確認、必要な情報の迅速な取得のための時間を見つけることは必ずしも容易ではありません。ジャカルタに拠点を置くインドネシアのスタートアップである Meeting.ai は、メモ作成などの時間のかかる作業を自動化することで、この状況を変えようとしています。

生成人工知能 (AI) を利用する Meeting.ai により、ユーザーは会議により多くの時間を費やすことができ、事後に重要なポイントを思い出そうとするのに費やす時間を減らすことができます。他の大規模言語モデル (LLM) のパフォーマンスに満足できなかった Meeting.ai のチームは、Amazon Bedrock で Claude 3 Sonnet および Haiku を実装することにしました。現在、このスタートアップは、33% のコスト削減を実現しながら、業界をリードする精度で会議の要約を生成できるようになりました。

教室から役員室へ

Meeting.ai (当初の名前は Bahasa.ai でした) は、Hokiman Kurniawan 氏、Fathur Rachman Widhiantoko 氏、Samsul Rahmadani 氏によって 2017 年に設立されました。この 3 人は大学で一緒に数学を学んでいるときに友人になりました。在学中、国の公用語であるインドネシア語で最初の LLM の 1 つを作成しました。それまでは、国中で話されている言語の多くのニュアンスと複雑さのために、その実現は困難であるとされてきました。

「インドネシアは 33 の地域にわたって 2 億 7,000 万超の人口を抱えており、さまざまなアクセント、地方の方言、地元の用語が存在しています」と同社の CEO である Hokiman 氏は述べています。「インドネシア語は 1 つの言語であると言われますが、実際には何百もの」– 正確には 700 超の –「現地語があり、最も広く使用されている言語はジャワ語とスンダ語で、人々は複数の言語を混ぜて話すことがよくあります」

そのレベルの複雑さを処理できるモデルを開発するには、大量のデータが必要です。「過去 7 年間で 3 万時間超の音声データを収集しました」と Hokiman 氏は述べています。チームがインドネシア語のシンプルな言語モデルを作成すると、すぐに噂が広まりました。このスタートアップはすぐに、最初の顧客であるインドネシアの製薬会社との取引を開始することができました。それは東南アジア最大級の製薬会社であり、カスタマーサービスのユースケースのために自然言語の専門知識を必要としていました。

当時、同社は主に AI と自然言語についてのコンサルティングサービスを提供していました。「当社には製品ではなく、ソリューションがありました」と Hokiman 氏は述べています。しかし、2023 年に Meeting.ai ツールがリリースされたことですべてが変わりました。

インテリジェントオートメーションと市場をリードする精度の融合

Meeting.ai は、ユーザーが会議関連のタスクに費やす時間を短縮するのに役立つ、生成 AI を利用する会議アシスタントです。このツールは、インドネシア語向けの同社の独自の LLM を使用して開発されました。Hokiman 氏は次のように説明します。「当社のツールは、会議を自動的に記録、文字起こし、要約するため、時間を節約し、より生産的に作業するのに役立ちます」。

Google Meet、Zoom、Microsoft Teams などの人気の会議サービスとのシームレスな統合は、Meeting.ai は主にインドネシアを拠点とする 70,000 を超えるユーザーベースを短期間で引き付けるのに役立ちました。組み込みの代替手段とは異なり、このツールはオフライン会議にも使用できます。「当社のオフライン機能は、既に当社の製品の総利用率の 50% 超を占めています」と Hokiman 氏は述べています。

Meeting.ai のもう 1 つの重要な差別化要因は、インドネシア語での文字起こし精度が 97% であり、これは市場のどのツールよりも高い精度であるということです。「くだけた会話ができることや、スラングを使っても AI が理解してくれることに気づいたお客様が喜んでいるのをよく目にします。お客様はインドネシア語でこれほどのレベルの AI サポートを期待していません。これは真の『Aha』体験なのです」

会議の技術的な進歩を過去最大レベルで実現

Meeting.ai チームは大学時代から AWS を利用してきたため、ツールの構築をサポートしてくれるパートナーを探す際に AWS を選ぶのは自然な流れでした。「AWS が優れたパートナーである理由は 2 つあります。まず、テクノロジーです。テクノロジーを適用できれば、うまく機能し、人々はそれを利用します。これまで、当社が利用してきたすべての AWS の製品は好ましい成果をもたらしてくれています」と Hokiman 氏は述べています。「次に、AWS のメンバーです。製品だけでもすばらしいのですが、当社の世界では、新しいモデルや専門知識へのアクセスは人々との関係にかかっており、これまで AWS は本当に協力的であり続けてくれています」

Meeting.ai の背後にあるアーキテクチャは、パフォーマンスを犠牲にすることなくコストを管理するのに役立つ、複数の AWS サービスを組み合わせています。例えば、チームは、NVIDIA T4 GPU の業界をリードする料金パフォーマンスを高く評価したため、AI ワーカーのプライマリノードプールとして Amazon EC2 G4 インスタンスを使用することを選択しました。同様に、Amazon Elastic Kubernetes Service (EKS) は、コスト効率の高いコンピューティングリソースのプロビジョニングと Kubernetes アプリケーションの自動スケーリングを実現します。また、チームは最近、安全に実験してプライベートにカスタマイズするために、ハイパフォーマンス基盤モデル (FM) の選択肢を提供するフルマネージドサービスである Amazon Bedrock を実装しました。これにより、コストを大幅に削減できるだけでなく、Meeting.ai によって生成される要約の精度も高まりました。

すべてのハイパフォーマンス LLM に単一のソースからアクセス可能

生成 AI は急速に進化しており、新しいモデルやサービスが利用可能になる中で、Meeting.ai などのツールは最新のリリースに対応することで競争上の優位性を獲得できます。Meeting.ai が提供する要約機能は、以前はチームが求めていた質と精度を満たさない LLM サービスに依拠していました。Anthropic の新しい Claude 3 モデルが Amazon Bedrock で使用可能になるというニュースが届いたとき、チームはそのチャンスに飛びつきました。

「私はすぐに大学時代のメンターに連絡しました。その人は以前、インドネシアで AWS の地域マネージャーとして働いていました」と Hokiman 氏は述べています。「当時は公開されていなかったモデルにアクセスできるようにしてくれる AWS の担当者を紹介してくれるように頼んだところ、1 週間以内にそのアクセスが付与されたのです」

Amazon Bedrock の実装はシンプルなプロセスで、約 3 週間で完了し、関与したデベロッパーはわずか 2 人でした。「これは統合エクスペリエンスであり、さまざまなモデルをテストして実験できる単一のマーケットプレイスのようなものです。新しいモデルがリリースされた場合、Amazon Bedrock で簡単にアクセスできるのです」と Hokiman 氏は述べています。

Amazon Bedrock での Claude 3 を使用できるようになったチームは、Sonnet モデルと Haiku モデルの質のテストに取り掛かりました。

テストして、比較して、選ぶ

Meeting.ai チームはまず、いくつかの社内会議の録画と、YouTube で公開されているポッドキャストの動画で構成されるテストデータセットを収集しました。次に、元の LLM と、選択した Claude 3 モデルの両方を使用して、これらのデータサンプルを処理しました。チームは、元の LLM で使用していたのと同じプロンプトでテストを開始できたため、新しいプロンプトを設計する代わりに、適切なモデルを特定することに多くの時間を費やすことができました。

チームはすぐに、Claude 3 Haiku モデルによって生成された要約の質が、以前のモデルよりも高いことに気づきました。「Claude 3 は全体的にはるかに効率的で、他のモデルができない処理を実行できます。また、Haiku モデルは他のモデルよりもはるかに小さいため、使用コストが大幅に削減されます」と Hokiman 氏は述べています。「当社は常にパフォーマンスとコストのバランスを取ろうとしていますが、Haiku は両方を実現してくれます」

Haiku は現在、Meeting.ai のユースケースの大半で使用されており、チームはコストを 33% 超削減できました。従業員とリーダーの 1 対 1 のミーティングから仕事のパフォーマンスを要約するなど、他のより具体的なユースケースでは、Meeting.ai は Claude 3 Sonnet モデルも使用しています。

パフォーマンスと効率のステップアップ

Claude 3 モデルは 200k の高コンテキストウィンドウを提供するため、出力を生成する際により多くのデータと情報を考慮できます。これにより、Meeting.ai は以前のモデルよりもはるかに正確な会議の要約を提供できます。また、議論の重要ポイントと日常会話を自動的に区別することもできます。これは、以前の LLM モデルにおいては、特にインドネシア語で困難なことでした。

コンテキストウィンドウが長くなったことによるもう 1 つの利点は、顧客が結果を受け取るまでの時間がはるかに (正確には最大 1,200%) 短くなることです。2 時間の会議の文字起こしのために Meeting.ai で必要なのは、1 回の LLM API リクエストだけです。これに対して、以前のモデルでは要約のために約 12 回の LLM API リクエストが必要でした。「実行する必要があるリクエストの数が増えるほど、コストも増加します。場合によっては、Claude 3 と比較して、以前のモデルで同じタスクを完了するのに 2 倍のコストがかかることもあり得ます」と Hokiman 氏は述べています。

また、Meeting.ai チームは、Claude 3 の方がより従順に、かつ、高い信頼性をもって、指示に従うことにも気づきました。例えば、Haiku モデルと Sonnet モデルはどちらも、リクエストされたときに JSON 形式で一貫して応答を提供できます。

オンラインとオフラインの両方で会議を革新

今後に向けて、Meeting.ai チームはグローバルに拡大し、ツールの機能を拡張しています。近日中に、リアルタイムのメモ作成機能をリリースする予定です。これにより、ユーザーはオフライン会議を記録しなくても、文字起こしおよび要約できるようになります。さらに、チームはユーザーが Meeting.ai で会議を開催できる未来を思い描いています。

「当社は現在、ユーザーが AI に質問できるようにするため、統合音声モデルに取り組んでいます」と Hokiman 氏は述べています。「スタンドアップなどの定期的な作業を AI にアウトソーシングして、チームが仕事に注力できる時間を増やし、会議に費やす時間を減らせるようにしたいとも考えています」

Meeting.ai のチームが製品を進化させ続ける中、AWS は、同社のチームが常に最新の LLM にアクセスし、どのモデルが自分たちや顧客に適しているかを自由に見つけられるようにサポートしています。「AWS は、急速に進化する生成 AI の世界に遅れを取らないようにするうえで、頼れるパートナーです。新しいモデルがリリースされた場合、簡単に切り替えることができます。必要なものはすべて Bedrock に揃っています」と Hokiman 氏は述べています。

Agung Sidharta

Agung Sidharta

Agung Sidharta は、顧客の問題解決に取り組むのが大好きなスタートアップソリューションアーキテクトです。余暇には、旅行を楽しんだり、IT 関連のコンテンツを読んだり、家族や小さな犬と一緒に周囲の環境の中を歩いたりしています。

このコンテンツはいかがでしたか?