Google Meet で地域の最新情報や国際的なチームミーティングを準備しているのに、全員が同じ言語を話すわけではない。そんな経験ありませんか?
Google Meetは、2025年5月にGoogle I/O 2025でベータ版を公開し、既存のAI字幕機能を補完するAI音声翻訳機能を導入しました。この追加機能は、大きな前進であると同時に、日常的なビデオ通話におけるリアルタイム翻訳の需要の高まりに直接応えるものです。
しかし、この新機能はまだ初期段階であり、2つの言語(英語 <> スペイン語)のみに対応しています。そのため、重要な会議、多言語でのタウンホールミーティング、あるいは世界的な製品発表会を計画している場合、この組み込みツールだけでは不十分かもしれません。そこで、プロの通訳サービスやInterprefyが役立ちます。これらのソリューションは、多言語間のコミュニケーションに必要な柔軟性、サポート、そして高い品質を提供します。
先に進む前に、現在何ができるのか、そして Google Meet でライブ翻訳をさらに活用するにはどうすればよいのかを見てみましょう。
2025年現在、Google Meetは毎月3億人以上のユーザー多言語Google Meetセッションの主催者は、現在、2種類のコアAI翻訳テクノロジーを利用できます。
AI を活用した字幕とキャプション:Google Meet は、会議中の発言内容をリアルタイムで自動生成します。字幕は発言者と同じ言語で表示されるほか、プランや設定に応じて、別の言語に自動翻訳されます。例えば、発言者が英語でプレゼンテーションを行った場合、参加者はスペイン語、フランス語、または日本語の字幕を選択できます。これにより、言語の壁を越え、誰もが会議に参加しやすくなります。
Interprefyなどのプロフェッショナル向け通訳サービスを通じてのみ、リモート同時通訳をサポートしています。しかし、わずか1か月前の2025年5月20日には、 AIを活用した音声翻訳機能が導入され、参加者は話した内容をほぼリアルタイムで別の言語に翻訳できるようになりました。この機能は現在、一般ユーザー向けにベータ版として提供されており、2025年後半にエンタープライズユーザー向けに展開される予定です。
この新機能は、GoogleのGemini AIを活用し、話者の声を聞き取り、翻訳し、話者のトーン、リズム、ペースを忠実に再現する合成音声で翻訳結果を表示します。元の音声のかすかなエコーが聞こえるため、会話がより自然に聞こえます。翻訳はリアルタイムで行われるため、通常は数秒程度の遅延が発生します。
AI音声翻訳は現在、Google Workspace AI ProおよびAI Ultraプランにご加入のユーザーがご利用いただけます。会議の参加者のうち1名のみがプランを有効化していれば、無料のGoogle Meetアカウントをご利用のユーザーを含む、他のすべての参加者に翻訳が提供されます。
リリース時点では、英語とスペイン語の音声翻訳がサポートされています。イタリア語、ドイツ語、ポルトガル語を含む他の言語ペアも近日中に展開される予定です。
対象プランのユーザーは、通話中に会議メニューから「音声翻訳」ツールを開くことができます。通話中の言語と翻訳先の言語を選択します。起動すると、参加者は元の音声ではなく翻訳された音声を聞きます。元の音声は、状況を把握するため、バックグラウンドでわずかに聞こえます。
Google Meetなどの主流のビデオ会議システムへのAI音声翻訳の導入は、イベント企画・実施の中核として多言語コミュニケーションをサポートするという業界全体のトレンドを反映しています。バーチャルイベントやハイブリッドイベントがよりグローバル化していくにつれ、主催者には、異なる言語を話す視聴者がコンテンツにアクセスできるようにすることへのプレッシャーが高まっています。
AI音声翻訳は、言語技術がこのニーズに応えるために進化している一つの例であり、特にシンプルなコンテンツ配信や、時間やリソースが限られている場合に有効です。広く利用されているプラットフォームにAI音声翻訳が搭載されていることは、リアルタイムの言語サポートがより幅広い主催者や参加者にとって利用しやすくなっていることを示しています。
Google Meet の字幕機能は、会議中の会話を自動的に書き起こし、画面上にリアルタイムでテキストとして表示します。ユーザーのプランに応じて、字幕は元の言語で表示されるか、選択したターゲット言語に瞬時に翻訳されます。
ライブキャプションは、会議の参加者全員がオンにできます。有効にすると、Meet は話された内容を自動的に書き起こし、画面に字幕を表示します。これは、騒がしい環境にいる参加者や、聴覚に障がいのある参加者にとって特に役立ちます。
、「その他」>「設定」>「字幕」をクリックし、音声言語を選択することでこの機能を有効にできます。字幕は画面下部に表示され、リアルタイムで自動的にスクロールします。
対象プラン(Business Plus、Enterprise Standard、Education Plus、Gemini 対応エディションなど)の Google Workspace ユーザーの皆様は、Meet で字幕を他の言語に翻訳できます。この機能を有効にすると、話されている言語が検出され、選択した対象言語で字幕が自動的に表示されます。
例えば、英語で講演する講演者の発言を、参加者はドイツ語、日本語、またはポルトガル語の字幕を読んで理解することができます。これらはすべて、AIによる翻訳によってリアルタイムで行われます。
2025年6月現在、クローズドキャプションは80以上の言語をサポートしていますが、一部はまだベータ版であり、すべてのユーザーにご利用いただけない、または継続的に改善されている可能性があります。字幕は、 Google Workspaceまたはその他の対象プラン向けのGeminiにアクセスできるユーザーの場合、 。
Google Meetでは、読みやすさを向上させるため、参加者が字幕の表示方法をカスタマイズできるようになりました。ユーザーは、アクセシビリティ設定に合わせてフォントサイズ、テキストの色、背景を調整できます。これらのスタイル設定のアップデートは、2024年半ばから世界中で利用可能になりました。
Google Meet は AI を活用したライブ翻訳で目覚ましい進歩を遂げていますが、特に多様な参加者や複雑なコンテンツを含む多言語イベントを計画している場合は、留意すべき重要な制限がいくつかあります。
ZoomやMicrosoft Teamsなどの他のプラットフォームとは異なり、Google Meetは、専門の会議プラットフォームのようにリモート同時通訳(RSI)チャンネルをネイティブにサポートしていません。。人間の通訳者を会議に接続したり、参加者が複数の音声チャンネルを選択できるようにしたりする組み込みの機能は備えていません。これは、複数の言語でプロの通訳者によるライブ通訳を必要とする主催者にとって課題となる可能性があります。
プロの同時通訳(人間の通訳者がリアルタイムで聞き取り、話す)のために、多くの組織はGoogle Meetとサードパーティのプラットフォーム( Interprefy)を併用しています。これらのプラットフォームはGoogle Meetに接続して、通訳者と参加者に別々の音声フィードを提供しますが、これはGoogle Meet自体に組み込まれた機能ではありません。
関連記事:
2025 年 5 月にリリースされた Google Meet の新しい AI 音声翻訳は、ライブ言語アクセシビリティにおいて顕著な進歩をもたらしますが、現在の形式ではいくつかの制限もあります。
まず、言語サポートが限られています。リアルタイム音声翻訳は現在、英語とスペイン語の間でのみ利用可能です。Googleは、今後数週間以内にイタリア語、ドイツ語、ポルトガル語にもサポートを拡大する計画を発表しました。字幕翻訳などの関連機能は69言語以上に対応していますが、音声AI翻訳機能は言語ペアの面で依然としてはるかに制限されています。
この機能へのアクセスは、Google Workspace AI Pro および AI Ultra プランにご加入のユーザーに限定されています。無料ユーザーにはご利用いただけません。エンタープライズおよび標準 Workspace のお客様への展開は 2025 年後半を予定しています。この有料機能は、プレミアム サブスクリプションにアクセスできないユーザーや組織にとって課題となり、インクルーシブな環境を制限する可能性があります。
この機能はまだベータ版であるため、軽微なバグや翻訳品質の不一致といった問題が時折発生する可能性があります。また、元の音声と翻訳結果の間にわずかな遅延が発生する場合もありますが、Googleによると、この遅延は最小限であり、自然な会話の流れが確保されているとのことです。
AI音声翻訳の重要な側面は、合成音声生成によって話者の口調、テンポ、発声表現を再現しようとする点です。しかし、この音声再現は、特に複雑な議論においては、より微妙な感情的要素や文化的要素を必ずしも捉えられるとは限りません。
まとめると、Google MeetのAI音声翻訳は有望な機能を備えているものの、対応言語が限られていること、サブスクリプションの要件があること、そしてベータ版であることなど、依然として制約が残っています。今後のアップデートでは、技術の進化とより広範なアクセスの導入に伴い、これらの制約の一部が解消されることが期待されます。
現時点では、Google Meet は AI 翻訳された音声を含む録画をサポートしていません。新たに導入された AI 音声翻訳機能により、参加者は会議中にリアルタイムの音声翻訳を聞くことができますが、これらの翻訳された音声ストリームは公式の会議録画には保存されません。そのため、録画には元の音声コンテンツのみが反映されます。
翻訳された音声付きの録音を必要とする主催者には、現在サードパーティ製のツールが必要です。これには、音声テキスト変換やテキスト読み上げ技術を用いて元の音声を後処理し、翻訳された音声トラックを生成する機能が含まれる場合がありますが、これはGoogle Meetではネイティブに提供されていません。
多言語サポートに関しては、Google Meet は現在、自動化機能自体以外のサポートは限られています。AI による字幕や音声翻訳が正しく設定され、期待どおりに機能しているかどうかを確認するための専用のサポートプロセスがありません。字幕が表示されなかったり、音声翻訳が起動しなかったりといった不具合が発生した場合、主催者は自力でトラブルシューティングを行う必要があり、多くの場合、リアルタイムのテクニカルサポートは受けられません。さらに、多言語機能に特化したイベント前のチェック、オンボーディング支援、ライブイベントのモニタリングもありません。言語アクセスが不可欠なイベントでは、このような積極的かつ迅速なサポートの欠如は、参加者の体験と会議全体の成功にリスクをもたらす可能性があります。
Google Meet の AI を活用した字幕と音声翻訳ツールは、会議のアクセシビリティを向上させる強力な基盤となりますが、多くの種類のイベントでは、すべてをカバーできるわけではありません。
正確性、ニュアンス、信頼性が重視される場合、組織はそれらのギャップを埋めるためにプロの通訳サービスに頼ることがよくあります。これは特に、以下の場合に当てはまりますが、これらに限定されるものではありません。
世界中の観客が集まる大規模イベント
双方向の会話が不可欠な多言語パネルディスカッション
技術、法律、コンプライアンスに重点を置いた内容の会議
多言語の録音やイベント後の資料が必要なイベント
オンラインと対面の参加者を組み合わせたハイブリッド設定
プロの通訳パートナーは、通訳者の選定や設定のテストから、通訳者間のライブ引き継ぎの機能管理、参加者が適切なタイミングで適切な音声や字幕を受け取れるようにすることまで、イベントのあらゆる段階をサポートできます。
Google Meet にはリモート同時通訳の組み込みサポートはありませんが、会議のエクスペリエンスを中断することなく、外部ツールを使用して多言語機能を拡張する柔軟な方法があります。
多くのプロフェッショナル向け言語サービスプロバイダーが、Google Meetと並行して動作するソリューションを提供しています。これらのソリューションにより、主催者は付属インターフェースやブラウザベースのツールを通じて、人間による通訳とAIによる音声翻訳のを会議に組み込むことができます。
通常は次のように動作します。
元の会議音声は、プロの通訳者または AI 音声翻訳エンジンに安全にルーティングされます。
人間の通訳者が会議を聞いてリモート コンソールからリアルタイムの通訳を提供するか、AI が拡張言語ペア サポートを備えた合成音声テクノロジを使用して翻訳された音声を生成します。
参加者は、Google Meet で会議を継続しながら、ブラウザタブまたはモバイルアプリを通じて翻訳された音声にアクセスできます。
ライブ多言語字幕も並行して提供できるため、聞くよりも読むことを好む、または読む必要があるユーザーをサポートします。
この設定により、プラットフォームを切り替えたり、参加者にインストールを依頼したりすることなく、Google Meet に高度な言語サポートを導入できます。これは、より多くの言語の組み合わせ、珍しい言語、技術的なコンテンツ、または世界中の参加者からの積極的なエンゲージメントをサポートする必要がある主催者にとって特に便利です。
リーダーシップ コール、トレーニング セッション、多言語ハイブリッド イベントなど、どのような場合でも、これらの外部ソリューションはギャップを埋めるのに役立ちます。Google Meet が既に提供している機能に、スケーラブルな音声と字幕のサポートを追加します。
Google Meetには便利な翻訳機能が組み込まれていますが、主催者はより柔軟な対応、高度な制御、そして幅広い言語対応を求めることが多く、特に注目度の高いイベントや多言語イベントではその傾向が顕著です。InterprefyはGoogle Meetとシームレスに連携し、プロ仕様のライブ翻訳サービスを提供することで、こうしたニーズを解決します。
リモート同時通訳とAI音声翻訳を提供します。参加者は、会議を離れることなく、ブラウザタブ、モバイルアプリ、または埋め込みプレーヤーで翻訳された音声を聴くことができます。
ライブ多言語キャプションを追加することで、イベント固有の用語、名前、頭字語の精度を向上させることもできます。
Interprefy を使用すると、Google Meet はネイティブ機能をはるかに超えて拡張でき、ユーザーに接続方法の変更を求めることなく、プロ仕様のライブ翻訳を提供できます。
Google Meet は、AI 音声翻訳などの最近のアップデートにより、グローバル コミュニケーションのプラットフォームとして進化を続け、多言語会議の可能性を広げています。
日常会話であれば、これらの内蔵機能は大いに役立ちます。しかし、ビジネスシーンや、重要なイベント、あるいは複雑なイベントなどでは、これらの機能を補完する必要があることがよくあります。
現在、Google Meet にはリモート同時通訳機能が組み込まれておらず、AI 音声翻訳は有望ではあるものの、言語範囲、プラットフォームの互換性、録音機能の面ではまだ限界があります。
そのため、多くの組織は、真にシームレスなライブ翻訳体験を提供するために外部のサポートに頼っています。Google Meet の強みと、プロの通訳サービス、AI 音声翻訳ツール、リアルタイム多言語字幕を組み合わせることで、使用する言語の数に関わらず、明瞭で、誰もが参加でき、コンプライアンスに準拠し、グローバルにアクセス可能な会議を実現できます。