モデルの挙動と精度
Zoom AI Companionは独自およびサードパーティの大規模言語モデル(LLM)の組み合わせによって駆動され、Zoomの製品全体で文脈に応じたインテリジェンスを提供するよう設計されています。以下のセクションでは、トレーニングデータ、幻覚(ハルシネーション)の管理、およびシステム性能チューニングに関するZoomの取り組みについて説明します。
Zoomは顧客コンテンツをモデルのトレーニングに使用しません
Zoomは次を行います サポートされていませんが、将来的にサポートされる予定です。 オーディオ、チャット、画面共有、ホワイトボード、反応などの通信に類する顧客コンテンツを、Zoomまたはサードパーティのモデルのトレーニングに使用すること。
Zoomはモデルのトレーニングに以下を使用します:
パブリックドメインのデータ
購入したサードパーティのデータセット
Zoom作成のトレーニング資料
Zoomはデータセットが合法的に取得されたか、およびライセンスがZoomの想定する用途に適用可能かどうかを確認するためにレビューを行います。なお、当社のフェデレーテッドモデルの一部としてOpenAIやAnthropicなどのサードパーティのモデル提供者も利用しています。トレーニングデータに関する情報はそれらの提供者が提示する内容を参照してください。
生成型AIは幻覚を生じる可能性があります
他の生成モデルと同様に、AI Companionは事実と異なる、または関連性の低い出力(幻覚)を生成することがあります。Zoomは出力を注意深く確認することを推奨します。Zoomは以下によって幻覚を抑制します:
実際のユースケースに対するモデルのテスト
検索拡張生成(RAG)による文脈の改善
翻訳パイプライン(例:英語からスペイン語)による言語サポートの強化
AI Companionの性能は監視され、チューニングされます
Zoomは定期的にモデル性能を監視し、品質指標を追跡し、精度と透明性を向上させるために内部システムを更新します。説明可能性はモデル設計により制約されますが、性能の後退はテストと更新サイクルを通じて対処されます。
最終更新
役に立ちましたか?

