circle-exclamation
Le contenu de cette page est traduit automatiquement. Zoom ne garantit pas l’exactitude.

Comportement et précision des modèles

Zoom AI Companion est alimenté par une combinaison de grands modèles de langage (LLM) propriétaires et tiers, conçus pour fournir une intelligence contextuelle à travers les produits Zoom. Les sections suivantes décrivent les pratiques de Zoom concernant les données d'entraînement, la gestion des hallucinations et l'ajustement des performances du système.

Zoom n'utilise pas le contenu des clients pour l'entraînement des modèles

Zoom le fait pas utiliser du contenu client de type communication — tel que l'audio, le chat, le partage d'écran, les tableaux blancs ou les réactions — pour entraîner des modèles Zoom ou des modèles tiers.

Zoom entraîne ses modèles en utilisant :

  • Données du domaine public

  • Jeux de données tiers achetés

  • Matériels de formation créés par Zoom

Zoom examine les jeux de données pour déterminer s'ils ont été obtenus légalement et si la licence s'applique à l'utilisation envisagée par Zoom. Notez que nous utilisons également des fournisseurs de modèles tiers, tels qu'OpenAI et Anthropic, dans le cadre de notre modèle fédéré. Veuillez vous référer aux informations qu'ils fournissent sur les données d'entraînement.

L'IA générative peut produire des hallucinations

Comme tout modèle génératif, AI Companion peut générer des résultats factuellement incorrects ou non pertinents (hallucinations). Zoom recommande de vérifier attentivement les résultats. Zoom réduit les hallucinations en :

  • Tester les modèles sur des cas d'utilisation réels

  • Améliorer le contexte via la génération augmentée par récupération (RAG)

  • Renforcer la prise en charge des langues avec des chaînes de traduction (par ex., anglais vers espagnol)

Les performances d'AI Companion sont surveillées et ajustées

Zoom surveille régulièrement les performances des modèles, suit des métriques de qualité et met à jour les systèmes internes pour améliorer la précision et la transparence. Bien que l'expliquabilité soit limitée par la conception des modèles, les régressions de performance sont traitées par des cycles de tests et de mises à jour.

Mis à jour

Ce contenu vous a-t-il été utile ?