Modellverhalten und Genauigkeit
Der Zoom AI Companion wird durch eine Kombination aus firmeneigenen und Drittanbieter-Großsprachmodellen (LLMs) betrieben, die darauf ausgelegt sind, kontextuelle Intelligenz über Zooms Produkte hinweg bereitzustellen. Die folgenden Abschnitte beschreiben Zooms Praktiken in Bezug auf Trainingsdaten, das Management von Halluzinationen und die Feinabstimmung der Systemleistung.
Zoom verwendet keine Kundeninhalte für das Modelltraining
Zoom nutzt nicht kommunikationsähnliche Kundeninhalte – wie Audio, Chat, Bildschirmfreigabe, Whiteboards oder Reaktionen – nicht zum Training von Zoom- oder Drittanbietermodellen.
Zoom trainiert seine Modelle mit:
Daten aus dem Public Domain
erkauften Drittanbieter-Datensätzen
von Zoom erstellten Trainingsmaterialien
Zoom überprüft die Datensätze, um festzustellen, ob sie rechtmäßig beschafft wurden und ob die Lizenz für die beabsichtigte Nutzung durch Zoom anwendbar ist. Beachten Sie, dass wir außerdem Drittanbieter-Modellanbieter wie OpenAI und Anthropic als Teil unseres föderierten Modells verwenden. Bitte beziehen Sie sich auf die von ihnen bereitgestellten Informationen zu Trainingsdaten.
Generative KI kann Halluzinationen erzeugen
Wie bei jedem generativen Modell kann der AI Companion Ausgaben erzeugen, die faktisch inkorrekt oder irrelevant sind (Halluzinationen). Zoom empfiehlt, die Ausgaben sorgfältig zu überprüfen. Zoom reduziert Halluzinationen durch:
Testen der Modelle anhand realer Anwendungsfälle
Verbesserung des Kontexts durch retrieval-augmented generation (RAG)
Erweiterung der Sprachunterstützung mit Übersetzungspipelines (z. B. Englisch-zu-Spanisch)
Die Leistung des AI Companion wird überwacht und optimiert
Zoom überwacht regelmäßig die Modellleistung, verfolgt Qualitätskennzahlen und aktualisiert interne Systeme, um Genauigkeit und Transparenz zu verbessern. Obwohl die Erklärbarkeit durch das Modell-Design begrenzt ist, werden Leistungsrückgänge durch Test- und Aktualisierungszyklen behoben.
Zuletzt aktualisiert
War das hilfreich?

