# Gedrag en nauwkeurigheid van modellen

Zoom AI Companion wordt aangedreven door een combinatie van propriëtaire en van derden afkomstige grote taalmodellen (LLM's), ontworpen om contextuele intelligentie te bieden in Zoom's producten. De volgende secties beschrijven Zoom's werkwijzen voor trainingsgegevens, het beheer van hallucinaties en het afstemmen van systeemprestaties.

### <mark style="color:blauw;">Zoom gebruikt geen klantinhoud voor modeltraining</mark>

Zoom doet **niet** communicatieachtige klantinhoud—zoals audio, chat, schermdeling, whiteboards of reacties—gebruiken voor het trainen van enig Zoom- of derde-partijmodel.

Zoom traint zijn modellen met:

* Data uit het publieke domein
* Aangekochte datasets van derden
* Door Zoom gemaakte trainingsmaterialen

Zoom beoordeelt de datasets om te bepalen of ze op rechtmatige wijze zijn verkregen en of de licentie van toepassing is op het beoogde gebruik door Zoom. Houd er rekening mee dat we ook modelproviders van derden gebruiken, zoals OpenAI en Anthropic, als onderdeel van ons gefedereerde model. Raadpleeg de informatie die zij verstrekken over trainingsgegevens.

### <mark style="color:blauw;">Generatieve AI kan hallucineren</mark>

Zoals bij elk generatief model kan AI Companion outputs genereren die feitelijk onjuist of irrelevant zijn (hallucinaties). Zoom raadt aan outputs zorgvuldig te beoordelen. Zoom vermindert hallucinaties door:

* Modellen te testen tegen echte use-cases
* Context te verbeteren via retrieval-augmented generation (RAG)
* Taalondersteuning te versterken met vertaalpipelines (bijv. Engels-naar-Spaans)

### <mark style="color:blauw;">De prestaties van AI Companion worden gemonitord en bijgesteld</mark>

Zoom monitort regelmatig de modelprestaties, volgt kwaliteitsmetriek en werkt interne systemen bij om nauwkeurigheid en transparantie te verbeteren. Hoewel uitlegbaarheid beperkt is door het modelontwerp, worden prestatieachteruitgangen aangepakt via test- en updatecycli.
