# Modellbeteende och noggrannhet

Zoom AI Companion drivs av en kombination av proprietära och tredjeparts stora språkmodeller (LLM:er), utformade för att ge kontextuell intelligens över Zooms produkter. Följande avsnitt beskriver Zooms rutiner för träningsdata, hantering av hallucinationer och justering av systemets prestanda.

### <mark style="color:blå;">Zoom använder inte kundinnehåll för modellträning</mark>

Zoom gör **inte** använda kundinnehåll som liknar kommunikation — såsom ljud, chatt, skärmdelning, whiteboards eller reaktioner — för att träna några Zoom- eller tredjepartsmodeller.

Zoom tränar sina modeller med:

* data i public domain
* inköpta tredjepartsdataset
* av Zoom skapade träningsmaterial

Zoom granskar dataset för att avgöra om de införskaffats lagenligt och om licensen är tillämplig för Zooms föreslagna användning. Observera att vi också använder tredjepartsmodellleverantörer, såsom OpenAI och Anthropic, som en del av vår federerade modell. Vänligen hänvisa till den information de tillhandahåller om träningsdata.

### <mark style="color:blå;">Generativ AI kan hallucinera</mark>

Som med vilken generativ modell som helst kan AI Companion generera resultat som är faktamässigt felaktiga eller irrelevanta (hallucinationer). Zoom rekommenderar att man noggrant granskar resultaten. Zoom minskar hallucinationer genom att:

* testa modeller mot verkliga användningsfall
* förbättra kontext via retrieval-augmented generation (RAG)
* förstärka språkstöd med översättningspipelines (t.ex. engelska-till-spanska)

### <mark style="color:blå;">AI Companions prestanda övervakas och justeras</mark>

Zoom övervakar regelbundet modellprestanda, följer kvalitetsmått och uppdaterar interna system för att förbättra noggrannhet och transparens. Eftersom förklarbarhet är begränsad av modellens utformning åtgärdas prestandaregressioner genom testning och uppdateringscykler.
