Vad är Bayesian Information Criterion (BIC)?

Bayesian Information Criterion (BIC) är ett kriterium för modellval bland en begränsad uppsättning modeller. Det bygger delvis på sannolikhetsfunktionen och är nära besläktat med Akaikes informationskriterium (AIC).

När man anpassar modeller är det möjligt att öka sannolikheten genom att lägga till parametrar, men detta kan leda till överanpassning. BIC löser detta problem genom att införa en straffterm för antalet parametrar i modellen. Strafftermen är större i BIC än i AIC.

BIC har använts i stor utsträckning för modellidentifiering i tidsserier och linjär regression. Den kan dock tillämpas i ganska stor utsträckning på vilken uppsättning som helst av maximum likelihood-baserade modeller.

Matematiskt kan BIC definieras som-

Bayesian Information Criterion formula

Användning &Tolkning:

Modellerna kan testas med hjälp av motsvarande BIC-värden. Lägre BIC-värde indikerar lägre strafftermer och därmed en bättre modell.

Läs även AIC-statistik.

Trots att dessa två mått härrör från ett annat perspektiv är de nära besläktade. Den enda skillnaden är tydligen att BIC tar hänsyn till antalet observationer i formeln, vilket AIC inte gör.

Tyvärr är BIC alltid högre än AIC, men om värdet på dessa två mått är lägre är modellen bättre.

Övningsdataset:

Besök vår plattform för datavetenskap och analys, Analyttica TreasureHunt, för att öva på riktiga datamängder.

Läs också följande:

Samstämmighetskontroll.

Kernelfilter.

k-Means Clustering.

Lämna ett svar

Din e-postadress kommer inte publiceras.