Diferença entre AIC e BIC

AIC vs BIC

AIC e BIC são amplamente utilizados nos critérios de seleção de modelos. AIC significa Critérios de Informação de Akaike e BIC significa Critérios de Informação Bayesiano. Embora esses dois termos abordem a seleção de modelos, eles não são os mesmos. Pode-se encontrar diferenças entre as duas abordagens de seleção de modelos.

Os Critérios de Informação de Akaike foram formados em 1973 e os Critérios de Informação Bayesianos em 1978. Hirotsugu Akaike desenvolveu os Critérios de Informação de Akaike, enquanto Gideon E. Schwarz desenvolveu o critério de informação bayesiano..

A AIC pode ser denominada como uma medida da qualidade do ajuste de qualquer modelo estatístico estimado. O BIC é um tipo de seleção de modelo entre uma classe de modelos paramétricos com diferentes números de parâmetros.

Ao comparar os Critérios de Informação Bayesiana e os Critérios de Informação de Akaike, a penalidade por parâmetros adicionais é mais no BIC do que no AIC. Ao contrário do AIC, o BIC penaliza os parâmetros livres com mais força.

Os Critérios de Informação de Akaike geralmente tentam encontrar um modelo desconhecido que tenha uma realidade dimensional alta. Isso significa que os modelos não são verdadeiros no AIC. Por outro lado, os Critérios de Informação Bayesiana se deparam apenas com modelos True. Também se pode dizer que os Critérios de Informação Bayesianos são consistentes, enquanto os Critérios de Informação de Akaike não são tão.

Quando os Critérios de Informação da Akaike apresentarem o perigo de que seriam adequados. os Critérios de Informação Bayesiana apresentarão o perigo de desapropriação. Embora o BIC seja mais tolerante quando comparado ao AIC, mostra menos tolerância em números mais altos.

Os Critérios de Informação de Akaike são bons para tornar assintoticamente equivalente à validação cruzada. Pelo contrário, os Critérios de Informação Bayesianos são bons para estimativas consistentes.

Sumário

1. AIC significa Critérios de Informação de Akaike e BIC significa Critérios de Informação Bayesiana.

2. Os Critérios de Informação de Akaike foram formados em 1973 e os Critérios de Informação Bayesianos em 1978.

3. Ao comparar os Critérios de Informação Bayesiana e os Critérios de Informação de Akaike, a penalidade para parâmetros adicionais é mais no BIC do que no AIC.

4. Os Critérios de Informação de Akaike geralmente tentam encontrar um modelo desconhecido que tenha uma realidade dimensional alta. Por outro lado, os Critérios de Informação Bayesianos se deparam apenas com modelos True.

5. Os Critérios de Informação Bayesianos são consistentes, enquanto os Critérios de Informação de Akaike não são tão.

6. Os Critérios de Informação de Akaike são bons para tornar assintoticamente equivalente à validação cruzada. Pelo contrário, os Critérios de Informação Bayesianos são bons para estimativas consistentes.

7. Embora o BIC seja mais tolerante quando comparado ao AIC, mostra menos tolerância em números mais altos.

8. Ao contrário do AIC, o BIC penaliza parâmetros livres com mais força.

//