Estadísticos (R^2, R^2 ajustado, RMSE, Sesgo y AIC) PDF

Title Estadísticos (R^2, R^2 ajustado, RMSE, Sesgo y AIC)
Author Isaias Molina Martinez
Course Bioestadística
Institution Universidad Michoacana de San Nicolás de Hidalgo
Pages 3
File Size 191.7 KB
File Type PDF
Total Downloads 65
Total Views 130

Summary

Descripción de los principales estadísticos:
R^2
R^2 ajustado
Raíz del cuadrado medio del error (RMSE)
Sesgo
Criterio de Información de Akaike (AIC)...


Description

Estadísticos R2 El coeficiente de determinación es la proporción de la varianza total de la variable explicada por la regresión. El coeficiente de determinación, también llamado R cuadrado, refleja la bondad del ajuste

de un modelo a la variable que pretender explicar. Es importante saber que el resultado del coeficiente de determinación oscila entre 0 y 1. Cuanto más cerca de 1 se sitúe su valor, mayor será el ajuste del modelo a la variable que estamos intentando explicar. De forma inversa, cuanto más cerca de cero, menos ajustado estará el modelo y, por tanto, menos fiable será.

R2 Ajustado El coeficiente de determinación ajustado (R cuadrado ajustado) es la medida que define el porcentaje explicado por la varianza de la regresión en relación con la varianza de la variable explicada. Es decir, lo mismo que el R cuadrado, pero con una diferencia: El coeficiente de determinación ajustado penaliza la inclusión de variables. Como hemos dicho anteriormente, el coeficiente de determinación de un modelo aumenta aunque

las variables que incluyamos no sean relevantes. Ya que esto supone un problema, para intentar solventarlo, el R cuadrado ajustado queda tal que: En la fórmula, N es el tamaño de la muestra y k el número de variables explicativas. Por deducción matemática, a valores más altos de k, más alejado estará el R cuadrado ajustado del R cuadrado normal. Al revés, a valores más bajos de k, más cerca estará de 1 la fracción central y, por tanto, más parecidos serán el R cuadrado ajustado y el R cuadrado normal. Recordando que k es el número de variables explicativas, deducimos que este no puede ser cero. Si fuese cero, no existiría modelo. Como mínimo tendremos que explicar una variable en función de otra variable. Dado que k debe ser como mínimo 1, el R cuadrado ajustado y el R cuadrado normal no pueden tener el mismo valor. Es más, el R cuadrado ajustado será siempre inferior al R cuadrado normal.

Raíz del cuadrado medio del error (RMSE) El error cuadrático medio (RMSE) mide la cantidad de error que hay entre dos conjuntos de datos. En otras palabras, compara un valor predicho y un valor observado o conocido. El error cuadrático medio no es del todo intuitivo porque nos da el error medio al cuadrado. Así que si nuestro modelo para predecir el valor de bienes inmuebles tiene un error cuadrático medio de 1.000.000 de euros nos daría la impresión de que tiene mucho error. En realidad, el error sería más / menos 1.000 euros en media, porque la raíz cuadrada de 1.000.000 es 1.000. La fórmula sería:

Sesgo Diferencia entre su esperanza matemática y el valor numérico del parámetro que estima. Un estimador cuyo sesgo es nulo se llama insesgado o centrado. El sesgo examina la diferencia entre la medición promedio observada y un valor de referencia. El sesgo indica cual es la exactitud del sistema de medición cuando se compara un valor de referencia.

Criterio de Información de Akaike (AIC)

El criterio de información de Akaike es una medida de la bondad de ajuste de un modelo estadístico. Se puede decir que describe la relación entre el sesgo y varianza en la construcción del modelo, o hablando de manera general acerca de la exactitud y complejidad del modelo. El AIC no es una prueba del modelo en el sentido de prueba de hipótesis. Más bien, proporciona un medio para la comparación entre los modelos de una herramienta para la selección del modelo. Dado un conjunto de datos, varios modelos candidatos pueden ser clasificados de acuerdo con su AIC, con el modelo que tiene el mínimo AIC es la mejor. A partir de los valores de la AIC también se puede inferir que, por ejemplo, los dos primeros modelos están más o menos empatados y el resto son mucho peores. En general, el AIC se define como: Coeficiente de correlación El coeficiente de variación, también denominado coeficiente de variación de Pearson, es una medida estadística que nos informa acerca de la dispersión relativa de un conjunto de datos.

Es decir, nos informa al igual que otras medidas de dispersión, de si una variable se mueve mucho, poco, más o menos que otra. Su cálculo se obtiene de dividir la desviación típica entre el valor absoluto de la media del conjunto y por lo general se expresa en porcentaje para su mejor comprensión.

Referencias: López, J. F. (2021, 19 febrero). Coeficiente de determinación (R cuadrado). Economipedia. https://economipedia.com/definiciones/r-cuadrado-coeficiente-determinacion.html

G. (2018, 22 mayo). ¿Qué es el error cuadrático medio RMSE? El blog de franz. https://acolita.com/que-es-el-error-cuadratico-medio-rmse/

Spider Financial, [email protected]. (2016, 19 octubre). Apéndice B: Criterio de Información Akaike (AIC). Centro de ayuda. https://support.numxl.com/hc/es/articles/215531083-Ap%C3%A9ndice-B-Criteriode-Informaci%C3%B3n-Akaike-AIC-

Sanjuán, F. J. M. (2021, 14 enero). Coeficiente de variación. Economipedia. https://economipedia.com/definiciones/coeficiente-de-variacion.html...


Similar Free PDFs