Errores estadísticos PDF

Title Errores estadísticos
Course Fundamentos financieros
Institution Instituto Tecnológico Superior de Acatlán de Osorio
Pages 5
File Size 131.2 KB
File Type PDF
Total Downloads 52
Total Views 131

Summary

trabajo de apoyo...


Description

EL TRATAMIENTO ESTADÍSTICO DE LOS ERRORES 1. Resumen En este documento encontrarás que son los errores y como identificarlos de manera correcta, así como también, observarás como afectan a dos tipos de métodos de estadística y como descifrar las incógnitas impuestas o faltantes. 2. Errores En los diccionarios la palabra error se define como la diferencia entre el valor aproximado que resulta de una observación, una medida o un cálculo, y el valor verdadero. El problema surge cuando se ha de conocer el “valor verdadero”, que generalmente se obtiene como resultado de una medida o de un cálculo. Por este motivo se debe encontrar un método para estimar la “fiabilidad” del resultado obtenido. La palabra “errores” no está bien definida como tal. Por lo tanto, la definición ha de ser más rigurosa. Los errores se pueden clasificar como: 1. Equivocación o error en la medida o en el cálculo: son normalmente aparentes, ya que se encuentran lejos de los valores esperados. Se detectan repitiendo la medida o el cálculo. 2. Errores sistemáticos: son más difíciles de detectar. Estas discrepancias son reproducibles. A menudo es el resultado de un fallo en la instrumentación o provienen de una consistencia matemática insuficiente. Estos errores se encuentran (y se corrigen) repitiendo el análisis con diferentes equipos o repitiendo el cálculo (por otros medios, o por un compañero). 3. Errores aleatorios: son los más comunes. Son debidos a la inevitable limitación de la calidad de los instrumentos. Sólo se pueden eliminar parcialmente si se refina el equipo o el método analítico, y repitiendo las medidas (como, por ejemplo, leer una temperatura o el pH) o aumentando el tiempo de observación (como por ejemplo el tiempo de medida de radioactividad). 2.1. Tipos de errores Una medida directa puede tener errores por tres motivos: 1. Errores sistemáticos: se producen por una causa conocida y debe evitarse introduciendo la corrección oportuna (por ejemplo, el error de cero). Si no fuera posible evitarlos, las medidas deben corregirse teniendo en cuenta este error sistemático. 2. Errores de sensibilidad: son debidos a la limitación en la precisión de cualquier aparato de medida. 3. Errores aleatorios: se producen por causas desconocidas, por imprecisiones en el método de medida o porque la magnitud que se mide es intrínsecamente aleatoria. 3. Especificación de errores: error absoluto y error relativo 1

Si x denota el resultado de un experimento y 𝛿 x su error, la expresión correcta del resultado medido debe ser en la forma siguiente 𝑥 ± 𝛿x Indica que el valor verdadero de la magnitud se encuentra dentro del intervalo entre𝑥 − 𝛿x y x + 𝛿x. La cantidad 𝛿x recibe el nombre de error absoluto de la medida. El error puede expresarse también en porcentaje, lo que se conoce como error relativo 𝛿 r definido como 𝛿r =

𝛿x × 100 𝑥

4. Propagación de errores En Estadística, la propagación de errores es el efecto de variables de incertidumbre en la incertidumbre de una función matemática basada en ellos. 4.1 desviación estándar A menudo resulta necesario conocer una cantidad A que es función de una o más variables, cada una de las cuales posee su propia incertidumbre. La incertidumbre de cada variable contribuye a la incertidumbre global. A continuación, se presentan las expresiones matemáticas de σ2 para varios casos. Dichas ecuaciones se basan en la relación general de la función: A = f (x, y, z) En el caso que las incertidumbres sean estadísticas, la desviación estándar de A dependerá de las variables independientes x, y, z de la siguiente manera: 𝜎𝐴2

=

𝜎𝑋2

𝜕𝐴 2 𝜕𝐴 2 𝜕𝐴 2 2 2 ( ) + 𝜎𝑦 ( ) + 𝜎𝑍 ( ) 𝜕𝑦 𝜕𝑍 𝜕𝑋

Si se estima que las incertidumbres son instrumentales, se utilizan ecuaciones similares para calcular la incertidumbre del resultado final. Para la relación general: A = f(x, y, z) con las incertidumbres instrumentales ∆x, ∆y y ∆z, la incertidumbre para A será: 𝜕𝐴 2 𝜕𝐴 2 𝜕𝐴 2 2 2 ∆𝐴 = ∆𝑋 ( ) + ∆𝑦 ( ) + ∆𝑍 ( ) 𝜕𝑍 𝜕𝑋 𝜕𝑦 2

2

obteniendo ecuaciones equivalentes para ∆A y para σ. 4.2 La media aritmética Vamos a suponer que sobre una determinada población de individuos, organismos vivos u objetos de un mismo tipo (personas, plantas de una misma especie o latas 2

de conserva de un mismo producto, respectivamente) queremos realizar mediciones sobre una característica (altura, nivel de clorofila o peso de la lata, respectivamente). La medición la vamos a denotar por la variable aleatoria X. Ahora bien, seleccionamos una determinada muestra de esa población y efectuamos las mediciones para la característica, digamos que realizamos n mediciones y estas son x1, x2, ..., xn, entonces se define la media de estas observaciones (o promedio) como 𝑋 =

𝑥1 + 𝑥2 + 𝑥3 + ⋯ + 𝑥𝑛 𝑛

Supongamos que de estas n observaciones en realidad hay solamente k que son distintas entre ellas, de modo que entonces podemos tener la siguiente tabla de frecuencias x1 n1 x2 n2 ... … Xk n k No resulta complicado darse cuenta que

f1 f2 … fk

𝑥1 𝑛1 + 𝑥𝑥 𝑛2 + 𝑥3 𝑛3 + ⋯ + 𝑥𝑘 𝑛𝑘 𝑋 = 𝑥1 𝑓1 + 𝑥𝑥 𝑓2 + 𝑥3 𝑓3 + ⋯ + 𝑥𝑘 𝑓𝑘 = 𝑛 En esta definición hemos considerado que la variable aleatoria es discreta, o en el caso continuo las propias observaciones son los intervalos (degenerados) de clase. Ahora si tenemos una tabla de frecuencia con intervalos de clases ci, entonces la media se obtiene reemplazando los valores de las observaciones por la marca de clase de cada intervalo. Sin duda que se pierde precisión respecto de la definición anterior, pero esta será menor en tanto y en cuanto menor sea la amplitud de los intervalos de clase. No obstante, dado de que siempre construiremos la tabla de frecuencia en base a las observaciones, es decir siempre supondremos que tenemos en una base de datos nuestras observaciones, el promedio preciso muestral siempre se podrá calcular. De las observaciones x1, x2, ..., xn se tiene la siguiente propiedad elemental que tendrá grandes consecuencias en la definición una medida de la variabilidad. 𝑛

∑(𝑥𝑖 − 𝑥 ) = 0 𝑖=1

Este resultado es en cierta manera desalentador, puesto que el error o desviación de una observación en particular respecto de la media es compensado con los demás errores, de manera que sumando los errores de esta forma no nos entrega información sobre la variabilidad o sobre cuan alejado están las observaciones del promedio. De manera que si consideramos las desviaciones de la observación 3

respecto de la media como positivo, tendríamos una medida del error. Podemos considerar las siguientes situaciones para medir el error. 𝑛

∑(𝑥𝑖 − 𝑥 )2 = 0 𝐸𝑟𝑟𝑜𝑟 𝐶𝑢𝑎𝑑𝑟á𝑡𝑖𝑐𝑜 𝑖=1

𝑛

∑|𝑥𝑖 − 𝑥 | = 0 𝐸𝑟𝑟𝑜𝑟 𝐴𝑏𝑠𝑜𝑙𝑢𝑡𝑜 𝑖=1

max |𝑥𝑖 − 𝑥| 𝐸𝑟𝑟𝑜𝑟 𝑀á𝑥𝑖𝑚𝑜

𝑖=1,…,𝑛

El error más usual utilizado en estadística es el error cuadrático. Este error tiene interesantes propiedades. Veremos una de ellas. Supongamos que tenemos las observaciones x1, x2, ..., xn. Si elegimos cualquier representante prototipo de estas observaciones, digamos a , entonces el error cuadrático será mayor si elegimos la media como representante de estas observaciones, de otra forma si 𝑎 ≠ 𝑥 Entonces: 𝑛

𝑛

𝑖=1

𝑖=1

∑(𝑥𝑖 − 𝑥 )2 < ∑(𝑥𝑖 − 𝑎)2

CONCLUSIÓN Como se dijo en el documento existen diferentes tipos de errores que pueden afectar de manera significativo un resultado por los diversos motivos expuestos. Podemos evitar estos errores en su mayoría, pero siempre existirá un pequeño o alto margen de error que debemos tomar en cuenta. BIBLIOGRAFÍA Libros SANCHEZ DEL RIO, C. A. R. L. O. S. (1989). ANALISIS DE ERRORES (1.a ed., Vol. 1). EUDEMA UNIVERSIDAD. Página web

4

Anterior. (2017). https://intranetua.uantof.c. https://intranetua.uantof.cl/facultades/csbasicas/Matematicas/academicos/e martinez/Estadistica/media/media.html colaboradores de Wikipedia. (2020, 31 julio). Propagación de errores. Wikipedia, la enciclopedia libre. https://es.wikipedia.org/wiki/Propagaci%C3%B3n_de_errores

5...


Similar Free PDFs