Error De Estimacion Estadistica Formula
añadirlas o avisar al autor principal del artículo en su página de discusión pegando: {{sust:Aviso referencias|Estimación estadística}} ~~~~ En inferencia estadística se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra. Por ejemplo, una estimación de la media de una determinada característica de una población de tamaño N podría ser la media de esa misma característica para una muestra de tamaño n.[1] La estimación se divide en tres grandes bloques, cada uno de los cuales tiene distintos métodos que se usan en función de las características y propósitos del estudio: Estimación puntual:[2] Método de los momentos; Método de la máxima verosimilitud; Método de los mínimos cuadrados; Estimación por intervalos. Estimación bayesiana. Índice 1 Estimador 2 Estimación puntual 3 Estimación por intervalos 3.1 Intervalo de confianza 3.2 Variabilidad del Parámetro 3.3 Error de la estimación 3.4 Límite de Confianza 3.5 Valor α 3.6 Valor crítico 3.7 Otros usos del término 4 Véase también 5 Referencias Estimador[editar] Un estimador es una regla que establece cómo calcular una estimación basada en las mediciones contenidas en una muestra estadística. Estimación puntual[editar] Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos. Lo más importante de un estimador, es que sea un estimador eficiente. Es decir, que sea insesgado(ausencia de sesgos) y estable en el muestreo o eficiente (varianza mínima) Estimación puntual. Sea X una variable poblacional con distribución Fθ , siendo θ desconocido. El problema de estimación puntual consiste en, seleccionada una muestra X1, ..., Xn, encontrar el estadístico T(X1, ..., Xn) que mejor estime el parámetro θ. Una vez observada o realizada la muestra, con valores x1, ..., xn, se obtiene la estimación puntual de θ, T(x1, ..., xn) = ˆ θ . Vemos a continuación dos métodos para obtener la estimación puntual de un parámetro: método de los momentos y método de máxima verosimilitud. Método de los momentos: consiste en igualar momentos poblacionales a momentos muestrales. Deberemos tener tantas igualdades como parámetr
entre 0,1,2, y 3 desviaciones estándar por encima y por debajo del valor real. El error estándar es la desviación estándar de la distribución muestral de un estadístico.[1] El término se refiere también a una estimación de la desviación estándar, derivada de una muestra particular usada para computar la estimación. Índice 1 Concepto 2 Error estándar de la media 3 Supuestos y utilización 4 Error estándar de la regresión 5 Referencias Concepto[editar] La media muestral es el estimador usual de una media poblacional. Sin embargo, diferentes muestras escogidas de la misma población tienden en general a dar distintos valores de medias muestrales. El error estándar de la media (es decir, el error debido a https://es.wikipedia.org/wiki/Estimaci%C3%B3n_estad%C3%ADstica la estimación de la media poblacional a partir de las medias muestrales) es la desviación estándar de todas las posibles muestras (de un tamaño dado) escogidos de esa población. Además, el error estándar de la media puede referirse a una estimación de la desviación estándar, calculada desde una muestra de datos que está siendo analizada al mismo tiempo. En aplicaciones prácticas, el verdadero valor de la desviación estándar (o del error) es generalmente desconocido. https://es.wikipedia.org/wiki/Error_est%C3%A1ndar Como resultado, el término "error estándar" se usa a veces para referirse a una estimación de esta cantidad desconocida. En tales casos es importante tener claro de dónde proviene, ya que el error estándar es sólo una estimación. Desafortunadamente, esto no es siempre posible y puede ser mejor usar una aproximación que evite usar el error estándar, por ejemplo usando la estimación de máxima verosimilitud o una aproximación más formal derivada de los intervalos de confianza. Un caso bien conocido donde se pueda usar de forma apropiada puede ser en la distribución t de Student para proporcionar un intervalo de confianza para una media estimada o diferencia de medias. En otros casos, el error estándar puede ser usado para proveer una indicación del tamaño de la incertidumbre, pero su uso formal o semi-formal para proporcionar intervalos de confianza o test debe ser evitado a menos que el tamaño de la muestra sea al menos moderadamente grande. Aquí el concepto "grande" dependerá de las cantidades particulares que vayan a ser analizadas. En análisis de regresión, el término error estándar o error típico es también usado como la media de las diferencias entre la estimación por mínimos cuadrados y los valores dados de la muestra[2] [3] Error estándar de la media[editar] El error estándar de la media (llamado en inglés "standard error of t
Contrastes hipótesis Problemas Intervalos característicos El nivel de confianza (p) se designa mediante 1 - α. El nivel de significación se designa mediante α. El valor crítico (k) como z α/2 . En una distribución N(μ, σ) el intervalo característico correspondiente a una probabilidad p = 1 - α es: (μ - z http://www.vitutor.com/estadistica/inferencia/i_f.html α/2 · σ , μ + z α/2 · σ ) 1 - α α/2 z α/2 Intervalos característicos 0.90 0.05 1.645 (μ - 1.645 · σ , μ + 1.645 · σ) 0.95 0.025 1.96 (μ - 1.96 · σ , μ + 1.96 · σ ) 0.99 0.005 2.575 (μ - 2.575 · σ , μ + 2.575 · σ ) Teorema central del límite μ media de la población σ desviación típica de la error de población n Tamaño de la muestra (n>30, ó cualquier tamaño si la población es "normal") Las medias de las muestras siguen aproximadamente la distribución: Estimación de la media de una población Intervalo de confianza para la media Error máximo de estimación Tamaño de la muestra Estimación de una proporción Intervalo de confianza para una proporción El error máximo de estimación es: Contrastes de hipótesis 1. Enunciar la hipótesis nula H0 y la alternativa H1. Bilateral H0=k H1 error de estimacion ≠ k Unilateral H0≥ k H1 < k H0 ≤k H1> k 2. A partir de un nivel de confianza 1 - α o el de significación α. Determinar: El valor zα/2 (bilaterales), o bien zα (unilaterales) La zona de aceptación del parámetro muestral (x o p'). 3. Calcular: x o p', a partir de la muestra. 4. Si el valor del parámetro muestral está dentro de la zona de la aceptación, se acepta la hipótesis con un nivel de significación α. Si no, se rechaza. Contraste Bilateral H0: μ = k (o bien H0: p = k) H1: μ≠ k (o bien H1: p≠ k). o bien: Contraste unilateral Caso 1 H0: μ ≥ k (o bien H0: p ≥ k). H1: μ < k (o bien H1: p < k). Valores críticos 1 - α α z α 0.90 0.10 1.28 0.95 0.05 1.645 0.99 0.01 2.33 o bien: Caso 2 H0: μ ≤ k (o bien H0: p ≤ k). H1: μ > k (o bien H1: p > k). o bien: Errores H0 Verdadera Falsa Aceptar Decisón correcta Probabilidad = 1 - α Decisión incorrecta: ERROR DE TIPO II Rechazar ERROR DE TIPO I Probabilidad = α Decisión correcta Tema Muestreo Intervalos Teorema Estimación Estimación media Estimación proporción Contrastes hipótesis Contraste Bilateral Contraste unilateral Errores Resumen Índice Ejercicios Ejercicios I Ejercicios II Contrastes hi
be down. Please try the request again. Your cache administrator is webmaster. Generated Tue, 11 Oct 2016 07:50:59 GMT by s_wx1127 (squid/3.5.20)