Consejos útiles

Nivel de significancia en estadística

Tarea. Para los territorios de la región, se proporcionan datos para 199X,
Número de regiónEl salario medio per cápita por día de una persona sin discapacidad, rublos, xEl salario promedio diario, rublos, en
178133
282148
387134
479154
589162
6106195
767139
888158
973152
1087162
1176159
12115173
Se requiere:
1. Para construir una ecuación lineal de regresión pareada y desde x.
2. Calcule el coeficiente lineal de correlación de pares y el error de aproximación promedio.
3. Evaluar la significancia estadística de los parámetros de regresión y correlación.
4. Realice un pronóstico salarial y a un valor pronosticado del costo de vida promedio per cápita x, que asciende al 107% del nivel promedio.
5. Evalúe la precisión del pronóstico calculando el error del pronóstico y su intervalo de confianza.

Solución encontrar usando una calculadora.
Usando el método gráfico .
Este método se utiliza para visualizar la forma de comunicación entre los indicadores económicos estudiados. Para hacer esto, se construye un gráfico en un sistema de coordenadas rectangular, los valores individuales del atributo efectivo Y se trazan a lo largo del eje de ordenadas, y los valores individuales del atributo de factor X a lo largo del eje de abscisas.
El conjunto de puntos de los signos efectivos y factoriales se llama campo de correlación.
Basado en el campo de correlación, uno puede hipotetizar (para la población general) que la relación entre todos los valores posibles de X e Y es lineal.
La ecuación de regresión lineal tiene la forma y = bx + a + ε
Aquí ε es un error aleatorio (desviación, perturbación).
Las razones de la existencia de un error aleatorio:
1. La no inclusión en el modelo de regresión de variables explicativas significativas,
2. Agregación de variables. Por ejemplo, la función del consumo total es un intento de generalizar la totalidad de las decisiones de los individuos sobre los gastos. Esto es solo una aproximación de las relaciones individuales que tienen diferentes parámetros.
3. Descripción incorrecta de la estructura del modelo.
4. Especificación funcional incorrecta,
5. Errores de medición.
Desde las desviaciones εyo para cada observación particular, soy aleatorio y sus valores en la muestra son desconocidos, entonces:
1) según las observaciones xyo y yyo solo se pueden obtener estimaciones de los parámetros α y β
2) Las estimaciones de los parámetros α y β del modelo de regresión son, respectivamente, los valores de a y b, que son de naturaleza aleatoria, porque coincidir con una muestra aleatoria
Entonces la ecuación de regresión estimada (construida a partir de datos de muestra) tendrá la forma y = bx + a + ε, donde eyo ¿Son los valores observados (estimaciones) de los errores εyo, ayb, respectivamente, estimaciones de los parámetros α y β del modelo de regresión, que se deben encontrar.
Para estimar los parámetros α y β, utilice el método de mínimos cuadrados (método de mínimos cuadrados).
El sistema de ecuaciones normales.
Para nuestros datos, el sistema de ecuaciones tiene la forma
De la primera ecuación expresamos a y lo sustituimos en la segunda ecuación
Obtenemos b = 0.92, a = 76.98
Ecuación de regresión:
y = 0.92 x + 76.98
1. Parámetros de la ecuación de regresión.
Promedios de muestra.



Variaciones de muestra:


Desviacion estandar


Coeficiente de correlación
Calculamos el indicador de la rigidez de la comunicación. Tal indicador es un coeficiente de correlación lineal de muestra, que se calcula mediante la fórmula:

El coeficiente de correlación lineal toma valores de –1 a +1.
La relación entre los síntomas puede ser débil y fuerte (cercana). Sus criterios se califican en la escala de Cheddock:
0.1 0 es una conexión directa, de lo contrario es una conexión inversa). En nuestro ejemplo, la conexión es directa.
Coeficiente de elasticidad.
Los coeficientes de regresión (en el ejemplo b) no son deseables para evaluar directamente la influencia de los factores en un atributo productivo en el caso de que exista una diferencia en las unidades de medida del indicador efectivo y y el atributo del factor x.
Para estos fines, se calculan los coeficientes de elasticidad y los coeficientes beta. El coeficiente de elasticidad se encuentra por la fórmula:


Muestra cuánto porcentaje en promedio cambia el rasgo efectivo y con un cambio en el rasgo del factor x en un 1%. No tiene en cuenta el grado de variabilidad de los factores.
El coeficiente de elasticidad es inferior a 1. Por lo tanto, si el salario mínimo per cápita promedio por día cambia en un 1%, el salario diario promedio cambiará en menos del 1%. En otras palabras, el efecto del salario mínimo per cápita promedio X sobre el salario diario promedio Y no es significativo.
Ratio beta muestra qué parte del valor de su desviación cuadrática media cambiará el valor promedio del atributo productivo cuando el atributo del factor cambie por el valor de su desviación estándar con el valor de las variables independientes restantes fijas a un nivel constante:

Es decir un aumento en x por la desviación estándar de este indicador conducirá a un aumento en el salario promedio diario promedio Y de 0.721 desviaciones estándar de este indicador.
1.4. Error de aproximación
Vamos a estimar la calidad de la ecuación de regresión usando el error de aproximación absoluta.


Como el error es inferior al 15%, esta ecuación puede usarse como una regresión.
Coeficiente de determinación.
El cuadrado del coeficiente de correlación (múltiple) se llama coeficiente de determinación, que muestra la proporción de variación del atributo productivo, explicada por la variación del atributo del factor.
Muy a menudo, dando una interpretación del coeficiente de determinación, se expresa como un porcentaje.
R 2 = 0,72 2 = 0,5199
es decir en el 51.99% de los casos, los cambios en el salario mínimo per cápita promedio x conducen a un cambio en el salario promedio diario y. En otras palabras, la precisión de la selección de la ecuación de regresión es promedio. El 48.01% restante del cambio en el salario diario promedio Y se explica por factores no tomados en cuenta en el modelo.

xyx 2y 2x o yy (x)(y i -y cp) 2(y-y (x)) 2(x i -x cp) 2| y - y x |: y
7813360841768910374148,77517,56248,757,510,1186
8214867242190412136152,4560,0619,8212,840,0301
8713475691795611658157,05473,06531,482,010,172
7915462412371612166149,693,0618,5743,340,028
8916279212624414418158,8939,069,6411,670,0192
106195112363802520670174,541540,56418,52416,840,1049
671394489193219313138,65280,560,1258345,340,0026
8815877442496413904157,975,060,00075,840,0002
7315253292310411096144,1714,0661,34158,340,0515
8716275692624414094157,0539,0624,462,010,0305
7615957762528112084146,9310,56145,791,840,0759
115173132252992919895182,83297,5696,55865,340,0568
102718698990729437716180818693280,251574,922012,920,6902

2. Evaluación de los parámetros de la ecuación de regresión.
2.1. La importancia del coeficiente de correlación.

De acuerdo con la tabla de estudiantes con nivel de significancia α = 0.05 y grados de libertad k = 10, encontramos tCreta:
tCreta = (10,0.05) = 1.812
donde m = 1 es el número de variables explicativas.
Si tobs > tcritico, entonces el valor obtenido del coeficiente de correlación se considera significativo (se rechaza la hipótesis nula, que establece que el coeficiente de correlación es igual a cero).
Desde tobs > tCreta, rechazamos la hipótesis de igualdad del coeficiente de correlación 0. En otras palabras, el coeficiente de correlación es estadísticamente significativo.
En regresión lineal pareada t 2 r = t 2 b y luego probar las hipótesis sobre el significado de los coeficientes de regresión y correlación es equivalente a probar la hipótesis sobre el significado de la ecuación de regresión lineal.

2.3. Análisis de la precisión de la determinación de estimaciones de coeficientes de regresión.
Una estimación imparcial de la varianza de las perturbaciones es:


S 2 y = 157.4922 - varianza inexplicada (una medida de la extensión de la variable dependiente alrededor de la línea de regresión).

12.5496 - error de estimación estándar (error de regresión estándar).
S un - desviación estándar de una variable aleatoria a.


Sb - desviación estándar de la variable aleatoria b.


2.4. Intervalos de confianza para la variable dependiente.
El pronóstico económico basado en el modelo construido supone que las relaciones preexistentes de las variables se conservan para el período inicial.
Para predecir la variable dependiente de un atributo efectivo, es necesario conocer los valores pronosticados de todos los factores incluidos en el modelo.
Los valores pronosticados de los factores se sustituyen en el modelo y reciben estimaciones de pronóstico puntuales del indicador estudiado.
(a + bx p ± ε)
donde

Calculamos los límites del intervalo en el que el 95% de los posibles valores de Y se concentrarán con un número ilimitado de observaciones y X p = 94

(76.98 + 0.92*94 ± 7.8288)
(155.67,171.33)
Con una probabilidad del 95%, se puede garantizar que los valores de Y con un número ilimitado de observaciones no irán más allá de los intervalos encontrados.
2.5. Prueba de hipótesis sobre los coeficientes de la ecuación de regresión lineal.
1) estadísticas t. Criterio del alumno.
Probamos la hipótesis H0 sobre la igualdad de los coeficientes de regresión individuales a cero (con la alternativa H1 no igual) en el nivel de significancia α = 0.05.
tCreta = (10,0.05) = 1.812

Desde 3.2906> 1.812, se confirma la significancia estadística del coeficiente de regresión b (rechazamos la hipótesis de que este coeficiente sea cero).


Desde 3.1793> 1.812, se confirma la significancia estadística del coeficiente de regresión a (rechazamos la hipótesis de que este coeficiente sea cero).
Intervalo de confianza para los coeficientes de la ecuación de regresión.
Determinamos los intervalos de confianza de los coeficientes de regresión, que con una confiabilidad del 95% serán los siguientes:
(b - tCreta Sb, b + tCreta Sb)
(0.9204 - 1.812 • 0.2797, 0.9204 + 1.812 • 0.2797)
(0.4136,1.4273)
Con una probabilidad del 95%, se puede argumentar que el valor de este parámetro estará en el intervalo encontrado.
(a - t lang = SV> a)
(76.9765 - 1.812 • 24.2116, 76.9765 + 1.812 • 24.2116)
(33.1051,120.8478)
Con una probabilidad del 95%, se puede argumentar que el valor de este parámetro estará en el intervalo encontrado.
2) F-estadísticas. Criterio de Fisher.
La importancia del modelo de regresión se verifica utilizando la prueba F de Fisher, cuyo valor calculado se encuentra como la razón de la varianza de la serie inicial de observaciones del indicador estudiado y la estimación imparcial de la varianza de la secuencia residual para este modelo.
Si el valor calculado con k1 = (m) y k2 = (n-m-1) grados de libertad es mayor que el valor de la tabla para un nivel de significancia dado, entonces el modelo se considera significativo.

donde m es el número de factores en el modelo.
La significación estadística de la regresión lineal emparejada se estima de acuerdo con el siguiente algoritmo:
1. Existe una hipótesis nula de que la ecuación en su conjunto es estadísticamente insignificante: H0: R 2 = 0 en el nivel de significancia α.
2. Luego, determine el valor real del criterio F:


donde m = 1 para regresión pareada.
3. El valor de la tabla se determina a partir de las tablas de distribución de Fisher para un nivel de significancia dado, teniendo en cuenta que el número de grados de libertad para la suma total de cuadrados (mayor varianza) es 1 y el número de grados de libertad de la suma residual de cuadrados (menor varianza) para la regresión lineal es n-2 .
4. Si el valor real del criterio F es menor que el tabular, entonces dicen que no hay razón para rechazar la hipótesis nula.
De lo contrario, se rechaza la hipótesis nula y con probabilidad (1-α) se acepta una hipótesis alternativa sobre la significación estadística de la ecuación como un todo.
El valor de la tabla del criterio con grados de libertad k1 = 1 y k2 = 10, Fkp = 4.96
Dado que el valor real es F> Fkp, el coeficiente de determinación es estadísticamente significativo (la estimación encontrada de la ecuación de regresión es estadísticamente confiable).

Definición

El nivel de significación estadística (o resultado estadísticamente significativo) muestra cuál es la probabilidad de una ocurrencia accidental de los indicadores estudiados. La significación estadística general del fenómeno se expresa mediante el coeficiente p-valor (nivel p). En cualquier experimento u observación, es probable que los datos obtenidos se deban a errores de muestreo. Esto es especialmente cierto para la sociología.

Es decir, una estadística es estadísticamente significativa cuya probabilidad de ocurrencia accidental es extremadamente pequeña o tiende a extremos. Extremo en este contexto se considera el grado de desviación de las estadísticas de la hipótesis nula (una hipótesis que se verifica para verificar su coherencia con los datos de la muestra obtenida). En la práctica científica, el nivel de significancia se elige antes de la recopilación de datos y, por regla general, su coeficiente es 0.05 (5%). Para sistemas donde los valores precisos son extremadamente importantes, este indicador puede ser 0.01 (1%) o menos.

Antecedentes

El concepto de nivel de significancia fue introducido por el estadístico y genetista británico Ronald Fisher en 1925 cuando desarrolló una metodología para probar hipótesis estadísticas. Al analizar un proceso, hay una cierta probabilidad de ciertos fenómenos. Surgen dificultades cuando se trabaja con probabilidades de porcentaje pequeñas (o no obvias) que se enmarcan en el concepto de "error de medición".

Al trabajar con estadísticas que no son lo suficientemente específicas para verificar, los científicos se enfrentaron con el problema de la hipótesis nula, que "interfiere" con pequeñas cantidades. Fisher propuso que dichos sistemas determinen la probabilidad de eventos al 5% (0.05) como una porción selectiva conveniente que permite rechazar la hipótesis nula en los cálculos.

La introducción de un coeficiente fijo

En 1933, los científicos Jerzy Neumann y Egon Pearson en sus trabajos recomendaron de antemano (antes de la recopilación de datos) establecer un cierto nivel de importancia. Los ejemplos del uso de estas reglas son claramente visibles durante la elección. Supongamos que hay dos candidatos, uno de los cuales es muy popular y el segundo es poco conocido. Obviamente, el primer candidato gana las elecciones, y las posibilidades del segundo tienden a cero. Se esfuerzan, pero no son iguales: siempre existe la probabilidad de fuerza mayor, información sensacional, decisiones inesperadas que pueden cambiar los resultados electorales pronosticados.

Neumann y Pearson coincidieron en que el nivel de significancia propuesto por Fisher de 0.05 (indicado por el símbolo α) es lo más conveniente. Sin embargo, el propio Fisher en 1956 se opuso a la fijación de este valor. Él creía que el nivel de α debería establecerse de acuerdo con circunstancias específicas. Por ejemplo, en física de partículas es 0.01.

Valor p

El término valor p se utilizó por primera vez en el trabajo de Brownley en 1960. El nivel P (valor p) es un indicador que está inversamente relacionado con la verdad de los resultados. El valor p del coeficiente más alto corresponde al nivel más bajo de confianza en la muestra de dependencia entre las variables.

Este valor refleja la probabilidad de errores asociados con la interpretación de los resultados. Suponga que p-level = 0.05 (1/20). Muestra la probabilidad del cinco por ciento de que la relación entre las variables encontradas en la muestra es solo una característica aleatoria de la muestra. Es decir, si esta dependencia está ausente, entonces, con tales experimentos repetidos, en promedio, en cada vigésimo estudio, uno puede esperar la misma o mayor dependencia entre las variables. A menudo, el nivel p se considera como el "margen aceptable" del nivel de error.

Por cierto, el valor p puede no reflejar la relación real entre las variables, sino que solo muestra un cierto valor promedio dentro de los supuestos. En particular, el análisis final de los datos también dependerá de los valores seleccionados de este coeficiente. Con un nivel de p = 0.05, habrá algunos resultados, y con un coeficiente de 0.01, otros.

Prueba de hipótesis estadísticas

El nivel de significación estadística es especialmente importante cuando se prueban hipótesis. Por ejemplo, cuando se calcula una prueba de dos lados, el área de rechazo se divide por igual en ambos extremos de la distribución de la muestra (en relación con la coordenada cero) y se calcula la verdad de los datos.

Supongamos que, al monitorear un determinado proceso (fenómeno), resulta que la nueva información estadística indica pequeños cambios en relación con los valores anteriores. Además, las discrepancias en los resultados son pequeñas, no obvias, pero importantes para el estudio. El dilema surge ante el especialista: ¿se están produciendo realmente los cambios o son estos errores de muestreo (mediciones inexactas)?

En este caso, se utiliza o rechaza la hipótesis nula (todo atribuido a un error, o el cambio en el sistema se reconoce como un hecho consumado). El proceso de resolución del problema se basa en la relación de significancia estadística total (valor p) y nivel de significancia (α). Si el nivel p es -8, eso no es raro en esta área.

Efectividad

Tenga en cuenta que los coeficientes α y valor p no son características precisas. Cualquiera que sea el nivel de significación en las estadísticas del fenómeno estudiado, no es una base incondicional para aceptar la hipótesis. Por ejemplo, cuanto menor es el valor de α, mayor es la posibilidad de que la hipótesis establecida sea significativa. Sin embargo, existe un riesgo de error, lo que reduce el poder estadístico (importancia) del estudio.

Los investigadores que se centran únicamente en resultados estadísticamente significativos pueden llegar a conclusiones erróneas. Al mismo tiempo, es difícil verificar su trabajo, ya que utilizan supuestos (que, de hecho, son los valores de los valores α y p). Por lo tanto, siempre se recomienda, junto con el cálculo de la significación estadística, determinar otro indicador: la magnitud del efecto estadístico. La magnitud de un efecto es una medida cuantitativa de la fuerza de un efecto.

Niveles de significación estadística y prueba de hipótesis

Nivel de significancia - esta es la probabilidad de que encontremos diferencias significativas, mientras que en realidad son aleatorias.

Entonces, el nivel de significación trata probabilidad.

El nivel de significancia indica el grado de confiabilidad de las diferencias reveladas entre las muestras, es decir muestra cuánto podemos confiar en que realmente hay diferencias.

La investigación científica moderna requiere cálculos obligatorios del nivel de significación estadística de los resultados.

Típicamente, las estadísticas aplicadas usan 3 niveles de significancia.

1er nivel de significación: p ≤ 0.05.

Este es un nivel de significancia del 5%. Hasta un 5% es la probabilidad de que concluyamos erróneamente que las diferencias son confiables, mientras que en realidad no son confiables. Se puede decir de otra manera: solo estamos 95% seguros de que las diferencias son realmente significativas. En este caso, puede escribir así: P> 0.95. El significado general del criterio seguirá siendo el mismo.

2. 2do nivel de significancia: p ≤ 0.01.

Este es un nivel de significancia del 1%. La probabilidad de una conclusión errónea de que las diferencias son significativas no supera el 1%. Se puede decir de otra manera: estamos 99% seguros de que las diferencias son realmente significativas. En este caso, puede escribir así: P> 0.99. El significado seguirá siendo el mismo.

3. 3er nivel de significancia: p ≤ 0.001.

Это 0,1%-ный уровень значимости. Всего 0,1% составляет вероятность того, что мы сделали ошибочный вывод о том, что различия достоверны. Это — самый надёжный вариант вывода о достоверности различий. Можно сказать и по-другому: мы на 99,9% уверены в том, что различия действительно достоверны. En este caso, puede escribir así: P> 0.999. El significado volverá a ser el mismo.

El nivel de significancia es la probabilidad de un rechazo erróneo (rechazo) de una hipótesis, mientras que en realidad es cierto. Esto es un rechazo de la hipótesis nula No.

El nivel de significancia es un error permisible en nuestra declaración, en nuestra conclusión.

Son posibles errores de dos tipos: el primer tipo (α) y el segundo tipo (β).

Un error del primer tipo: rechazamos la hipótesis nula, si bien es cierta.

α es un error del primer tipo.

p ≤ 0.05, tasa de error α ≤ 0.05

La probabilidad de que se haya tomado la decisión correcta: 1 - α = 0.95, o 95%.

Niveles de significación para errores de tipo I

1. α ≤ 0.05 - el nivel más bajo

El nivel más bajo de significancia: le permite rechazar la hipótesis nula, pero aún no permite la adopción de una alternativa.

2. α ≤ 0.01 - un nivel suficiente

Nivel suficiente: le permite rechazar la hipótesis nula y aceptar la alternativa.

G - criterio de signos

T - prueba de Wilcoxon

U - Prueba de Mann-Whitney.

Para ellos, la relación inversa.

3. α ≤ 0.001 - el nivel más alto de significancia.

En la práctica, las diferencias se consideran significativas en p ≤ 0.05.

Para una hipótesis estadística no dirigida, se utiliza un criterio de significación bilateral. Es más estricto, ya que verifica las diferencias en ambas direcciones: hacia la hipótesis nula y hacia la alternativa. Por lo tanto, se utiliza un criterio de significancia de 0.01.

Criterio de potencia - su capacidad para detectar incluso pequeñas diferencias, si las hay. Cuanto más poderoso es el criterio, mejor rechaza la hipótesis nula y confirma la alternativa.

Aquí aparece el concepto: un error del segundo tipo.

Error tipo II - Esta es la aceptación de la hipótesis nula, aunque no es cierta.

Criterio de potencia: 1 - β

Cuanto más poderoso es el criterio, más atractivo es para el investigador. Mejor rechaza la hipótesis nula.

¿Por qué son atractivos los criterios de baja potencia?

Ventajas de los criterios de baja potencia:

  • Simplicidad
  • Amplia gama en relación con una amplia variedad de datos.
  • Aplicabilidad a tamaños de muestra desiguales.
  • Mayor contenido informativo.

El criterio estadístico más popular es la prueba T de Student. Pero en solo el 30% de los artículos se usa correctamente y en el 70%, incorrectamente, porque no verifique previamente la selección para la normalidad de distribución.

El segundo más popular es la prueba de chi-cuadrado, χ2