Análisis de Regresión

16
1 Estadística avanzada - Regresión lineal Fuentes: Etxebarria, J. (1999). Regresión Múltiple. Madrid: La Muralla. SPSS, versión 15.0, Sistema de ayuda. Índice Regresión lineal simple ....................................................................................... 1 Bases ............................................................................................................................... 1 Condiciones de la aplicación ............................................................................................ 2 Interpretación de resultados con SPSS............................................................................ 3 Resumen del modelo .................................................................................................... 3 ANOVA – Análisis de varianza asociado ...................................................................... 4 Coeficientes .................................................................................................................. 4 Ejemplos .......................................................................................................................... 5 Media de selectividad y autoconcepto académico........................................................ 5 Autoestima y autoconcepto académico ........................................................................ 6 Regresión lineal múltiple ..................................................................................... 7 Bases ............................................................................................................................... 7 Condiciones de aplicación................................................................................................ 7 Interpretación de los resultados ....................................................................................... 8 Ejemplos .......................................................................................................................... 9 Autoconcepto académico ............................................................................................. 9 Ansiedad en los exámenes......................................................................................... 12 Regresión lineal simple Bases El análisis de regresión permite hacer predicciones sobre el valor que puede adoptar una variable dependiente cuantitativa, a partir del conocimiento de las puntuaciones de una variable independiente cuantitativa. La recta de regresión es la recta que más se acerca a la nube de puntos en un diagrama de dispersión. Es importante recordar que en análisis de regresión no permite constatar la causalidad. Las estimaciones que proporciona informan de tendencias, no de predicciones exactas. La puntuación de cada sujeto en la variable dependiente se desglosaría en Yi = a + b*X i + e i Es decir: - una constante a (el valor de Y cuando X = 0, o la altura a en la que la recta de regresión se encuentra con el eje de ordenadas); - el producto de X por la pendiente b de la recta de regresión (el efecto del valor de X sobre Y); y - el error cometido en la predicción (la diferencia entre la estimación Y’ i y el valor real Y i ).

description

Análisis de Regresión

Transcript of Análisis de Regresión

Page 1: Análisis de Regresión

1

Estadística avanzada - Regresión lineal Fuentes:

Etxebarria, J. (1999). Regresión Múltiple. Madrid: La Muralla.

SPSS, versión 15.0, Sistema de ayuda.

Índice

Regresión lineal simple ....................................................................................... 1 Bases ............................................................................................................................... 1 Condiciones de la aplicación ............................................................................................ 2 Interpretación de resultados con SPSS ............................................................................ 3 

Resumen del modelo .................................................................................................... 3 ANOVA – Análisis de varianza asociado ...................................................................... 4 Coeficientes .................................................................................................................. 4 

Ejemplos .......................................................................................................................... 5 Media de selectividad y autoconcepto académico ........................................................ 5 Autoestima y autoconcepto académico ........................................................................ 6 

Regresión lineal múltiple ..................................................................................... 7 Bases ............................................................................................................................... 7 Condiciones de aplicación ................................................................................................ 7 Interpretación de los resultados ....................................................................................... 8 Ejemplos .......................................................................................................................... 9 

Autoconcepto académico ............................................................................................. 9 Ansiedad en los exámenes ......................................................................................... 12 

Regresión lineal simple

Bases El análisis de regresión permite hacer predicciones sobre el valor que puede adoptar una variable dependiente cuantitativa, a partir del conocimiento de las puntuaciones de una variable independiente cuantitativa.

La recta de regresión es la recta que más se acerca a la nube de puntos en un diagrama de dispersión.

Es importante recordar que en análisis de regresión no permite constatar la causalidad.

Las estimaciones que proporciona informan de tendencias, no de predicciones exactas. La puntuación de cada sujeto en la variable dependiente se desglosaría en Yi = a + b*Xi + ei

Es decir:

- una constante a (el valor de Y cuando X = 0, o la altura a en la que la recta de regresión se encuentra con el eje de ordenadas);

- el producto de X por la pendiente b de la recta de regresión (el efecto del valor de X sobre Y); y

- el error cometido en la predicción (la diferencia entre la estimación Y’i y el valor real Yi).

Page 2: Análisis de Regresión

2

Normalmente se utiliza el criterio de los mínimos cuadrados para determinar la recta de regresión: estimar los coeficientes a y b de la recta de manera que sean los que minimicen la suma de las distancias (Y’i - Yi) al cuadrado.

Sirve para contrastar ajustes lineales. Aunque se constate numéricamente un ajuste lineal, no significa que realmente no exista una relación curvilínea. En una relación curvilínea pueden conseguirse buenos ajustes lineales. Véase el segundo ejemplo de Anscombe en http://en.wikipedia.org/wiki/Anscombe%27s_quartet

La existencia o no de una relación lineal se puede apreciar mediante un diagrama de dispersión.

Si la relación que observamos no es lineal podemos optar por:

- realizar transformaciones con las variables (Etxeberria, 1999:96), o

- contrastar una regresión curvilínea, seleccionando un determinado patrón para el contraste (Etxeberria, 1999:94).

Condiciones de la aplicación - El modelo está bien especificado:

o La relación entre X e Y es lineal (las medias de Y que calculamos están aproximadamente sobre una recta).

o No han quedado fuera del modelo variables importantes.

o No han sido incluidas variables irrelevantes.

- Las variables están medidas sin error. Los niveles de validez y fiabilidad son aceptables y no hay errores sistemáticos.

- Los errores aleatorios en la predicción deben cumplir una serie de condiciones (distribución normal, media = 0, homoscedasticidad, independientes con respecto a la variable independiente, independencia de los errores entre sí). Podemos pedir al SPSS una gráfica con una distribución de frecuencias de los residuos , y observar si es aproximadamente normal y si la probabilidad observada acumulada sigue aproximadamente una pendiente de 45 grados. También puede realizarse un diagrama de dispersión y ver por ejemplo si el alejamiento con respecto a la recta de regresión es uniforme, o muestra un sesgo sistemático .

El análisis de regresión es bastante robusto: pequeñas desviaciones en relación a estas condiciones no invalidan las conclusiones.

Anscombe (1973) presentó 4 conjuntos de datos (ver base de datos y hoja de resultados Anscombe 1973, en http://en.wikipedia.org/wiki/Anscombe%27s_quartet).

Page 3: Análisis de Regresión

3

Todos responden a la ecuación

Y’ = 3 + 0,50 X

En todos los casos R2 =0,667. Pero proceden de realidades muy distintas:

- el segundo se aprecia una relación curvilínea (podríamos hacer algunas transformaciones para que se ajustara mejor a la linealidad, o utilizar un contraste con una regresión curvilínea);

- en el tercero y el cuarto hay casos sobresalientes y/o extremos que condicionan fuertemente el resultado, de modo que habrá que buscar alguna solución o por lo menos ser más prudentes al interpretar los resultados.

En consecuencia, al iniciar cualquier análisis de regresión lineal, es importante realizar dos estudios:

- representar un diagrama de puntos, para detectar posibles desviaciones a las condiciones de aplicación del modelo;

- estudiar las condiciones de aplicación del modelo, de modo que en el ejemplo de Anscombe, sólo el primero sería apto para la utilización de la regresión lineal simple.

Interpretación de resultados con SPSS

Resumen del modelo R – relación entre la variable dependiente y sus predicciones, concretamente la correlación existente entre las estimaciones Y’ y las puntuaciones reales Y.

R2 – coeficiente de determinación: proporción de varianza explicada.

R2 corregida – el coeficiente de determinación corregido es un mejor estimador poblacional de la proporción de varianza estimada. Conviene realizar una lectura en términos de porcentaje.

Page 4: Análisis de Regresión

4

El coeficiente de determinación R2 especifica la proporción de varianza de Y que explica

X, es decir 2

22

)()'(

YYYY

Ri

i

−Σ−Σ

= .

El coeficiente de determinación ajustado introduce algunas correcciones en la fórmula y corrige cierto efecto inflacionista del coeficiente de determinación. En cuanto estimador de la varianza explicada en la población, es preferible al no ajustado (que tiene una pequeña tendencia inflacionista), sobre todo si la muestra es pequeña.

Dado que a y b son estimaciones muestrales, podemos calcular intervalos para α y β (coeficientes poblacionales).

A la hora de hacer la predicción de un valor habrá que tener en cuenta tanto esta última variabilidad como la de cada caso a partir del valor estimado para Y.

Error típico de la estimación = raíz cuadrada de la media de cuadrados del error de estimación (expresado en unidades de la variable dependiente). Indica el tamaño de la imprecisión de las estimaciones. Podemos comparar el error típico de la estimación con la desviación típica de la variable dependiente. Si el error típico de la estimación es mucho más pequeño que la desviación típica, nos indica que la predicción sí aporta un conocimiento sustancial sobre el comportamiento de la variable dependiente.

ANOVA – Análisis de varianza asociado Desglosa la varianza de la variable dependiente, y calcula la ratio entre la varianza explicada por la regresión y la residual (la que no explica la regresión).

Podemos comparar la suma de cuadrados de la regresión y la residual.

Nos permite analizar la significatividad del ajuste obtenido mediante la regresión.

Coeficientes Fila Constante – Col. Coeficientes no estandarizados B: corresponde al coeficiente a. Indica que el valor de la variable dependiente si el valor de la independiente fuera 0.

Fila variable independiente – Col. ídem: corresponde al coeficiente b. Representa el incremento de la variable dependiente, cuando la independiente crece en un punto. Las unidades de medida son las originales de la variable independiente y dependiente.

Gráficamente: a es el punto de corte con el eje de ordenadas, y b la pendiente de la recta.

Es importante considerar la sensatez o insensatez de las estimaciones en ciertos intervalos (ej., estimación de altura a los 40 años habiendo hecho un análisis de regresión entre los 3 y los 10 años). Ver por ejemplo las tablas de crecimiento en http://www.neonatos.org/DOCUMENTOS/Tablas_Orbegozo.pdf, o en http://saludydeporte.consumer.es/edad/ninos/index.html y valorar el sentido de predecir con esa información la altura a los 0 años o a los 40 años.

Cuando trabajamos con estos coeficientes, pero habiéndolos obtenido a partir de puntuaciones estandarizadas, obtenemos los coeficientes BETA:

y

x

ss

bBETA =

Page 5: Análisis de Regresión

5

Refleja en cuántas desviaciones típicas aumenta Y por cada desviación típica que aumenta X.

En el caso de la correlación simple coincide con el coeficiente de correlación.

El coeficiente t de cada variable es el resultado de dividir el coeficiente B entre su error típico. La significación da cuenta de qué variables son relevantes en el modelo.

Ejemplos

Media de selectividad y autoconcepto académico

SELECTIVIDAD10,09,08,07,06,05,04,0

TOTA

L A

UTO

CO

NC

EPTO

AC

AD

EMIC

O

5,00

4,00

3,00

2,00

1,00

Sq r lineal = 0,287

Resumen del modelo

Modelo R R cuadrado R cuadrado corregida

Error típ. de la estimación

1 ,539(a) ,291 ,289 ,60149a Variables predictoras: (Constante), SELECTIVIDAD ANOVA(b)

Modelo Suma de

cuadrados gl Media

cuadrática F Sig. 1 Regresión 75,188 1 75,188 207,824 ,000(a)

Residual 183,426 507 ,362 Total 258,613 508

a Variables predictoras: (Constante), SELECTIVIDAD

Page 6: Análisis de Regresión

6

b Variable dependiente: TOTAL AUTOCONCEPTO ACADEMICO

Coeficientes(a)

Modelo

Coeficientes no estandarizados

Coeficientes estandarizado

s

t Sig. B Error típ. Beta 1 (Constante) ,514 ,189 2,726 ,007

SELECTIVIDAD ,417 ,029 ,539 14,416 ,000 a Variable dependiente: TOTAL AUTOCONCEPTO ACADEMICO

Autoestima y autoconcepto académico

TOTAL AUTOCONCEPTO PERSONAL5,004,003,002,001,00

TOTA

L A

UTO

CO

NC

EPTO

AC

AD

EMIC

O

5,00

4,00

3,00

2,00

1,00

Sq r lineal = 0,017

Resumen del modelo

Modelo R R cuadrado R cuadrado corregida

Error típ. de la estimación

1 ,130(a) ,017 ,015 ,70499a Variables predictoras: (Constante), TOTAL AUTOCONCEPTO PERSONAL ANOVA(b)

Modelo Suma de

cuadrados gl Media

cuadrática F Sig.

Page 7: Análisis de Regresión

7

1 Regresión 4,782 1 4,782 9,621 ,002(a) Residual 279,814 563 ,497 Total 284,595 564

a Variables predictoras: (Constante), TOTAL AUTOCONCEPTO PERSONAL b Variable dependiente: TOTAL AUTOCONCEPTO ACADEMICO Coeficientes(a)

Modelo

Coeficientes no estandarizados

Coeficientes estandarizado

s

t Sig. B Error típ. Beta 1 (Constante) 2,626 ,184 14,300 ,000

TOTAL AUTOCONCEPTO PERSONAL ,139 ,045 ,130 3,102 ,002

a Variable dependiente: TOTAL AUTOCONCEPTO ACADEMICO

Regresión lineal múltiple

Bases El análisis de regresión permite hacer predicciones sobre el valor que puede adoptar una variable dependiente cuantitativa, a partir del conocimiento de las puntuaciones de varias variables independientes cuantitativas.

Buscamos el plano que mejor se ajuste a la nube de puntos.

En la muestra estaría representado por

Y = b0 + b1X1 + b2X2 + b3X3 + ... + bkXk + e

En el caso de la población estaría representado por

Y = β0 + β 1X1 + β 2X2 + β 3X3 + ... + β kXk + ε

Condiciones de aplicación Pequeñas desviaciones en el cumplimiento de estas condiciones no invalidan los resultados obtenidos, pero deben hacer que interpretemos los resultados con más prudencia.

- el modelo está bien especificado

o la relación entre las variables independientes y la dependiente es lineal y aditiva;

o hemos incluido las variables importantes y sólo las importantes;

o ausencia de multicolinealidad: las variables explicativas tienen que ser independientes entre sí (no hay que incluir variables repetidas o que sean una combinación lineal de las mismas), podemos calcular correlaciones parciales y un diagnóstico de colinealidad para verificarlo;

- las variables están medidas sin error, sin errores sistemáticos;

Page 8: Análisis de Regresión

8

- los errores aleatorios deben cumplir una serie de condiciones (distribución normal, suma 0, varianza constante de σ2, de igual magnitud y varianza para todos los valores).

La presencia de multicolinealidad no afecta al poder explicativo o la fiabilidad del modelo resultante. Pero no aporta conclusiones válidas sobre cada predictor por separado, y puede infravalorar la relevancia de algunos de ellos.

Interpretación de los resultados La interpretación de los coeficientes de correlación, del análisis de varianza asociado y del coeficiente de determinación es similar.

La raíz cuadrada del coeficiente de determinación se conoce como coeficiente de correlación múltiple. Indica la medida de la relación existente entre la variable dependiente y el conjunto de variables independientes. Estrictamente mide la correlación entre la variable dependiente Yi y sus estimaciones Y’i.

El coeficiente de correlación parcial indica qué parte de la explicación total corresponde a cada variable independiente. Parcial = coeficiente de correlación de X2 parcializando (eliminando el efecto de) X1.

El orden en que se incluyan condicionará este coeficiente, sobre todo si hay una relación entre las variables independientes.

El coeficiente de correlación semiparcial es la raíz cuadrada del incremento del coeficiente determinación tras incluir una nueva variable en la ecuación de regresión.

El grado de significación de la t nos indica qué variables independientes no aportan mucho al modelo: las que tienen grados de significación más altos.

Los coeficientes estandarizados dan cuenta de la importancia relativa de cada predictor.

Si en el análisis de la colinealidad, una variable muestra una diferencia importante entre la correlación de orden cero y la correlación parcial, esto indica que una buena parte de su potencia explicativa es compartida con otras variables independientes. Es decir, una buena parte de la varianza que explica, es también explicada por otras variables.

El coeficiente de tolerancia indica qué porcentaje de la varianza de la variable independiente no es explicada por el resto de variables independientes. Cuando este porcentaje es bajo, una gran proporción de su varianza es explicada por otras, y estamos ante un problema de multicolinealidad. Un FIV (Factor de Inflación de la Varianza) >2 se considera problemático.

La presencia de muchos factores con autovalores (Eigenvalue) cercanos a 0 indican también la existencia de problemas de colinealidad.

Los índices de condición > 15 indican otro tanto.

Para afrontarlo podemos:

- utilizar puntuaciones tipificadas de la variable dependiente, y

- utilizar el método stepwise o de pasos sucesivos, para incluir solamente y progresivamente las variables más útiles.

Page 9: Análisis de Regresión

9

Podemos pedir un análisis de los residuos – diagnóstico por caso, identificando por ejemplo aquellos con una desviación de más de 2 desviaciones típicas.

La tabla de variables excluidas indica que variables podrían ser incluidas en los siguientes pasos. Beta dentro indica el valor del coeficiente estandarizado si se incluye a esa variable a continuación. Conviene fijarse en su grado de significación. Deberíamos incluir las variables con una correlación parcial más alta. Los sucesivos modelos en la tabla dan cuenta de la situación según se van incorporando predictores. Según se incorporan nuevos predictores, habrá otros que dejarán de ser significativos.

Ejemplos

Autoconcepto académico REGRESSION /MISSING LISTWISE /STATISTICS COEFF OUTS R ANOVA COLLIN TOL /CRITERIA=PIN(.05) POUT(.10) /NOORIGIN /DEPENDENT AUTO3 /METHOD=STEPWISE AUTO2 AUTO1 AUTO4 SELECTIVIDAD /SCATTERPLOT=(*SRESID ,*ZPRED ) . Variables introducidas/eliminadas(a)

Modelo Variables introducidas Variables

eliminadas Método 1 SELECTIVIDAD . Por pasos (criterio: Prob. de F para entrar <= ,050,

Prob. de F para salir >= ,100). 2 TOTAL DIMENSION SOCIAL

AUTOCONCEPTO . Por pasos (criterio: Prob. de F para entrar <= ,050, Prob. de F para salir >= ,100).

3 TOTAL DIMENSION FISICA AUTOCONCEPTO . Por pasos (criterio: Prob. de F para entrar <= ,050,

Prob. de F para salir >= ,100). a Variable dependiente: TOTAL AUTOCONCEPTO ACADEMICO Resumen del modelo(d)

Modelo R R cuadrado R cuadrado corregida

Error típ. de la estimación

1 ,539(a) ,291 ,289 ,601492 ,575(b) ,331 ,329 ,584673 ,588(c) ,345 ,341 ,57901

a Variables predictoras: (Constante), SELECTIVIDAD b Variables predictoras: (Constante), SELECTIVIDAD, TOTAL DIMENSION SOCIAL AUTOCONCEPTO c Variables predictoras: (Constante), SELECTIVIDAD, TOTAL DIMENSION SOCIAL AUTOCONCEPTO, TOTAL DIMENSION FISICA AUTOCONCEPTO d Variable dependiente: TOTAL AUTOCONCEPTO ACADEMICO ANOVA(d)

Modelo Suma de

cuadrados gl Media

cuadrática F Sig. 1 Regresión 75,188 1 75,188 207,824 ,000(a)

Residual 183,426 507 ,362 Total 258,613 508

2 Regresión 85,643 2 42,822 125,268 ,000(b) Residual 172,970 506 ,342 Total 258,613 508

3 Regresión 89,313 3 29,771 88,803 ,000(c) Residual 169,300 505 ,335

Page 10: Análisis de Regresión

10

Total 258,613 508 a Variables predictoras: (Constante), SELECTIVIDAD b Variables predictoras: (Constante), SELECTIVIDAD, TOTAL DIMENSION SOCIAL AUTOCONCEPTO c Variables predictoras: (Constante), SELECTIVIDAD, TOTAL DIMENSION SOCIAL AUTOCONCEPTO, TOTAL DIMENSION FISICA AUTOCONCEPTO d Variable dependiente: TOTAL AUTOCONCEPTO ACADEMICO Coeficientes(a)

Modelo

Coeficientes no estandarizados

Coeficientes estandarizados

t Sig.

Estadísticos de colinealidad

B Error típ. Beta B Error típ. 1 (Constante) ,514 ,189 2,726 ,007

SELECTIVIDAD ,417 ,029 ,539 14,416 ,000 1,000 1,0002 (Constante) -,468 ,255 -1,834 ,067

SELECTIVIDAD ,417 ,028 ,540 14,850 ,000 1,000 1,000TOTAL DIMENSION SOCIAL AUTOCONCEPTO

,253 ,046 ,201 5,530 ,000 1,000 1,000

3 (Constante) -,835 ,276 -3,027 ,003 SELECTIVIDAD

,421 ,028 ,545 15,120 ,000 ,998 1,002

TOTAL DIMENSION SOCIAL AUTOCONCEPTO

,200 ,048 ,159 4,167 ,000 ,889 1,124

TOTAL DIMENSION FISICA AUTOCONCEPTO

,155 ,047 ,126 3,309 ,001 ,888 1,126

a Variable dependiente: TOTAL AUTOCONCEPTO ACADEMICO Diagnósticos de colinealidad(a)

Modelo Dimensión Autovalor Indice de condición

Proporciones de la varianza TOTAL

DIMENSION SOCIAL AUTOCON

CEPTO

TOTAL DIMENSION FISICA

AUTOCONCEPTO (Constante)

SELECTIVIDAD

1 1 1,990 1,000 ,01 ,01 2 ,010 14,073 ,99 ,99

2 1 2,973 1,000 ,00 ,00 ,00 2 ,021 12,020 ,00 ,47 ,52 3 ,007 20,809 1,00 ,52 ,47

3 1 3,953 1,000 ,00 ,00 ,00 ,002 ,025 12,460 ,01 ,43 ,06 ,333 ,015 16,007 ,00 ,05 ,72 ,554 ,006 24,959 ,99 ,52 ,22 ,12

a Variable dependiente: TOTAL AUTOCONCEPTO ACADEMICO

Page 11: Análisis de Regresión

11

Regresión Residuo tipificado20-2-4

Frec

uenc

ia

60

40

20

0

Histograma

Variable dependiente: TOTAL AUTOCONCEPTO ACADEMICO

Media =1,34E-15�Desviación típica =0,997�

N =509

Prob acum observada1,00,80,60,40,20,0

Prob

acu

m e

sper

ada

1,0

0,8

0,6

0,4

0,2

0,0

Gráfico P-P normal de regresión Residuo tipificado

Variable dependiente: TOTAL AUTOCONCEPTO ACADEMICO

Page 12: Análisis de Regresión

12

Regresión Valor pronosticado tipificado420-2

Reg

resi

ón R

esid

uo b

orra

do (p

ulsa

r)

estu

dent

izad

o

2

0

-2

-4

Gráfico de dispersión

Variable dependiente: TOTAL AUTOCONCEPTO ACADEMICO

Ansiedad en los exámenes ¿Cuáles son las variables que mejor predicen el nivel de ansiedad en los exámenes? REGRESSION /MISSING LISTWISE /STATISTICS COEFF OUTS R ANOVA COLLIN TOL ZPP /CRITERIA=PIN(.05) POUT(.10) /NOORIGIN /DEPENDENT ANSIEDAD /METHOD=STEPWISE ESTADIST SOLEDA AUTO AUTO1 AUTO2 AUTO3 AUTO4 STUDIO SELECTIB /SCATTERPLOT=(*SDRESID ,*ZPRED ) /RESIDUALS HIST(ZRESID) NORM(ZRESID) . Variables introducidas/eliminadas(a)

Modelo Variables introducidas Variables eliminadas Método

1 TOTAL ESCALA CONFIANZA HACIA ESTADISTICA . Por pasos (criterio: Prob. de F para entrar <=

,050, Prob. de F para salir >= ,100).

2 TOTAL ESCALA DE AUTOCONCEPTO . Por pasos (criterio: Prob. de F para entrar <=

,050, Prob. de F para salir >= ,100).

3 TOTAL DIMENSION FISICA AUTOCONCEPTO . Por pasos (criterio: Prob. de F para entrar <=

,050, Prob. de F para salir >= ,100).

4 TOTAL ESCALA ACTITUDES HACIA CALIFICACIONES . Por pasos (criterio: Prob. de F para entrar <=

,050, Prob. de F para salir >= ,100). a Variable dependiente: TOTAL ESCALA DE ANSIEDAD ANTE EXAMENES Resumen del modelo(e)

Modelo R R cuadrado R cuadrado corregida

Error típ. de la estimación

1 ,317(a) ,101 ,099 ,638412 ,393(b) ,154 ,151 ,619673 ,407(c) ,166 ,161 ,616034 ,416(d) ,173 ,167 ,61391

a Variables predictoras: (Constante), TOTAL ESCALA CONFIANZA HACIA ESTADISTICA b Variables predictoras: (Constante), TOTAL ESCALA CONFIANZA HACIA ESTADISTICA, TOTAL ESCALA DE AUTOCONCEPTO

Page 13: Análisis de Regresión

13

c Variables predictoras: (Constante), TOTAL ESCALA CONFIANZA HACIA ESTADISTICA, TOTAL ESCALA DE AUTOCONCEPTO, TOTAL DIMENSION FISICA AUTOCONCEPTO d Variables predictoras: (Constante), TOTAL ESCALA CONFIANZA HACIA ESTADISTICA, TOTAL ESCALA DE AUTOCONCEPTO, TOTAL DIMENSION FISICA AUTOCONCEPTO, TOTAL ESCALA ACTITUDES HACIA CALIFICACIONES e Variable dependiente: TOTAL ESCALA DE ANSIEDAD ANTE EXAMENES ANOVA(e)

Modelo Suma de

cuadrados gl Media

cuadrática F Sig. 1 Regresión 23,155 1 23,155 56,812 ,000(a)

Residual 206,640 507 ,408 Total 229,795 508

2 Regresión 35,496 2 17,748 46,220 ,000(b) Residual 194,299 506 ,384 Total 229,795 508

3 Regresión 38,149 3 12,716 33,509 ,000(c) Residual 191,645 505 ,379 Total 229,795 508

4 Regresión 39,847 4 9,962 26,432 ,000(d) Residual 189,948 504 ,377 Total 229,795 508

a Variables predictoras: (Constante), TOTAL ESCALA CONFIANZA HACIA ESTADISTICA b Variables predictoras: (Constante), TOTAL ESCALA CONFIANZA HACIA ESTADISTICA, TOTAL ESCALA DE AUTOCONCEPTO c Variables predictoras: (Constante), TOTAL ESCALA CONFIANZA HACIA ESTADISTICA, TOTAL ESCALA DE AUTOCONCEPTO, TOTAL DIMENSION FISICA AUTOCONCEPTO d Variables predictoras: (Constante), TOTAL ESCALA CONFIANZA HACIA ESTADISTICA, TOTAL ESCALA DE AUTOCONCEPTO, TOTAL DIMENSION FISICA AUTOCONCEPTO, TOTAL ESCALA ACTITUDES HACIA CALIFICACIONES e Variable dependiente: TOTAL ESCALA DE ANSIEDAD ANTE EXAMENES Coeficientes(a)

Coe

ficie

ntes

no

etan

dariz

ados

C. E

stan

dariz

ados

Cor

rela

cion

es

Est

adís

ticos

de

colin

ealid

ad

Modelo B Error típ. Beta t sig

Sem

ipar

cia

l

Tole

ranc

ia

FIV B Error típ.

1

(Constante) 3,842 ,105 36,688 ,000

TOTAL ESCALA CONFIANZA HACIA ESTADISTICA -,246 ,033 -

,317 -7,537 ,000 -,317

-,317

-,317 1,000 1,000

2

(Constante) 5,070 ,239 21,198 ,000 TOTAL ESCALA CONFIANZA

HACIA ESTADISTICA -,194 ,033 -,251 -5,892 ,000 -

,317 -

,253 -

,241 ,923 1,083

TOTAL ESCALA DE AUTOCONCEPTO -,378 ,067 -

,241 -5,669 ,000 -,311

-,244

-,232 ,923 1,083

3 (Constante) 4,987 ,240 20,794 ,000

Page 14: Análisis de Regresión

14

TOTAL ESCALA CONFIANZA HACIA ESTADISTICA -,190 ,033 -

,244 -5,771 ,000 -,317

-,249

-,235 ,920 1,086

TOTAL ESCALA DE AUTOCONCEPTO -,510 ,083 -

,326 -6,145 ,000 -,311

-,264

-,250 ,588 1,700

TOTAL DIMENSION FISICA AUTOCONCEPTO ,157 ,059 ,136 2,644 ,008 -

,094 ,117 ,107 ,627 1,595

4

(Constante) 4,850 ,248 19,590 ,000 TOTAL ESCALA CONFIANZA

HACIA ESTADISTICA -,187 ,033 -,241 -5,715 ,000 -

,317 -

,247 -

,231 ,919 1,088

TOTAL ESCALA DE AUTOCONCEPTO -,555 ,085 -

,354 -6,501 ,000 -,311

-,278

-,263 ,552 1,813

TOTAL DIMENSION FISICA AUTOCONCEPTO ,174 ,060 ,151 2,917 ,004 -

,094 ,129 ,118 ,615 1,625

TOTAL ESCALA ACTITUDES HACIA CALIFICACIONES ,078 ,037 ,089 2,123 ,034 ,009 ,094 ,086 ,936 1,068

a Variable dependiente: TOTAL ESCALA DE ANSIEDAD ANTE EXAMENES Diagnósticos de colinealidad(a)

Modelo Dimensión Autovalor Indice de condición

1 1 1,963 1,000 2 ,037 7,265 2 1 2,947 1,000 2 ,046 8,017 3 ,007 20,952 3 1 3,928 1,000 2 ,054 8,529 3 ,013 17,416 4 ,005 26,781 4 1 4,875 1,000 2 ,065 8,664 3 ,043 10,590 4 ,012 20,582 5 ,005 30,106

Page 15: Análisis de Regresión

15

Regresión Residuo tipificado3210-1-2-3

Frec

uenc

ia

60

40

20

0

Histograma

Variable dependiente: TOTAL ESCALA DE ANSIEDAD ANTE EXAMENES

Media =-0,01�Desviación típica =1,003�

N =563

Prob acum observada1,00,80,60,40,20,0

Prob

acu

m e

sper

ada

1,0

0,8

0,6

0,4

0,2

0,0

Gráfico P-P normal de regresión Residuo tipificado

Variable dependiente: TOTAL ESCALA DE ANSIEDAD ANTE EXAMENES

Page 16: Análisis de Regresión

16

Regresión Valor pronosticado tipificado420-2-4

Reg

resi

ón R

esid

uo b

orra

do (p

ulsa

r)

estu

dent

izad

o

3

2

1

0

-1

-2

-3

Gráfico de dispersión

Variable dependiente: TOTAL ESCALA DE ANSIEDAD ANTE EXAMENES