“AÑO DE LA PROMOCIÓN DE LA INDUSTRIA RESPONSABLE Y DEL COMPROMISO CLIMÁTICO”
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
(UNIVERSIDAD DEL PERÚ, DECANA DE A MÉRICA)
FACULTAD DE CIENCIAS ADMINISTRA ADMINISTRATIVAS TIVAS E.A.P. ADMINISTRA ADMINISTRACION CION
TEMA: INFORME DE LABORATORIO LABORATORIO REGRESIÓN LINEAL MULTIPLE
ASIGNATURA: ASIGNATURA: ESTADISTICA APLICADA.
DOCENTE: VICENTE ARMAS, EDGAR.
ALUMNO:
ANDRADE NATO, HUDSON ALAIN.
CICLO: IV
TURNO: TARDE
AÑO: 2014
1
DEDICATORIA
A n ues tras al egrías y pen as, for talezas y debilid ades, armo nía y angu stias, p asiones y m iedos, inspiración y desesperación, desesperación, porque Son estas las qu e reflejan reflejan nuestro lado m ás h um ano .
2
Introducción………………………………………………………………………… ...............................4
1.- ¿Cuáles son las condiciones que requiere para construir un modelo de regresión lineal múltiple?.........................................................................................................................................5 2.- Construir un modelo de regresión múltiple que debemos considerar para efectos de realizar el promedio……………………………………………………………………………………………………. 7 3.- ¿En qué consiste un problema de auto correlación? ……………………………………………… 8 4.- ¿En qué consiste un problema de multicolinealidad?...............................................................9 5.- Ejercicios utilizados en el laboratorio ¿Cuáles serían un modelo de regresión múltiples y cuales ………………………………………………………………………… ……………………… 10 una de regresión lineal simple?………………………………………………… os……………………………………………… … 35 6.-Gráficos el diagrama de la regresión múltiples válid os……………………………………………
7.- ¿Cuáles son sus comentarios d e los ejercicios?…………………………………………………… 38 Conclusiones y Recomndaciones………...................................................................................... 39 Referencias Bibliográficas………………………………………………………………………………… 40
3
INTRODUCCIÓN
En la actualidad, se sabe que la interpretación de las decisiones gerenciales bajo incertidumbre y, en general, de las distintas ciencias, dependen en gran parte de los métodos estadísticos. En muchas situaciones se requiere información acerca de grupos grandes de elementos; pero, debido al tiempo, costo y a otras consideraciones, solo es posible recolectar los datos de una pequeña parte de este grupo, aplicando así la técnica del muestreo. Los gerentes y profesionales, en general, necesitan justificar sus decisiones basándose en la información proporcionada por los resultados. La estadística ayuda a tomar decisiones económicas, por ejemplo, bajo incertidumbre, a predecir con eficacia pautas de comportamiento de las variables, e incluso nos ayuda a crear modelos sobre los que basar dichas decisiones. En definitiva, se trata de utilizar la estadística como una herramienta diferenciadora respecto de la competencia para poder generar una ventaja competitiva mediante la toma de decisiones estratégicas. En el presente informe de laboratorio procederá a la resolución de problemas que ejemplifican casos con los cuales los gerentes se encuentran de manera cotidiana, haciendo uso de análisis de regresión lineal múltiple, mediante en el cuál obtendremos los resultados en datos que servirán para poder crear pronósticos los cuales nos ayuden a tener una efectiva toma de decisiones.
4
1.- ¿Cuáles son las condiciones que se requiere para construir un modelo de regresión múltiple? Debemos de identificar a la variable Endógena y luego a las variables Exógenas, las variables endógenas, son aquellas que dependen de otras variables o mejor dicho, es explicada por otras, sin las variables indepe ndientes “X” no habría razón de “Y”. Una vez identificada la variable independiente y las variables independientes, debemos asegurarnos de que no haya problemas de multicolinealidad, es decir, no debe haber dependencia entre las variables independientes.
Luego podemos construir el modelo de regresión múltiple , identificando los coeficientes de cada variable, para esto nos apoyamos en el SPSS, la cual nos arroja estos coeficientes.
5
Coeficientesa Coeficie ntes Coeficientes no estandar Estadísticas de estandarizados izados colinealidad Error Toleran B estándar Beta t Sig. cia VIF 17,865 1,935 9,232 ,000
Modelo 1 (Constante) Gravedad ,861 1,087 Específica Contenido de -,654 ,197 Humedad a. Variable dependiente: Fuerza Y
,190
,792
,454
,965
1,037
-,795
3,313
,013
,965
1,037
Gracias a la ayuda del SPSS podemos construir nuestro modelo, que es el siguiente:
FUERZA (Y) = 17,8655 + 0,861(Gravedad Específica X1) – 0,654(Contenido de Humedad X2) Interpretación: Ante el incrementa en una unidad de la gravedad específica, la Fuerza incrementa en 17,865 unidades, mientras todas las demás variables permanecen constantes, igual con las demás variables.
6
2.- Construido el modelo de regresión múltiple, ¿qué debemos considerar para hacer el pronóstico? Una vez construido nuestro modelo, debemos de realizar las pruebas de hipótesis de la prueba de Beta ( 1) y de la prueba de la confiabilidad del modelo. Para tales pruebas, elaboramos nuestra Tabla con los valores de beta, sus valores, Las “T” calculadas, el nivel de confianza, etc.
VALOR 0,861 -0,654
β Β1 Β2
Tc(n-k) k=3 ±2.365 ±2.365
T0 0,792 -3,313
αc
α0
5% 5%
45,5% 1,3%
H0 Acepta Rechaza
Prueba de βi:
H0: Bi = 0 H1: B1 ≠ 0, por lo menos 1. N: 10 Rechazamos H0 y aceptamos H1 por lo tanto existe el modelo lineal múltiple entre fuerza y gravedad, humedad. Realizada la prueba de βi, realizamos la prueba de la confiabilidad de nuestro modelo,
nos apoyamos de la tabla ANOVA.
Prueba de Confiabilidad del modelo: H0: El modelo no es confiable H1: El modelo es confiable. ANOVAa Suma de Modelo 1
cuadrados
Media gl
cuadrática
Regresión
3,246
2
1,623
Residuo
2,064
7
,295
Total
5,310
9
a. Variable dependiente: Fuerza Y b. Predictores: (Constante), Contenido de Humedad , Gravedad Específica
7
F 5,504
Sig. ,037b
CONCEPTO FC F 4,74
F0 5,504
αC
α0
5%
3,7%
H0 RECHAZAMOS
Dado que rechazamos H0, aceptamos como confiable a nuestro modelo, por consiguiente, podemos realizar el pronóstico.
3.- ¿En qué consiste un problema de auto correlación? El problema de autocorrelación consiste en la relación que puede existir entre las variables independientes de nuestro modelo a largo plazo, para ello tenemos que realizar distintas pruebas, y si existe una correlación entre las variables independientes, tenemos que evaluar cual guarda mayor relación con nuestra variable dependiente, para considerarla en el modelo y eliminando la que tenga menor relación con la variable dependiente. Con la presencia de autocorrelación los estimadores obtenidos con mínimos cuadrados ordinarios dejan de ser MELI, en el sentido que dejan de ser aquellos con varianza mínima, aun cuando sean insesgados. En consecuencia se tendría como principales problemas:
Estimadores poco eficientes Invalidez de las pruebas de contraste usuales
Ignorar el problema de la autocorrelación lleva a que las pruebas t y F dejen de ser válidas ya que muy probablemente arrojen conclusiones erradas. Debido a que la matriz de varianzas y covarianzas estarán erradas. No se debe dejar de considerar ciertos aspectos al analizar el problema:
En la practica el ρ no se conoce por lo tanto hay que estimarlo y esto genera
pérdidas de grados de libertad, el problema, en muestras pequeñas, es relevante si el ρ estimado es mayor a 0,3 cuando el proceso es autorregres ivo de primer orden. Si la estructura de autorregresión de los errores es más compleja no se debe ignorar el problema ni asumir supuestos heroicos. En series con datos mensuales (o trimestrales) pueden surgir procesos autorregresivos de duodécimo (o cuarto) orden y no detectar por tanto el proceso si se realizan pruebas de contraste de primer orden Es posible confundir una mala especificación con un proceso autorregresivo.
8
4.- ¿En qué consiste un problema de multicolinealidad? El problema de multicolinealidad hace referencia, en concreto, a la existencia de relaciones aproximadamente lineales entre las variables independientes del modelo, cuando los estimadores obtenidos y la precisión de éstos se ven seriamente afectados. El principal inconveniente de la multicolinealidad consiste en que se incrementan la varianza de los coeficientes de regresión estimados hasta el punto que resulta prácticamente imposible establecer su significación estadística, ya que como se sabe, el valor de t para un determinado coeficiente de regresión es el valor de dicho coeficiente dividido por su desviación típica. Si este es grande, el valor de t será bajo y no llegara a la significación. El SPSS adopta varios procedimientos para detectar multicolinealidad entre los predictores. El primero de ellos, basado en la correlación múltiple de un determinado regresor con los restantes se denomina Tolerancia de dicho regresor. Su valor es:
Siendo la correlación múltiple al cuadrado de dicho regresor con los restantes. Para que haya multicolinealidad dicha correlación ha de ser alta, o lo que es lo mismo la tolerancia baja. Además otro índice relacionado con éste y que nos da una idea del grado de aumento de la varianza se denomina Factor de Inflación de la Varianza, y es precisamente el recíproco de la tolerancia. Su valor es:
Para que no haya multicolinealidad el denominador tiene que valer cerca de la unidad, por tanto un poco más de 1 el valor de VIF. Cuanto mayor sea de este valor mayor multicolinealidad habrá. Y utilizando Durwin - Watson, podemos notar si existe multicolinealidad entre las variables o no.
Resumen del modelob
Modelo
R
1
,782a
R cuadrado
R cuadrado ajustado
Error estándar de la estimación
DurbinWatson
,611
,500
,54304
2,550
a. Predictores: (Constante), Contenido de Humedad , Gravedad Específica b. Variable dependiente: Fuerza Y
Durwin - Watson nos dice que existe relación entre las variables independientes hasta el número 2.50, en nuestro caso y en este ejercicio, nos da un valor igual a 2.550, por consiguiente no hay relación entre las variables independientes en el corto plazo, viéndose afectado quizás este análisis en el largo plazo.
9
5.- Ejercicios utilizados en el laboratorio ¿Cuáles serían un modelo de regresión múltiples y cuales una de regresión lineal simple?
EJERCICIO 1: Y1: Valor de tasación del edifico e oficinas. X1: Superficie en metros cuadrados. X2: Número de oficinas X3: Número de accesos. X4: Antigüedad del edificio, en años
Resumen del modelob
Modelo
R
1
,663a
R cuadrado ,440
R cuadrado ajustado ,066
Error estándar de la estimación 63040,120
DurbinWatson 2,328
a. Predictores: (Constante), ANTIGÜEDAD EN AÑOS, ACCESO EN UNIDADES, OFICINAS EN UNIDADES, SUPERFICIE METROS EN CUADRADOS b. Variable dependiente: VALOR EN UNIDADES MONETARIAS
Autocorrelación: Para ver si estas variables tienen un problema de autocorrelación observamos el estadístico Durbin – Watson, este coeficiente debe estar entre 1.5 y 2.5 para que no muestre problemas. En este caso el Durbin - Watson es de 2,328 lo que muestra un tipo de autocorrelación son independientes.
10
Coeficientesa
Coeficientes no estandarizados B
Error estándar
1244846,8 49
654115,97 7
SUPERFICIE METROS EN CUADRADOS
-509,373
290,281
OFICINAS EN UNIDADES
30683,892
ACCESO EN UNIDADES
Modelo 1
(Constante)
ANTIGÜEDAD EN AÑOS
Coeficiente s estandariza dos Beta
Estadísticas de colinealidad t
Sig.
Toleranci a
VIF
1,903
,106
-,690
-1,755
,130
,603
1,657
25981,058
,381
1,181
,282
,899
1,112
26437,452
33730,064
,315
,784
,463
,578
1,731
328,506
846,196
,123
,388
,711
,927
1,078
a. Variable dependiente: VALOR EN UNIDADES MONETARIAS
VIF: Es aceptable, podemos decir que no hay problemas de multicolinealidad en el corto plazo. Tenemos como Ecuación de nuestro Modelo:
Valor de tasación del edificio de oficinas (Y) =1244846,849 – 509.373(Superficie)+ 30683.892 (oficinas) + 26437.452 (acceso de unidades) + 328.506 (antigüedad) En este ejercicio, podemos asegurar que es un modelo de Regresión múltiple, pues no hemos eliminado ninguna de las variables independientes.
11
EJERCICIO 2: Y1: % de las ventas con respecto al mes anterior X1: Mes X2: Inversión en Propaganda (en millones de $)
Resumen del modelob
Modelo
R
1
,968a
R cuadrado ,937
R cuadrado ajustado ,919
Error estándar de la estimación
DurbinWatson
5,3568
2,002
a. Predictores: (Constante), Inversion en propaganda ( en millones de $), Mes b. Variable dependiente: Ventas con respecto al mes anterior (%)
Autocorrelación: Para ver si estas variables tienen un problema de autocorrelación observamos el estadístico Durbin – Watson, este coeficiente debe estar entre 1.5 y 2.5 para que no muestre problemas. En este caso el Durbin - Watson es de 2,002 lo que muestra un tipo de autocorrelación son independientes.
12
Coeficientesa Coeficiente s estandariz ados
Coeficientes no estandarizados Error estándar
Modelo
B
1
(Constante)
68,130
13,417
Mes
-4,183
,965
Inversión en propaganda ( en millones de $)
3,597
1,631
Beta
Estadísticas de colinealidad t
Sig.
Toleranci a
VIF
5,078
,001
-,674
-4,337
,003
,374
2,675
,343
2,205
,063
,374
2,675
a. Variable dependiente: Ventas con respecto al mes anterior (%)
VIF: 2,675 es aceptable, podemos decir que no hay problemas de multicolinealidad en el corto plazo. Tenemos como Ecuación de nuestro Modelo:
Ventas con respecto al mes anterior (Y) = 68.130 – 4,183 (Mes)+ 3,597(Inversión en propaganda) En este ejercicio, podemos asegurar que es un modelo de Regresión múltiple, pues no hemos eliminado ninguna de las variables independientes.
13
Ejercicio 3: Y1: Remuneración por hora (en dólares). X1: Tasa de Desempleo (en %). X2: Tiempo (en años)
Y= f(x1, x2) Resumen del modelob
Modelo
R
1
,965a
R cuadrado ,931
R cuadrado ajustado ,917
Error estándar de la estimación
DurbinWatson
,12570
1,214
a. Predictores: (Constante), Tiempo (en años), Tasa de desempleo (en %) b. Variable dependiente: Remuneración por hora (en dólares)
Autocorrelación: Para ver si estas variables tienen un problema de autocorrelación observamos el estadístico Durbin – Watson, este coeficiente debe estar entre 1.5 y 2.5 para que no muestre problemas. En este caso el Durbin - Watson es de 1,214 lo que muestra un tipo de autocorrelación son independientes.
Coeficientesa
14
Coeficientes no estandarizados Error estándar
Coeficient es estandariz ados
Beta
Modelo
B
1
1,800
,135
Tasa de desempleo (en %)
,031
,022
,118
Tiempo (en años)
,109
,009
(Constante)
Estadísticas de colinealidad t
Sig.
Toleranc ia
FIV
13,332
,000
1,409
,189
,984
1,016
,972 11,574
,000
,984
1,016
a. Variable dependiente: Remuneración por hora (en dólares)
VIF: 1,016 es aceptable, podemos decir que no hay problemas de multicolinealidad en el corto plazo. Tenemos como Ecuación de nuestro Modelo:
Remuneración por hora (Y) = 1,800 + 0,031 (Tasa de empleo) + 0,109 (Tiempo) En este ejercicio, podemos asegurar que es un modelo de Regresión múltiple, pues no hemos eliminado ninguna de las variables independientes.
Ejercicio 4: Y1: Utilidad total mensual de la empresa. X1: % De oferta sobre la demanda. X2: Variación Mensual de IPC. X3: Variación Mensual en Precio otras Empresas. X4: Precio por Acción.
15
Resumen del modelob
Modelo
R
1
,965a
R cuadrado
R cuadrado ajustado
,932
Error estándar de la estimación
,658
DurbinWatson
,6980
1,233
a. Predictores: (Constante), Precio por Acción, Variación Mensual de IPC, Variación en precio otras empresas, % de oferta sobre la demanda b. Variable dependiente: Utilidad total mensual de la empresa
Autocorrelación: Para ver si estas variables tienen un problema de autocorrelación observamos el estadístico Durbin – Watson, este coeficiente debe estar entre 1.5 y 2.5 para que no muestre problemas. En este caso el Durbin - Watson es de 1,233 lo que muestra un tipo de autocorrelación son independientes.
Coeficientesa
Coeficientes no estandarizados Error estándar
Coeficient es estandari zados
B
1
(Constante)
3,358
3,397
,989
,504
% de oferta sobre la demanda
-,432
,431
-1,241 -1,001
,500
,045
22,434
,685
1,633
,157
,419
,747
,489
2,044
-,247
,657
-,429
-,376
,771
,052
19,056
,001
,014
,079
,072
,954
,057
17,453
Variación en precio otras empresas Precio por Acción
t
Sig.
Toleranc ia
Modelo
Variación Mensual de IPC
Beta
Estadísticas de colinealidad VIF
a. Variable dependiente: Utilidad total mensual de la empresa Notamos que hay VIF> 10, por lo tanto, hay un claro problema de multicolinealidad, pero el VIF de “Variación Mensual de IPC” es 2,044 por lo tanto podemos aceptarlo. Por lo tanto, solo debemos someter a prueba a las otras 3 variables independientes.
16
Correlaciones Parciales Correlación Parcial Utilidad Y Ofertas X1 VariaciónPrecios X2 y Precio por Acción X4 Correlaciones Utilidad total mensual de la empresa
Variables de control Precio por Acción Utilidad total mensual de Correlación la empresa Significación (2 colas) gl % de oferta sobre la demanda
Correlación Significación (2 colas) gl
Variación en precio otras Correlación empresas Significación (2 colas) gl
% de oferta sobre la demanda
Variación en precio otras empresas
1,000
-,609
,260
.
,276
,672
0
3
3
-,609
1,000
-,744
,276
.
,149
3
0
3
,260
-,744
1,000
,672
,149
.
3
3
0
Correlación Parcial Utilidad Y Ofertas X1 Valor por acciónX4 y Variación de Precios X2 Correlaciones Utilidad total mensual de la empresa
Variables de control Variación en precio otras empresas
Utilidad total mensual de la empresa
% de oferta sobre la demanda
Correlación
-,700
,519
Significación (2 colas)
.
,188
,370
gl
0
3
3
-,700
1,000
-,360
,188
.
,552
3
0
3
Correlación
,519
-,360
1,000
Significación (2 colas)
,370
,552
.
3
3
0
Correlación Significación (2 colas)
gl
17
Precio por Acción
1,000
gl Precio por Acción
% de oferta sobre la demanda
Correlación Parcial Utilidad Y Valor por acción X4 Variación Precios X2 y Ofertas sobre la demanda X1
Correlaciones Utilidad total Variación en mensual de precio otras la empresa empresas
Variables de control % de oferta sobre la demanda
Utilidad total mensual de la empresa
Variación en precio otras empresas
Correlación
1,000
-,236
,294
Significación (2 colas)
.
,702
,631
gl
0
3
3
-,236
1,000
,317
,702
.
,603
3
0
3
Correlación
,294
,317
1,000
Significación (2 colas)
,631
,603
.
3
3
0
Correlación Significación (2 colas) gl
Precio por Acción
Precio por Acción
gl
Notamos que existe correlación negativa entre la variable utilidad y ofertas :-0,236, por lo tanto, eliminamos esta variable y nos quedamos con las otras 3 variables independientes , quedándonos como modelo , una ecuación con 3 variables independientes , es decir , es un modelo de regresión múltiple.
UTILIDADES (Y) = 3,358 + 0,685(x2) – 0,247(X3) + 0,001(X4)
18
EJERCICIO 5: Y1: Consumo diario de petróleo. X1: Número de horas- maquina X2: Distancia de transportes. X3: Rendimiento promedio motores.
Resumen del modelob
Modelo
R
1
1,000a
R cuadrado ,999
R cuadrado ajustado ,999
Error estándar de la estimación 83,109
DurbinWatson 1,952
a. Predictores: (Constante), Rendimiento promedio motores, Numero de horasmaquinas, Distancia de transportes b. Variable dependiente: Consumo diario de petroleo
Autocorrelación: Para ver si estas variables tienen un problema de autocorrelación observamos el estadístico Durbin – Watson, este coeficiente debe estar entre 1.5 y 2.5 para que no muestre problemas. En este caso el Durbin - Watson es de 1,952 lo que muestra un tipo de autocorrelación son independientes.
19
Coeficientesa Coeficient es estandariz ados
Coeficientes no estandarizados Modelo 1
Error estándar
B
(Constante) Número de horasmaquinas Distancia de transportes Rendimiento promedio motores
-18,426
59,451
7,424
2,976
,331 -3,629
Beta
Estadísticas de colinealidad t
Sig.
Toleranci a
VIF
-,310
,769
,348
2,495
,055
,007
134,042
,071
,652
4,646
,006
,007
135,619
23,932
-,002
-,152
,885
,702
1,425
a. Variable dependiente: Consumo diario de petroleo Notamos que hay VIF> 10, por lo tanto, hay un claro problema de multicolinealidad, pero el VIF de “Rendimiento promedio de motores” es 1,425 por lo tanto podemos aceptarlo. Por lo tanto, solo debemos someter a prueba a las otras 3 variables independientes.
Correlaciones Parciales Correlación Parcial Consumo diario de petróleo Y, Número de horas- maquinas X1 y Distancia de transportes X2 Correlaciones Consumo diario de petróleo
Variables de control Número de horasmaquinas
Consumo diario de petróleo Distancia de transportes
Correlación
1,000
,903
Significación (2 colas)
.
,002
gl
0
6
Correlación
,903
1,000
Significación (2 colas)
,002
.
6
0
gl
20
Distancia de transportes
Correlación Parcial Consumo diario de petróleo Y, Distancia de transportes X2 y Número de horas- maquinas X1
Correlaciones Consumo diario de petroleo
Variables de control Distancia de transportes Consumo diario de petróleo Número de horasmaquinas
Correlación
Número de horasmaquinas
1,000
,743
Significación (2 colas)
.
,035
gl
0
6
Correlación
,743
1,000
Significación (2 colas)
,035
.
6
0
gl
Notamos que existe correlación positiva entre las variables independientes, por lo tanto, nos quedándonos como modelo de una ecuación con 3 variables independientes, es decir, es un modelo de regresión múltiple.
Consumo (Y) = -18,426+ 7,424 (x1) +0,331 (x2) – 3,629 (x3)
EJERCICIO 6: Y1: Comportamiento favorable. X1: El paso del tiempo (en años). X2: la utilidad anual de la empresa (en millones de $) X3: la variación acumulada anual del IPC X4: El reajuste anual promedio de la competencia (en %)
21
Resumen del modelob
Modelo
R
1
,813a
Error estándar de la estimación
R cuadrado ajustado
R cuadrado ,661
-,017
DurbinWatson
8,0051
1,972
a. Predictores: (Constante), el reajuste anual promedio de la competencia, la variacion acumulada anual del IPC (en %), El paso del tiempo (en años), La utilidad anual de la empresa (en millones) b. Variable dependiente: Comportamiento favorable
Autocorrelación: Para ver si estas variables tienen un problema de autocorrelación observamos el estadístico Durbin – Watson, este coeficiente debe estar entre 1.5 y 2.5 para que no muestre problemas. En este caso el Durbin - Watson es de 1,972 lo que muestra un tipo de autocorrelación son independientes
Coeficientesa Coeficiente s estandariza dos
Coeficientes no estandarizados Modelo 1
Error estándar
B
(Constante)
-15,039
47,530
El paso del tiempo (en años)
2,236
2,943
La utilidad anual de la empresa (en millones)
-,519
la variación acumulada anual del IPC (en %) el reajuste anual promedio de la competencia
t
Sig.
Tolerancia
VIF
-,316
,782
,608
,760
,527
,264
3,784
,759
-,620
-,683
,565
,206
4,852
,466
1,684
,252
,277
,808
,204
4,891
1,040
1,301
,676
,799
,508
,237
4,220
a. Variable dependiente: Comportamiento favorable
22
Beta
Estadísticas de colinealidad
VIF: Es aceptable, podemos decir que no hay problemas de multicolinealidad en el corto plazo. Tenemos como Ecuación de nuestro Modelo:
(Y) =-15,039 – 2,236 (x1) – 0,519 (x2) + 0,466 (x3) + 1,040 (x4) En este ejercicio, podemos asegurar que es un modelo de Regresión múltiple, pues no hemos eliminado ninguna de las variables independientes.
EJERCICIO 7: Y1: Gastos en alimentación de una familia. X1: Ingresos mensuales. X2: Número de miembros de la familia.
Resumen del modelob
Modelo
R
1
,974a
R cuadrado ,950
R cuadrado ajustado ,941
Error estándar de la estimación ,07751
DurbinWatson 1,177
a. Predictores: (Constante), Número de miembros de la familia, Ingresos mensuales b. Variable dependiente: Gastos en alimentación de una familia
Autocorrelación: Para ver si estas variables tienen un problema de autocorrelación observamos el estadístico Durbin – Watson, este coeficiente debe estar entre 1.5 y 2.5 para que no muestre problemas. En este caso el Durbin - Watson es de 1,177 lo que muestra un tipo de autocorrelación son independientes.
23
Coeficientesa
Coeficientes no estandarizados Modelo 1
Error estándar
B
Coeficient es estandariz ados Beta
Estadísticas de colinealidad t
Sig.
Toleranci a
VIF
(Constante)
-,160
,090
-1,775
,101
Ingresos mensuales
,149
,010
1,044 14,915
,000
,857
1,166
Número de miembros de la familia
,077
,020
,002
,857
1,166
,268
3,825
a. Variable dependiente: Gastos en alimentación de una familia
VIF: 1,166 es aceptable, podemos decir que no hay problemas de multicolinealidad en el corto plazo. Tenemos como Ecuación de nuestro Modelo:
(Y) =-0,160 +0,149 (x1) 0,077 (x2) En este ejercicio, podemos asegurar que es un modelo de Regresión múltiple, pues no hemos eliminado ninguna de las variables independientes
24
EJERCICIO 8: Y1: Temperatura (en °F) X1: Latitud X2: Altitud (en pies). X3: Longitud de la estación.
Resumen del modelob
Modelo
R
1
,912a
R cuadrado ,832
R cuadrado ajustado
Error estándar de la estimación
,731
4,096
DurbinWatson 1,726
a. Predictores: (Constante), Longitud, Latitud, Altitud en pies b. Variable dependiente: Temperatura en °F
Autocorrelación: Para ver si estas variables tienen un problema de autocorrelación observamos el estadístico Durbin – Watson, este coeficiente debe estar entre 1.5 y 2.5 para que no muestre problemas. En este caso el Durbin - Watson es de 1,726 lo que muestra un tipo de autocorrelación son independientes.
25
Coeficientesa Coeficiente s estandariza dos
Coeficientes no estandarizados Error estándar
Modelo
B
1
(Constante)
72,467
157,229
Latitud
-1,679
1,040
Altitud en pies
-,003
Longitud
,328
Beta
Estadísticas de colinealidad t
Sig.
Tolerancia
VIF
,461
,664
-,528
-1,615
,167
,315
3,179
,004
-,580
-,813
,453
,066
15,119
1,390
,138
,236
,823
,098
10,183
a. Variable dependiente: Temperatura en °F Notamos que hay VIF> 10, por lo tanto, hay un claro problema de multicolinealidad, pero el VIF de “Latitud” es 3,179 por lo tanto podemos aceptarlo. Por lo tanto, solo debemos someter a prueba a las otras 2 variables independientes.
CORRELACIONES PARCIALES
Correlaciones Temperatura en °F
Variables de control Altitud en pies Temperatura en °F Correlación
Longitud
1,000
,553
Significación (2 colas)
.
,155
gl
0
6
Correlación
,553
1,000
Significación (2 colas)
,155
.
6
0
gl
26
Longitud
Correlaciones Temperatura en °F
Variables de control Longitud
Temperatura en °F Correlación
Altitud en pies
Altitud en pies
1,000
-,786
Significación (2 colas)
.
,021
gl
0
6
Correlación
-,786
1,000
Significación (2 colas)
,021
.
6
0
gl
Notamos que existe correlación negativa entre la variable temperatura y altitud de pies :-0,786, por lo tanto, eliminamos esta variable y nos quedamos con las otras 1 variable independiente , quedándonos como modelo , una ecuación con 2 variables independientes , es decir , es un modelo de regresión múltiple.
TEMPERATURA (Y) = 72,467 -1,679 (x1) + 0,038 (X3)
EJERCICIO 9: Y1: Tasa de respiración (n° moles O2 /(g.min ). X1: Potasio (ppm). X2: Zinc (ppm)
27
Ahora pasaremos a analizar estos modelos gracias al SPSS, a continuación mostramos los resultados: Resumen del modelob Modelo
R
R cuadrado
1
,921a
R cuadrado corregida
,848
Error típ. de la estimación
,798
DurbinWatson
8,172
2,109
a. Variables predictoras: (Constante), zinc, potasio b. Variable dependiente: tasa de respiración
Autocorrelación: Para ver si estas variables tienen un problema de autocorrelación observamos el estadístico Durbin – Watson, este coeficiente debe estar entre 1.5 y 2.5 para que no muestre problemas. En este caso el Durbin - Watson es de 2,109 lo que muestra un tipo de autocorrelación son independientes.
Coeficientesa Modelo
Coeficientes no estandarizados
B
Error típ.
(Constante 101,08 ) 8
18,866
-,040
,034
-,004
,001
1potasio zinc
Coeficie ntes tipificado s
t
Sig.
Beta
Correlaciones
Orden cero
Parcial
Estadísticos de colinealidad
Semi parcial
Toleranci a
FIV
5,358
,002
-,373
1,178
,283
,686
-,433
-,187
,252
3,970
-1,225
3,867
,008
-,902
-,845
-,615
,252
3,970
VIF: 3,970 es aceptable, podemos decir que no hay problemas de multicolinealidad en el corto plazo. Tenemos como Ecuación de nuestro Modelo:
(Y) = 101,088 - 0,040 (Potasio) - 0,004 (Zinc) En este ejercicio, podemos asegurar que es un modelo de Regresión múltiple, pues no hemos eliminado ninguna de las variables independientes.
28
Ejercicio 10: Y1: Duración de vida de ciertos circuitos electrónicos. X1: Variable de fabricación. X2: Variable de fabricación
Resumen del modelob Modelo
R
1
,980a
R cuadrado
R cuadrado corregida
,961
,935
Error típ. de la estimación 6,245
DurbinWatson 2,346
a. Variables predictoras: (Constante), Variable2, Variable1 b. Variable dependiente: Duración de vida
Autocorrelación: Para ver si estas variables tienen un problema de autocorrelación observamos el estadístico Durbin – Watson, este coeficiente debe estar entre 1.5 y 2.5 para que no muestre problemas. En este caso el Durbin - Watson es de 2,346 lo que muestra un tipo de autocorrelación son independientes.
29
Coeficientesa Modelo
Coeficientes no estandarizados B
1
Coeficientes tipificados
Error típ.
(Constant e)
31,500
2,550
Variable1
1,775
,312
Variable2
4,050
,624
t
Sig.
Beta
Estadísticos de colinealidad Tolerancia
FIV
12,355
,001
,646
5,685
,011
1,000
1,000
,737
6,485
,007
1,000
1,000
a. Variable dependiente: Duración de vida
MULTICOLINEALIDAD: Para ver la multicolinealidad de este ejercicio observamos el FIV, si el FIV es igual a 1 entonces no muestra problemas de multicolinealidad y para este caso, nuestra FIV es igual a 1 lo que indica que este ejercicio no tiene problemas de multicolinealidad. Tenemos como Ecuación de nuestro Modelo:
Tiempo de vida (Y) = 31,500+ 1,775 (Variable 1) + 4,050 (Variable 2) En este ejercicio, podemos asegurar que es un modelo de Regresión múltiple, pues no hemos eliminado ninguna de las variables independientes.
EJERCICIO 11: Y1: Fuerza. X1: Gravedad Específica. X2: Contenido de humedad.
30
Resumen del modelob Error R R cuadrado estándar de DurbinModelo R cuadrado ajustado la estimación Watson 1 ,782a ,611 ,500 ,54304 2,550 a. Predictores: (Constante), Contenido de Humedad , Gravedad Específica b. Variable dependiente: Fuerza Y
Autocorrelación: Para ver si estas variables tienen un problema de autocorrelación observamos el estadístico Durbin – Watson, este coeficiente debe estar entre 1.5 y 2.5 para que no muestre problemas. En este caso el Durbin - Watson es de 2,550 lo que muestra un tipo de autocorrelación son independientes.
Modelo 1 (Constante)
Coeficientesa Coeficient es Coeficientes no estandariz estandarizados ados Error B estándar Beta 17,865 1,935
Gravedad ,861 Específica Contenido de -,654 Humedad a. Variable dependiente: Fuerza Y
1,087 ,197
t
Sig.
Estadísticas de colinealidad Toleranci a VIF
9,232
,000
,792
,454
,965
1,037
-,795 -3,313
,013
,965
1,037
,190
VIF: 1,037 es aceptable, podemos decir que no hay problemas de multicolinealidad en el corto plazo. Tenemos como Ecuación de nuestro Modelo:
Fuerza (Y) =17,865 +0,861 (Gravedad Específica) -0,654 (Contenido de Humedad) En este ejercicio, podemos asegurar que es un modelo de Regresión múltiple, pues no hemos eliminado ninguna de las variables independientes.
31
EJERCICIO 12: Y1: Consumo. X1: Número de automóviles por mil habitantes. X2: Número de teléfonos por mil habitantes.
Resumen del modelob Error R R cuadrado estándar de DurbinModelo R cuadrado ajustado la estimación Watson 1 ,390a ,152 -,188 265,634 2,091 a. Predictores: (Constante), Número de teléfonos por mil habitantes., Número de automóviles por mil habitantes. b. Variable dependiente: Consumo
Autocorrelación: Para ver si estas variables tienen un problema de autocorrelación observamos el estadístico Durbin – Watson, este coeficiente debe estar entre 1.5 y 2.5 para que no muestre problemas. En este caso el Durbin - Watson es de 2,091 lo que muestra un tipo de autocorrelación son independientes.
32
Modelo 1 (Constante)
Coeficientesa Coeficient es Coeficientes no estandariz estandarizados ados Error B estándar Beta 367,506 669,280
Número de automóviles por 7,840 mil habitantes. Número de teléfonos por mil -5,786 habitantes. a. Variable dependiente: Consumo
t
Sig.
,549
,607
Estadísticas de colinealidad Toleranci a VIF
10,362
,451
,757
,483
,478
2,091
6,161
-,559
-,939
,391
,478
2,091
VIF: 2,091 es aceptable, podemos decir que no hay problemas de multicolinealidad en el corto plazo. Tenemos como Ecuación de nuestro Modelo:
Consumo (Y) =367,506 +7,840 (x1) – 5,786 (x2) En este ejercicio, podemos asegurar que es un modelo de Regresión múltiple, pues no hemos eliminado ninguna de las variables independientes.
EJERCICIO 13: REGRESION LINEAL SIMPLE
33
Resumen del modelob Error R R cuadrado estándar de DurbinModelo R cuadrado ajustado la estimación Watson 1 ,871a ,758 ,732 47,528 ,771 a. Predictores: (Constante), Precio unitario (en unidades de diez mil pesetas) b. Variable dependiente: Demanda
Autocorrelación: Para ver si estas variables tienen un problema de autocorrelación observamos el estadístico Durbin – Watson, este coeficiente debe estar entre 1.5 y 2.5 para que no muestre problemas. En este caso el Durbin - Watson es de 0.771 lo que muestra un tipo de autocorrelación negativa o simplemente sus variables no son independientes.
Modelo 1 (Constante)
Coeficientesa Coeficient es Coeficientes no estandari estandarizados zados Error B estándar Beta 497,156 60,852
Precio unitario (en unidades de -24,419 diez mil pesetas) a. Variable dependiente: Demanda
4,594
t
Sig.
8,170
,000
-,871 -5,315
,000
Estadísticas de colinealidad Toleranc ia VIF
1,000
Multicolinealidad: Para ver la multicolinealidad de este ejercicio observamos el FIV, si el FIV es igual a 1 entonces no muestra problemas de multicolinealidad y para este caso, nuestra FIV es igual a 1 lo que indica que este ejercicio no tiene problemas de multicolinealidad. Colinealidad: Tampoco existe ya que se trata de una Regresión simple y solo hay una sola variable y la colinealidad existe en la Regresiones múltiple de dos o más variables independientes.
34
1,000
6.-Gráficos el diagrama de la regresión múltiples válidos
Ejercicio 1
Ejercicio 3
35
Ejercicio 2
Ejercicio 4
Ejercicio 5
Ejercicio 6
Ejercicio 7
Ejercicio 8
36
Ejercicio 9
Ejercicio 10
Ejercicio 11
Ejercicio 12
37
Ejercicio 13:
7.- ¿Cuáles son sus comentarios de los ejercicios?
Como podemos notar que la mayoría de los ejercicios resueltos, así como también su respectivo Modelo de regresión múltiple, pueden ser de tipo múltiple, pues puede existir cierta multicolinealidad o autocorrelación entre las variables independientes, lo que determina que ciertas de estas, puedan ser eliminadas las variables independientes y no ser consideradas en la ecuación del modelo, convirtiéndola en algunos casos, en un modelo de regresión simple. Las gráficas ayudan mucho a verificar que cierta relación existe entre las variables independientes, si el gráfico es de tipo lineal, pues podemos determinar que existe relación entre las variables independientes observadas, por lo que debemos someterlas a una prueba de multicolinealidad, y la que tenga menor correlación con la variable dependiente, será eliminada y así podemos trabajar con las variables independientes que presente mayor correlación con la variable dependiente para determinar el nuevo modelo de regresión múltiple.
38
CONCLUSIONES La prueba de hipótesis es un procedimiento que se basa en la evidencia muestral y
la teoría de probabilidad; y se emplea para determinar si la hipótesis es una afirmación razonable. En la regresión lineal múltiple vamos a utilizar más de una variable explicativa; esto
nos va a ofrecer la ventaja de utilizar más información en la construcción del modelo y, consecuentemente, realizar estimaciones más precisas La variable dependiente se ve afectada por los cambios que se hace a las variables
independientes en forma conjunta. La regresión lineal múltiple nos permite determinar el grado de dependencia de dos
o más variables investigadas sobre otras. La utilidad de la regresión lineal múltiple y la correlación recae en el hecho de
poder hacer un pronóstico de datos de interés.
RECOMENDACIONES En muchas situaciones estadísticas se observa simultáneamente los aplicados en la regresión lineal múltiple:
valores que son
Manejar y aplicar las fórmulas matemáticas para realizar un análisis estadístico de
comparación positivo. Realizar un procedimiento con medidas específicas para la elaboración de las
gráficas. Comprensión por parte del analista de las interrelaciones entre las variables que
intervienen en el análisis. Obtener un sumario (normalmente un formula) que resume la relación existe entre
las dos variables o más variables independientes (Regresión Lineal Múltiple).
39