En los datos de la tabla 1811 ocurre por ejemplo que

Info iconThis preview shows page 1. Sign up to view the full content.

View Full Document Right Arrow Icon
This is the end of the preview. Sign up to access the rest of the document.

Unformatted text preview: xistente entre la variable dependiente y la parte de cada variable independiente que no está explicada por el resto de variables independientes. Seleccionando la opción Correlaciones parcial y semiparcial, la tabla de coeficientes de regresión (tabla 18.6, ya vista) incluye la información adicional que muestra la tabla 18.11. Capítulo 18. Análisis de regresión lineal 27 Tabla 18.11. Coeficientes de regresión parcial y coeficientes de correlación parcial y semiparcial. Modelo: 1 Coeficientes no Coeficientes estandarizados estandarizados Error típ. B Beta (Constante) -3661,517 1935,490 Salario inicial 1,749 ,060 ,806 Experiencia previa -16,730 3,605 -,102 Nivel educativo 735,956 168,689 ,124 t -1,892 29,198 -4,641 4,363 Sig. ,059 ,000 ,000 ,000 Correlaciones Orden Semicero Parcial parcial ,880 -,097 ,661 ,803 -,209 ,197 ,600 -,095 ,090 Junto con los coeficientes de correlación parcial y semiparcial, aparecen las correlaciones de orden cero, es decir, los coeficientes de correlación calculados sin tener en cuenta la presencia de terceras variables (se trata de los mismos coeficientes que aparecen en la tabla 18.10). Comparando entre sí estos coeficientes (de orden cero, parcial y semiparcial) pueden encontrarse pautas de relación interesantes. En los datos de la tabla 18.11 ocurre, por ejemplo, que la relación entre la variable dependiente salario actual y la variable independiente nivel educativo vale 0,661. Sin embargo, al eliminar de salario actual y de nivel educativo el efecto atribuible al resto de variables independientes (salario inicial y experiencia previa), la relación baja hasta 0,197 (parcial); y cuando el efecto atribuible a salario inicial y experiencia previa se elimina sólo de salario actual, la relación baja hasta 0,090 (semiparcial). Lo cual está indicando que la relación entre estas dos últimas variables podría ser espúrea, pues puede explicarse casi por completo recurriendo a las otras dos variables independientes. El resto de opciones del subcuadro de diálogo Regresión lineal: Estadísticos (ver figura 18.6) tienen que ver con los supuestos del modelo de regresión lineal (estadísticos de colinealidad, residuos) y con el análisis de regresión por pasos (cambio en R cuadrado). Todas estas opciones se tratan más adelante. Capítulo 18. Análisis de regresión lineal 28 Supuestos del modelo de regresión lineal Los supuestos de un modelo estadístico se refieren a una serie de condiciones que deben darse para garantizar la validez del modelo. Al efectuar aplicaciones prácticas del modelo de regresión, nos veremos en la necesidad de examinar muchos de estos supuestos. 1. Linealidad. La ecuación de regresión adopta una forma particular. En concreto, la variable dependiente es la suma de un conjunto de elementos: el origen de la recta, una combinación lineal de variables independientes o predictoras y los residuos . El incumplimiento del supuesto de linealidad suele denominarse error de especificación. Algunos ejemplos son: omisión de variables independientes importantes, inclusión de variables independientes irrelevantes, no linealidad (la relación entre las variables independientes y la dependiente no es lineal), parámetros cambiantes (los parámetros no permanecen constantes durante el tiempo que dura la recogida de datos), no aditividad (el efecto de alguna variable...
View Full Document

This document was uploaded on 03/30/2014 for the course COM 01 at University of Sevilla.

Ask a homework question - tutors are online