{[ promptMessage ]}

Bookmark it

{[ promptMessage ]}

11-06 math - Notation and Equations for Regression Lecture...

Info iconThis preview shows pages 1–2. Sign up to view the full content.

View Full Document Right Arrow Icon
Notation’and’Equations’for’Regression’Lecture 11/6’ Notation:’ m :’The’number’of’predictor’variables’in’a’regression X i :’One’of’multiple’predictor’variables.’The’subscript’ i ’ represents’any’number’from’1’ through’ m .’So,’the’predictor’variables’are’ X 1 ,’ X 2 ,’ …,’ X m .’ Y :’The’outcome’variable’that’is’being’predicted’or’explained’in’a’regression ˆ Y :’The’estimated’outcome’value’as’predicted’by’the’regression’equation b i :’The’regression’coefficient’for’predictor’ X i b 0 :’The’intercept’in’the’reg ression’equation ’ ! b i :’The’standard’error’of’ a’ regression’coefficient ’ SS Y :’The’total’sum’of’squares’for’ Y ,’which’represents’the’uncertainty’in’the’outcome SS residual :’The’residual’sum’of’squares,’representing’the’uncertainty’left’over’ after’we’use’ regression’to’generate’the’best’possible’predictions’for’the’outcome SS regression :’The’sum’of’squares’for’the’regression,’represent ing’the’amount’of’uncertainty’ or’ variability’that’the’predictors’can’explain R 2 :’The’proportion’of’ variability’ explained’by’the’regression MS residual :’The’res idual’mean’square, ’ which’is’ the’mean’squared’error’of’the’regression’ prediction,’ ˆ Y ;’also’ used’as’an’estimate’of’the’population’variance,’ " Y 2 ’ ’ MS regression :’The’mean’s quare’ for’the’regression ’ F :’F’statistic,’which’is’the’test’statistic’for’ deciding’ whether’a’regression’explains’ meaningful’variability’in’the’outcome Regression’equation .’A’regression’equation’is’a’formula’that’uses’a’set’of’predictor’ variables’( X i )’to’ make’ a’prediction’ for’ some’outcome’variable’( Y ).’The’ prediction’is’called ’ ˆ Y .’The’purpose’of’a’regression’equation’is’to’find’the’best’possible’way’to’do’this,’that’is,’ to’combine’the’predictors’in’a’way’that’gives’estimates’( ˆ Y )’t hat’are’as’close’as’possible’to’ the’right’answer’( Y ).’ When’there±s’only’one’predictor’( m ’ =’1),’regression’is’essentially’the’same’as’correlation,’ and’the’regression’equation’is’the’same’as’the’ regression’ line’we’ would’ draw’on’a’ scatterplot.’The’equation’for’a’line’always’has’the’form’ ˆ Y ’ =’ b 0 ’ +’ b 1 X ,’where’ b 0 ’ and’ b 1 ’ are’ numbers’representing’the’intercept’and’the’slope. ’ Finding’the’line’that±s’closest’to’the’ data’is’the’same’as’choosing’ b 0 ’ and’ b 1 ’ so’that’the’predicted’ ˆ Y
Background image of page 1

Info iconThis preview has intentionally blurred sections. Sign up to view the full version.

View Full Document Right Arrow Icon
Image of page 2
This is the end of the preview. Sign up to access the rest of the document.

{[ snackBarMessage ]}

Page1 / 7

11-06 math - Notation and Equations for Regression Lecture...

This preview shows document pages 1 - 2. Sign up to view the full document.

View Full Document Right Arrow Icon bookmark
Ask a homework question - tutors are online