21
Estatística 2
UNICEUMA
22
Estatística 2
UNICEUMA
18
Estatística 2
UNICEUMA
28
Estatística 2
UNICEUMA
5
Estatística 2
UNICEUMA
27
Estatística 2
UNICEUMA
12
Estatística 2
UNICEUMA
15
Estatística 2
UNICEUMA
26
Estatística 2
UNICEUMA
4
Estatística 2
UNICEUMA
Texto de pré-visualização
QUESTÕES 1 A 4 QUESTÕES 5 A 8 1 Calculando as médias de X e Y meanX 200 171 145 176 193 120 155 193 159 150 190 139 154 189 159 15 meanX 1699 meanY 1844 1774 1757 1859 1791 1704 1758 1859 1785 1792 1867 1793 1745 1838 1768 15 meanY 179993 Calculando as diferenças para cada valor de X e Y em relação às médias diffX 200 1699 171 1699 145 1699 176 1699 193 1699 120 1699 155 1699 193 1699 159 1699 150 1699 190 1699 139 1699 154 1699 189 1699 159 1699 diffX 0301 0011 0249 0061 0231 0499 0149 0231 0109 0199 0201 0309 0159 0191 0109 diffY 1844 179993 1774 179993 1757 179993 1859 179993 1791 179993 1704 179993 1758 179993 1859 179993 1785 179993 1792 179993 1867 179993 1793 179993 1745 179993 1838 179993 1768 179993 diffY 4407 2593 4293 5907 0893 9593 4193 5907 1493 0793 6707 0693 5493 3807 3193 Calculando o produto das diferenças para X e Y proddiff 0301 4407 0011 2593 0249 4293 0061 5907 0231 0893 0499 9593 0149 4193 0231 5907 0109 1493 0199 0793 0201 6707 0309 0693 0159 5493 0191 3807 0109 3193 proddiff 1325407 0028423 1068057 0360927 0206403 4788107 0624617 1362417 0162917 0157607 1348907 0214437 0872887 0727737 0348137 Calculando o quadrado das diferenças para X sqdiffX 03012 00112 02492 00612 02312 04992 01492 02312 01092 01992 02012 03092 01592 01912 01092 sqdiffX 0090601 0000121 0062001 0003721 0053361 0249001 0022201 0053361 0011881 0039601 0040401 0095481 0025281 0036481 0011881 Calculando os somatórios de todas as variáveis sumdiffX 1325407 0028423 1068057 0360927 0206403 4788107 0624617 1362417 0162917 0157607 1348907 0214437 0872887 0727737 0348137 sumdiffX 9080467 sumdiffY 4407 2593 4293 5907 0893 9593 4193 5907 1493 0793 6707 0693 5493 3807 3193 sumdiffY 3876 sumproddiff 1325407 0028423 1068057 0360927 0206403 4788107 0624617 1362417 0162917 0157607 1348907 0214437 0872887 0727737 0348137 sumproddiff 9080467 sumsqdiffX 0090601 0000121 0062001 0003721 0053361 0249001 0022201 0053361 0011881 0039601 0040401 0095481 0025281 0036481 0011881 sumsqdiffX 0806366 Calculando os coeficientes da regressão slope sumproddiff sumsqdiffX slope 9080467 0806366 slope 11256 intercept meanY slope meanX intercept 179993 11256 1699 intercept 160114 Portanto a equação da regressão linear simples para os dados fornecidos é Y 160114 11256X 2 Para calcular o coeficiente de correlação r e o coeficiente de determinação r² você precisa dos valores previstos da variável dependente Y com base na regressão linear simples Usando a equação da regressão que obtivemos anteriormente Y 160114 11256X Vamos calcular os valores previstos de Y denotados como Yhat e em seguida podemos prosseguir com os cálculos do coeficiente de correlação e coeficiente de determinação Vamos calcular os valores previstos de Yhat Yhat 160114 11256 X Aqui estão os valores previstos de Y Yhat Yhat 182626 178677 174481 179959 182249 166997 173875 182249 174724 173851 181929 171064 173768 181719 174724 Agora podemos prosseguir com os cálculos do coeficiente de correlação e coeficiente de determinação Calculando o somatório dos quadrados das diferenças entre Y e Yhat sumsqdiffY Y0 Yhat0² Y1 Yhat1² Yn Yhatn² sumsqdiffY 1844 182626² 1774 178677² 1768 174724² sumsqdiffY 6886 Calculando o somatório dos quadrados das diferenças entre Y e a média de Y meanY 179993 calculado anteriormente sumsqdiffYmean Y0 meanY² Y1 meanY² Yn meanY² sumsqdiffYmean 1844 179993² 1774 179993² 1768 179993² sumsqdiffYmean 34662 Calculando o coeficiente de determinação r² coefficientofdetermination 1 sumsqdiffY sumsqdiffYmean coefficientofdetermination 1 6886 34662 coefficientofdetermination 0801 Calculando o coeficiente de correlação r coefficientofcorrelation sqrtcoefficientofdetermination coefficientofcorrelation sqrt0801 coefficientofcorrelation 0894 Portanto o coeficiente de correlação r é aproximadamente 0894 e o coeficiente de determinação r² é aproximadamente 0801 Isso indica uma correlação forte e positiva entre o tamanho do imóvel X e o valor de avaliação Y onde aproximadamente 801 da variabilidade do valor de avaliação pode ser explicada pelo tamanho do imóvel 3 Vamos realizar o cálculo do teste F usando os dados fornecidos Número de observações n 15 Número de variáveis independentes k 1 Soma dos quadrados da regressão SSR SSR Yhat meanY² SSR Yhat 179993² SSR 182626 179993² 178677 179993² 174724 179993² Soma dos quadrados do erro SSE SSE Y Yhat² SSE Y 182626² Y 178677² Y 174724² A estatística F é calculada da seguinte forma F SSR k SSE n k 1 Portanto calculando o SSR temos SSR 182626 179993² 178677 179993² 174481 179993² 174724 179993² SSR 6928 1730 30378 27736 SSR 618080 Já calculando o SSE temos SSE 1844 182626² 1774 178677² 1768 174724² SSE 1844 182626² 1774 178677² 1757 174481² 1768 174724² Agora vamos calcular cada termo e somar os resultados SSE 1774² 1277² 1219² 2076² SSE 3146 1633 1488 4311 SSE 38394 Logo a estatística F é SSR 618080 SSE 38394 k 1 regressão linear simples n 15 tamanho da amostra Substituindo esses valores na fórmula da estatística F temos F 618080 1 38394 15 1 1 F 618080 38394 12 F 20012 Agora precisamos comparar o valor da estatística F com o valor crítico da distribuição F para determinar se rejeitamos ou não a hipótese nula O valor crítico depende do nível de significância α e dos graus de liberdade k n k 1 Para α 005 e 1 13 graus de liberdade consultando uma tabela da distribuição F ou usando uma ferramenta estatística obtemos o valor crítico aproximado de F de 4757 Como o valor da estatística F 20012 é muito maior do que o valor crítico 4757 podemos concluir que há evidências estatísticas significativas para rejeitar a hipótese nula H0 e afirmar que existe uma relação linear significativa entre as variáveis independentes e dependentes Portanto podemos concluir que há uma regressão linear simples significativa 4 Y 160114 11256 175 179812 5 Vamos calcular os coeficientes de regressão começando com a obtenção das médias das variáveis X1 X2 e Y Em seguida calcularemos as somas dos produtos cruzados entre X1 X2 e Y bem como as somas dos quadrados de X1 X2 e Y Média de X1 meanX1 meanX1 200 171 145 176 193 120 155 193 159 150 190 139 154 189 159 15 meanX1 1693 Média de X2 meanX2 meanX2 342 1150 833 0 742 3200 1600 200 175 275 0 0 1258 275 717 15 meanX2 7381 Média de Y meanY meanY 1844 1774 1757 1859 1791 1704 1758 1859 1785 1792 1867 1793 1745 1838 1768 15 meanY 1790267 Agora vamos calcular as somas dos produtos cruzados entre X1 X2 e Y bem como as somas dos quadrados de X1 X2 e Y Soma dos produtos cruzados entre X1 X2 e Y sumX1X2Y sumX1X2Y 200 1693 342 7381 1844 1790267 171 1693 1150 7381 1774 1790267 754936228 Soma dos quadrados de X1 sumX1squared sumX1squared 200 16932 171 16932 145 16932 176 16932 01444 Soma dos quadrados de X2 sumX2squared sumX2squared 342 73812 1150 73812 833 73812 0 73812 14122564 Soma dos quadrados de Y sumYsquared sumYsquared 1844 17902672 1774 17902672 1757 17902672 1859 17902672 234256 Para calcular os coeficientes da regressão precisamos fazer β1 sumX2squared sumX1Y sumX1X2 sumX2Y sumX1squared sumX2squared sumX1X22 028425434 β2 sumX1squared sumX2Y sumX1X2 sumX1Y sumX1squared sumX2squared sumX1X22 1072518298 β0 meanY β1 meanX1 β2 meanX2 1637751236 Temos então Y 0284254348 X1 1072518298 X2 1637751236 6 Para determinar o coeficiente de determinação R² da regressão linear múltipla usase a seguinte fórmula R² 1 SSE SST 08264993695 7 Fazendo o teste F pelo QuiQuadrado da Análise da Variância QAV para verificar a hipótese de existência de regressão linear múltipla com um nível de significância de 5 α 005 F MSRMSE SSRSSEGLEGLR 2858 Valor crítico de F 475 Como o valor da estatística F 2858 é muito maior do que o valor crítico 4757 podemos concluir que há evidências estatísticas significativas para rejeitar a hipótese nula H0 e afirmar que existe uma relação linear significativa entre as variáveis independentes e dependentes Portanto podemos concluir que há uma regressão linear múltipla significativa 8 Y 0284254348 175 1072518298 10 1637751236 270529508291
21
Estatística 2
UNICEUMA
22
Estatística 2
UNICEUMA
18
Estatística 2
UNICEUMA
28
Estatística 2
UNICEUMA
5
Estatística 2
UNICEUMA
27
Estatística 2
UNICEUMA
12
Estatística 2
UNICEUMA
15
Estatística 2
UNICEUMA
26
Estatística 2
UNICEUMA
4
Estatística 2
UNICEUMA
Texto de pré-visualização
QUESTÕES 1 A 4 QUESTÕES 5 A 8 1 Calculando as médias de X e Y meanX 200 171 145 176 193 120 155 193 159 150 190 139 154 189 159 15 meanX 1699 meanY 1844 1774 1757 1859 1791 1704 1758 1859 1785 1792 1867 1793 1745 1838 1768 15 meanY 179993 Calculando as diferenças para cada valor de X e Y em relação às médias diffX 200 1699 171 1699 145 1699 176 1699 193 1699 120 1699 155 1699 193 1699 159 1699 150 1699 190 1699 139 1699 154 1699 189 1699 159 1699 diffX 0301 0011 0249 0061 0231 0499 0149 0231 0109 0199 0201 0309 0159 0191 0109 diffY 1844 179993 1774 179993 1757 179993 1859 179993 1791 179993 1704 179993 1758 179993 1859 179993 1785 179993 1792 179993 1867 179993 1793 179993 1745 179993 1838 179993 1768 179993 diffY 4407 2593 4293 5907 0893 9593 4193 5907 1493 0793 6707 0693 5493 3807 3193 Calculando o produto das diferenças para X e Y proddiff 0301 4407 0011 2593 0249 4293 0061 5907 0231 0893 0499 9593 0149 4193 0231 5907 0109 1493 0199 0793 0201 6707 0309 0693 0159 5493 0191 3807 0109 3193 proddiff 1325407 0028423 1068057 0360927 0206403 4788107 0624617 1362417 0162917 0157607 1348907 0214437 0872887 0727737 0348137 Calculando o quadrado das diferenças para X sqdiffX 03012 00112 02492 00612 02312 04992 01492 02312 01092 01992 02012 03092 01592 01912 01092 sqdiffX 0090601 0000121 0062001 0003721 0053361 0249001 0022201 0053361 0011881 0039601 0040401 0095481 0025281 0036481 0011881 Calculando os somatórios de todas as variáveis sumdiffX 1325407 0028423 1068057 0360927 0206403 4788107 0624617 1362417 0162917 0157607 1348907 0214437 0872887 0727737 0348137 sumdiffX 9080467 sumdiffY 4407 2593 4293 5907 0893 9593 4193 5907 1493 0793 6707 0693 5493 3807 3193 sumdiffY 3876 sumproddiff 1325407 0028423 1068057 0360927 0206403 4788107 0624617 1362417 0162917 0157607 1348907 0214437 0872887 0727737 0348137 sumproddiff 9080467 sumsqdiffX 0090601 0000121 0062001 0003721 0053361 0249001 0022201 0053361 0011881 0039601 0040401 0095481 0025281 0036481 0011881 sumsqdiffX 0806366 Calculando os coeficientes da regressão slope sumproddiff sumsqdiffX slope 9080467 0806366 slope 11256 intercept meanY slope meanX intercept 179993 11256 1699 intercept 160114 Portanto a equação da regressão linear simples para os dados fornecidos é Y 160114 11256X 2 Para calcular o coeficiente de correlação r e o coeficiente de determinação r² você precisa dos valores previstos da variável dependente Y com base na regressão linear simples Usando a equação da regressão que obtivemos anteriormente Y 160114 11256X Vamos calcular os valores previstos de Y denotados como Yhat e em seguida podemos prosseguir com os cálculos do coeficiente de correlação e coeficiente de determinação Vamos calcular os valores previstos de Yhat Yhat 160114 11256 X Aqui estão os valores previstos de Y Yhat Yhat 182626 178677 174481 179959 182249 166997 173875 182249 174724 173851 181929 171064 173768 181719 174724 Agora podemos prosseguir com os cálculos do coeficiente de correlação e coeficiente de determinação Calculando o somatório dos quadrados das diferenças entre Y e Yhat sumsqdiffY Y0 Yhat0² Y1 Yhat1² Yn Yhatn² sumsqdiffY 1844 182626² 1774 178677² 1768 174724² sumsqdiffY 6886 Calculando o somatório dos quadrados das diferenças entre Y e a média de Y meanY 179993 calculado anteriormente sumsqdiffYmean Y0 meanY² Y1 meanY² Yn meanY² sumsqdiffYmean 1844 179993² 1774 179993² 1768 179993² sumsqdiffYmean 34662 Calculando o coeficiente de determinação r² coefficientofdetermination 1 sumsqdiffY sumsqdiffYmean coefficientofdetermination 1 6886 34662 coefficientofdetermination 0801 Calculando o coeficiente de correlação r coefficientofcorrelation sqrtcoefficientofdetermination coefficientofcorrelation sqrt0801 coefficientofcorrelation 0894 Portanto o coeficiente de correlação r é aproximadamente 0894 e o coeficiente de determinação r² é aproximadamente 0801 Isso indica uma correlação forte e positiva entre o tamanho do imóvel X e o valor de avaliação Y onde aproximadamente 801 da variabilidade do valor de avaliação pode ser explicada pelo tamanho do imóvel 3 Vamos realizar o cálculo do teste F usando os dados fornecidos Número de observações n 15 Número de variáveis independentes k 1 Soma dos quadrados da regressão SSR SSR Yhat meanY² SSR Yhat 179993² SSR 182626 179993² 178677 179993² 174724 179993² Soma dos quadrados do erro SSE SSE Y Yhat² SSE Y 182626² Y 178677² Y 174724² A estatística F é calculada da seguinte forma F SSR k SSE n k 1 Portanto calculando o SSR temos SSR 182626 179993² 178677 179993² 174481 179993² 174724 179993² SSR 6928 1730 30378 27736 SSR 618080 Já calculando o SSE temos SSE 1844 182626² 1774 178677² 1768 174724² SSE 1844 182626² 1774 178677² 1757 174481² 1768 174724² Agora vamos calcular cada termo e somar os resultados SSE 1774² 1277² 1219² 2076² SSE 3146 1633 1488 4311 SSE 38394 Logo a estatística F é SSR 618080 SSE 38394 k 1 regressão linear simples n 15 tamanho da amostra Substituindo esses valores na fórmula da estatística F temos F 618080 1 38394 15 1 1 F 618080 38394 12 F 20012 Agora precisamos comparar o valor da estatística F com o valor crítico da distribuição F para determinar se rejeitamos ou não a hipótese nula O valor crítico depende do nível de significância α e dos graus de liberdade k n k 1 Para α 005 e 1 13 graus de liberdade consultando uma tabela da distribuição F ou usando uma ferramenta estatística obtemos o valor crítico aproximado de F de 4757 Como o valor da estatística F 20012 é muito maior do que o valor crítico 4757 podemos concluir que há evidências estatísticas significativas para rejeitar a hipótese nula H0 e afirmar que existe uma relação linear significativa entre as variáveis independentes e dependentes Portanto podemos concluir que há uma regressão linear simples significativa 4 Y 160114 11256 175 179812 5 Vamos calcular os coeficientes de regressão começando com a obtenção das médias das variáveis X1 X2 e Y Em seguida calcularemos as somas dos produtos cruzados entre X1 X2 e Y bem como as somas dos quadrados de X1 X2 e Y Média de X1 meanX1 meanX1 200 171 145 176 193 120 155 193 159 150 190 139 154 189 159 15 meanX1 1693 Média de X2 meanX2 meanX2 342 1150 833 0 742 3200 1600 200 175 275 0 0 1258 275 717 15 meanX2 7381 Média de Y meanY meanY 1844 1774 1757 1859 1791 1704 1758 1859 1785 1792 1867 1793 1745 1838 1768 15 meanY 1790267 Agora vamos calcular as somas dos produtos cruzados entre X1 X2 e Y bem como as somas dos quadrados de X1 X2 e Y Soma dos produtos cruzados entre X1 X2 e Y sumX1X2Y sumX1X2Y 200 1693 342 7381 1844 1790267 171 1693 1150 7381 1774 1790267 754936228 Soma dos quadrados de X1 sumX1squared sumX1squared 200 16932 171 16932 145 16932 176 16932 01444 Soma dos quadrados de X2 sumX2squared sumX2squared 342 73812 1150 73812 833 73812 0 73812 14122564 Soma dos quadrados de Y sumYsquared sumYsquared 1844 17902672 1774 17902672 1757 17902672 1859 17902672 234256 Para calcular os coeficientes da regressão precisamos fazer β1 sumX2squared sumX1Y sumX1X2 sumX2Y sumX1squared sumX2squared sumX1X22 028425434 β2 sumX1squared sumX2Y sumX1X2 sumX1Y sumX1squared sumX2squared sumX1X22 1072518298 β0 meanY β1 meanX1 β2 meanX2 1637751236 Temos então Y 0284254348 X1 1072518298 X2 1637751236 6 Para determinar o coeficiente de determinação R² da regressão linear múltipla usase a seguinte fórmula R² 1 SSE SST 08264993695 7 Fazendo o teste F pelo QuiQuadrado da Análise da Variância QAV para verificar a hipótese de existência de regressão linear múltipla com um nível de significância de 5 α 005 F MSRMSE SSRSSEGLEGLR 2858 Valor crítico de F 475 Como o valor da estatística F 2858 é muito maior do que o valor crítico 4757 podemos concluir que há evidências estatísticas significativas para rejeitar a hipótese nula H0 e afirmar que existe uma relação linear significativa entre as variáveis independentes e dependentes Portanto podemos concluir que há uma regressão linear múltipla significativa 8 Y 0284254348 175 1072518298 10 1637751236 270529508291