Last active
June 24, 2025 22:06
-
-
Save mateusfg7/7ce8262b7de8f42f25c83aa2eac393e7 to your computer and use it in GitHub Desktop.
Revisions
-
mateusfg7 revised this gist
Jun 24, 2025 . 1 changed file with 1 addition and 1 deletion.There are no files selected for viewing
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters. Learn more about bidirectional Unicode charactersOriginal file line number Diff line number Diff line change @@ -8,7 +8,7 @@ * **Coeficiente de Correlação de Pearson ($r$):** $$ r = \frac{\displaystyle \sum_{i=1}^n (x_i - \bar x)(y_i - \bar y)} {\sqrt{\displaystyle \sum_{i=1}^n (x_i - \bar x)^2 \;\sum_{i=1}^n (y_i - \bar y)^2}} \quad\text{ou, equivalente,}\quad -
mateusfg7 renamed this gist
Jun 24, 2025 . 1 changed file with 0 additions and 0 deletions.There are no files selected for viewing
File renamed without changes. -
mateusfg7 revised this gist
Jun 24, 2025 . 1 changed file with 39 additions and 38 deletions.There are no files selected for viewing
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters. Learn more about bidirectional Unicode charactersOriginal file line number Diff line number Diff line change @@ -4,39 +4,42 @@ ### 1. Correlação Linear * **Objetivo:** medir força e direção da relação linear entre duas variáveis $X$ e $Y$ (diagrama de dispersão elíptico). * **Coeficiente de Correlação de Pearson ($r$):** $$ r = \frac{\displaystyle \sum_{i=1}^n (x_i - \bar x)(y_i - \bar y)} {\sqrt{\displaystyle \sum_{i=1}^n (x_i - \bar x)^2 \;\sum_{i=1}^n (y_i - \bar y)^2}} \quad\text{ou, equivalente,}\quad r = \frac{\sum xy - \frac{\sum x\,\sum y}{n}} {\sqrt{\Bigl[\sum x^2 - \frac{(\sum x)^2}{n}\Bigr] \Bigl[\sum y^2 - \frac{(\sum y)^2}{n}\Bigr]}} $$ * $n$: número de pares $(x_i,y_i)$ * $\bar x = \frac{\sum x_i}{n}$, $\bar y = \frac{\sum y_i}{n}$ * **Intervalo de $r$:** $$ -1 \le r \le 1 $$ * $r>0$: correlação direta (positiva) * $r<0$: correlação inversa (negativa) * $r=0$: sem correlação linear * **Classificação qualitativa:** | $|r|$ | Grau de Associação | |-----------|---------------------| | 0 | nula | | 0 – 0,3 | fraca | | 0,3 – 0,6 | regular | | 0,6 – 0,9 | forte | | 0,9 – 1,0 | muito forte | | 1,0 | perfeita | --- @@ -48,10 +51,10 @@ \hat y = a + b\,x $$ * $a$: intercepto (valor previsto de $y$ quando $x=0$) * $b$: coeficiente angular (inclinação) * **Método dos Mínimos Quadrados:** Minimizar $\displaystyle \sum_{i=1}^n (y_i - \hat y_i)^2$. * **Fórmulas para os coeficientes:** @@ -60,7 +63,7 @@ b = \frac{\displaystyle \sum_{i=1}^n (x_i - \bar x)(y_i - \bar y)} {\displaystyle \sum_{i=1}^n (x_i - \bar x)^2} \quad,\quad a = \bar y - b\,\bar x $$ **Equivalente em termos de somatórios:** @@ -69,19 +72,17 @@ b = \frac{\sum xy - \tfrac{\sum x\,\sum y}{n}} {\sum x^2 - \tfrac{(\sum x)^2}{n}} \quad,\quad a = \frac{\sum y}{n} - b\,\frac{\sum x}{n} $$ * **Previsão:** Para um $x^*$, calcula-se $\hat y^* = a + b\,x^*$. --- ### 3. Medidas de Ajuste e Erro * **Resíduos:** $e_i = y_i - \hat y_i$. * **Soma dos Quadrados dos Resíduos (Sr):** @@ -100,44 +101,44 @@ $$ R^2 = 1 - \frac{S_r}{S_t} \quad(0 \le R^2 \le 1) $$ * Interpretação: fração da variação total de $Y$ explicada pelo modelo linear. * Ex.: $R^2 = 0,90$ significa 90% da variação explicada. * **Erro-padrão da estimativa ($S_{y/x}$):** $$ S_{y/x} = \sqrt{\frac{S_r}{n-2}} $$ Indica dispersão dos pontos em torno da reta. --- ### 4. Observações Importantes * **Regressão vs. Interpolação:** * **Regressão:** ajusta uma curva que *não* passa por todos os pontos; usa mínimos quadrados para tendência (ruído nos dados). * **Interpolação:** ajusta uma curva que *passa* exatamente por cada ponto (dados precisos). * **Assunções da Regressão Linear Simples:** 1. Relação linear entre $X$ e $Y$. 2. Resíduos com média zero e variância constante. 3. Independência dos erros. 4. (Opcional) Normalidade dos resíduos para inferência. * **Interpretação de Sinal e Magnitude de $b$ e $r$:** * **$b>0$** e **$r>0$**: relação direta. * **$b<0$** e **$r<0$**: relação inversa. * Magnitude indica intensidade (classificação de $r$). --- > **Dica de “colão”:** use esta estrutura em uma única folha, com seções numeradas, fórmulas destacadas em negrito e uma pequena anotação de como aplicar cada fórmula em exercícios (por exemplo, cole os valores de $\sum x$, $\sum y$, $\sum xy$ etc. e calcule $a$, $b$, $r$, $R^2$ diretamente). Bom estudo e boa prova! -
mateusfg7 revised this gist
Jun 24, 2025 . No changes.There are no files selected for viewing
-
mateusfg7 created this gist
Jun 24, 2025 .There are no files selected for viewing
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters. Learn more about bidirectional Unicode charactersOriginal file line number Diff line number Diff line change @@ -0,0 +1,143 @@ **Cheat Sheet: Correlação e Regressão Linear** --- ### 1. Correlação Linear * **Objetivo:** medir força e direção da relação linear entre duas variáveis $X$ e $Y$ (diagrama de dispersão elíptico).  * **Coeficiente de Correlação de Pearson ($r$):** $$ r \;=\;\frac{\displaystyle \sum_{i=1}^n (x_i - \bar x)(y_i - \bar y)} {\sqrt{\displaystyle \sum_{i=1}^n (x_i - \bar x)^2 \;\sum_{i=1}^n (y_i - \bar y)^2}} \quad\text{ou, equivalente,}\quad r = \frac{\sum xy - \frac{\sum x\,\sum y}{n}} {\sqrt{\Bigl[\sum x^2 - \frac{(\sum x)^2}{n}\Bigr] \Bigl[\sum y^2 - \frac{(\sum y)^2}{n}\Bigr]}} $$ * $n$: número de pares $(x_i,y_i)$ * $\bar x = \frac{\sum x_i}{n}$, $\bar y = \frac{\sum y_i}{n}$  * **Intervalo de $r$:** $-1 \le r \le +1$. * $r>0$: correlação direta (positiva) * $r<0$: correlação inversa (negativa) * $r=0$: sem correlação linear * **Classificação qualitativa:** \| $|r|$ | Grau de Associação | \|------------------|-----------------------------| \| 0 | nula | \| 0 – 0,3 | fraca | \| 0,3 – 0,6 | regular | \| 0,6 – 0,9 | forte | \| 0,9 – 1,0 | muito forte | \| 1,0 | perfeita | --- ### 2. Regressão Linear Simples * **Modelo:** $$ \hat y = a + b\,x $$ * $a$: intercepto (valor previsto de $y$ quando $x=0$) * $b$: coeficiente angular (inclinação)  * **Método dos Mínimos Quadrados:** Minimizar $\displaystyle \sum_{i=1}^n (y_i - \hat y_i)^2$. * **Fórmulas para os coeficientes:** $$ b = \frac{\displaystyle \sum_{i=1}^n (x_i - \bar x)(y_i - \bar y)} {\displaystyle \sum_{i=1}^n (x_i - \bar x)^2} \quad,\quad a = \bar y \;-\; b\,\bar x $$ **Equivalente em termos de somatórios:** $$ b = \frac{\sum xy - \tfrac{\sum x\,\sum y}{n}} {\sum x^2 - \tfrac{(\sum x)^2}{n}} \quad,\quad a = \frac{\sum y}{n} \;-\; b\,\frac{\sum x}{n} \] :contentReference[oaicite:4]{index=4} $$ * **Previsão:** Para um $x^*$, calcula-se $\hat y^* = a + b\,x^*$. --- ### 3. Medidas de Ajuste e Erro * **Resíduos:** $e_i = y_i - \hat y_i$. * **Soma dos Quadrados dos Resíduos (Sr):** $$ S_r = \sum_{i=1}^n (y_i - \hat y_i)^2 $$ * **Soma Total dos Quadrados (St):** $$ S_t = \sum_{i=1}^n (y_i - \bar y)^2 $$ * **Coeficiente de Determinação ($R^2$):** $$ R^2 = 1 - \frac{S_r}{S_t} \quad\bigl(0 \le R^2 \le 1\bigr) $$ * Interpretação: fração da variação total de $Y$ explicada pelo modelo linear. * Ex.: $R^2=0{,}90$ significa 90 % da variação explicada.  * **Erro-padrão da estimativa ($S_{y/x}$):** $$ S_{y/x} = \sqrt{\frac{S_r}{n-2}} $$ Indica dispersão dos pontos em torno da reta.  --- ### 4. Observações Importantes * **Regressão vs. Interpolação:** * **Regressão:** ajusta uma curva que *não* passa por todos os pontos; usa mínimos quadrados para tendência (ruído nos dados). * **Interpolação:** ajusta uma curva que *passa* exatamente por cada ponto (dados precisos).  * **Assunções da Regressão Linear Simples:** 1. Relação linear entre $X$ e $Y$. 2. Resíduos com média zero e variância constante. 3. Independência dos erros. 4. (Opcional) Normalidade dos resíduos para inferência. * **Interpretação de Sinal e Magnitude de $b$ e $r$:** * **$b>0$** e **$r>0$**: relação direta. * **$b<0$** e **$r<0$**: relação inversa. * Magnitude indica intensidade (classificação de $r$). --- > **Dica de “colão”:** use esta estrutura em uma única folha, com seções numeradas, fórmulas destacadas em negrito e uma pequena anotação de como aplicar cada fórmula em exercícios (por exemplo, cole os valores de $\sum x$, $\sum y$, $\sum xy$, etc., e calcule $a$, $b$, $r$, $R^2$ diretamente). Bom estudo e boa prova!