Skip to content

Instantly share code, notes, and snippets.

@mateusfg7
Last active June 24, 2025 22:06
Show Gist options
  • Select an option

  • Save mateusfg7/7ce8262b7de8f42f25c83aa2eac393e7 to your computer and use it in GitHub Desktop.

Select an option

Save mateusfg7/7ce8262b7de8f42f25c83aa2eac393e7 to your computer and use it in GitHub Desktop.

Revisions

  1. mateusfg7 revised this gist Jun 24, 2025. 1 changed file with 1 addition and 1 deletion.
    2 changes: 1 addition & 1 deletion cola-correlacao-e-regressao-linear.md
    Original file line number Diff line number Diff line change
    @@ -8,7 +8,7 @@

    * **Coeficiente de Correlação de Pearson ($r$):**

    $$
    $$
    r = \frac{\displaystyle \sum_{i=1}^n (x_i - \bar x)(y_i - \bar y)}
    {\sqrt{\displaystyle \sum_{i=1}^n (x_i - \bar x)^2 \;\sum_{i=1}^n (y_i - \bar y)^2}}
    \quad\text{ou, equivalente,}\quad
  2. mateusfg7 renamed this gist Jun 24, 2025. 1 changed file with 0 additions and 0 deletions.
  3. mateusfg7 revised this gist Jun 24, 2025. 1 changed file with 39 additions and 38 deletions.
    77 changes: 39 additions & 38 deletions matematica.md
    Original file line number Diff line number Diff line change
    @@ -4,39 +4,42 @@

    ### 1. Correlação Linear

    * **Objetivo:** medir força e direção da relação linear entre duas variáveis $X$ e $Y$ (diagrama de dispersão elíptico). 
    * **Objetivo:** medir força e direção da relação linear entre duas variáveis $X$ e $Y$ (diagrama de dispersão elíptico).

    * **Coeficiente de Correlação de Pearson ($r$):**

    $$
    r \;=\;\frac{\displaystyle \sum_{i=1}^n (x_i - \bar x)(y_i - \bar y)}
    {\sqrt{\displaystyle \sum_{i=1}^n (x_i - \bar x)^2 \;\sum_{i=1}^n (y_i - \bar y)^2}}
    r = \frac{\displaystyle \sum_{i=1}^n (x_i - \bar x)(y_i - \bar y)}
    {\sqrt{\displaystyle \sum_{i=1}^n (x_i - \bar x)^2 \;\sum_{i=1}^n (y_i - \bar y)^2}}
    \quad\text{ou, equivalente,}\quad
    r = \frac{\sum xy - \frac{\sum x\,\sum y}{n}}
    {\sqrt{\Bigl[\sum x^2 - \frac{(\sum x)^2}{n}\Bigr]
    \Bigl[\sum y^2 - \frac{(\sum y)^2}{n}\Bigr]}}
    $$

    * $n$: número de pares $(x_i,y_i)$
    * $\bar x = \frac{\sum x_i}{n}$, $\bar y = \frac{\sum y_i}{n}$ 
    * $n$: número de pares $(x_i,y_i)$
    * $\bar x = \frac{\sum x_i}{n}$, $\bar y = \frac{\sum y_i}{n}$

    * **Intervalo de $r$:**
    $-1 \le r \le +1$.

    $$
    -1 \le r \le 1
    $$

    * $r>0$: correlação direta (positiva)
    * $r<0$: correlação inversa (negativa)
    * $r>0$: correlação direta (positiva)
    * $r<0$: correlação inversa (negativa)
    * $r=0$: sem correlação linear

    * **Classificação qualitativa:**
    \| $|r|$ | Grau de Associação |
    \|------------------|-----------------------------|
    \| 0 | nula |
    \| 0 – 0,3 | fraca |
    \| 0,3 – 0,6 | regular |
    \| 0,6 – 0,9 | forte |
    \| 0,9 – 1,0 | muito forte |
    \| 1,0 | perfeita |

    | $|r|$ | Grau de Associação |
    |-----------|---------------------|
    | 0 | nula |
    | 0 – 0,3 | fraca |
    | 0,3 – 0,6 | regular |
    | 0,6 – 0,9 | forte |
    | 0,9 – 1,0 | muito forte |
    | 1,0 | perfeita |

    ---

    @@ -48,10 +51,10 @@
    \hat y = a + b\,x
    $$

    * $a$: intercepto (valor previsto de $y$ quando $x=0$)
    * $b$: coeficiente angular (inclinação)&#x20;
    * $a$: intercepto (valor previsto de $y$ quando $x=0$)
    * $b$: coeficiente angular (inclinação)

    * **Método dos Mínimos Quadrados:**
    * **Método dos Mínimos Quadrados:**
    Minimizar $\displaystyle \sum_{i=1}^n (y_i - \hat y_i)^2$.

    * **Fórmulas para os coeficientes:**
    @@ -60,7 +63,7 @@
    b = \frac{\displaystyle \sum_{i=1}^n (x_i - \bar x)(y_i - \bar y)}
    {\displaystyle \sum_{i=1}^n (x_i - \bar x)^2}
    \quad,\quad
    a = \bar y \;-\; b\,\bar x
    a = \bar y - b\,\bar x
    $$

    **Equivalente em termos de somatórios:**
    @@ -69,19 +72,17 @@
    b = \frac{\sum xy - \tfrac{\sum x\,\sum y}{n}}
    {\sum x^2 - \tfrac{(\sum x)^2}{n}}
    \quad,\quad
    a = \frac{\sum y}{n} \;-\; b\,\frac{\sum x}{n}
    \] :contentReference[oaicite:4]{index=4}
    a = \frac{\sum y}{n} - b\,\frac{\sum x}{n}
    $$

    * **Previsão:**
    * **Previsão:**
    Para um $x^*$, calcula-se $\hat y^* = a + b\,x^*$.

    ---

    ### 3. Medidas de Ajuste e Erro

    * **Resíduos:**
    * **Resíduos:**
    $e_i = y_i - \hat y_i$.

    * **Soma dos Quadrados dos Resíduos (Sr):**
    @@ -100,44 +101,44 @@

    $$
    R^2 = 1 - \frac{S_r}{S_t}
    \quad\bigl(0 \le R^2 \le 1\bigr)
    \quad(0 \le R^2 \le 1)
    $$

    * Interpretação: fração da variação total de $Y$ explicada pelo modelo linear.
    * Ex.: $R^2=0{,}90$ significa 90 % da variação explicada.&#x20;
    * Interpretação: fração da variação total de $Y$ explicada pelo modelo linear.
    * Ex.: $R^2 = 0,90$ significa 90% da variação explicada.

    * **Erro-padrão da estimativa ($S_{y/x}$):**

    $$
    S_{y/x} = \sqrt{\frac{S_r}{n-2}}
    $$

    Indica dispersão dos pontos em torno da reta.&#x20;
    Indica dispersão dos pontos em torno da reta.

    ---

    ### 4. Observações Importantes

    * **Regressão vs. Interpolação:**

    * **Regressão:** ajusta uma curva que *não* passa por todos os pontos; usa mínimos quadrados para tendência (ruído nos dados).
    * **Interpolação:** ajusta uma curva que *passa* exatamente por cada ponto (dados precisos).&#x20;
    * **Regressão:** ajusta uma curva que *não* passa por todos os pontos; usa mínimos quadrados para tendência (ruído nos dados).
    * **Interpolação:** ajusta uma curva que *passa* exatamente por cada ponto (dados precisos).

    * **Assunções da Regressão Linear Simples:**

    1. Relação linear entre $X$ e $Y$.
    2. Resíduos com média zero e variância constante.
    3. Independência dos erros.
    1. Relação linear entre $X$ e $Y$.
    2. Resíduos com média zero e variância constante.
    3. Independência dos erros.
    4. (Opcional) Normalidade dos resíduos para inferência.

    * **Interpretação de Sinal e Magnitude de $b$ e $r$:**

    * **$b>0$** e **$r>0$**: relação direta.
    * **$b<0$** e **$r<0$**: relação inversa.
    * **$b>0$** e **$r>0$**: relação direta.
    * **$b<0$** e **$r<0$**: relação inversa.
    * Magnitude indica intensidade (classificação de $r$).

    ---

    > **Dica de “colão”:** use esta estrutura em uma única folha, com seções numeradas, fórmulas destacadas em negrito e uma pequena anotação de como aplicar cada fórmula em exercícios (por exemplo, cole os valores de $\sum x$, $\sum y$, $\sum xy$, etc., e calcule $a$, $b$, $r$, $R^2$ diretamente).
    > **Dica de “colão”:** use esta estrutura em uma única folha, com seções numeradas, fórmulas destacadas em negrito e uma pequena anotação de como aplicar cada fórmula em exercícios (por exemplo, cole os valores de $\sum x$, $\sum y$, $\sum xy$ etc. e calcule $a$, $b$, $r$, $R^2$ diretamente).
    Bom estudo e boa prova!
    Bom estudo e boa prova!
  4. mateusfg7 revised this gist Jun 24, 2025. No changes.
  5. mateusfg7 created this gist Jun 24, 2025.
    143 changes: 143 additions & 0 deletions matematica.md
    Original file line number Diff line number Diff line change
    @@ -0,0 +1,143 @@
    **Cheat Sheet: Correlação e Regressão Linear**

    ---

    ### 1. Correlação Linear

    * **Objetivo:** medir força e direção da relação linear entre duas variáveis $X$ e $Y$ (diagrama de dispersão elíptico).&#x20;

    * **Coeficiente de Correlação de Pearson ($r$):**

    $$
    r \;=\;\frac{\displaystyle \sum_{i=1}^n (x_i - \bar x)(y_i - \bar y)}
    {\sqrt{\displaystyle \sum_{i=1}^n (x_i - \bar x)^2 \;\sum_{i=1}^n (y_i - \bar y)^2}}
    \quad\text{ou, equivalente,}\quad
    r = \frac{\sum xy - \frac{\sum x\,\sum y}{n}}
    {\sqrt{\Bigl[\sum x^2 - \frac{(\sum x)^2}{n}\Bigr]
    \Bigl[\sum y^2 - \frac{(\sum y)^2}{n}\Bigr]}}
    $$

    * $n$: número de pares $(x_i,y_i)$
    * $\bar x = \frac{\sum x_i}{n}$, $\bar y = \frac{\sum y_i}{n}$&#x20;

    * **Intervalo de $r$:**
    $-1 \le r \le +1$.

    * $r>0$: correlação direta (positiva)
    * $r<0$: correlação inversa (negativa)
    * $r=0$: sem correlação linear

    * **Classificação qualitativa:**
    \| $|r|$ | Grau de Associação |
    \|------------------|-----------------------------|
    \| 0 | nula |
    \| 0 – 0,3 | fraca |
    \| 0,3 – 0,6 | regular |
    \| 0,6 – 0,9 | forte |
    \| 0,9 – 1,0 | muito forte |
    \| 1,0 | perfeita |


    ---

    ### 2. Regressão Linear Simples

    * **Modelo:**

    $$
    \hat y = a + b\,x
    $$

    * $a$: intercepto (valor previsto de $y$ quando $x=0$)
    * $b$: coeficiente angular (inclinação)&#x20;

    * **Método dos Mínimos Quadrados:**
    Minimizar $\displaystyle \sum_{i=1}^n (y_i - \hat y_i)^2$.

    * **Fórmulas para os coeficientes:**

    $$
    b = \frac{\displaystyle \sum_{i=1}^n (x_i - \bar x)(y_i - \bar y)}
    {\displaystyle \sum_{i=1}^n (x_i - \bar x)^2}
    \quad,\quad
    a = \bar y \;-\; b\,\bar x
    $$

    **Equivalente em termos de somatórios:**

    $$
    b = \frac{\sum xy - \tfrac{\sum x\,\sum y}{n}}
    {\sum x^2 - \tfrac{(\sum x)^2}{n}}
    \quad,\quad
    a = \frac{\sum y}{n} \;-\; b\,\frac{\sum x}{n}
    \] :contentReference[oaicite:4]{index=4}
    $$

    * **Previsão:**
    Para um $x^*$, calcula-se $\hat y^* = a + b\,x^*$.

    ---

    ### 3. Medidas de Ajuste e Erro

    * **Resíduos:**
    $e_i = y_i - \hat y_i$.

    * **Soma dos Quadrados dos Resíduos (Sr):**

    $$
    S_r = \sum_{i=1}^n (y_i - \hat y_i)^2
    $$

    * **Soma Total dos Quadrados (St):**

    $$
    S_t = \sum_{i=1}^n (y_i - \bar y)^2
    $$

    * **Coeficiente de Determinação ($R^2$):**

    $$
    R^2 = 1 - \frac{S_r}{S_t}
    \quad\bigl(0 \le R^2 \le 1\bigr)
    $$

    * Interpretação: fração da variação total de $Y$ explicada pelo modelo linear.
    * Ex.: $R^2=0{,}90$ significa 90 % da variação explicada.&#x20;

    * **Erro-padrão da estimativa ($S_{y/x}$):**

    $$
    S_{y/x} = \sqrt{\frac{S_r}{n-2}}
    $$

    Indica dispersão dos pontos em torno da reta.&#x20;

    ---

    ### 4. Observações Importantes

    * **Regressão vs. Interpolação:**

    * **Regressão:** ajusta uma curva que *não* passa por todos os pontos; usa mínimos quadrados para tendência (ruído nos dados).
    * **Interpolação:** ajusta uma curva que *passa* exatamente por cada ponto (dados precisos).&#x20;

    * **Assunções da Regressão Linear Simples:**

    1. Relação linear entre $X$ e $Y$.
    2. Resíduos com média zero e variância constante.
    3. Independência dos erros.
    4. (Opcional) Normalidade dos resíduos para inferência.

    * **Interpretação de Sinal e Magnitude de $b$ e $r$:**

    * **$b>0$** e **$r>0$**: relação direta.
    * **$b<0$** e **$r<0$**: relação inversa.
    * Magnitude indica intensidade (classificação de $r$).

    ---

    > **Dica de “colão”:** use esta estrutura em uma única folha, com seções numeradas, fórmulas destacadas em negrito e uma pequena anotação de como aplicar cada fórmula em exercícios (por exemplo, cole os valores de $\sum x$, $\sum y$, $\sum xy$, etc., e calcule $a$, $b$, $r$, $R^2$ diretamente).
    Bom estudo e boa prova!