Capítulo 1 Pensamento probabilístico


1.1 Experimento


1.1.1 O que é um experimento?

  • Um experimento é um processo de simulação ou medição cujo resultado é chamado de desfecho.1

  • Tentativa se refere a uma repetição de um experimento.1


1.1.2 O que é um experimento aleatório?

  • Em um experimento aleatório, o desfecho de cada tentativa é imprevisível.1


1.2 Espaço amostral e eventos discretos


1.2.1 O que é espaço amostral discreto?

  • O espaço amostral \(S\) de um experimento aleatório é definido como o conjunto de todos os desfechos possíveis de um experimento.1

  • Em probabilidade discreta, o espaço amostral \(S\) pode ser enumerado e contado.1


Exemplos de espaço amostral discreto. Superior: Todas as faces de uma moeda. Inferior: Todas as faces de um dado.

Figura 1.1: Exemplos de espaço amostral discreto. Superior: Todas as faces de uma moeda. Inferior: Todas as faces de um dado.


1.2.2 O que é evento discreto?

  • Um evento \(E\) é um único desfecho ou uma coleção de desfechos.1

  • Um evento \(E\) é um subconjunto do espaço amostral \(S\) de um experimento.1


Exemplos de evento de experimento. Superior: 1 lançamento de 1 moeda. Inferior: 1 lançamento de 1 dado.

Figura 1.2: Exemplos de evento de experimento. Superior: 1 lançamento de 1 moeda. Inferior: 1 lançamento de 1 dado.


1.2.3 O que é espaço de eventos discretos?

  • Um espaço de eventos \(E_{s}\) também é um subconjunto do espaço amostral \(S\) de um experimento.1

  • A união de dois eventos \(E_{1} \cup E_{2}\) é o conjunto de todos os desfechos que estão em \(E_{1}\), em \(E_{2}\) ou em ambos.1

  • A intersecção de dois eventos \(E_{1} \cap E_{2}\), ou evento conjunto, é o conjunto de todos os desfechos que estão em ambos os eventos.1

  • O complemento de um evento \(E^C\) consiste em todos os desfechos que não estão incluídos no evento \(E\).1


Espaço de eventos: União dos eventos face = 3 e face = 4 de um dado.

Figura 1.3: Espaço de eventos: União dos eventos face = 3 e face = 4 de um dado.


1.3 Espaço amostral e eventos contínuos


1.3.1 O que é espaço amostral contínuo?


1.3.2 O que é evento contínuo?


1.3.3 O que é espaço de eventos contínuo?


1.4 Probabilidade


1.4.1 O que é probabilidade?

  • Com um espaço amostral \(S\) finito e não vazio de desfechos igualmente prováveis, a probabilidade \(P\) de um evento \(E\) é a razão entre o número de desfechos no evento \(E\) e o número de desfechos no espaço amostral \(S\) (1.1).1


\[\begin{equation} \tag{1.1} P(E) = \frac{\text{número de desfechos em } E}{\text{número de desfechos em } S} \end{equation}\]


  • Um evento \(E\) impossível não contém um desfecho e, portanto, nunca ocorre: \(P(E)=0\).1,2

  • Um evento \(E\) é certo consiste em qualquer um dos desfechos possíveis e, portanto, sempre ocorre: \(P(E)=1\).1


1.4.2 Quais são os axiomas da probabilidade?

  • A probabilidade de um evento é um número real que satisfaz os seguintes axiomas descritos por Andrei Nikolaevich Kolmogorov em 19501,2

  • Axioma I. Probabilidades de um evento \(E\) são números não-negativos: \(P(E) \geq 0\).1,2

  • Axioma II. Probabilidade de todos os eventos do espaço amostral \(A\) ocorrerem é 100%: \(P(S)=1\).1,2

  • Axioma III. A probabilidade de um conjunto k de eventos mutuamente exclusivos é igual a soma da probabilidade de cada evento: \(P(E_{1} \cup E_{2} \cup ... E_{k}) = P(E_{1}) + P(E_{2}) + ... + P(E_{k})\).1,2


1.4.3 Quais as consequências dos axiomas da probabilidade?

  • A soma da probabilidade de dois eventos que dividem o espaço amostral é \(100\%\): \(P(E)+P(E)^C=1\).1

  • O valor máximo de probabilidade de um evento é 100%: \(P(S) \leq 1\).1

  • A probabilidade é uma função não decrescente do número de desfechos de um evento.1


1.5 Independência e probabilidade


1.5.1 O que é independência em estatística?

  • Em experimentos aleatórios, é comum assumir que os eventos de tentativas separadas são independentes devido a independência física de eventos e experimentos.1

  • Se a ocorrência do evento \(E_{1}\) não tiver efeito na ocorrência do evento \(E_{2}\), os eventos \(E_{1}\) e \(E_{2}\) são considerados estatisticamente independentes.1

  • Eventos são mutuamente exclusivos, ou disjuntos, se a ocorrência de um exclui a ocorrência dos outros.1

  • Se dois eventos \(E_{1}\) e \(E_{2}\) são mutuamente exclusivos, então os eventos \(E_{1}\) e \(E_{2}\) não podem ocorrer ao mesmo tempo e, portanto, são eventos independentes.1


Superior: Eventos independentes. Inferior: Eventos dependentes.

Figura 1.4: Superior: Eventos independentes. Inferior: Eventos dependentes.


  • Em experimentos independentes, o desfecho de uma tentativa é independente dos desfechos de outras tentativas, passadas e/ou futuras. Uma tentativa em um experimento aleatório é independente se a probabilidade de cada desfecho possível não mudar de tentativa para tentativa.1


Esquerda: Evento (face = 4). Direita: Experimentos de 1 lançamento de 1 dado (superior), 3 lançamentos de 1 dado (central), 10 lançamentos de 1 dado (inferior).

Figura 1.5: Esquerda: Evento (face = 4). Direita: Experimentos de 1 lançamento de 1 dado (superior), 3 lançamentos de 1 dado (central), 10 lançamentos de 1 dado (inferior).


1.5.2 O que é probabilidade marginal?

  • Probabilidade marginal é a probabilidade de ocorrência de um evento \(E\) independentemente da(s) probabilidade(s) de outro(s) evento(s).1


1.5.3 O que é probabilidade conjunta?

  • Probabilidade conjunta é a probabilidade de ocorrência de dois ou mais eventos independentes \(E_{1}\), \(E_{2}\), …, \(E_{k}\), independentemente da(s) probabilidade(s) de outro(s) evento(s).1

  • Se a probabilidade conjunta dos eventos é nula (\(E_{1} \cup E_{2} = 0\)), esses dois eventos \(E_{1}\) e \(E_{2}\) são mutuamente exclusivos ou disjuntos.1


1.5.4 O que é probabilidade condicional?

  • Probabilidade condicional é a probabilidade de ocorrência do evento \(E_{2}\) quando se sabe que o evento \(E_{1}\) já ocorreu \(P(E_{2} | E_{1})\).1

  • A probabilidade condicional \(P(E_{2} | E_{1})\) representa que a ocorrência do evento \(E_{1}\) fornece informação sobre a ocorrência do evento \(E_{2}\).1

  • Se a ocorrência do evento \(E_{1}\) tiver alguma influência na ocorrência do evento \(E_{2}\), então a probabilidade condicional do evento \(E_{2}\) dado o evento \(E_{1}\) pode ser maior ou menor do que a probabilidade marginal.1


1.6 Leis dos números anômalos


1.6.1 O que é a lei dos números anômalos?

  • A lei dos números anômalos — lei de Benford — é uma distribuição de probabilidade que descreve a frequência de ocorrência dos dígitos significativos em muitos conjuntos de dados do mundo real, sendo mais evidente na distribuição do primeiro dígito (1.2).3


\[\begin{equation} \tag{1.2} P(d) = \log_{10}(d + 1) - \log_{10}(d) = \log_{10}\left(1 + \frac{1}{d}\right) \end{equation}\]


  • A lei tende a ocorrer quando os dados abrangem várias ordens de magnitude, não há limites artificiais, os dados são heterogêneos e os processos são multiplicativos.3

  • A lei de Benford surge naturalmente quando dados provêm de uma mistura aleatória de diferentes distribuições.4

  • Distribuições invariantes à escala implicam a distribuição logarítmica da lei de Benford.4

  • Essa propriedade implica que a distribuição permanece a mesma independentemente das unidades utilizadas (por exemplo, quilômetros ou milhas, dólares ou euros).4

  • A lei não se aplica a todos os conjuntos de dados, sendo menos adequada quando os valores possuem intervalos restritos ou limites artificiais.4


Simulação de números distribuídos log-uniformemente e comparação da frequência do primeiro dígito com a distribuição teórica da lei de Benford.

Figura 1.6: Simulação de números distribuídos log-uniformemente e comparação da frequência do primeiro dígito com a distribuição teórica da lei de Benford.


1.7 Leis dos pequenos números


1.7.1 O que é a lei dos pequenos números?

  • A crença exagerada na probabilidade de replicar com sucesso os achados de um estudo, pela tendência de se considerar uma amostra como representativa da população.5

  • A crença na lei dos pequenos números se refere à tendência de superestimar a estabilidade das estimativas provenientes de estudos com amostras pequenas.6

  • Quando se percebe um padrão, pode não ser possível identificar se tal padrão é real.7


1.7.2 Quais são as versões da lei dos pequenos números?

  • 1a Lei Forte dos Pequenos Números: “Não há pequenos números suficientes para atender às muitas demandas que lhes são feitas”.7

  • 2a Lei Forte dos Pequenos Números: “Quando dois números parecem iguais, não são necessariamente assim”.8


1.8 Leis dos grandes números


1.8.1 O que é a lei dos grandes números?

  • A lei dos grandes números afirma que, em repetições independentes de um experimento \(E\), a frequência relativa de sucessos \(\frac{S_n}{n}\) converge para a probabilidade verdadeira \(p\) à medida que o número de observações aumenta (\(n \to \infty\)).9

  • Esse resultado estabelece que estimativas baseadas em amostras tendem a se tornar mais estáveis e representativas da probabilidade verdadeira quando o tamanho da amostra aumenta.9

  • A lei dos grandes números não afirma que a frequência relativa será exatamente igual à probabilidade verdadeira em qualquer amostra finita, mas apenas que a diferença entre essas quantidades tende a diminuir quando o número de observações cresce.9

  • Esse princípio fornece a base teórica para a interpretação frequentista da probabilidade, segundo a qual a probabilidade de um evento pode ser estimada pela frequência relativa de ocorrência em um grande número de repetições do experimento.9

  • A lei dos grandes números também fundamenta muitos métodos estatísticos, pois garante que estatísticas amostrais — como médias e proporções — convergem para seus respectivos valores populacionais quando o tamanho da amostra aumenta.9


1.8.2 Quais são as versões da lei dos grandes números?

  • Lei Fraca dos Grandes Números (Bernoulli–Poisson): estabelece que a média amostral \(\bar{X}_n\) converge em probabilidade para a média populacional \(\mu\) à medida que o tamanho da amostra aumenta (\(n \to \infty\)).9

  • Na lei fraca, a probabilidade de que a diferença entre a média amostral \(\bar{X}_n\) e a média populacional \(\mu\) seja maior que um valor arbitrariamente pequeno \(\epsilon\) tende a zero quando o tamanho da amostra aumenta.9

  • Lei Forte dos Grandes Números: estabelece que a média amostral \(\bar{X}_n\) converge quase certamente para a média populacional \(\mu\) quando o número de observações tende ao infinito (\(n \to \infty\)).9

  • A convergência quase certa significa que, com probabilidade igual a 1, a sequência de médias amostrais eventualmente se aproxima arbitrariamente da média populacional.9

  • Em termos conceituais, a lei fraca garante que a média amostral é provavelmente próxima da média verdadeira quando \(n\) é grande, enquanto a lei forte garante que a média amostral converge efetivamente para a média verdadeira ao longo de um número infinito de observações.9


1.9 Teorema central do limite


1.9.1 O que é teorema central do limite?

  • O teorema central do limite (1.3) afirma que, para uma amostra aleatória de tamanho \(n\) de uma população com valor esperado igual à média \(E[\bar{X_{i}}] = \mu\) e variância \(Var[\bar{X_{i}}]\) igual a \(\sigma^{2}\), a distribuição amostral da média de uma variável \(\bar{X}\) se aproxima de uma distribuição normal \(N\) com média \(\mu\) e variância \(\sigma^{2}/n\) à medida que \(n\) aumenta (\(n \to \infty\)):10


\[\begin{equation} \tag{1.3} \sqrt{n}(\bar{X} - \mu) \xrightarrow{n \to \infty} N(0, \sigma^2) \end{equation}\]


  • O teorema central do limite demonstra que se o tamanho da amostra \(n\) for suficientemente grande, a distribuição amostral das médias obtidas utilizando reamostragem com substituição será aproximadamente normal, com média \(\mu\) e variância \(\sigma^{2}/n\), independentemente da distribuição da população.10


  • No exemplo abaixo, uma variável aleatória numérica com distribuição uniforme no espaço amostral \(S=[18;65]\) tem média \(\mu\) = 38.53 e variância \(\sigma^{2}\) = 172.433. A distribuição amostral da média de 100 amostras de tamanho 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade se aproxima de uma distribuição normal com média \(\mu\) = 38.493 e variância \(\sigma^{2}\) = 0.038, independentemente da distribuição da população:


Esquerda: Histogramas de uma variável aleatória com distribuição uniforme (N = 100). Direita: Histogramas da média de 100 amostras de tamanhos 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade.

Figura 1.7: Esquerda: Histogramas de uma variável aleatória com distribuição uniforme (N = 100). Direita: Histogramas da média de 100 amostras de tamanhos 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade.


  • Em outro exemplo, o lançamento de um dado com distribuição uniforme no espaço amostral \(S=\{1,2,3,4,5,6\}\) tem média \(\mu\) = 3.77 e variância \(\sigma^{2}\) = 3.169. A distribuição amostral da média de 100 amostras de tamanho 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade se aproxima de uma distribuição normal com média \(\mu\) = 3.767 e variância \(\sigma^{2}\) = 0.001, independentemente da distribuição da população:


Esquerda: Histogramas de lançamento de 1 dado com distribuição uniforme (N = 100). Direita: Histogramas da média de 100 amostras de tamanhos 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade.

Figura 1.8: Esquerda: Histogramas de lançamento de 1 dado com distribuição uniforme (N = 100). Direita: Histogramas da média de 100 amostras de tamanhos 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade.


  • Mais um exemplo, o lançamento de uma moeda com distribuição uniforme no espaço amostral \(S=\{0,1\}\) — codificado para \(sucesso = 1\) e \(insucesso = 0\) — tem média \(\mu\) = 0.54 e variância \(\sigma^{2}\) = 0.251. A distribuição amostral da média de 100 amostras de tamanho 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade se aproxima de uma distribuição normal com média \(\mu\) = 0.54 e variância \(\sigma^{2}\) = 0, independentemente da distribuição da população:


Esquerda: Histogramas de lançamento de 1 moeda com distribuição uniforme (N = 100). Direita: Histogramas da média de 100 amostras de tamanhos 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade.

Figura 1.9: Esquerda: Histogramas de lançamento de 1 moeda com distribuição uniforme (N = 100). Direita: Histogramas da média de 100 amostras de tamanhos 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade.


1.9.2 Quais as condições de validade do teorema central do limite?

  • As condições de validade do teorema central do limite são:10

    • As variáveis aleatórias devem ser independentes e identicamente distribuídas (independent and identically distributed ou i.i.d.);

    • As variáveis aleatórias devem ter média \(\mu\) e variância \(\sigma^{2}\) finitas;

    • O tamanho da amostra deve ser suficientemente grande (geralmente, \(n \geq 30\)).


1.9.3 Qual a relação entre a lei dos grandes números e o teorema central do limite?

  • A lei dos grandes números é um precursor do teorema central do limite, pois estabelece que a média da amostra se torna cada vez mais próxima da média populacional (isto é, mais representativa) à medida que o tamanho da amostra aumenta, e o teorema central do limite demonstra que o a distribuição da soma das variáveis aleatórias se aproxima de uma distribuição normal também à medida que o tamanho da amostra aumenta.REF?


1.9.4 Qual a relevância do teorema central do limite para a análise estatística?

  • O teorema central do limite explica porque os testes paramétricos têm maior poder estatístico do que os testes não paramétricos, os quais não requerem suposições de distribuição de probabilidade.10

  • O teorema central do limite implica que os métodos estatísticos que se aplicam a distribuições normais podem ser aplicados a outras distribuições quando suas suposições são satisfeitas.10

  • Como o teorema central do limite determina a distribuição amostral \(Z\) (1.4) das médias com tamanho amostral suficientemente grande, a média pode ser padronizada para uma distribuição normal com média 0 e variância 1, \(N(0,1)\):10


\[\begin{equation} \tag{1.4} Z = \frac{\bar{X} - \mu}{\sigma / \sqrt{n}} \end{equation}\]


  • Para amostras com \(n \geq 30\), a distribuição amostral Student-t se aproxima da distribuição normal padrão \(Z\) e, portanto, as suposições sobre a distribuição populacional não são mais necessárias de acordo com o teorema central do limite. Neste cenário, a suposição de distribuição normal pode ser usada para a distribuição de probabilidade.10


1.10 Regressão para a média


1.10.1 O que é regressão para a média?

  • Regressão para a média11 é um fenômeno estatístico que ocorre quando uma variável aleatória \(X\) é medida na mesma unidade de análise em dois ou mais momentos diferentes, \(X_{1}\), \(X_{2}\), …, \(X_{t}\) e \(X_{t}\) é mais próximo da média populacional do que \(X_{1}\), ou seja, \(E(X_{t})\) é mais próxima de \(E(X)\) do que \(E(X_{1})\) é de \(E(X)\).12

  • O valor real — sem erros aleatório ou sistemático — em geral não é conhecido, mas pode ser estimado pela média de várias observações.12

  • Regressão para a média pode ocorrer em qualquer pesquisa cujo delineamento envolva medidas repetidas.13

  • Em medidas repetidas, a média de várias observações é mais próxima da média verdadeira do que qualquer observação individual, pois o erro aleatório é reduzido pela média.12

  • Valores extremos — em direção ao mínimo ou máximo — em uma medição inicial tendem a ser seguidos por valores mais próximos da média (valor real) na medição subsequente.12

  • No exemplo abaixo, a 2a medida (dado 2 = 121) é mais próxima da média (valor real = 120) do que a 1a medida (dado 1 = 118):


Representação gráfica da regressão para a média em medidas repetidas. A segunda medida (dado 2) é mais próxima da média (valor real) do que a primeira medida (dado 1).

Figura 1.10: Representação gráfica da regressão para a média em medidas repetidas. A segunda medida (dado 2) é mais próxima da média (valor real) do que a primeira medida (dado 1).


1.10.2 Qual a causa da regressão para a média?

  • A regressão para a média pode ser atribuída ao erro aleatório, que é a variação não sistemática nos valores observados em torno de uma média verdadeira (por exemplo, erro de medição aleatório ou variações aleatórias em um participante).12

  • Regressão para a média é uma consequência da observação de que dados extremos não se repetem com frequência.13

  • Deve-se assumir que a regressão para a média ocorreu até que os dados mostrem o contrário.12


1.10.3 Por que detectar o fenômeno de regressão para a média?

  • A regressão para a média pode levar a conclusões errôneas sobre a eficácia de uma intervenção, pois a mudança observada pode ser devida ao erro aleatório e não ao tratamento.13


1.10.4 Como detectar o fenômeno de regressão para a média?

  • O fenômeno de regressão para a média pode ser detectado por meio de gráfico de dispersão da diferença (estudos transversais) ou mudança (estudos longitudinais) versus os valores da 1a medida.12



1.10.5 Como o fenômeno de regressão para a média pode ser evitado?

  • Aloque os participantes de modo aleatório nos grupos de tratamento e controle para reduzir o fenômeno de regressão para a média.12

  • Selecione participantes com base em medidas repetidas ao invés de medidas únicas.12



Citar como:
Ferreira, Arthur de Sá. Ciência com R: Perguntas e respostas para pesquisadores e analistas de dados. Rio de Janeiro: 1a edição,


Referências

1.
Grami A. Discrete Probability. Em: Discrete Mathematics: Essentials and Applications. Elsevier; 2023:285–305. doi:10.1016/b978-0-12-820656-0.00016-2
2.
Viti A, Terzi A, Bertolaccini L. A practical overview on probability distributions. Journal of Thoracic Disease. 2015;7(3). https://jtd.amegroups.org/article/view/4086.
3.
Benford F. The Law of Anomalous Numbers. Proceedings of the American Philosophical Society. 1938;78(4):551–572. http://www.jstor.org/stable/984802. Acessado novembro 24, 2024.
4.
Hill TP. A Statistical Derivation of the Significant-Digit Law. Statistical Science. 1995;10(4). doi:10.1214/ss/1177009869
5.
Tversky A, Kahneman D. Belief in the law of small numbers. Psychological Bulletin. 1971;76(2):105–110. doi:10.1037/h0031322
6.
Bishop DVM, Thompson J, Parker AJ. Can we shift belief in the Law of Small Numbers? Royal Society Open Science. 2022;9(3). doi:10.1098/rsos.211028
7.
Guy RK. The Strong Law of Small Numbers. The American Mathematical Monthly. 1988;95(8):697. doi:10.2307/2322249
8.
Guy RK. The Second Strong Law of Small Numbers. Mathematics Magazine. 1990;63(1):3–20. doi:10.1080/0025570x.1990.11977475
9.
Seneta E. A Tricentenary history of the Law of Large Numbers. Bernoulli. 2013;19(4). doi:10.3150/12-bejsp12
10.
Kwak SG, Kim JH. Central limit theorem: the cornerstone of modern statistics. Korean Journal of Anesthesiology. 2017;70(2):144. doi:10.4097/kjae.2017.70.2.144
11.
Galton F. Regression Towards Mediocrity in Hereditary Stature. The Journal of the Anthropological Institute of Great Britain and Ireland. 1886;15:246. doi:10.2307/2841583
12.
Barnett AG. Regression to the mean: what it is and how to deal with it. International Journal of Epidemiology. 2004;34(1):215–220. doi:10.1093/ije/dyh299
13.
Senn S. Francis Galton and Regression to the Mean. Significance. 2011;8(3):124–126. doi:10.1111/j.1740-9713.2011.00509.x
14.
Recchia D. regtomean: Regression Toward the Mean.; 2022. https://CRAN.R-project.org/package=regtomean.