Capítulo 1 Pensamento probabilístico


1.1 Experimento


1.1.1 O que é um experimento?

  • Um experimento é um processo de simulação ou medição cujo resultado é chamado de desfecho.1

  • Tentativa se refere a uma repetição de um experimento aleatório.1

  • Em um experimento aleatório, o desfecho de cada tentativa é imprevisível.1


1.2 Espaço amostral e eventos discretos


1.2.1 O que é espaço amostral discreto?

  • O espaço amostral \(S\) de um experimento aleatório é definido como o conjunto de todos os desfechos possíveis de um experimento.1

  • Em probabilidade discreta, o espaço amostral \(S\) pode ser enumerado e contato.1


Exemplos de espaço amostral discreto. Superior: Todas as faces de uma moeda. Inferior: Todas as faces de um dado.

Figura 1.1: Exemplos de espaço amostral discreto. Superior: Todas as faces de uma moeda. Inferior: Todas as faces de um dado.


1.2.2 O que é evento discreto?

  • Um evento \(E\) é um único desfecho ou uma coleção de desfechos.1

  • Um evento \(E\) é um subconjunto do espaço amostral \(S\) de um experimento.1


Exemplos de evento de experimento. Superior: 1 lançamento de 1 moeda. Inferior: 1 lançamento de 1 dado.

Figura 1.2: Exemplos de evento de experimento. Superior: 1 lançamento de 1 moeda. Inferior: 1 lançamento de 1 dado.


1.2.3 O que é espaço de eventos discretos?

  • Um espaço de eventos \(E_{s}\) também é um subconjunto do espaço amostral \(S\) de um experimento.1

  • A união de dois eventos \(E_{1} \cup E_{2}\) é o conjunto de todos os desfechos que estão em ambos.1

  • A intersecção de dois eventos \(E_{1} \cap E_{2}\), ou evento conjunto, é o conjunto de todos os desfechos que estão em ambos os eventos.1

  • O complemento de um evento \(E^C\) consiste em todos os desfechos que não estão incluídos no evento \(E\).1


Espaço de eventos: União dos eventos face = 3 e face = 4 de um dado.

Figura 1.3: Espaço de eventos: União dos eventos face = 3 e face = 4 de um dado.


1.3 Espaço amostral e eventos contínuos


1.3.1 O que é espaço amostral contínuo?


1.3.2 O que é evento contínuo?


1.3.3 O que é espaço de eventos contínuo?


1.4 Probabilidade


1.4.1 O que é probabilidade?

  • Com um espaço amostral \(S\) finito e não vazio de desfechos igualmente prováveis, a probabilidade \(P\) de um evento \(E\) é a razão entre o número de desfechos no evento \(E\) e o número de desfechos no espaço amostral \(S\).1

  • Um evento \(E\) impossível não contém um desfecho e, portanto, nunca ocorre: \(P(E)=0\).1,2

  • Um evento \(E\) é certo consiste em qualquer um dos desfechos possíveis e, portanto, sempre ocorre: \(P(E)=1\).1


1.4.2 Quais são os axiomas da probabilidade?

  • A probabilidade de um evento é um número real que satisfaz os seguintes axiomas descritos por Andrei Nikolaevich Kolmogorov em 1950:1,2

    • Axioma I. Probabilidades de um evento \(E\) são números não-negativos: \(P(E) \geq 0\).

    • Axioma II. Probabilidade de todos os eventos do espaço amostral \(A\) ocorrerem é 100%: \(P(S)=1\).

    • Axioma III. A probabilidade de um conjunto k de eventos mutuamente exclusivos é igual a soma da probabilidade de cada evento: \(P(E_{1} \cup E_{2} \cup ... E_{k}) = P(E_{1}) + P(E_{2}) + ... + P(E_{k})\).

  • Os axiomas possuem as seguintes consequências:1

    • A soma da probabilidade de dois eventos que dividem o espaço amostral é 100%: \(P(E)+P(E)^C=1\).

    • O valor máximo de probabilidade de um evento é 100%: \(P(S)≤1\).

    • A probabilidade é uma função não decrescente do número de desfechos de um evento.


1.5 Independência e probabilidade


1.5.1 O que é independência em estatística?

  • Em experimentos aleatórios, é comum assumir que os eventos de tentativas separadas são independentes devido a independência física de eventos e experimentos.1

  • Se a ocorrência do evento \(E_{1}\) não tiver efeito na ocorrência do evento \(E_{2}\), os eventos \(E_{1}\) e \(E_{2}\) são considerados estatisticamente independentes.

  • Eventos são mutuamente exclusivos, ou disjuntos, se a ocorrência de um exclui a ocorrência dos outros.1

  • Se dois eventos \(E_{1}\) e \(E_{2}\) são mutuamente exclusivos, então os eventos \(E_{1}\) e \(E_{2}\) não podem ocorrer ao mesmo tempo e, portanto, são eventos dependentes.

  • Em experimentos independentes, o desfecho de uma tentativa é independente dos desfechos de outras tentativas, passadas e/ou futuras. Uma tentativa em um experimento aleatório é independente se a probabilidade de cada desfecho possível não mudar de tentativa para tentativa.1


Esquerda: Evento (face = 4). Direita: Experimentos de 1 lançamento de 1 dado (superior), 3 lançamentos de 1 dado (central), 10 lançamentos de 1 dado (inferior).

Figura 1.4: Esquerda: Evento (face = 4). Direita: Experimentos de 1 lançamento de 1 dado (superior), 3 lançamentos de 1 dado (central), 10 lançamentos de 1 dado (inferior).


1.5.2 O que é probabilidade marginal?

  • Probabilidade marginal é a probabilidade de ocorrência de um evento \(E\) independentemente da(s) probabilidade(s) de outro(s) evento(s).1


1.5.3 O que é probabilidade conjunta?

  • Probabilidade conjunta é a probabilidade de ocorrência de dois ou mais eventos independentes \(E_{1}\), \(E_{2}\), …, \(E_{k}\), independentemente da(s) probabilidade(s) de outro(s) evento(s).1

  • Se a probabilidade conjunta dos eventos é nula (\(E_{1} \cup E_{2} = 0\)), esses dois eventos \(E_{1}\) e \(E_{2}\) são mutuamente exclusivos ou disjuntos.1


1.5.4 O que é probabilidade condicional?

  • Probabilidade condicional é a probabilidade de ocorrência do evento \(E_{2}\) quando se sabe que o evento \(E_{1}\) já ocorreu \(P(E_{2} | E_{1})\).1

  • A probabilidade condicional \(P(E_{2} | E_{1})\) representa que a ocorrência do evento \(E_{1}\) fornece informação sobre a ocorrência do evento \(E_{2}\).1

  • Se a ocorrência do evento \(E_{1}\) tiver alguma influência na ocorrência do evento \(E_{2}\), então a probabilidade condicional do evento \(E_{2}\) dado o evento \(E_{1}\) pode ser maior ou menor do que a probabilidade marginal.1


1.6 Leis dos números anômalos


1.6.1 O que é a lei dos números anômalos?

  • A lei dos números anômalos - lei de Benford - é uma distribuição de probabilidade que descreve a frequência de ocorrência do primeiro dígito em muitos conjuntos de dados do mundo real.3


1.7 Leis dos pequenos números


1.7.1 O que é a lei dos pequenos números?

  • A crença exagerada na probabilidade de replicar com sucesso os achados de um estudo, pela tendência de se considerar uma amostra como representativa da população.4

  • A crença na lei dos pequenos números se refere à tendência de superestimar a estabilidade das estimativas provenientes de estudos com amostras pequenas.5

  • Quando se percebe um padrão, pode não ser possível identificar se tal padrão é real.6


1.7.2 Quais são as versões da lei dos pequenos números?

  • 1a Lei Forte dos Pequenos Números: “Não há pequenos números suficientes para atender às muitas demandas que lhes são feitas”.6

  • 2a Lei Forte dos Pequenos Números: “Quando dois números parecem iguais, não são necessariamente assim”.7


1.8 Leis dos grandes números


1.8.1 O que é a lei dos grandes números?

  • A lei dos grandes números descreve que, ao realizar o mesmo experimento \(E\) um grande número de vezes (\(n\)), a média \(\mu\) dos resultados obtidos tende a se aproximar do valor esperado \(E[\bar{X}]\) à medida que mais experimentos forem realizados (\(n \to \infty\)).REF?

  • De acordo com a lei dos grandes números, a média amostral converge para a média populacional à medida que o tamanho da amostra aumenta.REF?


1.8.2 Quais são as versões da lei dos grandes números?

  • Lei Fraca dos Grandes Números (de Poisson): ““.REF?

  • Lei Fraca dos Grandes Números (de Bernoulli): ““.REF?

  • Lei Forte dos Grandes Números: ““.REF?


1.9 Teorema central do limite


1.9.1 O que é teorema central do limite?

  • O teorema central do limite - equação (1.1) - afirma que, para uma amostra aleatória de tamanho \(n\) de uma população com valor esperado igual à média \(E[\bar{X_{i}}] = \mu\) e variância \(Var[\bar{X_{i}}]\) igual a \(\sigma^{2}\), a distribuição amostral da média de uma variável \(\bar{X}\) se aproxima de uma distribuição normal \(N\) com média \(\mu\) e variância \(\sigma^{2}/n\) à medida que \(n\) aumenta (\(n \to \infty\)):8


\[\begin{equation} \tag{1.1} \sqrt{n}(\bar{X} - \mu) \xrightarrow{n \to \infty} N(0, \sigma^2) \end{equation}\]


  • O teorema central do limite demonstra que se o tamanho da amostra \(n\) for suficientemente grande, a distribuição amostral das médias obtidas utilizando reamostragem com substituição será aproximadamente normal, com média \(\mu\) e variância \(\sigma^{2}/n\), independentemente da distribuição da população.8

  • No exemplo abaixo, uma variável aleatória numérica com distribuição uniforme no espaço amostral \(S=[18;65]\) tem média \(\mu\) = 38.53 e variância \(\sigma^{2}\) = 172.433. A distribuição amostral da média de 100 amostras de tamanho 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade se aproxima de uma distribuição normal com média \(\mu\) = 38.493 e variância \(\sigma^{2}\) = 0.038, independentemente da distribuição da população:


Esquerda: Histogramas de uma variável aleatória com distribuição uniforme (N = 100). Direita: Histogramas da média de 100 amostras de tamanhos 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade.

Figura 1.5: Esquerda: Histogramas de uma variável aleatória com distribuição uniforme (N = 100). Direita: Histogramas da média de 100 amostras de tamanhos 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade.


  • Em outro exemplo, o lançamento de um dado com distribuição uniforme no espaço amostral \(S=\{1,2,3,4,5,6\}\) tem média \(\mu\) = 3.77 e variância \(\sigma^{2}\) = 3.169. A distribuição amostral da média de 100 amostras de tamanho 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade se aproxima de uma distribuição normal com média \(\mu\) = 3.767 e variância \(\sigma^{2}\) = 0.001, independentemente da distribuição da população:


Esquerda: Histogramas de lançament de 1 dado com distribuição uniforme (N = 100). Direita: Histogramas da média de 100 amostras de tamanhos 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade.

Figura 1.6: Esquerda: Histogramas de lançament de 1 dado com distribuição uniforme (N = 100). Direita: Histogramas da média de 100 amostras de tamanhos 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade.


  • Mais um exemplo, o lançamento de uma moeda com distribuição uniforme no espaço amostral \(S=\{0,1\}\) — codificado para \(sucesso = 1\) e \(insucesso = 0\) — tem média \(\mu\) = 0.55 e variância \(\sigma^{2}\) = 0.25. A distribuição amostral da média de 100 amostras de tamanho 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade se aproxima de uma distribuição normal com média \(\mu\) = 0.55 e variância \(\sigma^{2}\) = 0, independentemente da distribuição da população:


Esquerda: Histogramas de lançament de 1 moeda com distribuição uniforme (N = 100). Direita: Histogramas da média de 100 amostras de tamanhos 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade.

Figura 1.7: Esquerda: Histogramas de lançament de 1 moeda com distribuição uniforme (N = 100). Direita: Histogramas da média de 100 amostras de tamanhos 5, 50, 500 e 5000 tomadas da população com reposição e igual probabilidade.


1.9.2 Quais as condições de validade do teorema central do limite?

  • As condições de validade do teorema central do limite são:8

    • As variáveis aleatórias devem ser independentes e identicamente distribuídas (independent and identically distributed ou i.i.d.);

    • As variáveis aleatórias devem ter média \(\mu\) e variância \(\sigma^{2}\) finitas;

    • O tamanho da amostra deve ser suficientemente grande (geralmente, \(n \geq 30\)).


1.9.3 Qual a relação entre a lei dos grandes números e o teorema central do limite?

  • A lei dos grandes números é um precursor do teorema central do limite, pois estabelece que a média da amostra se torna cada vez mais próxima da média populacional (isto é, mais representativa) à medida que o tamanho da amostra aumenta, e o teorema central do limite demonstra que o a distribuição da soma das variáveis aleatórias se aproxima de uma distribuição normal também à medida que o tamanho da amostra aumenta.REF?


1.9.4 Qual a relevância do teorema central do limite para a análise estatística?

  • O teorema central do limite explica porque os testes paramétricos têm maior poder estatístico do que os testes não paramétricos, os quais não requerem suposições de distribuição de probabilidade.8

  • O teorema central do limite implica que os métodos estatísticos que se aplicam a distibuições normais podem ser aplicados a outras distribuições quando suas suposições são satisfeitas.8

  • Como o teorema central do limite determina a distribuição amostral \(Z\) - equação (1.2) - das médias com tamanho amostral suficientemente grande, a média pode ser padronizada para uma distribuição normal com média 0 e variância 1, \(N(0,1)\):8


\[\begin{equation} \tag{1.2} Z = \frac{\bar{X} - \mu}{\sigma / \sqrt{n}} \end{equation}\]


  • Para amostras com \(n \geq 30\), a distribuição amostral Student-t se aproxima da distribuição normal padrão \(Z\) e, portanto, as suposições sobre a distribuição populacional não são mais necessárias de acordo com o teorema central do limite. Neste cenário, a suposição de distribuição normal pode ser usada para a distribuição de probabilidade.8


1.10 Regressão para a média


1.10.1 O que é regressão para a média?

  • Regressão para a média9 é um fenômeno estatístico que ocorre quando uma variável aleatória \(X\) é medida na mesma unidade de análise em dois ou mais momentos diferentes, \(X_{1}\), \(X_{2}\), …, \(X_{t}\) e \(X_{t}\) é mais próximo da média populacional do que \(X_{1}\), ou seja, \(E(X_{t})\) é mais próxima de \(E(X)\) do que \(E(X_{1})\) é de \(E(X)\).10

  • O valor real - sem erros aleatório ou sistemático - em geral não é conhecido, mas pode ser estimado pela média de várias observações.10

  • Regressão para a média pode ocorrer em qualquer pesquisa cujo delineamento envolva medidas repetidas.11

  • Em medidas repetidas, a média de várias observações é mais próxima da média verdadeira do que qualquer observação individual, pois o erro aleatório é reduzido pela média.10

  • Valores extremos - em direção ao mínimo ou máximo - em uma medição inicial tendem a ser seguidos por valores mais próximos da média (valor real) na medição subsequente.10

  • No exemplo abaixo, a 2a medida (dado 2 = 121) é mais próxima da média (valor real = 120) do que a 1a medida (dado 1 = 118):


Representação gráfica da regressão para a média em medidas repetidas. A segunda medida (dado 2) é mais próxima da média (valor real) do que a primeira medida (dado 1).

Figura 1.8: Representação gráfica da regressão para a média em medidas repetidas. A segunda medida (dado 2) é mais próxima da média (valor real) do que a primeira medida (dado 1).


1.10.2 Qual a causa da regressão para a média?

  • A regressão para a média pode ser atribuída ao erro aleatório, que é a variação não sistemática nos valores observados em torno de uma média verdadeira (por exemplo, erro de medição aleatório ou variações aleatórias em um participante).10

  • Regrssão para a média é uma consequência da observação de que dados extremos não se repetem com frequência.11

  • Deve-se assumir que a regressão para a média ocorreu até que os dados mostrem o contrário.10


1.10.3 Por que detectar o fenômeno de regressão para a média?

  • A regressão para a média pode levar a conclusões errôneas sobre a eficácia de uma intervenção, pois a mudança observada pode ser devida ao erro aleatório e não ao tratamento.11


1.10.4 Com detectar o fenômeno de regressão para a média?

  • O fenômeno de regressão para a média pode ser detectado por meio de gráfico de dispersão da diferença (estudos transversais) ou mudança (estudos longitudinais) versus os valores da 1a medida.10



1.10.5 Como o fenômeno de regressão para a média pode ser evitado?

  • Aloque os participantes de modo aleatório nos grupos de tratamento e controle pode reduzir o fenômeno de regressão para a média.10

  • Selecione participantes com base em medidas repetidas ao invés de medidas únicas.10


Referências

1.
Grami A. Discrete probability. In: Elsevier; 2023:285-305. doi:10.1016/b978-0-12-820656-0.00016-2
2.
Viti A, Terzi A, Bertolaccini L. A practical overview on probability distributions. Journal of Thoracic Disease. 2015;7(3). https://jtd.amegroups.org/article/view/4086.
3.
Benford F. The law of anomalous numbers. Proceedings of the American Philosophical Society. 1938;78(4):551-572. http://www.jstor.org/stable/984802. Accessed November 24, 2024.
4.
Tversky A, Kahneman D. Belief in the law of small numbers. Psychological Bulletin. 1971;76(2):105-110. doi:10.1037/h0031322
5.
Bishop DVM, Thompson J, Parker AJ. Can we shift belief in the Law of Small Numbers? Royal Society Open Science. 2022;9(3). doi:10.1098/rsos.211028
6.
Guy RK. The strong law of small numbers. The American Mathematical Monthly. 1988;95(8):697. doi:10.2307/2322249
7.
Guy RK. The Second Strong Law of Small Numbers. Mathematics Magazine. 1990;63(1):3-20. doi:10.1080/0025570x.1990.11977475
8.
Kwak SG, Kim JH. Central limit theorem: the cornerstone of modern statistics. Korean Journal of Anesthesiology. 2017;70(2):144. doi:10.4097/kjae.2017.70.2.144
9.
Galton F. Regression towards mediocrity in hereditary stature. The Journal of the Anthropological Institute of Great Britain and Ireland. 1886;15:246. doi:10.2307/2841583
10.
Barnett AG. Regression to the mean: what it is and how to deal with it. International Journal of Epidemiology. 2004;34(1):215-220. doi:10.1093/ije/dyh299
11.
Senn S. Francis Galton and Regression to the Mean. Significance. 2011;8(3):124-126. doi:10.1111/j.1740-9713.2011.00509.x
12.
Recchia D. Regtomean: Regression Toward the Mean.; 2022. https://CRAN.R-project.org/package=regtomean.