Caps 2.5.1, 2.5.2, 2.5.3, 3.2, 3.3, 3.4 e 3.5
Os caps 3.4 e 3.5 são grandes mas a maior parte são exemplos (de complexidade crescente)
Note que o Ross passa batido no conceito de marginalização (apesar de usá-lo na parte de condicionais). Uma referência extra para essa parte seria o artigo da Wikipedia mesmo (en / pt)
Joint = conjunta - no contexto de distribuições
Expectation = Esperança / Valor Esperado
Do capítulo 2: 20, 21, 46a, 53
Do capítulo 3: 1, 2, 9, 11, 21
Assim como distribuições simples (como as vistas em IPE) carregam toda a informação estatística de uma variável aleatória, podemos criar descrições parecidas para quando temos mais do que um variável aleatória.
Essas distribuições conjuntas carregam não só as informações estatísticas de cada variável, mas também a forma como elas se relacionam (o que fica mais evidente no vídeo 4).
Grosso modo essas distribuições funcionam de maneira bem parecida com os casos que vocês já estão acostumados, porém as integrais/somas passam a ser sobre mais do que uma variável.
0:05 - Relembra distribuições discretas de uma variável
2:06 - Como ficam as conjuntas no caso discreto
3:25 - Ex: A distribuição trinomial
5:59 - Relembra a noção de densidade de probabilidade
7:49 - Generalizando essa noção - distribuições conjuntas contínuas
9:53 - Visualizando eventos envolvendo 2 variáveis. Exemplo com a uniforme bivariada
14:52 - Ex: A normal bivariada
17:15 - Interpretação do significado das distribuições contínuas em um contexto mais geral
É muitas vezes útil extrair o comportamento de apenas algumas das variáveis descritas em uma distribuição conjunta. A operação que faz isso é a marginalização, que é obtida grosso modo somando/integrando sobre todos os valores das variáveis sendo removidas da descrição.
Uma outra operação importante é o condicionamento de uma variável com respeito à outra (como vocês podem ver lendo o Ross, é possível condicionar uma distribuição com respeito a eventos, mas essa ideia não é tão útil nesse curso).
A interpretação do condicionamento é bem direta no caso da variável sendo usada como informação ser uma variável discreta, porém envolve algumas sutilezas quando se trata de uma variável contínua (felizmente essas sutilezas não "vazam" para a parte algébrica do condicionamento).
0:05 - Marginalização no caso discreto
5:11 - A binomial é a marginal de uma trinomial
9:07 - Marginalização no caso contínuo
13:24 - Marginalizando a normal bivariada me dá uma normal simples
18:06 - Interpretação geométrica da operação
19:47 - Condicionamento no caso discreto
23:20 - Ex: Uma conexão interessante entre a Poisson e a binomial
30:10 - Condicionamento no caso contínuo
33:07 - Um alerta sobre a interpretação no caso contínuo (Paradoxo de Borel-Kolmogorov)
Quando as variáveis sendo descritas são independentes entre si, a cara da distribuição conjunta é bastante peculiar, com a conjunta sendo o produto das marginais.
Isso vai nas duas direções Se uma distribuição conjunta é tal que ela é o produto das suas marginais, então as variáveis descritas são independentes entre si.
Outro padrão que surge como uma consequência é que as distribuições marginais e condicionadas batem também (o que pode ser interpretado como as informações sendo usadas no condicionamento serem supérfluas)
0:05 - Relembra o conceito de variáveis aleatórias independentes em termos de eventos
0:51 - A assinatura do ponto de vista das conjuntas e das condicionadas/marginais (discreto)
5:01 - Casos com mais do que 2 variáveis
5:39 - Generaliza pro caso contínuo
7:02 - Mostra que as assinaturas são essencialmente as mesmas no caso contínuo
8:10 - Assinatura do ponto de vista das distribuições condicionadas
A ideia de valor esperado e variância se estende naturalmente para o caso conjunto.
A parte de como calcular tem muita analogia com a forma como calculamos a probabilidade de eventos no caso de distribuições conjuntas.
Um conceito novo que surge quando mexemos com mais do que uma variável é a covariância, que indica como "tendências" de 2 variáveis diferentes se relacionam.
4:50 - Generaliza para o caso contínuo
5:42 - Uma explicação por um ponto de vista diferente das propriedades algébricas do valor esperado
8:35 - As noções de variância e covariância e a relação entre elas
9:19 - A variância da soma de variáveis no caso NÃO independente
12:14 - A covariância entre 2 variáveis independentes
14:26 - Interpretação da covariância em termos de tendências
A ideia de distribuição condicionada pode ser estendida para a ideia de esperanças e variâncias condicionadas.
A grande utilidade desses conceitos estão nas leis da Esperança Total e da Variância Total, que são ferramentas extremamente poderosas para o cálculo de esperanças e variâncias.
0:05 - A esperança para uma distribuição condicionada (fixo o valor de condicionamento)
2:08 - A esperança condicionada como uma variável aleatória
3:08 - A lei da esperança total
7:33 - Ex.: Um detector imperfeito
12:12 - A variância condicionada
13:20 - A lei da variância total
22:53 - A lei da probabilidade total é um caso particular