#ProfessorAngeloAntonioLeithold#py5aal Na teoria da probabilidade e estatística, a distribuição de probabilidade é a função matemática que fornece as probabilidades de ocorrência de resultados possíveis para um experimento. É uma descrição matemática de um fenômeno aleatório em termos de seu espaço amostral e das probabilidades de eventos, subconjuntos do espaço amostral). Por exemplo, se X for usado para denotar o resultado cara ou coroa, o experimento, então a distribuição de probabilidade de X assumiria o valor 0,5, seja 1 em 2 ou 1/2, para X = cara e 0,5 para X = coroa. Mais comumente, distribuições de probabilidade são usadas para comparar a ocorrência relativa de muitos valores aleatórios diferentes. Distribuições de probabilidade podem ser definidas de diferentes maneiras, tanto para variáveis discretas quanto para variáveis contínuas. Distribuições com propriedades especiais ou para aplicações especialmente importantes recebem nomes específicos.
#ProfessorAngeloAntonioLeithold#py5aal Uma distribuição de probabilidade entáo é uma descrição matemática das probabilidades de eventos, subconjuntos do espaço amostral. O espaço amostral, frequentemente representado em notação por Ω, que é o conjunto de todos os resultados possíveis de um fenômeno aleatório observado. O espaço amostral pode ser qualquer conjunto: um conjunto de números reais , um conjunto de rótulos descritivos, um conjunto de vetores, um conjunto de valores não numéricos arbitrários, etc. Por exemplo, o espaço amostral de um cara ou coroa poderia ser Ω = { "cara", "coroa" }. Para definir distribuições de probabilidade para o caso específico de variáveis aleatórias, de modo que o espaço amostral possa ser visto como um conjunto numérico, é comum distinguir entre variáveis aleatórias discretas e contínuas. No caso discreto, basta especificar uma função de massa de probabilidade ρ atribuir uma probabilidade a cada resultado possível, por exemplo, ao lançar um dado justo, cada um dos seis dígitos “1” a “6”, correspondentes ao número de pontos no dado, tem probabilidade 1/6. A probabilidade de um evento é então definida como a soma das probabilidades de todos os resultados que satisfazem o evento, por exemplo, a probabilidade do evento "o dado rola um valor par" é
#ProfessorAngeloAntonioLeithold#py5aal Em contraste, quando uma variável aleatória recebe valores de um contínuo, por convenção, qualquer resultado individual recebe probabilidade zero. Para tais variáveis aleatórias contínuas, apenas eventos que incluem infinitos resultados, como intervalos, têm probabilidade maior que 0. Por exemplo, considere medir o peso de um pedaço de presunto no supermercado e suponha que a balança possa fornecer um número arbitrário de dígitos de precisão. Então, a probabilidade de que pese exatamente 500 g deve ser zero, pois, independentemente do nível de precisão escolhido, não se pode presumir que não haja dígitos decimais diferentes de zero nos dígitos omitidos restantes, ignorados pelo nível de precisão. No entanto, para o mesmo caso de uso, é possível atender a requisitos de controle de qualidade, como o de que um pacote de "500 g" de presunto deve pesar entre 490 g e 510 g com pelo menos 98% de probabilidade. Isso é possível porque essa medição não exige tanta precisão do equipamento subjacente. Distribuições de probabilidade contínuas podem ser descritas por meio da função de distribuição cumulativa, que descreve a probabilidade de que a variável aleatória não seja maior do que um valor dado ou seja, P ( X ≤ x ) para algum x . A função de distribuição cumulativa é a área sob a função de densidade de probabilidade de -∞ a x.
#ProfessorAngeloAntonioLeithold#py5aal A maioria das distribuições de probabilidade contínuas encontradas na prática não são apenas contínuas, mas também absolutamente contínuas. Tais distribuições podem ser descritas por sua função de densidade de probabilidade. Informalmente, a densidade de probabilidade f de uma variável aleatória X descreve a probabilidade infinitesimal de que X assume qualquer valor x - aquilo é P(x≤X<x+Δx)≈f(x)Δx como Δx>0, é arbitrariamente pequeno. A probabilidade de que X reside em um determinado intervalo pode ser calculado rigorosamente integrando a função de densidade de probabilidade sobre esse intervalo. Para (Ω,F,P) um espaço de probabilidade, (E, ɛ) ser um espaço mensurável e X:Ω→E ser (E, ɛ) variável aleatória. Então a distribuição de probabilidade de X é a medida pushforward (também conhecida como push forward, push-forward ou medida de imagem) da medida de probabilidade P para (E, ɛ) induzido por X. Explicitamente, esta medida de avanço em (E, ɛ) é dada por
#ProfessorAngeloAntonioLeithold#py5aal Qualquer distribuição de probabilidade é uma medida de probabilidade em (E,ɛ) em geral diferente de P, a menos que X passa a ser o mapa de identidade. Uma distribuição de probabilidade pode ser descrita de várias formas, como por uma função de massa de probabilidade ou uma função de distribuição cumulativa. Uma das descrições mais gerais, que se aplica a variáveis absolutamente contínuas e discretas, é por meio de uma função de probabilidade P:A→R cujo espaço de entrada A é uma σ-algébrica e fornece uma probabilidade de número real como sua saída, particularmente, um número em [0,1]⊆R. A função de probabilidade P pode tomar como argumento subconjuntos do próprio espaço amostral, como no exemplo do cara ou coroa, onde a função P foi definido de forma que P(cara)=0,5 e Pcoroa)= 0,5. No entanto, devido ao uso generalizado de variáveis aleatórias, que transformam o espaço amostral em um conjunto de números, por exemplo, R,N, é mais comum estudar distribuições de probabilidade cujos argumentos são subconjuntos desses tipos específicos de conjuntos numéricos, e todas as distribuições de probabilidade discutidas neste artigo são desse tipo. É comum denotar como P(X∈E) a probabilidade de que um certo valor da variável X pertence a um determinado evento E. A função de probabilidade acima somente caracteriza uma distribuição de probabilidade se ela satisfaz todos os axiomas de Kolmogorov , ou seja:
#ProfessorAngeloAntonioLeithold#py5aal O conceito de função de probabilidade é tornado mais rigoroso ao defini-la como o elemento de um espaço de probabilidade (X,A,P), onde X é o conjunto de resultados possíveis, A é o conjunto de todos os subconjuntos E⊂X cuja probabilidade pode ser medida, e P é a função de probabilidade, ou medida de probabilidade, que atribui uma probabilidade a cada um desses subconjuntos mensuráveis E∈A.
#ProfessorAngeloAntonioLeithold#py5aal Distribuições de probabilidade geralmente pertencem a uma de duas classes. Uma distribuição de probabilidade discreta é aplicável aos cenários onde o conjunto de resultados possíveis é discreto (por exemplo, um cara ou coroa, um dado) e as probabilidades são codificadas por uma lista discreta das probabilidades dos resultados; neste caso, a distribuição de probabilidade discreta é conhecida como função de massa de probabilidade . Por outro lado, distribuições de probabilidade absolutamente contínuas são aplicáveis a cenários onde o conjunto de resultados possíveis pode assumir valores em um intervalo contínuo (por exemplo, números reais), como a temperatura em um determinado dia. No caso absolutamente contínuo, as probabilidades são descritas por uma função de densidade de probabilidade , e a distribuição de probabilidade é, por definição, a integral da função de densidade de probabilidade. [ 7 ] [ 5 ] [ 8 ] A distribuição normal é uma distribuição de probabilidade absolutamente contínua comumente encontrada. Experimentos mais complexos, como aqueles que envolvem processos estocásticos definidos em tempo contínuo , podem exigir o uso de medidas de probabilidade mais gerais.
#ProfessorAngeloAntonioLeithold#py5aal Uma distribuição de probabilidade cujo espaço amostral é unidimensional, por exemplo, números reais, lista de rótulos, rótulos ordenados ou binários, é chamada univariada, enquanto uma distribuição cujo espaço amostral é um espaço vetorial de dimensão 2 ou mais é chamada multivariada. Uma distribuição univariada fornece as probabilidades de uma única variável aleatória assumir vários valores diferentes. Uma distribuição multivariada, uma distribuição de probabilidade conjunta, fornece as probabilidades de um vetor aleatório, uma lista de duas ou mais variáveis aleatórias, assumir várias combinações de valores. Distribuições de probabilidade univariadas importantes e comumente encontradas incluem a distribuição binomial, a distribuição hipergeométrica e a distribuição normal. Uma distribuição multivariada comumente encontrada é a distribuição normal multivariada. Além da função de probabilidade, a função de distribuição cumulativa, a função de massa de probabilidade e a função de densidade de probabilidade, a função geradora de momento e a função característica também servem para identificar uma distribuição de probabilidade, pois determinam exclusivamente uma função de distribuição cumulativa subjacente. Exemplos:
Variável aleatória: obtém valores de um espaço amostral; as probabilidades descrevem quais valores e conjuntos de valores têm maior probabilidade de serem obtidos.
Evento: conjunto de valores possíveis (resultados) de uma variável aleatória que ocorre com uma certa probabilidade.
Função de probabilidade ou medida de probabilidade: descreve a probabilidade P(X∈E) em que o evento E ocorre.
Função de distribuição cumulativa: função que avalia a probabilidade de que X assumirá um valor menor ou igual a x para uma variável aleatória, somente para variáveis aleatórias de valor real.
Função quantil: o inverso da função de distribuição cumulativa. Dá x em que, com probabilidade q, X não excederá x.
Distribuições de probabilidade discretas.
Distribuição de probabilidade discreta: para muitas variáveis aleatórias com valores finitos ou infinitamente contáveis.
Função de massa de probabilidade (pmf ): função que fornece a probabilidade de que uma variável aleatória discreta seja igual a algum valor.
Distribuição de frequência: uma tabela que exibe a frequência de vários resultados em uma amostra.
Distribuição de frequência relativa : uma distribuição de frequência onde cada valor foi dividido (normalizado) por um número de resultados em uma amostra (ou seja, tamanho da amostra).
Distribuição categórica: para variáveis aleatórias discretas com um conjunto finito de valores.
Distribuições de probabilidade absolutamente contínuas.
Distribuição de probabilidade absolutamente contínua : para muitas variáveis aleatórias com valores incontáveis.
Função de densidade de probabilidade ( pdf ) ou densidade de probabilidade: função cujo valor em qualquer amostra (ou ponto) no espaço amostral (o conjunto de valores possíveis tomados pela variável aleatória) pode ser interpretado como fornecendo uma probabilidade relativa de que o valor da variável aleatória seria igual àquela amostra.
Suporte: conjunto de valores que podem ser assumidos com probabilidade diferente de zero (ou densidade de probabilidade no caso de uma distribuição contínua) pela variável aleatória. Para uma variável aleatória X, às vezes é denotado como RX.
Cauda: as regiões próximas aos limites da variável aleatória, se o pmf ou pdf forem relativamente baixos nelas. Geralmente tem a forma X>a, X<b ou uma união destes.
Cabeça: a região onde o pmf ou pdf é relativamente alto. Geralmente tem a forma a<X<b.
Valor esperado ou média: a média ponderada dos valores possíveis, usando suas probabilidades como pesos; ou seu análogo contínuo.
Mediana: o valor tal que o conjunto de valores menores que a mediana e o conjunto maior que a mediana têm cada um probabilidades não maiores que a metade.
Moda: para uma variável aleatória discreta, o valor com maior probabilidade; para uma variável aleatória absolutamente contínua, um local no qual a função de densidade de probabilidade tem um pico local.
Quantil: o q-quantil é o valor x de modo que P(X<x)=q.
Variância: o segundo momento da fpm ou pdf em torno da média; uma medida importante da dispersão da distribuição.
Desvio padrão: a raiz quadrada da variância e, portanto, outra medida de dispersão.
Simetria : uma propriedade de algumas distribuições na qual a porção da distribuição à esquerda de um valor específico (geralmente a mediana) é uma imagem espelhada da porção à sua direita.
Assimetria: uma medida da extensão em que uma FPM ou PDP "inclina-se" para um lado de sua média. O terceiro momento padronizado da distribuição.
Curtose : uma medida da "gordura" das caudas de uma fpm ou fdp. O quarto momento padronizado da distribuição.
No caso especial de uma variável aleatória de valor real, a distribuição de probabilidade pode ser representada de forma equivalente por uma função de distribuição cumulativa em vez de uma medida de probabilidade. A função de distribuição cumulativa de uma variável aleatória X em relação a uma distribuição de probabilidade p é definido como
Por outro lado, qualquer função F:R→R que satisfaz as quatro primeiras propriedades acima é a função de distribuição cumulativa de alguma distribuição de probabilidade nos números reais. Qualquer distribuição de probabilidade pode ser decomposta como a mistura de uma distribuição discreta , uma distribuição absolutamente contínua e uma distribuição contínua singular, e, portanto, qualquer função de distribuição cumulativa admite uma decomposição como a soma convexa das três funções de distribuição cumulativas correspondentes.
Uma distribuição de probabilidade discreta é a distribuição de probabilidade de uma variável aleatória que pode assumir apenas um número contável de valores, o que significa que a probabilidade de qualquer evento E pode ser expressa como uma soma finita ou infinita contável:
onde A é um conjunto contável com P(X∈A)=1. Assim, as variáveis aleatórias discretas (ou seja, variáveis aleatórias cuja distribuição de probabilidade é discreta) são exatamente aquelas com uma função de massa de probabilidade p(x)=P(X=x). No caso em que o intervalo de valores é infinitamente contável, esses valores têm que declinar para zero rápido o suficiente para que as probabilidades somem 1. Por exemplo, se p(n)=1/2n para n=1,2,..., a soma das probabilidades seria 1/2+1/4+1/8+...=1.
Distribuições de probabilidade discretas bem conhecidas usadas em modelagem estatística incluem a distribuição de Poisson , a distribuição de Bernoulli , a distribuição binomial , a distribuição geométrica , a distribuição binomial negativa e a distribuição categórica. Quando uma amostra (um conjunto de observações) é retirada de uma população maior, os pontos da amostra têm uma distribuição empírica que é discreta e que fornece informações sobre a distribuição da população. Além disso, a distribuição uniforme discreta é comumente usada em programas de computador que fazem seleções aleatórias de probabilidade igual entre uma série de escolhas.
#ProfessorAngeloAntonioLeithold#py5aal Uma variável aleatória discreta de valor real pode ser definida equivalentemente como uma variável aleatória cuja função de distribuição cumulativa aumenta apenas por descontinuidades de salto, isto é, sua distribuição cumulativa (dfc) aumenta apenas onde "salta" para um valor mais alto e é constante em intervalos sem saltos. Os pontos onde ocorrem os saltos são precisamente os valores que a variável aleatória pode assumir. Assim, a função de distribuição cumulativa tem a forma
#ProfessorAngeloAntonioLeithold#py5aal Os pontos onde o cdf salta sempre formam um conjunto contável; este pode ser qualquer conjunto contável e, portanto, pode até ser denso em números reais. Uma distribuição de probabilidade discreta é frequentemente representada com medidas de Dirac, as distribuições de probabilidade de variáveis aleatórias determinísticas. Para qualquer resultado ω, deixar δω seja a medida de Dirac concentrada em ω. Dada uma distribuição de probabilidade discreta, existe um conjunto contável A com P(X∈A)=1 e uma função de massa de probabilidade p. Se E é qualquer evento, então
Da mesma forma, as distribuições discretas podem ser representadas com a função delta de Dirac como uma função de densidade de probabilidade generalizada f, onde
para qualquer evento E. Para uma variável aleatória discreta X, deixar u0, u1,… sejam os valores que pode assumir com probabilidade diferente de zero. Denote
Estes são conjuntos disjuntos e para tais conjuntos
Segue-se que a probabilidade de que X assume qualquer valor, exceto u0,u1,… é zero, e assim podemos escrever X como
exceto em um conjunto de probabilidade zero, onde 1A é a função indicadora de A. Isso pode servir como uma definição alternativa de variáveis aleatórias discretas. Um caso especial é a distribuição discreta de uma variável aleatória que pode assumir apenas um valor fixo, em outras palavras, é uma distribuição determinística. Expressa formalmente, a variável aleatória X tem uma distribuição de um ponto se tiver um resultado possível x de modo que P(X=x)=1. Todos os outros resultados possíveis têm então probabilidade 0. Sua função de distribuição cumulativa salta imediatamente de 0 para 1.
#ProfessorAngeloAntonioLeithold#py5aal Uma distribuição de probabilidade absolutamente contínua é uma distribuição de probabilidade sobre os números reais com incontáveis valores possíveis, como um intervalo inteiro na reta real, e onde a probabilidade de qualquer evento pode ser expressa como uma integral. Mais precisamente, uma variável aleatória real X tem uma distribuição de probabilidade absolutamente contínua se houver uma função f:R→[0,∞] de modo que para cada intervalo I=[a,b]⊂R a probabilidade de X pertencente a I é dado pela integral de f sobre I:
Esta é a definição de uma função de densidade de probabilidade, de modo que distribuições de probabilidade absolutamente contínuas são exatamente aquelas com uma função de densidade de probabilidade. Em particular, a probabilidade de X para assumir qualquer valor único a (a≤X≤a) é zero, porque uma integral com limites superior e inferior coincidentes é sempre igual a zero. Se o intervalo [a,b] é substituído por qualquer conjunto mensurável A, a igualdade correspondente ainda se mantém:
#ProfessorAngeloAntonioLeithold#py5aal Uma variável aleatória absolutamente contínua é uma variável aleatória cuja distribuição de probabilidade é absolutamente contínua. Há muitos exemplos de distribuições de probabilidade absolutamente contínuas: normal , uniforme , qui-quadrado e outras. Distribuições de probabilidade absolutamente contínuas, conforme definidas acima, são precisamente aquelas com uma função de distribuição cumulativa absolutamente contínua. Neste caso, a função de distribuição cumulativa F tem a forma
onde f é uma densidade da variável aleatória X no que diz respeito à distribuição P. Distribuições absolutamente contínuas devem ser distinguidas de distribuições contínuas, que são aquelas que têm uma função de distribuição cumulativa contínua. Toda distribuição absolutamente contínua é uma distribuição contínua, mas o inverso não é verdadeiro, existem distribuições singulares, que não são absolutamente contínuas, nem discretas, nem uma mistura delas, e não têm densidade. Um exemplo é dado pela distribuição de Cantor. Alguns autores, no entanto, usam o termo "distribuição contínua" para denotar todas as distribuições cuja função de distribuição cumulativa é absolutamente contínua, ou seja, referem-se a distribuições absolutamente contínuas como distribuições contínuas. Para uma definição mais geral de funções de densidade e medidas absolutamente contínuas equivalentes, veja medida absolutamente contínua. Na formalização teórica da medida da teoria da probabilidade, uma variável aleatória é definida como uma função mensurável X de um espaço de probabilidade (Ω,F,P) para um espaço mensurável (X,A). Dado que as probabilidades de eventos da forma {ω∈Ω∣X(ω)∈A} satisfazer os axiomas de probabilidade de Kolmogorov, a distribuição de probabilidade de X é a medida da imagem X*P de X, que é uma medida de probabilidade em (X,A) satisfatório X*P=PX-1.
#ProfessorAngeloAntonioLeithold#py5aal Distribuições absolutamente contínuas e discretas com suporte em Rk ou Nk são extremamente úteis para modelar uma miríade de fenômenos, uma vez que a maioria das distribuições práticas são suportadas em subconjuntos relativamente simples, como hipercubos ou bolas. No entanto, nem sempre é esse o caso, e existem fenômenos com suportes que são, na verdade, curvas complicadas γ:[a,b]→Rn dentro de algum espaço Rn ou similar. Nestes casos, a distribuição de probabilidade é suportada na imagem de tal curva, e é provável que seja determinada empiricamente, em vez de encontrar uma fórmula fechada para ela. Um exemplo é a evolução de um sistema de equações diferenciais, comumente conhecidas como equações de Rabinovich–Fabrikant, que podem ser usadas para modelar o comportamento das ondas de Langmuir no plasma. Quando esse fenômeno é estudado, os estados observados dos subconjuntos são indicados em vermelho. Portanto, pode-se perguntar qual é a probabilidade de observar um estado em uma determinada posição do subconjunto, se tal probabilidade existe, ela é chamada de medida de probabilidade do sistema. Este tipo de suporte complexo aparece com bastante frequência em sistemas dinâmicos. Não é simples estabelecer que o sistema possui uma medida de probabilidade, e o principal problema é o seguinte: seja t1≪t2≪t3 ser instantes no tempo e O um subconjunto do suporte, se a medida de probabilidade existir para o sistema, seria de se esperar a frequência de observação de estados dentro do conjunto O seria igual em intervalo [t1,t2] e [t2,t3], o que pode não acontecer; por exemplo, pode oscilar de forma semelhante a um seno, sin(t), cujo limite quando t→∞ não converge. #ProfessorAngeloAntonioLeithold#py5aal Formalmente, a medida existe apenas se o limite da frequência relativa converge quando o sistema é observado no futuro infinito. O ramo dos sistemas dinâmicos que estuda a existência de uma medida de probabilidade é a teoria ergódica. Observe que, mesmo nesses casos, a distribuição de probabilidade, se existir, ainda pode ser denominada "absolutamente contínua" ou "discreta", dependendo se o suporte é incontável ou contável, respectivamente. Distribuições de probabilidade absolutamente contínuas, conforme definidas acima, são precisamente aquelas com uma função de distribuição cumulativa absolutamente contínua . Neste caso, a função de distribuição cumulativa F tem a forma
onde f é uma densidade da variável aleatória X no que diz respeito à distribuição P. Distribuições absolutamente contínuas devem ser distinguidas de distribuições contínuas, que são aquelas que têm uma função de distribuição cumulativa contínua. Toda distribuição absolutamente contínua é uma distribuição contínua, mas o inverso não é verdadeiro, existem distribuições singulares, que não são absolutamente contínuas, nem discretas, nem uma mistura delas, e não têm densidade. Um exemplo é dado pela distribuição de Cantor.
#ProfessorAngeloAntonioLeithold#py5aal Alguns autores, no entanto, usam o termo "distribuição contínua" para denotar todas as distribuições cuja função de distribuição cumulativa é absolutamente contínua, ou seja, referem-se a distribuições absolutamente contínuas como distribuições contínuas. Para uma definição mais geral de funções de densidade e medidas absolutamente contínuas equivalentes, veja medida absolutamente contínua.
#ProfessorAngeloAntonioLeithold#py5aal Na formalização teórica da medida da teoria da probabilidade, uma variável aleatória é definida como uma função mensurável X de um espaço de probabilidade (Ω,F,P)para um espaço mensurável (X,A). Dado que as probabilidades de eventos da forma {ω∈Ω∣X(ω)∈A} satisfazer os axiomas de probabilidade de Kolmogorov, a distribuição de probabilidade de X é a medida da imagem X*P de X, que é uma medida de probabilidade em (X,A), satisfatório X*P=PX-1.
#ProfessorAngeloAntonioLeithold#py5aal Distribuições absolutamente contínuas e discretas com suporte em Rk ou Nk são extremamente úteis para modelar uma miríade de fenômenos, uma vez que a maioria das distribuições práticas são suportadas em subconjuntos relativamente simples, como hipercubos ou esferas. No entanto, nem sempre é esse o caso, e existem fenômenos com suportes que são, na verdade, curvas complicadas γ:[a,b]→Rn dentro de algum espaço Rn ou similar. Nestes casos, a distribuição de probabilidade é suportada na imagem de tal curva, e é provável que seja determinada empiricamente, em vez de encontrar uma fórmula fechada para ela. Um exemplo é a evolução de um sistema de equações diferenciais (comumente conhecidas como equações de Rabinovich–Fabrikant ) que podem ser usadas para modelar o comportamento das ondas de Langmuir no plasma. Quando esse fenômeno é estudado, os estados observados do subconjunto são observados. Portanto, pode-se perguntar qual é a probabilidade de observar um estado em uma determinada posição do subconjunto, se tal probabilidade existe, ela é chamada de medida de probabilidade do sistema. Este tipo de suporte complexo aparece com bastante frequência em sistemas dinâmicos.
#ProfessorAngeloAntonioLeithold#py5aal Não é simples estabelecer que o sistema possui uma medida de probabilidade, e o principal problema é o seguinte. Seja t1≪t2≪t3 ter instantes no tempo e O um subconjunto do suporte, se a medida de probabilidade existir para o sistema, seria de se esperar a frequência de observação de estados dentro do conjunto O seria igual em intervalo [t1,t2] e [t2,t3], o que pode não acontecer, por exemplo, pode oscilar de forma semelhante a um seno, cujo limite quando t→∞ não converge. Formalmente, a medida existe apenas se o limite da frequência relativa converge quando o sistema é observado no futuro infinito. O ramo dos sistemas dinâmicos que estuda a existência de uma medida de probabilidade é a teoria ergódica. Mesmo nesses casos, a distribuição de probabilidade, se existir, ainda pode ser denominada "absolutamente contínua" ou "discreta", dependendo se o suporte é incontável ou contável, respectivamente.
#ProfessorAngeloAntonioLeithold#py5aal A maioria dos algoritmos é baseada em um gerador de números pseudoaleatórios que produz números X que são uniformemente distribuídas no intervalo semiaberto [0, 1). Essas variáveis aleatórias X são então transformadas por meio de algum algoritmo para criar uma nova variável aleatória com a distribuição de probabilidade necessária. Com essa fonte de pseudoaleatoriedade uniforme, realizações de qualquer variável aleatória podem ser geradas. Por exemplo, suponha que U tenha uma distribuição uniforme entre 0 e 1. Para construir uma variável aleatória de Bernoulli para algum 0 < p < 1
Temos assim
Portanto, a variável aleatória X tem uma distribuição de Bernoulli com parâmetro p. Este método pode ser adaptado para gerar variáveis aleatórias de valor real com qualquer distribuição: para ser qualquer função de distribuição cumulativa F, seja Finv o inverso esquerdo generalizado de F, também conhecida neste contexto como função quantil ou função de distribuição inversa:
Então, Finv(p)≤x se e somente se p≤F(x). Como resultado, se U for distribuído uniformemente em [0, 1] , então a função de distribuição cumulativa de X= Finv (U) é F. Por exemplo, suponha que queremos gerar uma variável aleatória com distribuição exponencial com parâmetro λ, isto é, com função de distribuição cumulativa F:x↦1−eʎx.
então Finv(u)=−1/λln(1−u), e se U tem uma distribuição uniforme em [0, 1), X=−1/λln(1−U) tem uma distribuição exponencial com parâmetro λ. Embora este método sempre funcione do ponto de vista teórico, na prática a função de distribuição inversa é desconhecida e/ou não pode ser calculada eficientemente. Nesse caso, outros métodos (como o método de Monte Carlo) são utilizados.
#ProfessorAngeloAntonioLeithold#py5aal O conceito de distribuição de probabilidade e as variáveis aleatórias que elas descrevem fundamentam a disciplina matemática da teoria da probabilidade e a ciência da estatística. Há dispersão ou variabilidade em quase qualquer valor que possa ser medido em uma população (por exemplo, altura das pessoas, durabilidade de um metal, crescimento de vendas, fluxo de tráfego, etc.), quase todas as medições são feitas com algum erro intrínseco, na física, muitos processos são descritos probabilisticamente, desde as propriedades cinéticas dos gases até a descrição mecânica quântica de partículas fundamentais. Por essas e muitas outras razões, números simples são frequentemente inadequados para descrever uma grandeza, enquanto distribuições de probabilidade são frequentemente mais apropriadas.
#ProfessorAngeloAntonioLeithold#py5aal A seguir, eu demonstro uma lista de algumas das distribuições de probabilidade mais comuns, agrupadas pelo tipo de processo ao qual estão relacionadas. Todas as distribuições univariadas abaixo apresentam pico único, ou seja, assume-se que os valores se agrupam em torno de um único ponto. Na prática, as grandezas realmente observadas podem se agrupar em torno de múltiplos valores. Tais grandezas podem ser modeladas usando uma distribuição de mistura.
Crescimento linear
Distribuição normal (distribuição gaussiana), para uma única quantidade; a distribuição absolutamente contínua mais comumente usada
Crescimento exponencial (por exemplo, preços, rendimentos, populações)
Distribuição log-normal , para uma única quantidade cujo log é distribuído normalmente
Distribuição de Pareto , para uma única quantidade cujo logaritmo é distribuído exponencialmente ; a distribuição prototípica da lei de potência
Quantidades uniformemente distribuídas
Distribuição uniforme discreta , para um conjunto finito de valores (por exemplo, o resultado de um dado justo)
Distribuição uniforme contínua , para valores distribuídos de forma absolutamente contínuEnsaios de Bernoulli (eventos sim/não, com uma probabilidade dada)
Distribuição de Bernoulli , para o resultado de um único teste de Bernoulli (por exemplo, sucesso/falha, sim/não)
Distribuição binomial , para o número de "ocorrências positivas" (por exemplo, sucessos, votos sim, etc.) dado um número total fixo de ocorrências independentes
Distribuição binomial negativa , para observações do tipo binomial, mas onde a quantidade de interesse é o número de falhas antes que um determinado número de sucessos ocorra
Distribuição geométrica , para observações do tipo binomial, mas onde a quantidade de interesse é o número de falhas antes do primeiro sucesso; um caso especial da distribuição binomial negativa
Distribuição hipergeométrica , para o número de "ocorrências positivas" (por exemplo, sucessos, votos sim, etc.) dado um número fixo de ocorrências totais, usando amostragem sem reposição
Distribuição beta-binomial , para o número de "ocorrências positivas" (por exemplo, sucessos, votos sim, etc.) dado um número fixo de ocorrências totais, amostragem usando um modelo de urna de Pólya (em certo sentido, o "oposto" da amostragem sem substituição )
Resultados categóricos (eventos com K resultados possíveis)
Distribuição categórica , para um único resultado categórico (por exemplo, sim/não/talvez em uma pesquisa); uma generalização da distribuição de Bernoulli
Distribuição multinomial , para o número de cada tipo de resultado categórico, dado um número fixo de resultados totais; uma generalização da distribuição binomial
Distribuição hipergeométrica multivariada , semelhante à distribuição multinomial , mas usando amostragem sem reposição ; uma generalização da distribuição hipergeométrica
Processo de Poisson (eventos que ocorrem independentemente com uma determinada taxa)
Distribuição de Poisson , para o número de ocorrências de um evento do tipo Poisson em um determinado período de tempo
Distribuição exponencial , para o tempo antes da ocorrência do próximo evento do tipo Poisson
Distribuição gama , para o tempo antes da ocorrência dos próximos k eventos do tipo Poisson
Valores absolutos de vetores com componentes distribuídos normalmente
Distribuição de Rayleigh , para a distribuição de grandezas vetoriais com componentes ortogonais distribuídas gaussianamente. Distribuições de Rayleigh são encontradas em sinais de RF com componentes reais e imaginários gaussianos.
Distribuição Rice , uma generalização das distribuições de Rayleigh para onde há um componente de sinal de fundo estacionário. Encontrada no desvanecimento Riciano de sinais de rádio devido à propagação de múltiplos caminhos e em imagens de RM com corrupção de ruído em sinais de RMN diferentes de zero.
Quantidades distribuídas normalmente operadas com soma de quadrados
Distribuição qui-quadrado , a distribuição de uma soma de variáveis normais padrão quadradas ; útil, por exemplo, para inferência sobre a variância da amostra de amostras distribuídas normalmente (ver teste qui-quadrado )
Distribuição t de Student , a distribuição da razão entre uma variável normal padrão e a raiz quadrada de uma variável qui-quadrado escalonada ; útil para inferência sobre a média de amostras distribuídas normalmente com variância desconhecida (ver teste t de Student )
Distribuição F , a distribuição da razão de duas variáveis qui-quadradas escalonadas ; útil, por exemplo, para inferências que envolvem a comparação de variâncias ou envolvendo R-quadrado (o coeficiente de correlação ao quadrado )
Distribuição beta , para uma única probabilidade (número real entre 0 e 1); conjugada à distribuição de Bernoulli e à distribuição binomial
Distribuição gama , para um parâmetro de escala não negativo; conjugado ao parâmetro de taxa de uma distribuição de Poisson ou distribuição exponencial , a precisão ( variância inversa ) de uma distribuição normal , etc.
Distribuição de Dirichlet , para um vetor de probabilidades que devem somar 1; conjugada à distribuição categórica e à distribuição multinomial ; generalização da distribuição beta
Distribuição de Wishart , para uma matriz definida simétrica não negativa ; conjugada ao inverso da matriz de covariância de uma distribuição normal multivariada ; generalização da distribuição gama
Os modelos de linguagem de cache e outros modelos estatísticos de linguagem usados no processamento de linguagem natural para atribuir probabilidades à ocorrência de palavras e sequências de palavras específicas o fazem por meio de distribuições de probabilidade.
#ProfessorAngeloAntonioLeithold#py5aal Na mecânica quântica, a densidade de probabilidade de encontrar a partícula em um determinado ponto é proporcional ao quadrado da magnitude da função de onda da partícula naquele ponto, regra de Born. Portanto, a função de distribuição de probabilidade da posição de uma partícula é descrita por
probabilidade de que a posição x da partícula esteja no intervalo a ≤ x ≤ b na dimensão um, e uma integral tripla semelhante na dimensão três. Este é um princípio fundamental da mecânica quântica.
O fluxo de carga probabilístico no estudo de fluxo de potência explica as incertezas das variáveis de entrada como distribuição de probabilidade e fornece o cálculo do fluxo de potência também em termos de distribuição de probabilidade.
Previsão de ocorrências de fenômenos naturais com base em distribuições de frequência anteriores , como ciclones tropicais , granizo, tempo entre eventos, etc.
Ajuste de distribuição de probabilidade, ou simplesmente ajuste de distribuição, é o ajuste de uma distribuição de probabilidade a uma série de dados referentes à medição repetida de um fenômeno variável. O objetivo do ajuste de distribuição é prever a probabilidade ou a frequência de ocorrência da magnitude do fenômeno em um determinado intervalo.
#ProfessorAngeloAntonioLeithold#py5aal Existem muitas distribuições de probabilidade, das quais algumas podem ser ajustadas mais de perto à frequência observada dos dados do que outras, dependendo das características do fenômeno e da distribuição. A distribuição que apresenta um ajuste próximo deve levar a boas previsões. No ajuste de distribuição, portanto, é preciso selecionar uma distribuição que seja adequada aos dados.
REFERÊNCIAS
-Everitt, Brian (2006). Dicionário de Estatística de Cambridge (3ª ed.). Cambridge, Reino Unido: Cambridge University Press. ISBN 978-0-511-24688-3. OCLC 161828328 .
-Ash, Robert B. (2008). Teoria básica da probabilidade (Dover ed.). Mineola, NY: Dover Publications. pp. 66–69 . ISBN 978-0-486-46628-6. OCLC 190785258 .
-Evans, Michael; Rosenthal, Jeffrey S. (2010). Probabilidade e estatística: a ciência da incerteza (2ª ed.). Nova Iorque: WH Freeman and Co. p. 38. ISBN 978-1-4292-2462-8. OCLC 473463742 .
-Dekking, Michel (1946–) (2005). Uma Introdução Moderna à Probabilidade e Estatística: Compreendendo o porquê e o como . Londres, Reino Unido: Springer. ISBN 978-1-85233-896-1. OCLC 262680588 .
-"1.3.6.1. O que é uma Distribuição de Probabilidade" . www.itl.nist.gov . Recuperado em 10/09/2020 .
-Walpole, RE; Myers, RH; Myers, SL; Ye, K. (1999). Probabilidade e estatística para engenheiros . Prentice Hall.
-Ross, Sheldon M. (2010). Um primeiro curso em probabilidade . Pearson.
-DeGroot, Morris H.; Schervish, Mark J. (2002). Probabilidade e Estatística . Addison-Wesley.
-Billingsley, P. (1986). Probabilidade e medida . Wiley. ISBN 9780471804789.
-Shephard, NG (1991). "Da função característica à função de distribuição: uma estrutura simples para a teoria" . Teoria Econométrica . 7 (4): 519– 529. doi : 10.1017/S0266466600004746 . S2CID 14668369 .
-Capítulos 1 e 2 de Vapnik (1998)
-Erhan, Çınlar (2011). Probabilidade e estocástica . Nova Iorque: Springer. p. 57. ISBN 9780387878584.
-Erhan, Çınlar (2011). Probabilidade e estocástica . Nova Iorque: Springer. p. 51. ISBN 9780387878591. OCLC 710149819 .
-Cohn, Donald L. (1993). Teoria da medida . Birkhäuser.
-Khuri, André I. (março de 2004). "Aplicações da função delta de Dirac em estatística". Revista Internacional de Educação Matemática em Ciência e Tecnologia . 35 (2): 185–195 . doi : 10.1080/00207390310001638313 . ISSN 0020-739X . S2CID 122501973 .
-Fisz, Marek (1963). Teoria da Probabilidade e Estatística Matemática (3ª ed.). John Wiley & Filhos. pág. 129. ISBN 0-471-26250-1.
-Jeffrey Seth Rosenthal (2000). Um Primeiro Olhar sobre a Teoria Rigorosa da Probabilidade . World Scientific.
-Capítulo 3.2 de DeGroot & Schervish (2002)
-Bourne, Murray. "11. Distribuições de Probabilidade - Conceitos" . www.intmath.com . Recuperado em 10/09/2020 .
- W., Stroock, Daniel (1999). Teoria da probabilidade: uma visão analítica (edição revisada). Cambridge [Inglaterra]: Cambridge University Press. p. 11. ISBN 978-0521663496. OCLC 43953136 .
-Kolmogorov, Andrey (1950) [1933]. Fundamentos da teoria da probabilidade . Nova York, EUA: Chelsea Publishing Company. pp. 21–24 .
-Joyce, David (2014). "Axiomas da Probabilidade" (PDF) . Universidade Clark . Recuperado em 5 de dezembro de 2019 .
-Alligood, KT; Sauer, TD; Yorke, JA (1996). Caos: uma introdução aos sistemas dinâmicos . Springer.
-Rabinovich, MI; Fabrikant, AL (1979). "Automodulação estocástica de ondas em meios fora de equilíbrio". J. Exp. Theor. Phys . 77 : 617–629 . Bibcode : 1979JETP...50..311R .
-Seção 1.9 de Ross, SM; Peköz, EA (2007). Um segundo curso em probabilidade (PDF) .
-Walters, Peter (2000). Uma Introdução à Teoria Ergódica . Springer.
-Frederik Kraaikamp, Cornelis; Lopuhaä, Hendrik Paul; Meester , Ludolf Erwin ( 2005), " Por que probabilidade e estatística?", Uma introdução moderna à probabilidade e estatística , Springer London, pp . 978-1-85233-896-1
-Bishop, Christopher M. (2006). Reconhecimento de padrões e aprendizado de máquina . Nova York: Springer. ISBN 0-387-31073-8. OCLC 71008143 .
-Chang, Raymond. (2014). Físico-química para as ciências químicas . Thoman, John W., Jr., 1960-. [Mill Valley, Califórnia]. pp. 403–406 . ISBN 978-1-68015-835-9. OCLC 927509011 .
-Chen, P.; Chen, Z.; Bak-Jensen, B. (abril de 2008). "Fluxo de carga probabilístico: uma revisão". Terceira Conferência Internacional de 2008 sobre Desregulamentação e Reestruturação de Serviços Públicos de Energia Elétrica e Tecnologias de Energia . pp. 1586–1591 . doi : 10.1109/drpt.2008.4523658 . ISBN 978-7-900714-13-8. S2CID 18669309 .
-Maity, Rajib (30/04/2018). Métodos estatísticos em hidrologia e hidroclimatologia . Singapura. ISBN 978-981-10-8779-0. OCLC 1038418263 .
-den Dekker, AJ; Sijbers, J. (2014). "Distribuições de dados em imagens de ressonância magnética: uma revisão". Physica Medica . 30 (7): 725– 741. doi : 10.1016/j.ejmp.2014.05.002 . PMID 25059432 .
-Vapnik, Vladimir Naumovich (1998). Teoria da Aprendizagem Estatística . John Wiley and Sons.