ESTAT0078 – Inferência I
Prof. Dr. Sadraque E. F. Lucena
sadraquelucena@academico.ufs.br
http://sadraquelucena.github.io/inferencia1
Na aula passada, utilizamos a ideia de que momentos amostrais aproximam momentos populacionais para construir estimadores.
Agora adotaremos uma abordagem diferente, baseada diretamente no modelo probabilístico: O Método da Máxima Verossimilhança (MV).
O foco passa a ser o seguinte: entre todos os valores possíveis de \(\theta\), qual explica melhor os dados que observamos?
Suponha que temos um conjunto de dados observado: \[ \mathbf{x}=(x_1,\ldots,x_n), \] assumido como proveniente de ums distribuição \(f(\mathbf{x}|\theta)\).
Pergunta central: Entre todos os valores possíveis de \(\theta\), qual deles torna mais plausível que exatamente esses dados tenham sido observados? \[ \text{"Qual valor de }\theta\text{ explica melhor os dados observados?"} \]
Se o modelo é \(f(x|\theta)\), então para cada \(\theta\) podemos calcular quão provável é observar cada \(x_i\).
Para uma amostra independente: \[ \text{plausibilidade de }\mathbf{x}\text{ sob }\theta = f(x_1|\theta)\cdots f(x_n|\theta) \]
Chamamos isso de função de verossimilhança.
Seja \(X_1,\ldots,X_n\) uma amostra aleatória com densidade ou função de probabilidade \(f(x|\theta)\).
A Função de Verossimilhança é definida por: \[ L(\theta; \mathbf{x}) = \prod_{i=1}^n f(x_i|\theta). \]
Ela mede quão compatível com os dados é cada valor de \(\theta\).
O objetivo da Máxima Verossimilhança é escolher o valor de \(\theta\) que maximiza essa compatibilidade.
Embora a forma seja idêntica à da densidade conjunta, a interpretação é diferente:
O Estimador de Máxima Verossimilhança (EMV) é o valor de \(\theta\) que maximiza a verossimilhança: \[ \widehat{\theta}_{\!MV} = \underset{\theta}{\arg\max} \, L(\theta; \mathbf{x}) \]
Graficamente, buscamos o pico da curva \(L(\theta)\).
Intuitivamente: escolhemos o valor de \(\theta\) que melhor reconstrói os dados que foram observados.
Para maximizar \(L(\theta)\), precisamos trabalhar com o produtório \[ L(\theta) = \prod\limits_{i=1}^n f(x_i|\theta), \] que geralmente é difícil de manipular e diferenciar.
Para contornar isso, podemos usar uma propriedade útil:
A Log-Verossimilhança é dada por: \[ \ell(\theta; \mathbf{x}) = \log L(\theta; \mathbf{x}) = \sum_{i=1}^n \log f(x_i|\theta) \]
Por que isso ajuda?
Para encontrar o Estimador de Máxima Verossimilhança (EMV ou \(\widehat{\theta}_{MV}\)):
Seja \(x_1, \dots, x_n\) uma amostra aleatória obtida de \(X \sim \text{Bernoulli}(p)\). Obtenha o EMV de \(p\).
Seja \(x_1, \dots, x_n\) uma amostra aleatória obtida de \(X \sim \text{Poisson}(\lambda)\). Obtenha o EMV de \(\lambda\).
Considere uma amostra \(x_1,\ldots,x_n\) com \(X \sim \text{Exponencial}(\theta)\), parametrizada pela média \(\theta > 0\). A densidade é \(f(x) = \frac{1}{\theta} e^{-x/\theta}\), para \(x > 0\). Obtenha o EMV de \(\theta\).
