Método de Máxima Verossimilhança – Caso Multiparamétrico

ESTAT0078 – Inferência I

Prof. Dr. Sadraque E. F. Lucena
sadraquelucena@academico.ufs.br
http://sadraquelucena.github.io/inferencia1

Contextualização

  • Até agora, maximizamos funções de uma única variável (\(L(\theta)\)).
  • A maioria dos modelos reais possui vetores de parâmetros:
    • Normal: \(\boldsymbol{\theta} = (\mu, \sigma^2)\)
    • Gama: \(\boldsymbol{\theta} = (\alpha, \beta)\)
    • Regressão Linear: \(\boldsymbol{\theta} = (\beta_0, \beta_1, \sigma^2)\)

Desafio:

  • Não buscamos mais o topo de uma curva 2D, mas o pico de uma superfície (montanha) em múltiplas dimensões.

MV: Caso Multiparamétrico

  • Seja \(\boldsymbol{\theta} = (\theta_1, \ldots, \theta_r)\) um vetor de parâmetros. A função de verossimilhança é: \[ L(\boldsymbol{\theta}; \mathbf{x}) = \prod_{i=1}^n f(x_i; \theta_1, \ldots, \theta_r) \]

MV: Caso Multiparamétrico

  • Para maximizar, precisamos anular o Vetor Gradiente (ou Vetor Score) da log-verossimilhança \(\ell(\boldsymbol{\theta})\): \[ \nabla \ell(\boldsymbol{\theta}) = \begin{pmatrix} \frac{\partial \ell}{\partial \theta_1} \\ \vdots \\ \frac{\partial \ell}{\partial \theta_r} \end{pmatrix} = \begin{pmatrix} 0 \\ \vdots \\ 0 \end{pmatrix} \]

  • Isso gera um sistema de equações para resolver.

Exemplo 15.1:

Seja \(X \sim N(\mu, \sigma^2)\). Temos dois parâmetros desconhecidos: \(\theta_1 = \mu\) e \(\theta_2 = \sigma^2\). A densidade é \[ f(x) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left\{ -\frac{1}{2\sigma^2}(x-\mu)^2 \right\}. \]

Determine os estimadores de máxima verossimilhança de \(\mu\) e \(\sigma^2\).

Análise Crítica: O Viés na Normal

Ponto de Atenção!

O Estimador de Máxima Verossimilhança da variância divide a soma dos quadrados por \(n\). A Variância Amostral (\(S^2\)) divide por \(n-1\).

Consequências:

  1. Viés: O estimador MV é viesado. Ele subestima a variância verdadeira em pequenas amostras (\(E[\widehat{\sigma}^2] = \frac{n-1}{n}\sigma^2\)).
  2. Consistência: Quando \(n \to \infty\), a diferença entre dividir por \(n\) ou \(n-1\) desaparece. Logo, ele é consistente.
  3. EQM: Curiosamente, o estimador MV tem menor Erro Quadrático Médio que o \(S^2\), apesar do viés.

Resumo Comparativo Final

Critério Método dos Momentos Máxima Verossimilhança
Intuição Amostra reflete População Dados mais prováveis
Cálculo Sistemas Algébricos Derivadas / Numérico
Viés Possível Possível (Ex: Normal)
Eficiência Baixa (Geralmente) Alta (Assintotica- mente Eficiente)
Invariância Não Sim (Ponto forte do MV)

Fim