O Método dos Momentos

ESTAT0078 – Inferência I

Prof. Dr. Sadraque E. F. Lucena
sadraquelucena@academico.ufs.br
http://sadraquelucena.github.io/inferencia1

  • Até agora, avaliamos estimadores (Viés, EQM, Eficiência). Mas como criar um estimador do zero?
  • Suponha que você precise modelar o valor de sinistros de uma seguradora e decide ajustar uma distribuição Gama ou Pareto.
  • A intuição ou o simples “chute” não funcionam para modelos complexos.
  • Precisamos de algoritmos que garantam boas propriedades estatísticas.
  • Vamos conhecer o método mais antigo e intuitivo: O Método dos Momentos.

Filosofia do Método dos Momentos

“A população é desconhecida, e obtemos uma amostra. Assumimos então que as características da amostra (ou seja, as estatísticas) são boas aproximações para as características da população (parâmetros).”

  • Se a média da população é \(\mu(\theta)\) (uma equação que envolve \(\theta\)) e a média da amostra é \(\overline{X}\), forçamos a igualdade: \[ \mu(\theta) = \overline{X} \]

E resolvemos a equação para encontrar \(\theta\).

Definição 11.1: Momentos Populacionais

  • Os momentos populacionais descrevem a “forma” teórica da distribuição. Eles são constantes que dependem dos parâmetros desconhecidos.

  • Seja \(X\) uma v.a. com densidade \(f(x|\theta)\). O \(k\)-ésimo momento populacional (ao redor da origem) é:

\[ \mu'_k(\theta) = E[X^k] = \begin{cases} \int_{-\infty}^{\infty} x^k f(x|\theta) dx & \text{(Contínuo)} \\ \sum_{x} x^k P(X=x|\theta) & \text{(Discreto)} \end{cases} \]

Casos Clássicos

  • \(k=1 \implies \mu'_1 = E[X]\) (Média)
  • \(k=2 \implies \mu'_2 = E[X^2]\) (Segundo momento, usado para variância)

Definição 11.2: Momentos Amostrais

  • Os momentos amostrais são variáveis aleatórias calculadas a partir dos dados observados \(X_1, \dots, X_n\). Eles não dependem de \(\theta\).

  • O \(k\)-ésimo momento amostral é:

\[ M_k = \frac{1}{n} \sum_{i=1}^n X_i^k \]

Convergência

Pela Lei dos Grandes Números, sabemos que quando \(n \to \infty\): \[M_k \xrightarrow{P} \mu'_k(\theta)\] Isso justifica o método!

O Método dos Momentos

Considere um modelo com \(k\) parâmetros desconhecidos \(\theta_1, \dots, \theta_k\).

Passo 1: Calcule os \(k\) primeiros momentos teóricos: \[E[X], E[X^2], \dots, E[X^k]\]

Passo 2: Calcule os \(k\) primeiros momentos amostrais: \[M_1 = \bar{X}, \quad M_2 = \frac{1}{n}\sum X_i^2, \dots, M_k = \frac{1}{n} \sum X_i^k\]

O Método dos Momentos

Passo 3: Monte o sistema de equações igualando População = Amostra: \[\begin{cases} E[X] = M_1 \\ E[X^2] = M_2 \\ \vdots \\ E[X^k] = M_k \end{cases}\]

Passo 4: Resolva o sistema para \(\theta_1, \dots, \theta_k\). As soluções são os estimadores \(\widehat{\theta}_1, \dots, \widehat{\theta}_k\).

Exemplo 11.1

Seja \(X \sim \text{Bernoulli}(p)\). obtenha uma estimador para \(p\) pelo método dos momentos.

Exemplo 11.2

Seja \(X \sim \text{Gama}(\alpha, \beta)\) onde \(E[X] = \alpha/\beta\) e \(Var(X) = \alpha/\beta^2\). Obtenha um estimador para \(\alpha\) e \(\beta\) pelo método dos momentos.


Dica

Use a relação \(E(X^2) = Var(X) + [E(X)]^2\) para facilitar.

Quando o 1º Momento Falha

  • Cuidado com distribuições onde a média não depende do parâmetro ou é zero.

Exemplo 11.3

Considere \(X \sim \text{Uniforme}(-\theta, \theta)\). Obtenha o etimador pelo método dos momentos.

\[E[X] = \frac{-\theta + \theta}{2} = 0\]

Igualar \(0 = \overline{X}\) não nos ajuda a encontrar \(\theta\).

Solução: Vamos usar o próximo momento (\(k=2\)).

Exemplo 11.4

O valor dos sinistros de uma carteira de seguros segue uma distribuição de Pareto com parâmetro de forma \(\alpha > 1\) e parâmetro de escala (sinistro mínimo) conhecido \(x_m = 1000\). A densidade é \(f(x) = \frac{\alpha x_m^\alpha}{x^{\alpha+1}}\) para \(x \ge x_m\). Estime \(\alpha\) pelo método dos momentos.

Dica

Se \(X\sim\) Pareto(\(\alpha, x_m\)), então \(E(X) = \alpha x_m/(\alpha - 1)\).

Propriedades Importantes

  1. Consistência: À medida que a amostra aumenta (\(n\to\infty\)), a probabilidade do estimadore obtido pelo método dos momentos se afastar do verdadeiro parâmetro vai a zero.
    • Pela Lei dos Grandes Números, os momentos amostrais convergem para os populacionais, \(\widehat{\theta} \stackrel{P}{\to} \theta\).
  2. Viés: Frequentemente os estimadores obtidos pelo método dos momentos são viesados.
    • Frequentemente \(E(\widehat{\theta}_{\!M\!M})\neq \theta\).
  3. Eficiência: Geralmente os estimadores obtidos pelo método dos momentos têm variância maior que os estimadores de Máxima Verossimilhança. Ou seja, em geral não são eficientes.

Propriedades Importantes

  1. Suficiência: O Método dos Momentos nem sempre gera estimadores suficientes.
    • Isto é: O estimador pode “desperdiçar” informação. Nesses casos, ele não resume tudo o que a amostra tem a dizer sobre o parâmetro; houve perda de informação no processo.
  2. Custo Computacional: Por produzir equações geralmente simples, o custo computacional do método é baixo.
    • É um ótimo valor inicial para algoritmos numéricos.

Fim