ESTAT0078 – Inferência I
Prof. Dr. Sadraque E. F. Lucena
sadraquelucena@academico.ufs.br
http://sadraquelucena.github.io/inferencia1
“A população é desconhecida, e obtemos uma amostra. Assumimos então que as características da amostra (ou seja, as estatísticas) são boas aproximações para as características da população (parâmetros).”
E resolvemos a equação para encontrar \(\theta\).
Os momentos populacionais descrevem a “forma” teórica da distribuição. Eles são constantes que dependem dos parâmetros desconhecidos.
Seja \(X\) uma v.a. com densidade \(f(x|\theta)\). O \(k\)-ésimo momento populacional (ao redor da origem) é:
\[ \mu'_k(\theta) = E[X^k] = \begin{cases} \int_{-\infty}^{\infty} x^k f(x|\theta) dx & \text{(Contínuo)} \\ \sum_{x} x^k P(X=x|\theta) & \text{(Discreto)} \end{cases} \]
Casos Clássicos
Os momentos amostrais são variáveis aleatórias calculadas a partir dos dados observados \(X_1, \dots, X_n\). Eles não dependem de \(\theta\).
O \(k\)-ésimo momento amostral é:
\[ M_k = \frac{1}{n} \sum_{i=1}^n X_i^k \]
Convergência
Pela Lei dos Grandes Números, sabemos que quando \(n \to \infty\): \[M_k \xrightarrow{P} \mu'_k(\theta)\] Isso justifica o método!
Considere um modelo com \(k\) parâmetros desconhecidos \(\theta_1, \dots, \theta_k\).
Passo 1: Calcule os \(k\) primeiros momentos teóricos: \[E[X], E[X^2], \dots, E[X^k]\]
Passo 2: Calcule os \(k\) primeiros momentos amostrais: \[M_1 = \bar{X}, \quad M_2 = \frac{1}{n}\sum X_i^2, \dots, M_k = \frac{1}{n} \sum X_i^k\]
Passo 3: Monte o sistema de equações igualando População = Amostra: \[\begin{cases} E[X] = M_1 \\ E[X^2] = M_2 \\ \vdots \\ E[X^k] = M_k \end{cases}\]
Passo 4: Resolva o sistema para \(\theta_1, \dots, \theta_k\). As soluções são os estimadores \(\widehat{\theta}_1, \dots, \widehat{\theta}_k\).
Seja \(X \sim \text{Bernoulli}(p)\). obtenha uma estimador para \(p\) pelo método dos momentos.
Seja \(X \sim \text{Gama}(\alpha, \beta)\) onde \(E[X] = \alpha/\beta\) e \(Var(X) = \alpha/\beta^2\). Obtenha um estimador para \(\alpha\) e \(\beta\) pelo método dos momentos.
Dica
Use a relação \(E(X^2) = Var(X) + [E(X)]^2\) para facilitar.
Considere \(X \sim \text{Uniforme}(-\theta, \theta)\). Obtenha o etimador pelo método dos momentos.
\[E[X] = \frac{-\theta + \theta}{2} = 0\]
Igualar \(0 = \overline{X}\) não nos ajuda a encontrar \(\theta\).
Solução: Vamos usar o próximo momento (\(k=2\)).
O valor dos sinistros de uma carteira de seguros segue uma distribuição de Pareto com parâmetro de forma \(\alpha > 1\) e parâmetro de escala (sinistro mínimo) conhecido \(x_m = 1000\). A densidade é \(f(x) = \frac{\alpha x_m^\alpha}{x^{\alpha+1}}\) para \(x \ge x_m\). Estime \(\alpha\) pelo método dos momentos.
Dica
Se \(X\sim\) Pareto(\(\alpha, x_m\)), então \(E(X) = \alpha x_m/(\alpha - 1)\).
