Capítulo 3

Description
Capítulo 3

Please download to get full document.

View again

of 18
All materials on our website are shared by users. If you have any questions about copyright issues, please report us to resolve them. We are always happy to assist you.
Information
Category:

World

Publish on:

Views: 0 | Pages: 18

Extension: PDF | Download: 0

Share
Tags
Transcript
  Cap´ıtulo 3M´etodos de Estima¸c˜ao 3.1 Estimadores de M´axima Verossimilhan¸ca No Cap´ıtulo 1 foi introduzido o conceito de verossimilhan¸ca ou plausibilidade.Foi visto que esta medida est´a associada aos poss´ıveis valores de um ou maisparˆametros e a fun¸c˜ao de verossimilhan¸ca define a plausibilidade de cada um destes poss´ıveis valores. Em termos de estima¸c˜ao parece razo´avel selecionar o valor do parˆametro que recebe a maior verossimilhan¸ca, dada uma amostra dapopula¸c˜ao de interesse. Estes conceitos s˜ao formalizados a seguir. Defini¸c˜ao 3.1  Seja   X  1 ,...,X  n  uma amostra aleat´ oria de   p ( x | θ ) ,  θ  ∈  Θ . A fun¸c˜ ao de verossimilhan¸ca de   θ  correspondente a esta amostra aleat´ oria ´e dada por  l ( θ ; x ) = n  i =1  p ( x i | θ ) . Defini¸c˜ao 3.2  O estimador de m´ axima verossimilhan¸ca (EMV) de   θ  ´e o valor  ˆ θ  ∈  Θ  que maximiza   l ( θ ; x ) . Seu valor observado ´e a estimativa de m´ axima verossimilhan¸ca. No caso uniparam´etrico, i.e.  θ  ´e um escalar, temos que Θ ⊂ R  e o EMV podeser obtido como solu¸c˜ao da chamada  equa¸c˜ ao de verossimilhan¸ca  ∂l ( θ ; x ) ∂θ  = 0 .  (3.1)´E claro que ´e sempre necess´ario verificar que a segunda derivada ´e negativa paragarantir que a solu¸c˜ao de (3.1) ´e um ponto de m´aximo. Ou seja, devemos ter ∂  2 l ( θ ; x ) ∂θ 2  θ =ˆ θ <  0 . 23  24  CAP ´ ITULO 3. M ´ ETODOS DE ESTIMA¸C ˜ AO  Em muitas aplica¸c˜oes ´e mais simples algebricamente (e muitas vezes computa-cionalmente) trabalhar na escala dos logaritmos. Do ponto de vista da maximiza-¸c˜ao n˜ao far´a diferen¸ca j´a que a fun¸c˜ao logaritmo ´e estritamente crescente e o valor de  θ  que maximiza  l ( θ ; x ) ´e o mesmo que que maximiza log l ( θ ; x ). Portanto, aequa¸c˜ao (3.1) pode ser reescrita em termos de logaritmo da verossimilhan¸ca e fica ∂   log l ( θ ; x ) ∂θ  =  U  ( X  ; θ ) = 0 . Trata-se portanto de um problema de otimiza¸c˜ao e a equa¸c˜ao de verossimilhan¸ca pode n˜ao ter solu¸c˜ao anal´ıtica. A Defini¸c˜ao 3.2 pode ser generalizada para o caso multiparam´etrico, i.e.  θ pode ser um vetor de parˆametros de dimens˜ao  k ,  θ  = ( θ 1 ,...,θ k ), ou mesmouma matriz de parˆametros. Se  θ  for um vetor de parˆametros as equa¸c˜oes de verossimilhan¸ca s˜ao, ∂l ( θ ; x ) ∂θ 1 = 0 ∂l ( θ ; x ) ∂θ 2 = 0... ∂l ( θ ; x ) ∂θ k = 0 . Neste caso as condi¸c˜oes de segunda ordem para garantir que a solu¸c˜ao de (3.2) seja um ponto de m´aximo referem-se `a matriz de segundas derivadas (ou matrizHessiana) da fun¸c˜ao de verossimilhan¸ca. A condi¸c˜ao ´e de que a matriz H   =  ∂  2 l ( θ ; x ) ∂  θ ∂  θ   θ =ˆ θ seja negativa definida, i.e.  z  H  z  <  0,  ∀ z   =  0  sendo cada elemento da matriz  H  dado por h ij  =  ∂  2 l ( θ ; x ) ∂θ i ∂θ  j . Exemplo 3.1:  Seja  X  1 ,...,X  n  uma amostra aleat´oria da distribui¸c˜ao de Bernoulli com parˆametro  θ . Para quaisquer valores observados cada  x i  ´e igual a0 ou 1 e a fun¸c˜ao de verossimilhan¸ca ´e dada por l ( θ ; x ) =  p ( x | θ ) = n  i =1 θ x i (1 − θ ) 1 − x i .  3.1. ESTIMADORES DE M ´ AXIMA VEROSSIMILHAN¸CA  25Como o valor de  θ  que maximiza  l ( θ ; x ) ´e o mesmo que maximiza log l ( θ ; x ) nestecaso ´e mais conveniente algebricamente determinar o EMV obtendo o valor de  θ que maximizalog l ( θ ; x ) = n  i =1 [ x i  log θ  + (1 − x i )log(1 − θ )]=   n  i =1 x i  log θ  +  n − n  i =1 x i  log(1 − θ )=  n [¯ x log θ  + (1 − ¯ x )log(1 − θ )] . Assim, a primeira derivada ´e dada por n  ¯ xθ  −  (1 − ¯ x )(1 − θ )  e igualando a zero obt´em-se que  θ  = ¯ x . A segunda derivada ´e dada por − n   ¯ xθ 2  + (1 − ¯ x )(1 − θ ) 2  <  0de modo que o EMV de  θ  ´e ˆ θ  = ¯ X  , i.e. a propor¸c˜ao amostral de sucessos. Como E  ( X  ) =  θ  segue que este estimador ´e tamb´em n˜ao viesado. Note que esta solu¸c˜ao s´o vale se 0  <  ˆ θ <  1 pois assumimos que 0  < θ <  1. No entanto, quando ¯ x  = 0temos que log l ( θ ; x ) =  n log(1 − θ ) que ´e uma fun¸c˜ao decrescente de  θ  e portanto´e maximizada em  θ  = 0. Analogamente, se ¯ x  = 1 temos que log l ( θ ; x ) =  n log( θ )que ´e maximizada em  θ  = 1. Assim, ¯ X   ´e o EMV de  θ  mesmo que a propor¸c˜aoamostral de sucessos seja 0 ou 1. Exemplo 3.2:  Seja  X  1 ,...,X  n  uma amostra aleat´oria da distribui¸c˜ao  N  ( θ, 1).A fun¸c˜ao de verossimilhan¸ca ´e dada por l ( θ ; x ) =  p ( x | θ ) = n  i =1 (2 π ) − 1 / 2 exp( − ( x i − θ ) 2 / 2)= (2 π ) − n/ 2 exp  − n  i =1 ( x i − θ ) 2 / 2  e o logaritmo da verossimilhan¸ca ´e dado porlog l ( θ ; x ) = − n 2 log(2 π ) − n  i =1 ( x i − θ ) 2 / 2 .  26  CAP ´ ITULO 3. M ´ ETODOS DE ESTIMA¸C ˜ AO  Tomando a primeira derivada e igualando a zero obt´em-se a equa¸c˜ao de verossim-ilhan¸ca n  i =1 ( x i − θ ) = 0cuja solu¸c˜ao ´e  θ  =  ni =1 x i /n . A segunda derivada ´e − n <  0 de modo que o EMVde  θ  ´e ˆ θ  = ¯ X  . Al´em disso o estimador ´e n˜ao viesado para  θ . Note que aqui n˜aoprecisamos nos preocupar com valores extremos (como no exemplo anterior) poiso espa¸co param´etrico ´e ilimitado. Exemplo 3.3:  Seja  X  1 ,...,X  n  uma amostra aleat´oria da distribui¸c˜ao  U  (0 ,θ ), θ >  0. A fun¸c˜ao de densidade ´e dada por  p ( x | θ ) =   1 /θ n ,  0 ≤ x i  ≤ θ, i  = 1 ,...,n 0 , caso contr´ario . Assim, a verossimilhan¸ca ´e uma fun¸c˜ao estritamente decrescente de  θ  e por-tanto seu m´aximo ´e atingido quando  θ  assume o menor dos seus poss´ıveis val-ores. Esta condi¸c˜ao ´e satisfeita quando  θ  = max( x 1 ,...,x n ), i.e. o EMV ´eˆ θ  = max( X  1 ,...,X  n ). Por outro lado a fun¸c˜ao de densidade poderia ser definidacomo  p ( x | θ ) =   1 /θ n ,  0  < x i  < θ, i  = 1 ,...,n 0 , caso contr´ario . Neste caso, max( X  1 ,...,X  n ) n˜ao ´e um dos poss´ıveis valores de  θ  j´a que  θ > x i , i  = 1 ,...,n , i.e.  θ >  max( X  1 ,...,X  n ). Portanto, o EMV n˜ao existe. Umasitua¸c˜ao hipot´etica com dados simulados ´e mostrada na Figura 3.1. Exemplo 3.4:  Seja  X  1 ,...,X  n  uma amostra aleat´oria da distribui¸c˜ao U  ( θ,θ  + 1),  −∞ < θ < ∞ . A fun¸c˜ao de densidade ´e dada por  p ( x | θ ) =   1 , θ ≤ x i  ≤ θ  + 1 , i  = 1 ,...,n 0 , caso contr´ario . A condi¸c˜ao  θ  ≤  x i  para  i  = 1 ,...,n  ´e equivalente a  θ  ≤  min( x 1 ,...,x n ) e acondi¸c˜ao  x i  ≤  θ  + 1 para  i  = 1 ,...,n  ´e equivalente a max( x 1 ,...,x n )  ≤  θ  + 1.Assim, a fun¸c˜ao de densidade pode ser reescrita como  p ( x | θ ) =   1 ,  max( x 1 ,...,x n ) − 1 ≤ θ ≤ min( x 1 ,...,x n )0 , caso contr´ario . e qualquer valor de  θ  no intervalo [max( x 1 ,...,x n ) − 1 , min( x 1 ,...,x n )] maximizaa fun¸c˜ao de verossimilhan¸ca. Em outras palavras, o EMV n˜ao ´e ´unico.  3.1. ESTIMADORES DE M ´ AXIMA VEROSSIMILHAN¸CA  27 012345        0      e     +       0       0       2      e   −       0       5       4      e   −       0       5       6      e   −       0       5 θ         l         (         θ         ) valores observadosfuncao de verossimilhanca Figura 3.1: 10 valores simulados de uma distribui¸c˜ao uniforme continua no inter-valo (0,3) e a fun¸c˜ao de verossimilhan¸ca. Exemplo 3.5:  Seja  X  1 ,...,X  n  uma amostra aleat´oria da distribui¸c˜ao  N  ( µ,σ 2 ).A fun¸c˜ao de verossimilhan¸ca ´e dada por l ( µ,σ 2 ; x ) =  p ( x | µ,σ 2 ) = n  i =1 (2 πσ 2 ) − 1 / 2 exp( − ( x i − µ ) 2 / 2 σ 2 )= (2 πσ 2 ) − n/ 2 exp  − n  i =1 ( x i − µ ) 2 / 2 σ 2  e o logaritmo da verossimilhan¸ca ´e dado por L ( µ,σ 2 ; x ) = log l ( µ,σ 2 ; x ) = − n 2 log(2 πσ 2 ) − n  i =1 ( x i − µ ) 2 / 2 σ 2 . Tomando a primeira derivada e igualando a zero obt´em-se as seguintes equa¸c˜oesde verossimilhan¸ca1 σ 2 n  i =1 ( x i − µ ) =  nσ 2 (¯ x − µ ) = 0
Related Search
We Need Your Support
Thank you for visiting our website and your interest in our free products and services. We are nonprofit website to share and download documents. To the running of this website, we need your help to support us.

Thanks to everyone for your continued support.

No, Thanks