Distribuic¸a˜o Marshall-Olkin Normal e Aplicac¸o˜es Gabriela Oliveira Orientador: Prof. Fredy Walther Castellares Ca´ceres Coorientador: Profa. Lourdes Coral Contreras Montenegro A´rea de Concentrac¸a˜o: Estat´ıstica Matema´tica Dissertac¸a˜o apresentada para a obtenc¸a˜o do grau de mestre em estat´ıstica pela Universidade Federal de Minas Gerais Belo Horizonte, fevereiro de 2014 Distribuic¸a˜o Marshall-Olkin Normal e Aplicac¸o˜es Esta versa˜o da dissertac¸a˜o conte´m as correc¸o˜es e alterac¸o˜es sugeridas pela Comissa˜o Julgadora durante a defesa da versa˜o original do trabalho, realizada em 27/02/2014. Uma co´pia da versa˜o original esta´ dispon´ıvel no Departamento de Estat´ıstica da Universidade Federal de Minas Gerais. Comissa˜o Julgadora: • Prof. Fredy Walther Castellares Ca´ceres (orientador) - UFMG • Profa. Lourdes Coral Contreras Montenegro (coorientadora)- UFMG • Prof. Marcos Antonio da Cunha Santos - UFMG • Prof. Artur Jose´ Lemonte - UFPE Agradecimentos Ao longo desses sete anos que se passaram desde a graduac¸a˜o na matema´tica ate´ a con- clusa˜o dessa dissertac¸a˜o, diversas pessoas me guiaram direta e indiretamente nessa jornada pela UFMG. Agradec¸o a toda a minha famı´lia, em especial a` tia Lilian, minha maior influeˆncia pela escolha da matema´tica. Aos meus amigos e aos colegas da matema´tica, pelas conversas, cafe´s, risadas e pelos brin- des a` passagem. Em especial, quero agradecer de corac¸a˜o ao meu namorado Bruno e a`s minhas queridas amigas Denise, Giovanna, Lorena, Luciana e Marina por estarem sempre comigo, na alegria e na tristeza, escutando minhas lamentac¸o˜es e e´ claro por toda amizade e companhei- rismo. Com voceˆs tudo foi mais feliz! Ao meu orientador Fredy Walther Castellares Ca´ceres e a` minha coorientadora Lourdes Coral Contreras Montenegro, por confiarem no meu trabalho e pelo aprendizado ao longo do mestrado. Aos membros da banca examinadora, professores Marcos Antonio da Cunha Santos (UFMG) e Artur Jose´ Lemonte (UFPE), pela participac¸a˜o e sugesto˜es. Aos professores do departamento de matema´tica da UFMG, pelos conhecimentos transmi- tidos, em especial ao professor mais bem humorado da universidade, Fabio Enrique Brochero Martinez, pelas inu´meras du´vidas esclarecidas, conversas e risadas. Aos professores, colegas e funciona´rios do departamento de estat´ıstica da UFMG, pelo apoio e conhecimentos compartilhados. Por fim, quero agradecer a` FAPEMIG pela bolsa de mestrado. A` todos voceˆs, meu MUITO OBRIGADA! i ii Resumo OLIVEIRA, G. Distribuic¸a˜o Marshall-Olkin Normal. 2014. Dissertac¸a˜o (Mestrado) - Ins- tituto de Cieˆncias Exatas, Universidade Federal de Minas Gerais, Belo Horizonte, 2014. Marshall e Olkin em 1997 introduziram uma nova famı´lia de distribuic¸o˜es adicionando um novo paraˆmetro em uma distribuic¸a˜o primitiva ja´ existente. Entretanto, os autores na˜o estu- daram as propriedades gerais desta nova famı´lia de distribuic¸o˜es. Neste trabalho, foi estudada uma generalizac¸a˜o da famı´lia normal utilizando o mecanismo de Marshall-Olkin, denominada de distribuic¸a˜o Marshall-Olkin normal (MON). Para esta distribuic¸a˜o obteve-se as principais propriedades matema´ticas, como expanso˜es gerais para as func¸o˜es de densidade de probabili- dade e de distribuic¸a˜o acumulada. Expresso˜es dos estimadores de ma´xima verossimilhanc¸a dos paraˆmetros, matriz de informac¸a˜o esperada e identificabilidade do modelo foram apresentadas. A utilidade dessa distribuic¸a˜o e´ ilustrada atrave´s de um conjunto de dados, mostrando que a distribuic¸a˜o MON e´ mais flex´ıvel do que outras distribuic¸o˜es existentes na literatura como as distribuic¸o˜es log´ıstica, t-Student e Cauchy. iii iv Abstract OLIVEIRA, G. Marshall-Olkin Normal Distribution. 2014. Dissertac¸a˜o (Mestrado) - Ins- tituto de Cieˆncias Exatas, Universidade Federal de Minas Gerais, Belo Horizonte, 2014. Marshall and Olkin in 1997 introduced a new family of distributions by adding a new parameter in a primitive distribution G(x). However, the authors did not study the general properties of this new family of distributions. In this work, a generalization of the normal fa- mily using the mechanism of Marshall-Olkin called normal Marshall-Olkin (MON) distribution was studied. For this distribution we obtained the mathematical properties, such as general expansions for the probability density functions and cumulative distribution, expressions of the maximum likelihood estimators of the parameters, the expected information matrix and identifiability. The usefulness of this distribution is illustrated by a set of data showing that the MON distribution is more flexible than other existing distributions in the literature as the logistic, Student t and Cauchy distributions. v vi Suma´rio Lista de Figuras ix Lista de Tabelas xi 1 Introduc¸a˜o 1 2 Distribuic¸a˜o Marshall-Olkin 3 2.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2.2 Func¸a˜o densidade de probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . 4 2.3 Expanso˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2.4 Sobreviveˆncia e risco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.5 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.6 Func¸a˜o Quant´ılica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 3 Distribuic¸a˜o Marshall-Olkin Normal 13 3.1 Func¸o˜es de distribuic¸a˜o acumulada e de densidade de probabilidade . . . . . . . 13 3.2 Func¸a˜o de sobreviveˆncia e func¸a˜o de risco . . . . . . . . . . . . . . . . . . . . . . 15 3.3 Propriedades da distribuic¸a˜o MON . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.3.1 Moda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.3.2 Mediana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.4 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3.5 Variaˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.6 Assimetria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.7 Curtose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.8 Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.9 Identificabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 4 Infereˆncia 41 4.1 Estimac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 vii viii SUMA´RIO 4.1.1 Estimac¸a˜o pontual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 4.1.2 Algoritmo de Newton-Raphson . . . . . . . . . . . . . . . . . . . . . . . 42 4.1.3 Func¸a˜o escore e informac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . 44 4.1.4 Estimac¸a˜o intervalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 4.2 Testes de hipo´teses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 4.2.1 Teste da raza˜o verossimilhanc¸a . . . . . . . . . . . . . . . . . . . . . . . 47 4.2.2 Teste da raza˜o de verossimilhanc¸a generalizada . . . . . . . . . . . . . . 48 4.2.3 Teste bondade do ajuste . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.3 Crite´rios de selec¸a˜o de modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4.3.1 Crite´rio de informac¸a˜o de Akaike - AIC . . . . . . . . . . . . . . . . . . . 50 4.3.2 Crite´rio de informac¸a˜o de Akaike corrigido - AICc . . . . . . . . . . . . . 50 4.3.3 Crite´rio Bayesiano de Schwarz - BIC . . . . . . . . . . . . . . . . . . . . 50 5 Simulac¸a˜o e Aplicac¸a˜o 51 5.1 Simulac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 5.2 Aplicac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 6 Concluso˜es e discusso˜es 57 A 63 Apeˆndice 63 A.1 Terceiro momento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 A.2 Quarto momento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 B 69 Apeˆndice 69 C 71 Apeˆndice 71 Lista de Figuras 3.1 Gra´fico da func¸a˜o de distribuic¸a˜o acumulada da distribuic¸a˜o MON para alguns valores de p, µ e σ. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 3.2 Gra´fico da func¸a˜o densidade de probabilidade da distribuic¸a˜o MON para alguns valores de p, µ e σ. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 3.3 Gra´fico da func¸a˜o de risco da distribuic¸a˜o MON para alguns valores de p, µ e σ. 16 3.4 Derivada segunda da func¸a˜o de distribuic¸a˜o acumulada de uma varia´vel aleato´ria com distribuic¸a˜o MON para alguns valores dos paraˆmetros. . . . . . . . . . . . . 18 3.5 Gra´fico da moda e mediana de X ∼MON(p, 0, 1) para diferentes valores de p. . 19 3.6 Variaˆncia de uma varia´vel aleato´ria com distribuic¸a˜o MON padra˜o para diferentes valores de p. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.7 Medidas de assimetria da distribuic¸a˜o MON: (a) terceiro momento padronizado; (b) medida de assimetria de Pearson; (c) medida de assimetria AG . . . . . . . . 32 3.8 Curtose da distribuic¸a˜o MON padra˜o para determinados valores de p. . . . . . . 32 4.1 Superf´ıcie da func¸a˜o de verossimilhanc¸a fixando p = 0, 5 e p = 2 . . . . . . . . . 43 4.2 Superf´ıcie da func¸a˜o de verossimilhanc¸a fixando µ = −2 e µ = 2. . . . . . . . . . 43 4.3 Superf´ıcie da func¸a˜o de verossimilhanc¸a fixando σ = 2. . . . . . . . . . . . . . . 43 5.1 Gra´ficos da func¸a˜o densidade exata da distribuic¸a˜o MON com histogramas para dados simulados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 5.2 Histograma do conjunto de dados de fibras de carbono com as func¸o˜es de densi- dades de probabilidades dos modelos MON, normal, log´ıstica, t-Student e Cauchy. 54 C.1 Histograma dos dados de fibras de carbono com as func¸o˜es de densidades de probabilidades substituindo-se as EMVs dos modelos MON, normal, skew-normal e normal-poteˆncia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 ix x LISTA DE FIGURAS Lista de Tabelas 3.1 Primeiro momento da distribuic¸a˜o MON padra˜o para alguns valores de p. . . . . 26 5.1 EMVs dos paraˆmetros dos modelos MON, normal, log´ıstica, t-Student e Cauchy para dados de fibras de carbono, correspondentes erros-padra˜o (entre pareˆnteses), log-verossimilhanc¸a e valores dos AIC, BIC, AICc. . . . . . . . . . . . . . . . . . 53 5.2 Teste bondade do ajuste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 5.3 Teste de Kolmogorov-Smirnov para as distribuic¸o˜es testadas . . . . . . . . . . . 55 C.1 EMVs dos paraˆmetros dos modelos MON, normal, NP, SN e SNB para dados de IQ Scores OITS, correspondentes erros-padra˜o (entre pareˆnteses) e valores dos AIC, BIC e CAIC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 C.2 Teste de Hipo´teses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 C.3 Teste de Kolmogorov-Smirnov para as distribuic¸o˜es testadas. . . . . . . . . . . . 72 xi xii LISTA DE TABELAS Cap´ıtulo 1 Introduc¸a˜o Modelos probabil´ısticos utilizando distribuic¸o˜es generalizadas de probabilidade surgiram na literatura pela primeira vez em 1895 com Karl Pearson quando ele propoˆs uma famı´lia de distribuic¸o˜es a qual inclu´ıa diversas distribuic¸o˜es de probabilidade. No se´culo passado, apo´s a formalizac¸a˜o das te´cnicas da estat´ıstica matema´tica foram definidas e estudadas va´rias famı´lias de distribuic¸o˜es de probabilidade. Entre as principais refereˆncias podem ser consultados Ord (1972), Mardia (1972, 2000), Patil (1975, 1981), Johnson et al. (1994, 2000, 2005). Atualmente tem sido publicados artigos em revistas especializadas propondo famı´lias de distribuic¸o˜es de probabilidade generalizadas e que ainda na˜o foram publicadas em livros texto ou manuais de distribuic¸o˜es. Este cont´ınuo interesse em definir novas distribuic¸o˜es de probabilidade mostra que este e´ um tema atual e que o estudo sistema´tico das propriedades e infereˆncia destas famı´lias merece atenc¸a˜o. Marshall e Olkin (1997) propuseram um me´todo para adicionar um novo paraˆmetro com valor positivo em uma distribuic¸a˜o primitiva G(x) ja´ existente cuja distribuic¸a˜o resultante sera´ denominada de distribuic¸a˜o Marshall-Olkin generalizada (MO). Alguns casos particulares desta distribuic¸a˜o teˆm sido discutidos na literatura tomando G(x) como as distribuic¸o˜es Pareto (Alice et al. 2003-2004, Ghitany 2005), Weibull (Jose et al. 2001, Alice et al. 2005, Ghitany et al. 2005, Jose et al. 2009-2010), gamma (Ristic´ et al. 2007), Lomax (Ghitany et al. 2007), exponencial (Alice et al. 2004) e a distribuic¸a˜o de taxa de falha linear (Ghitany e Kotz 2007). Outras extenso˜es e generalizac¸o˜es da famı´lia de distribuic¸o˜es Marshall-Olkin foram apresentadas por Lam e Leung (2001), Economou e Caroni (2007), Gupta e Peng (2009), Go´mez- De´niz (2010), Caroni (2010), Gupta et al. (2010), Nanda e Das (2012). Mais recentemente Barreto-Souza et al. (2013) derivam propriedades gerais desta distribuic¸a˜o. O objetivo do presente trabalho e´ estudar a distribuic¸a˜o Marshall-Olkin normal (denotada por MON), a qual e´ definida aplicando-se a transformac¸a˜o Marshall-Olkin com G(x) sendo a distribuic¸a˜o normal. Esta distribuic¸a˜o foi proposta inicialmente por Garc´ıa et al. (2010) onde eles investigaram o comportamento do paraˆmetro adicional como um paraˆmetro de assimetria. Garc´ıa et al. (2010) afirmaram que a distribuic¸a˜o MON compete com distribuic¸o˜es assime´tricas tais como skew-normal e skew-normal Balakrishnan. Posteriormente, Maiti e Dey (2012) propu- seram a mesma distribuic¸a˜o que Garc´ıa et al. (2010) (curiosamente sem cita´-los) e a chamaram de distribuic¸a˜o tilted normal com o objetivo de modelar dados de sobreviveˆncia. No mesmo ano, Rubio e Stell (2012) analisaram o uso da transformac¸a˜o Marshall-Olkin como um mecanismo de introduzir assimetria. Estes autores mostraram que se esse mecanismo e´ aplicado em distri- 1 2 INTRODUC¸A˜O 1.0 buic¸o˜es primitivas sime´tricas a distribuic¸a˜o resultante na˜o e´ flex´ıvel para modelar dados com assimetria moderada ou alta, contradizendo assim Garc´ıa et al. (2010) e Maiti e Dey (2012). A principal motivac¸a˜o para escrever esta dissertac¸a˜o deve-se as afirmac¸o˜es contradito´rias sobre o paraˆmetro adicional da nova distribuic¸a˜o Marshall-Olkin normal como mecanismo de produzir assimetria. Uma outra motivac¸a˜o foi encontrar de forma rigorosa algumas propriedades matema´ticas da nova distribuic¸a˜o incluindo a infereˆncia e a identificabilidade do modelo que na˜o foram apresentadas por Garc´ıa et al. (2010), Maiti e Dey (2012) e Rubio e Stell (2012). Neste trabalho, algumas contribuic¸o˜es para a distribuic¸a˜o Marshall-Olkin normal foram fei- tas. A distribuic¸a˜o MON foi caracterizada como uma mistura de ma´ximos e mı´nimos aleato´rios em que os coeficientes dessa mistura sa˜o as probabilidades de uma varia´vel aleato´ria com distri- buic¸a˜o geome´trica. Os quatro primeiros momentos da distribuic¸a˜o MON foram representados como combinac¸o˜es infinitas dos momentos do ma´ximo e mı´nimo da distribuic¸a˜o normal. Ex- presso˜es para as entropias de Re´nyi e de Shannon foram apresentadas. Provou-se tambe´m que o modelo MON e´ identifica´vel. Como ilustrac¸a˜o, foram feitas simulac¸o˜es e uma ana´lise de um conjunto de dados real que mostrou que o modelo MON compete com as distribuic¸o˜es log´ıstica, Cauchy e t-Student. Desta forma, a distribuic¸a˜o em estudo compete com distribuic¸o˜es com caudas pesadas e curtose maior do que a distribuic¸a˜o normal. O conteu´do da dissertac¸a˜o esta´ organizado em 6 cap´ıtulos e 3 apeˆndices. No Cap´ıtulo 2 e´ apresentado a distribuic¸a˜o Marshall-Olkin generalizada destacando-se as expanso˜es gerais para as func¸o˜es de distribuic¸a˜o acumulada e de densidade de probabilidade. O Cap´ıtulo 3 introduz a distribuic¸a˜o Marshall-Olkin normal exibindo-se suas principais propriedades, entre elas os momentos, entropia e a idenficabilidade do modelo. O Cap´ıtulo 4 aborda resultados de infereˆncia tais como os estimadores de ma´xima verossimilhanc¸a, matriz de informac¸a˜o esperada, testes de hipo´teses e alguns crite´rios de selec¸a˜o de modelos. O Cap´ıtulo 5 mostra simulac¸o˜es e a ana´lise de um conjunto de dados reais para verificar a flexibilidade do modelo. As concluso˜es sa˜o apresentadas no Cap´ıtulo 7. Nos apeˆndices A e B encontram-se as demonstrac¸o˜es de alguns resultados mostrados neste trabalho. Por fim, no Apeˆndice C uma ana´lise do banco de dados apresentado no artigo de Garc´ıa et al. (2010) e´ realizada. Cap´ıtulo 2 Distribuic¸a˜o Marshall-Olkin Existem diversos me´todos de introduzir um novo paraˆmetro para expandir famı´lias de distri- buic¸o˜es para ter mais flexibilidade em um determinado modelo. Este cap´ıtulo mostra o me´todo usado por Marshall e Olkin (1997) que acrescenta um novo paraˆmetro em uma distribuic¸a˜o primitiva G definindo assim a distribuic¸a˜o Marshall-Olkin (MO). Algumas propriedades dessa nova famı´lia de distribuic¸o˜es sera˜o apresentadas baseando-se nos artigos de Marshall e Olkin (1997), Rubio e Stell (2012) e Castellares e Lemonte (2013). Dentre elas destaca-se a carac- terizac¸a˜o da distribuic¸a˜o Marshall-Olkin como uma mistura de ma´ximos e mı´nimos de uma quantidade aleato´ria da distribuic¸a˜o primitiva G. 2.1 Definic¸a˜o Sejam G(x) a func¸a˜o de distribuic¸a˜o acumulada (fda) de uma varia´vel aleato´ria cont´ınua X e S(x) = 1−G(x) sua func¸a˜o de sobreviveˆncia. Adicionando um novo paraˆmetro p > 0, Marshall e Olkin (1997) introduziram uma nova famı´lia de distribuic¸o˜es generalizadas com func¸a˜o de distribuic¸a˜o acumulada expressa por F (x) = G(x) 1− (1− p)S(x) = p−1G(x) 1− (1− p−1)G(x) , x ∈ R, p > 0. (2.1) A distribuic¸a˜o com func¸a˜o de distribuic¸a˜o acumulada G(x) sera´ nomeada de distribuic¸a˜o primi- tiva. A nova famı´lia de distribuic¸o˜es Marshall-Olkin, denotada por MO, generaliza a distribuic¸a˜o primitiva G. De fato, a func¸a˜o de distribuic¸a˜o acumulada da distribuic¸a˜o MO coincide com G(x) quando p = 1. Para expresso˜es futuras sera´ utilizada a reparametrizac¸a˜o q = p−1, assim a func¸a˜o de dis- tribuic¸a˜o acumulada F (x) pode ser reescrita como F (x) = qG(x) 1− (1− q)G(x) , x ∈ R, q > 0. (2.2) 3 4 DISTRIBUIC¸A˜O MARSHALL-OLKIN 2.3 2.2 Func¸a˜o densidade de probabilidade As func¸o˜es de densidades de probabilidades correspondentes as func¸o˜es de distribuic¸o˜es acumuladas F (x) definidas em (2.1) e (2.2) sa˜o representadas, respectivamente, por f(x) = pg(x) [1− (1− p)S(x)]2 , x ∈ R, p > 0, (2.3) f(x) = qg(x) [1− (1− q)G(x)]2 , x ∈ R, q > 0, (2.4) em que g(x) e´ a func¸a˜o densidade de probabilidade (fdp) primitiva, isto e´, g(x) = dG(x)/dx. 2.3 Expanso˜es para as func¸o˜es de distribuic¸a˜o acumu- lada e de densidade de probabilidade Castellares e Lemonte (2013) propuseram expanso˜es para as func¸o˜es de distribuic¸a˜o acumulada e de densidade de probabilidade da distribuic¸a˜o MO caracterizando-a como uma mistura de ma´ximos e mı´nimos aleato´rios de uma quantidade aleato´ria da distribuic¸a˜o primitiva G. Para essa caracterizac¸a˜o eles utilizaram lemas, proposic¸o˜es e teoremas que sera˜o apresentados nesta sec¸a˜o com demonstrac¸o˜es detalhadas. Seja {Xn, n ∈ N} uma sequeˆncia de varia´veis aleato´rias independentes e identicamente dis- tribu´ıdas (i.i.d) em que cada varia´vel aleato´ria Xn tem como func¸a˜o de distribuic¸a˜o acumulada primitiva G. Denotando por N e M varia´veis aleato´rias independentes de {Xn, n ∈ N}, ambas com distribuic¸o˜es geome´tricas de paraˆmetros p ∈ (0, 1] e q = p−1 (p > 1), respectivamente, tem-se P (N = n) = p(1− p)n−1, P (M = n) = q(1− q)n−1, com n ∈ N. Para a caracterizac¸a˜o proposta por eles e´ necessa´rio definir YN e ZM da forma YN = min{X1, X2, ..., XN} e ZM = max{X1, X2, ..., XM}. O Lema 1 mostra uma expressa˜o para a func¸a˜o de distribuic¸a˜o acumulada do mı´nimo de n varia´veis aleato´rias com distribuic¸a˜o geome´trica de paraˆmetro p, em que 0 < p ≤ 1. Lema 1. A func¸a˜o de distribuic¸a˜o acumulada de YN e´ dada por FN(x) = G(x) 1− (1− p)S(x) , x ∈ R, 0 < p ≤ 1. Demonstrac¸a˜o. 2.3 EXPANSO˜ES 5 A func¸a˜o de distribuic¸a˜o acumulada de YN(x) e´ definida por FN(x) = P (YN ≤ x) = 1− P (YN > x) = 1− ∞∑ n=1 P (N = n)P (YN > x|N = n) = 1− ∞∑ n=1 P (N = n)P (Yn > x) = 1− ∞∑ n=1 p(1− p)n−1P (min{X1, X2, ..., Xn} > x) = 1− ∞∑ n=1 p(1− p)n−1P (X1 > x,X2 > x, · · · , Xn > x) = 1− ∞∑ n=1 p(1− p)n−1P (X1 > x)P (X2 > x) · · ·P (Xn > x) = 1− ∞∑ n=1 p(1− p)n−1P (X1 > x)n = 1− ∞∑ n=1 p(1− p)n−1S(x)n, pois as varia´veis aleato´rias X ′is sa˜o independentes e a func¸a˜o de sobreviveˆncia S(x) e´ igual a 1−G(x). Como 0 < p ≤ 1 e 0 ≤ S(X) ≤ 1, a se´rie geome´trica converge e, desta forma, FN(x) = 1− pS(x) ∞∑ n=1 (1− p)n−1S(x)n−1 = 1− pS(x) ∞∑ n=0 (1− p)nS(x)n = 1− pS(x) 1 1− (1− p)S(x) = 1− S(x) 1− (1− p)S(x) = G(x) 1− (1− p)S(x) . Analogamente, o Lema 2 mostra uma expressa˜o para a distribuic¸a˜o acumulada do ma´ximo de n varia´veis aleato´rias com distribuic¸a˜o geome´trica com paraˆmetro 0 < q < 1, em que foi utilizada a reparametrizac¸a˜o q = p−1 (quando p > 1). Lema 2. A func¸a˜o de distribuic¸a˜o acumulada de ZM e´ dada por FM(x) = qG(x) 1− (1− q)G(x) , x ∈ R, 0 < q < 1. 6 DISTRIBUIC¸A˜O MARSHALL-OLKIN 2.3 Demonstrac¸a˜o. A func¸a˜o de distribuic¸a˜o acumulada de ZM(x) e´ definida por FM(x) = P (YM ≤ x) = ∞∑ n=1 P (M = n)P (YM ≤ x|M = n) = ∞∑ n=1 P (M = n)P (Yn ≤ x) = ∞∑ n=1 q(1− q)n−1P (max{X1, X2, ..., Xn} ≤ x) = ∞∑ n=1 q(1− q)n−1P (X1 ≤ x)P (X2 ≤ x) · · ·P (Xn ≤ x) = ∞∑ n=1 q(1− q)n−1P (X1 ≤ x)n = ∞∑ n=1 q(1− q)n−1G(x)n, pois as varia´veis aleato´rias Xi’s sa˜o ideˆnticas e independentes. Como 0 < q < 1 e 0 ≤ G(x) ≤ 1, a se´rie geome´trica e´ convergente e, portanto, FM(x) = qG(x) ∞∑ n=1 (1− q)n−1G(x)n−1 = qG(x) ∞∑ n=0 (1− q)nG(x)n = qG(x) 1 1− (1− q)G(x) = qG(x) 1− (1− q)G(x) . Utilizando o Lema 1 e o Lema 2, pode ser definida uma nova func¸a˜o de distribuic¸a˜o acumulada na qual e´ poss´ıvel observar uma semelhanc¸a com a distribuic¸a˜o MO, como mostra o Lema 3 a seguir. Lema 3. Sob as definic¸o˜es anteriores, existe a func¸a˜o de distribuic¸a˜o acumulada representada por F (x;α) =  G(x) 1− (1− α)S(x) , se 0 < α ≤ 1, α−1G(x) 1− (1− α−1)G(x) = G(x) 1− (1− α)S(x) , se α > 1. (2.5) Demonstrac¸a˜o. 2.3 EXPANSO˜ES 7 Escrevendo α = p e F (x;α) = FN(x) quando 0 < p ≤ 1, pelo Lema 1 tem-se F (x;α) = FN(x) = G(x) 1− (1− α)S(x) . Se p > 1 considere a reparametrizac¸a˜o q = p−1. Desta forma, escrevendo α = q−1 > 1 e substituindo FM(x) por F (x;α) no Lema 2, a func¸a˜o de distribuic¸a˜o acumulada de M pode ser expressa como F (x;α) = FM(x) = α−1G(x) 1− (1− α−1)G(x) = G(x) 1− (1− α)S(x) . A proposic¸a˜o a seguir mostra que se uma varia´vel aleato´ria tem func¸a˜o de distribuic¸a˜o acumulada representada por (2.5) enta˜o X tem distribuic¸a˜o MO. Proposic¸a˜o 1. Se X e´ uma varia´vel aleato´ria com func¸a˜o de distribuic¸a˜o acumulada da forma (2.5), enta˜o, X segue uma distribuic¸a˜o MO. Demonstrac¸a˜o. Para 0 < α ≤ 1 defina α = p e quando α > 1, α = q−1 (0 < q < 1). Pelo Lema (3), com essas mudanc¸as de paraˆmetros obteˆm-se exatamente a func¸a˜o de distribuic¸a˜o acumulada definida por Marshall e Olkin (1997). Assim, a func¸a˜o de distribuic¸a˜o acumulada representada em (2.5) pode ser reescrita como F (x;α) = G(x) 1− (1− α)S(x) , x ∈ R, α > 0. Castellares e Lemonte (2013) caracterizaram a distribuic¸a˜o MO como uma mistura de ma´ximos e mı´nimos aleato´rios de uma quantidade aleato´ria da distribuic¸a˜o primitiva G,em que os coeficientes dessa mistura sa˜o as probabilidades de varia´veis aleato´rias independentes com distribuic¸a˜o geome´trica, como sera´ apresentado a seguir. O Teorema 1 mostra uma expansa˜o em se´rie para a func¸a˜o de distribuic¸a˜o acumulada da distribuic¸a˜o MO, quando o paraˆmetro p assume valores entre 0 e 1. Teorema 1. Se X tem distribuic¸a˜o MO, enta˜o a func¸a˜o de distribuic¸a˜o acumulada pode ser representada como a mistura F (x) = ∞∑ n=1 p(1− p)n−1{1− [1−G(x)]n}, x ∈ R, 0 < p ≤ 1, em que os seus coeficientes sa˜o as probabilidades de N , ou seja, X e´ uma mistura de distri- buic¸o˜es do mı´nimo. Demonstrac¸a˜o. Utilizando o Lema 1 e a Proposic¸a˜o 1 tem-se 8 DISTRIBUIC¸A˜O MARSHALL-OLKIN 2.3 F (x) = F (x, α) = G(x) 1− (1− α)S(x) = 1− pS(x) ∞∑ n=1 (1− p)n−1S(x)n−1 = ∞∑ n=1 p(1− p)n−1{1− [1−G(x)]n}. Analogamente quando p > 1, utilizando a reparametrizac¸a˜o q = p−1, a func¸a˜o de distribuic¸a˜o acumulada da distribuic¸a˜o MO pode ser representada como uma se´rie absolutamente conver- gente como pode ser constatado no Teorema 2. Teorema 2. Se X tem distribuic¸a˜o MO, enta˜o a func¸a˜o de distribuic¸a˜o acumulada pode ser representada como a mistura F (x) = ∞∑ n=1 q(1− q)n−1G(x)n, x ∈ R, 0 < q < 1, em que os seus coeficientes sa˜o as probabilidades de M , ou seja, X e´ uma mistura de distri- buic¸o˜es do ma´ximo. Demonstrac¸a˜o. Utilizando o Lema 2 e a Proposic¸a˜o 1 tem-se F (x) = F (x;α) = FM(x) = ∞∑ n=1 q(1− q)n−1G(x)n. O Teorema 1 e o Teorema 2 podem ser resumidos no Corola´rio 1, desta forma, tem-se uma representac¸a˜o para a func¸a˜o de distribuic¸a˜o acumulada da distribuic¸a˜o MO como expanso˜es em se´ries infinitas. Corola´rio 1. Se X tem uma distribuic¸a˜o MO, enta˜o sua func¸a˜o de distribuic¸a˜o acumulada pode ser representada pelas se´ries F (x) = { 1−∑∞n=1 p(1− p)n−1S(x)n, se 0 < p ≤ 1,∑∞ n=1 q(1− q)n−1G(x)n, se q−1 = p > 1. (2.6) Derivando a expansa˜o em se´rie da func¸a˜o de distribuic¸a˜o acumulada tem-se uma expansa˜o para a func¸a˜o densidade de probabilidade de uma varia´vel aleato´ria com distribuic¸a˜o MO, como mostra o Teorema 3. 2.4 EXPANSO˜ES 9 Teorema 3. Se X segue uma distribuic¸a˜o MO com func¸a˜o de distribuic¸a˜o acumulada (2.6), enta˜o sua func¸a˜o densidade de probabilidade e´ representada por uma se´rie absolutamente con- vergente da forma f(x) = { ∑∞ n=0 p(1− p)n(n+ 1)g(x)S(x)n, se 0 < p ≤ 1,∑∞ n=0 q(1− q)n(n+ 1)g(x)G(x)n, se q−1 = p > 1. (2.7) Demonstrac¸a˜o. Por (2.6) a func¸a˜o de distribuic¸a˜o acumulada de X e´ representada por uma se´rie absoluta- mente convergente, uma vez que a func¸a˜o de sobreviveˆncia S(x) e´ limitada (menor ou igual a um) e a se´rie geome´trica converge (a se´rie da func¸a˜o de distribuic¸a˜o acumulada e´ cotada por um nu´mero real e desta forma e´ absolutamente convergente). Para obter a func¸a˜o densidade de probabilidade e´ suficiente derivar (2.6) com respeito a x. Para 0 < p ≤ 1, fazendo-se uma mudanc¸a no ı´ndice do somato´rio, a func¸a˜o de distribuic¸a˜o acumulada e´ expressa como F (x; p) = 1− ∞∑ n=0 p(1− p)nS(x)n+1. Calculando a derivada em relac¸a˜o a x tem-se que f(x; p) = ∞∑ n=0 p(1− p)n(n+ 1)g(x)S(x)n. Para q−1 = p > 1 a func¸a˜o de distribuic¸a˜o acumulada de X e´ representada por F (x; q) = ∞∑ n=0 q(1− q)nG(x)n+1. Derivando tem-se f(x; q) = ∞∑ n=0 q(1− q)n(n+ 1)g(x)G(x)n. As expanso˜es (2.7) para a func¸a˜o densidade de probabilidade, apresentadas por Castellares e Lemonte (2013), sa˜o fundamentais para se obter algumas propriedades matema´ticas da famı´lia de distribuic¸o˜es MO. No Cap´ıtulo 3 essas expanso˜es sera˜o utilizadas para caracterizar a func¸a˜o de distribuic¸a˜o Marshall-Olkin normal como uma mistura de ma´ximos e mı´nimos aleato´rios de uma quantidade aleato´ria da distribuic¸a˜o normal. 10 DISTRIBUIC¸A˜O MARSHALL-OLKIN 2.4 2.4 Func¸a˜o de Sobreviveˆncia e func¸a˜o de risco A func¸a˜o de sobreviveˆncia da famı´lia de distribuic¸a˜o MO com func¸a˜o de distribuic¸a˜o acumulada (2.1) e´ definida como 1− F (x) = F (x) = p[1−G(x)] 1− (1− p)[1−G(x)] = pS(x) 1− (1− p)S(x) , x ∈ R, p > 0, (2.8) em que S(x) = 1−G(x) denota a func¸a˜o de sobreviveˆncia da distribuic¸a˜o primitiva G. A func¸a˜o de risco da famı´lia de distribuic¸a˜o MO para −∞ < x <∞ e´ expressa como r(x; p) = f(x) F (x) = 1 [1− (1− p)S(x)] g(x) S(x) = rG(x) 1− (1− p)S(x) , (2.9) em que rG(x) = g(x) S(x) e´ a func¸a˜o de risco da distribuic¸a˜o primitiva G. A func¸a˜o de risco da nova distribuic¸a˜o possui algumas propriedades que foram apresentadas por Marshall e Olkin (1997) que sera˜o dadas a seguir. Seja R(x) a raza˜o r(x; p)/rG(x). Calculando a derivada R ′(x) tem-se que R′(x) = (p− 1)g(x) [p+ (1− p)G(x)]2 , em que g(x) e´ a func¸a˜o densidade de probabilidade correspondente a` func¸a˜o de distribuic¸a˜o acumulada primitiva G(x). Portando, a raza˜o r(x; p)/rG(x) e´ crescente em x para p > 1 e decrescente quando 0 < p < 1, e para p = 1 e´ igual a zero. Os limites infinitos da func¸a˜o de sobreviveˆncia S(x) sa˜o dados por lim x→−∞ S(x) = 1− lim x→−∞ G(x) = 1 lim x→∞ S(x) = 1− lim x→∞ G(x) = 0. Pelas propriedades de limites quando n vai para menos infinito, o limite para a func¸a˜o de risco r(x; p) da distribuic¸a˜o MO e´ dado por lim x→−∞ r(x; p) = lim x→−∞ rG(x) 1− (1− p) lim x→−∞ S(x) = lim x→−∞ rG(x) p . Analogamente, lim x→+∞ r(x; p) = lim x→+∞ rG(x) 1− (1− p) lim x→+∞ S(x) = lim x→+∞ rG(x). 2.5 MOMENTOS 11 No artigo de Marshall e Olkin (1997) sa˜o apresentadas as seguintes desigualdades que com- param as func¸o˜es de risco e de sobreviveˆncia da distribuic¸a˜o primitiva G com as func¸o˜es de risco e de sobreviveˆncia da distribuic¸a˜o MO. rG(x)/p ≤ r(x; p) ≤ rG(x), (−∞ < x <∞, p ≥ 1), (2.10) rG(x) ≤ r(x; p) ≤ rG(x)/p, (−∞ < x <∞, 0 < p ≤ 1). (2.11) 2.5 Momentos Utilizando a representac¸a˜o em se´rie da func¸a˜o densidade de probabilidade mostrada na ex- pressa˜o (2.7), tem-se que o s-e´simo momento da distribuic¸a˜o MO pode ser expresso como E(Xs) = { ∑∞ n=0 p(1− p)n(n+ 1) ∫∞ −∞ x sg(x)S(x)ndx, se 0 < p ≤ 1,∑∞ n=0 q(1− q)n(n+ 1) ∫∞ −∞ x sg(x)G(x)ndx, se q−1 = p > 1. . (2.12) Rubio e Stell (2012) mostraram que a transformac¸a˜o na func¸a˜o de distribuic¸a˜o primitiva preserva a existeˆncia dos momentos, como e´ apresentado no Teorema 4. A demonstrac¸a˜o e´ completada com detalhes. Teorema 4. Os momentos da func¸a˜o de distribuic¸a˜o acumulada da distribuic¸a˜o MO existem exatamente para as mesmas ordens que os momentos da distribuic¸a˜o primitiva G. Demonstrac¸a˜o. Se p < 1 segue que p[1−G(x)] < [1−G(x)] e enta˜o G(x) + p[1−G(x)] < 1. Como G(x) + p[1−G(x)] e´ maior que zero, pode-se elevar ambos os lados da desigualdade ao quadrado obtendo-se {G(x) + p[1−G(x)]}2 < 1. Multiplicando a desigualdade anterior por p e reorganizando os termos, tem-se que p < p {G(x) + p[1−G(x)]}2 . (2.13) Com efeito, G(x) > pG(x) e desta forma p < p + G(x) − pG(x). Sendo assim, p2 < {G(x) + p[1−G(x)]}2 e portanto p {G(x) + p[1−G(x)]}2 < 1 p . (2.14) Reunindo as desigualdades (2.13) e (2.14) tem-se que p < p {G(x) + p[1−G(x)]}2 < 1 p . Por outro lado, quando p > 1 segue que G(x)[1 − p] + p < p. Elevando ao quadrado os dois membros desta u´ltima desigualdade o sinal se mante´m e desta forma 1 p < p {G(x) + p[1−G(x)]}2 . (2.15) 12 DISTRIBUIC¸A˜O MARSHALL-OLKIN 2.6 Como p > 1 a desigualdade p[1−G(x)] > [1−G(x)] e´ verdadeira. Portanto, G(x)+p[1−G(x)] > 1 e a desigualdade e´ mantida quando eleva-se os dois lados da inequac¸a˜o ao quadrado, ou seja, {G(x) + p[1−G(x)]}2 > 1 . Multiplicando ambos os lados por p resulta que p {G(x) + p[1−G(x)]}2 < p. (2.16) Pelas desigualdades (2.15) e (2.16) segue que 1 p < p {G(x) + p[1−G(x)]}2 < p. Relembrando que a func¸a˜o densidade de probabilidade da distribuic¸a˜o MO e´ representada por f(x) = pg(x) {G(x) + p[1−G(x)]}2 , tem-se que f(x) = K(x)g(x), em que K(x) toma valores entre min{p, 1/p} e max{p, 1/p}. Desta forma, a transformac¸a˜o MO preserva a existeˆncia dos momentos em relac¸a˜o a distribuic¸a˜o primitiva G, ou seja, possui momentos de mesma ordem que os da distribuic¸a˜o G. 2.6 Func¸a˜o Quant´ılica Castellares e Lemonte (2013) apresentam tambe´m a func¸a˜o quant´ılica para a distribuic¸a˜o MO, representada pelas expresso˜es: x = Q(u) = G−1 ( up 1− (1− p)u ) , se u ∈ (0, 1), p > 0, (2.17) ou x = Q(u) = G−1 ( u q + (1− q)u ) , se u ∈ (0, 1), q > 0. (2.18) No pro´ximo cap´ıtulo sera´ definida a distribuic¸a˜o MO normal em que os resultados apre- sentados neste cap´ıtulo sera˜o utilizados para encontrar suas principais propriedades tais como fo´rmulas expl´ıcitas para os momentos, entropia e identificabilidade, ate´ enta˜o na˜o presentes na literatura. Cap´ıtulo 3 Distribuic¸a˜o Marshall-Olkin Normal Neste cap´ıtulo apresenta-se o modelo Marshall-Olkin normal (MON), em que sua func¸a˜o de dis- tribuic¸a˜o acumulada sera´ caracterizada como uma mistura de ma´ximos e mı´nimos aleato´rios, em que os coeficientes dessa mistura sa˜o as probabilidades de uma varia´vel aleato´ria com dis- tribuic¸a˜o geome´trica. Destaca-se que esta representac¸a˜o e´ mais simples para encontrar propri- edades anal´ıticas para esta distribuic¸a˜o do que as expanso˜es que foram obtidas por Garc´ıa et al. (2010). Os quatro primeiros momentos da distribuic¸a˜o MON sa˜o representados como com- binac¸o˜es infinitas dos momentos do ma´ximo e mı´nimo da distribuic¸a˜o normal e expresso˜es para as entropias de Re´nyi e de Shannon tambe´m sa˜o obtidas. Vale a pena ressaltar a prova de identificabilidade do modelo em estudo, o que na˜o e´ natural encontrar em diversas bibliografias que trabalham com novas distribuic¸o˜es. 3.1 Func¸o˜es de distribuic¸a˜o acumulada e de densidade de probabilidade Uma varia´vel aleato´ria X tem distribuic¸a˜o Marshall-Olkin normal (MON) quando, nas de- finic¸o˜es do cap´ıtulo anterior, tem-se G(x) = Φ(x;µ, σ), ou seja, a func¸a˜o de distribuic¸a˜o acu- mulada primitiva e´ a func¸a˜o de distribuic¸a˜o acumulada da distribuic¸a˜o normal. Se G(x) = Φ(x; 0, 1), a distribuic¸a˜o sera´ nomeada de distribuic¸a˜o MON padra˜o. A func¸a˜o de distribuic¸a˜o acumulada e a func¸a˜o densidade de probabilidade da distribuic¸a˜o MON sa˜o dadas, respectivamente, por F (x; p, µ, σ) = Φ(x−µ σ ) {1− (1− p)[1− Φ(x−µ σ )]} (3.1) f(x; p, µ, σ) = pφ(x−µ σ ) σ{1− (1− p)[1− Φ(x−µ σ )]}2 , (3.2) com x ∈ R, µ ∈ R, p > 0 e σ > 0. Utilizando as expanso˜es para as func¸o˜es de distribuic¸a˜o acumulada (2.6) e de densidade de probabilidade (2.7) dadas no Cap´ıtulo 2 tem-se para a distribuic¸a˜o MON padra˜o as repre- 13 14 DISTRIBUIC¸A˜O MARSHALL-OLKIN NORMAL 3.1 sentac¸o˜es: F (x; p, 0, 1) = { 1−∑∞n=1 p(1− p)n−1[1− Φ(x)]n, se 0 < p ≤ 1,∑∞ n=1 q(1− q)n−1Φ(x)n, se q−1 = p > 1, (3.3) f(x; p, 0, 1) = { ∑∞ n=0 p(1− p)n(n+ 1)φ(x)[1− Φ(x)]n, se 0 < p ≤ 1,∑∞ n=0 q(1− q)n(n+ 1)φ(x)Φ(x)n, se q−1 = p > 1. (3.4) Essas representac¸o˜es para as func¸o˜es de distribuic¸a˜o acumulada (fda) e de densidade de pro- babilidade (fdp) sera˜o utilizadas para o desenvolvimento dos momentos da distribuic¸a˜o MON padra˜o em sec¸o˜es posteriores. As Figuras 3.1 e 3.2 ilustram, respectivamente, algumas poss´ıveis formas da fda e da fdp de uma varia´vel aleato´ria X com distribuic¸a˜o MON para determinados valores dos paraˆmetros, incluindo a distribuic¸a˜o normal que e´ um caso particular da distribuic¸a˜o MON quando p = 1. Observa-se que o gra´fico da func¸a˜o de distribuic¸a˜o acumulada da distribuic¸a˜o MON e´ semelhante a` curva da func¸a˜o de distribuic¸a˜o acumulada da normal, pore´m, para 0 < p < 1, tem-se um deslocamento para a esquerda, e, para p > 1, o deslocamento e´ para direita. Outra caracter´ıstica da distribuic¸a˜o MON e´ que ela e´ mais alta (afunilada) e concentrada que a distribuic¸a˜o normal, ou seja, uma simulac¸a˜o da distribuic¸a˜o MON pode gerar valores maiores que uma simulac¸a˜o da distribuic¸a˜o normal. −6 −4 −2 0 2 4 6 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 µ = 0 , σ = 1 x F( x) p= 0.1 p= 0.5 p= 1 p= 2 p= 5 −10 −5 0 5 10 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 µ = − 3 , σ = 2 x F( x) p= 0.1 p= 0.5 p= 1 p= 2 p= 5 Figura 3.1: Gra´fico da func¸a˜o de distribuic¸a˜o acumulada da distribuic¸a˜o MON para alguns valores de p, µ e σ. 3.2 FUNC¸A˜O DE SOBREVIVEˆNCIA E FUNC¸A˜O DE RISCO 15 −6 −4 −2 0 2 4 6 0. 0 0. 1 0. 2 0. 3 0. 4 0. 5 µ = 0 , σ = 1 x f(x ) p= 0.1 p= 0.5 p= 1 p= 2 p= 5 −15 −10 −5 0 5 10 15 0. 00 0. 02 0. 04 0. 06 0. 08 0. 10 0. 12 0. 14 µ = − 3 , σ = 2 x f(x ) p= 0.1 p= 0.5 p= 1 p= 2 p= 5 Figura 3.2: Gra´fico da func¸a˜o densidade de probabilidade da distribuic¸a˜o MON para alguns valores de p, µ e σ. 3.2 Func¸a˜o de sobreviveˆncia e func¸a˜o de risco As func¸o˜es de sobreviveˆncia e de risco sa˜o importantes func¸o˜es utilizadas para descrever estudos em ana´lise de sobreviveˆncia e em confiabilidade. As func¸o˜es de sobreviveˆncia e de risco para varia´vel aleato´ria X com distribuic¸a˜o MON podem ser escritas, respectivamente, como F (x; p, µ, σ) = p[1− Φ(x−µ σ )] 1− (1− p)[1− Φ(x−µ σ )] , r(x; p, µ, σ) = φ ( x−µ σ ) σ [ 1− Φ (x−µ σ )] { 1− (1− p)(1− Φ (x−µ σ ) ] } . (3.5) A Figura 3.3 ilustra a func¸a˜o de risco para uma varia´vel aleato´ria X com distribuic¸a˜o MON para alguns valores de p, µ e σ. 16 DISTRIBUIC¸A˜O MARSHALL-OLKIN NORMAL 3.3 −15 −10 −5 0 5 10 15 0 2 4 6 8 µ = − 5 , σ = 3 x r(x ) p= 0.1 p= 0.2 p= 0.3 p= 1 p= 2 p= 10 −20 −10 0 10 20 0 2 4 6 8 µ = − 1 , σ = 7 x r(x ) p= 0.1 p= 0.2 p= 0.3 p= 1 p= 2 p= 10 −6 −4 −2 0 2 4 6 0 2 4 6 8 µ = 0 , σ = 1 x r(x ) p= 0.1 p= 0.2 p= 0.3 p= 1 p= 2 p= 10 0 2 4 6 0 2 4 6 8 µ = 4 , σ = 0.5 x r(x ) p= 0.1 p= 0.2 p= 0.3 p= 1 p= 2 p= 10 Figura 3.3: Gra´fico da func¸a˜o de risco da distribuic¸a˜o MON para alguns valores de p, µ e σ. 3.3 PROPRIEDADES DA DISTRIBUIC¸A˜O MON 17 3.3 Propriedades da distribuic¸a˜o MON 3.3.1 Moda A moda da distribuic¸a˜o MON pode ser obtida por meio da maximizac¸a˜o do logaritmo da func¸a˜o densidade de probabilidade dada na expressa˜o (3.2), isto e´, d dx [log f(x; p, µ, σ)] = −x− µ σ2 − 2(1− p)φ( x−µ σ ) 1− (1− p)[1− Φ(x−µ σ )] . (3.6) Igualando a equac¸a˜o (3.6) a zero, pode-se encontrar o maior valor ou os valores mais frequentes da varia´vel aleato´ria que representa a moda. Portanto, a moda da distribuic¸a˜o MON e´ dada pela soluc¸a˜o da equac¸a˜o na˜o linear x = − 2σ(1− p)φ( x−µ σ ) 1− (1− p)[1− Φ(x−µ σ )] + µ. Em distribuic¸o˜es cont´ınuas a unimodalidade pode ser definida pelo comportamento da func¸a˜o de distribuic¸a˜o acumulada. Se existe um M tal que a func¸a˜o de distribuic¸a˜o acumulada e´ convexa para x < M e coˆncava se x > M enta˜o a distribuic¸a˜o e´ unimodal sendo M a moda. Para determinar a concavidade de uma func¸a˜o e´ necessa´rio fazer a derivada segunda da func¸a˜o de distribuic¸a˜o acumulada que sera´ denotada por F ′′(x; p, µ, σ). A derivada segunda da func¸a˜o de distribuic¸a˜o acumulada de um varia´vel aleato´ria X com distribuic¸a˜o MON e´ dada por F ′′(x; p, µ, σ) = −pφ(x−µ σ ) [ (x− µ){1− (1− p)[1− Φ(x−µ σ )]}+ 2σ(1− p)φ(x−µ σ ) ] σ3{1− (1− p)[1− Φ(x−µ σ )]}3 . (3.7) Nota-se que na˜o e´ poss´ıvel resolver analiticamente para que valores de x a derivada segunda (3.7) e´ positiva ou negativa. Desta forma, alguns gra´ficos para F ′′(x; p, µ, σ) foram constru´ıdos pelos quais tem-se evideˆncias nume´ricas que a distribuic¸a˜o MON e´ unimodal uma vez que F ′′(x; p, µ, σ) muda de sinal (e´ coˆncava e convexa) apenas uma vez (um u´nico ponto cr´ıtico) como mostra a Figura 3.4. 3.3.2 Mediana A mediana e´ uma medida de tendeˆncia central que separa a metade inferior de uma amostra, de uma populac¸a˜o, ou de uma distribuic¸a˜o de probabilidade, da outra metade superior. Denota-se m como a mediana de uma distribuic¸a˜o de probabilidade se ela satisfaz P (X ≤ m) ≥ 1 2 e P (X ≥ m) ≥ 1 2 . (3.8) 18 DISTRIBUIC¸A˜O MARSHALL-OLKIN NORMAL 3.3 −20 −10 0 10 20 − 0. 03 − 0. 02 − 0. 01 0. 00 0. 01 0. 02 0. 03 x F'' (x) p=0.2 µ=0 σ= 1 −20 −10 0 10 20 − 0. 03 − 0. 02 − 0. 01 0. 00 0. 01 0. 02 0. 03 x F'' (x) p=0.5 µ=2 σ= 2 −20 −10 0 10 20 − 0. 01 0 − 0. 00 5 0. 00 0 0. 00 5 x F'' (x) p=3 µ=−4 σ= 3 −30 −20 −10 0 10 20 30 − 0. 00 6 − 0. 00 4 − 0. 00 2 0. 00 0 0. 00 2 0. 00 4 x F'' (x) p=3 µ=−4 σ= 3 Figura 3.4: Derivada segunda da func¸a˜o de distribuic¸a˜o acumulada de uma varia´vel aleato´ria com distribuic¸a˜o MON para alguns valores dos paraˆmetros. Considerando X uma varia´vel aleato´ria com distribuic¸a˜o MON padra˜o e resolvendo o sistema de inequac¸o˜es (3.8), tem-se P (X ≤ m) = Φ(x) Φ(x) + p[1− Φ(x)] ≥ 1 2 2Φ(x) ≥ Φ(x) + p[1− Φ(x)] Φ(x) ≥ p p+ 1 , (3.9) pois Φ(x) + p[1− Φ(x)] e´ positivo para todo p. Por outro lado, P (X ≥ m) = 1− Φ(x) Φ(x) + p[1− Φ(x)] ≥ 1 2 2[Φ(x) + p[1− Φ(x)]− Φ(x)] ≥ Φ(x) + p[1− Φ(x)] Φ(x) ≤ p p+ 1 . (3.10) Enta˜o, pelas desigualdades (3.9) e (3.10), a mediana da distribuic¸a˜o MON padra˜o e´ dada por Φ(m) = p 1 + p , 3.4 MOMENTOS 19 ou seja, m = Φ−1 ( p 1 + p ) . Em outras palavras, a mediana m de uma distribuic¸a˜o MON padra˜o e´ o p 1 + p -e´simo quantil de uma distribuic¸a˜o normal padra˜o. A Figura 3.5 mostra o gra´fico para a moda e mediana de X com distribuic¸a˜o MON padra˜o para alguns valores de p. Pode-se observar que a medida que o valor de p aumenta a distaˆncia entre a moda e a mediana fica maior, indicando que a distribuic¸a˜o se afasta um pouco da simetria. 0 5 10 15 − 2 − 1 0 1 2 p Va lo re s mediana moda Figura 3.5: Gra´fico da moda e mediana de X ∼MON(p, 0, 1) para diferentes valores de p. 3.4 Momentos Nesta sec¸a˜o uma expressa˜o geral para calcular os momentos de primeira, segunda, terceira e quarta ordens da distribuic¸a˜o MON padra˜o, como uma combinac¸a˜o infinita dos momentos da distribuic¸a˜o normal, e´ apresentada. Ale´m disso, os primeiros termos dessas expanso˜es foram calculados explicitamente. Estes resultados, ate´ o presente trabalho, na˜o estavam dispon´ıveis na literatura. Para o desenvolvimento desses momentos utilizou-se alguns resultados apresentados no artigo de Bose e Gupta (1959). Para o caso geral, os ca´lculos podem ser feitos de maneira ana´loga fazendo-se a transformac¸a˜o X = σZ + µ, com X sendo uma varia´vel aleato´ria com distribuic¸a˜o MON. 20 DISTRIBUIC¸A˜O MARSHALL-OLKIN NORMAL 3.4 Primeiro momento O primeiro momento de uma varia´vel aleato´ria com distribuic¸a˜o MON padra˜o utilizando a expressa˜o (2.12) e´ dado por E(X) = { ∑∞ n=0 p(1− p)n(n+ 1) ∫∞ −∞ xφ(x)[1− Φ(x)]ndx, se 0 < p ≤ 1,∑∞ n=0 q(1− q)n(n+ 1) ∫∞ −∞ xφ(x)Φ(x) ndx, se q−1 = p > 1. (3.11) Para q−1 = p > 1 tem-se que E(X) = ∞∑ n=0 q(1− q)n(n+ 1) ∫ ∞ −∞ xφ(x)[Φ(x)]ndx = q ∫ ∞ −∞ xφ(x)dx+ ∞∑ n=1 q(1− q)n(n+ 1) ∫ ∞ −∞ xφ(x)[Φ(x)]ndx = 0 + ∞∑ n=1 q(1− q)n(n+ 1) ∫ ∞ −∞ xφ(x)[Φ(x)]ndx = ∞∑ n=1 q(1− q)nµ′1(n+ 1, n+ 1), (3.12) com µ′1(n + 1, n + 1) = (n + 1) ∫∞ −∞ xφ(x)[Φ(x)] ndx representando o primeiro momento do ma´ximo de n+ 1 varia´veis com distribuic¸a˜o normal padra˜o. Bose e Gupta (1959) mostraram que µ′1(n+ 1, n+ 1) pode ser representado como µ′1(n+ 1, n+ 1) = ( n+1 2 ) pi ∫ ∞ −∞ [Φ(x)]n−1e−x 2 dx (3.13) = n(n+ 1) 2pi ∫ ∞ −∞ [Φ(x)]n−1e−x 2 dx, e denotaram In(a) = ∫ ∞ −∞ [Φ(ax)]ne−x 2 dx. (3.14) Desta forma, o primeiro momento representado na expressa˜o (3.12) pode ser escrito como E(X) = ∞∑ n=1 q(1− q)nn(n+ 1) 2pi In−1(1). (3.15) Para encontrar explicitamente os valores do primeiro momento do ma´ximo de n + 1 varia´veis com distribuic¸a˜o normal padra˜o, os mesmos autores apresentaram uma fo´rmula de recorreˆncia para os I ′ns dada na expressa˜o (3.16), a qual sera´ provada com detalhes. Sabe-se que a func¸a˜o h(x) = Φ(ax) − 1 2 e´ uma func¸a˜o ı´mpar, enquanto que q(x) = e−x 2 e´ uma func¸a˜o par. Por sua vez, o produto dessas func¸o˜es e´ uma func¸a˜o ı´mpar e portanto sua 3.4 MOMENTOS 21 integral e´ zero. Desta forma, ∫ ∞ −∞ [ Φ(ax)− 1 2 ]2m+1 e−x 2 dx = 0 Utilizando a expansa˜o do binoˆmio de Newton para [ Φ(ax)− 1 2 ]2m+1 , tem-se que∫ ∞ −∞ 2m+1∑ r=0 ( 2m+ 1 r ) (−1)r ( 1 2 )r Φ(ax)2m+1−re−x 2 dx = 0 ∫ ∞ −∞ Φ(ax)2m+1e−x 2 dx+ ∫ ∞ −∞ 2m+1∑ r=1 ( 2m+ 1 r ) (−1)r ( 1 2 )r Φ(ax)2m+1−re−x 2 dx = 0 I2m+1(a) + ∫ ∞ −∞ 2m+1∑ r=1 ( 2m+ 1 r ) (−1)r ( 1 2 )r Φ(ax)2m+1−re−x 2 dx = 0 I2m+1(a) = − 2m+1∑ r=1 ( 2m+ 1 r ) (−1)r ( 1 2 )r ∫ ∞ −∞ Φ(ax)2m+1−re−x 2 dx I2m+1(a) = 2m+1∑ r=1 ( 2m+ 1 r ) (−1)r+1 ( 1 2 )r I2m+1−r(a). (3.16) Fazendo n = 0 na expressa˜o (3.14) e substituindo m = 0 em (3.16), respectivamente, encontra- se I0(a) = ∫ ∞ −∞ e−x 2 dx = √ pi ∫ ∞ −∞ e−x 2 √ pi dx = √ pi, I1(a) = 1 2 I0(a) = √ pi 2 . pois e −x2√ pi e´ a func¸a˜o densidade de probabilidade de uma varia´vel aleato´ria com distribuic¸a˜o N(0, 1/2). Derivando a expressa˜o (3.14) com respeito a a pode-se obter I2(a). Sabendo que a integral (3.14) converge uniformemente e o integrando e´ cont´ınuo, a troca da integral com a derivada pode ser realizada. Assim, d da I2(a) = ∫ ∞ −∞ d da [Φ(ax)]2e−x 2 dx = ∫ ∞ −∞ 2Φ(ax)φ(ax)xe−x 2 dx = 2 ∫ ∞ −∞ Φ(ax) 1√ 2pi e− x2 2 (a2+2)xdx. (3.17) 22 DISTRIBUIC¸A˜O MARSHALL-OLKIN NORMAL 3.4 Utilizando a integrac¸a˜o por partes com a mudanc¸a de varia´veis u = Φ(ax) e dv = e− x2 2 (a2+2)xdx, a expressa˜o (3.17) pode ser escrita por d da I2(a) = 2√ 2pi ( a a2 + 2 ) 1√ 2a2 + 1 ∫ ∞ −∞ 1√ 2pi √ 2(a2 + 1)e− x2 2 (2a2+2)dx = 2√ 2pi ( a a2 + 2 ) 1√ 2(a2 + 1) = 1√ pi a (a2 + 2) √ (a2 + 1) . Para recuperar I2(a) e´ suficiente integrar com respeito a a ambos os lados da igualdade anterior obtendo I2(a) = 1√ pi arctan ( √ a2 + 1). Novamente pela fo´rmula de recorreˆncia (3.16), agora com m = 1, tem-se que I3(a) e´ dado por I3(a) = 3 2 √ pi arctan ( √ a2 + 1)− √ pi 4 . Bose e Gupta (1959) afirmaram que os termos de ordem ı´mpar I2m+1 podem ser expressos como combinac¸a˜o linear de I2m(a), I2m−2(a), · · · , I0(a) e para encontrar os termos de ordem par e´ suficiente derivar a equac¸a˜o (3.14) com respeito a a, como foi mostrado para o ca´lculo de I2(a). Desta forma, os termos da expansa˜o do primeiro momento para a distribuic¸a˜o MON padra˜o podem ser encontrados. Atribuindo alguns valores para n na se´rie (3.12) tem-se que o primeiro momento, E(X), da distribuic¸a˜o MON padra˜o para p > 1, utilizando a reparametrizac¸a˜o q = p−1 pode ser representado como E(X) = ∞∑ n=1 q(1− q)nn(n+ 1) 2pi In−1(1) = q(1− q) pi I0(1) + 3q(1− q)2 pi I1(1) + 6q(1− q)3 pi I2(1) + 10q(1− q)4 pi I3(1) + ∞∑ n=5 q(1− q)nn(n+ 1) 2pi In−1(1) = q(1− q)√ pi + 3q(1− q)2 2 √ pi + 6q(1− q)3arctan √ 2√ pi3 + 5q(1− q)4 pi ( 3√ pi arctan √ 2− √ pi 2 ) + ∞∑ n=5 q(1− q)nn(n+ 1) 2pi In−1(1). Para se obter a expansa˜o do primeiro momento da distribuic¸a˜o MON padra˜o quando 0 < 3.4 MOMENTOS 23 p ≤ 1, pode-se definir Jn(a) = ∫ +∞ −∞ [1− Φ(ax)]ne−x2dx, (3.18) em que a relac¸a˜o de recorreˆncia entre os J ′n(a)s sera´ encontrada de forma similar ao desenvol- vimento dos I ′ns apresentado anteriormente. Sabe-se que∫ +∞ −∞ [ Φ(ax)− 1 2 ]2m+1 e−x 2 dx = 0∫ +∞ −∞ [ 1− Φ(ax)− 1 2 ]2m+1 e−x 2 dx = 0 ∫ +∞ −∞ 2m+1∑ r=0 ( 2m+ 1 r )( −1 2 )r [1− Φ(ax)]2m−r+1e−x2dx = 0 ∫ +∞ −∞ 2m+1∑ r=0 ( 2m+ 1 r )( 1 2r ) [1− Φ(ax)]2m−r+1(−1)re−x2dx = 0 2m+1∑ r=0 ( 2m+ 1 r )( 1 2r ) (−1)r ∫ +∞ −∞ [1− Φ(ax)]2m−r+1e−x2dx = 0 2m+1∑ r=0 ( 2m+ 1 r )( 1 2r ) (−1)rJ2m−r+1(a) = 0 J2m+1(a) + 2m+1∑ r=1 ( 2m+ 1 r )( 1 2r ) (−1)rJ2m−r+1(a) = 0 Portanto, J2m+1(a) = 2m+1∑ r=1 ( 2m+ 1 r )( 1 2r ) (−1)r+1J2m−r+1(a). (3.19) Substituindo, respectivamente, n = 0 em (3.18) e m = 0 na equac¸a˜o (3.19), obte´m-se J0(a) = √ pi, J1(a) = 1 2 J0(a) = √ pi 2 . De forma similar, como foram calculados anteriormente para os I ′ns, os termos ı´mpares J2m+1(a) podem ser expressos como func¸a˜o linear dos J2m(a), J2m−2(a), · · · , J0(a). Para encon- trar os termos de ordem par, deriva-se a equac¸a˜o (3.18) com respeito a a. Neste caso, a troca da integral com a derivada e´ poss´ıvel pois a integral converge uniformemente e o integrando e´ 24 DISTRIBUIC¸A˜O MARSHALL-OLKIN NORMAL 3.4 cont´ınuo. Derivando J2(a) com respeito a a tem-se que d da J2(a) = ∫ +∞ −∞ d da [1− Φ(ax)]2e−x2dx = ∫ +∞ −∞ 2xe−x 2 Φ(ax)φ(ax)dx− ∫ +∞ −∞ 2xe−x 2 φ(ax)dx = d da I2(a)− 2 ∫ +∞ −∞ xe−x 2 φ(ax)dx = 1√ pi a (a2 + 2)( √ a2 + 1) − 2 ∫ +∞ −∞ x e −x2 2 (a2+2) √ 2pi dx = 1√ pi a (a2 + 2)( √ a2 + 1) − 2√ a2 + 2 E(Y ) onde Y ∼ N ( 0, 1 a2 + 2 ) = 1√ pi a (a2 + 2)( √ a2 + 1) . (3.20) Integrando a equac¸a˜o (3.20) com respeito a a, pode-se obter o termo J2(a), resultando em J2(a) = arctan ( √ a2 + 1)√ pi . Fazendo m = 1 em (3.19), o termo J3(a) e´ dado por J3(a) = 3 2 J2(a)− 3 4 J1(a) + 1 8 J0(a) = 3 2 J2(a)− 1 4 J0(a) = 3 arctan ( √ a2 + 1) 2 √ pi − √ pi 4 . Considerando 0 < p ≤ 1, o primeiro momento da distribuic¸a˜o MON padra˜o pode ser escrito como E(X) = ∞∑ n=0 (n+ 1)p(1− p)n ∫ +∞ −∞ xφ(x)[1− Φ(x)]ndx = p ∫ +∞ −∞ xφ(x)dx+ ∞∑ n=1 (n+ 1)p(1− p)n ∫ +∞ −∞ xφ(x)[1− Φ(x)]ndx = 0 + ∞∑ n=1 (n+ 1)p(1− p)n ∫ +∞ −∞ xφ(x)[1− Φ(x)]ndx 3.4 MOMENTOS 25 = ∞∑ n=1 p(1− p)n ∫ +∞ −∞ (n+ 1)xφ(x)[1− Φ(x)]ndx = ∞∑ n=1 p(1− p)nµ′1(n+ 1, 1), com µ′1(n + 1, 1) representando o primeiro momento do mı´nimo de n + 1 varia´veis com distri- buic¸a˜o normal padra˜o. Por Bose e Gupta (1959), µ′1(n+ 1, 1) pode ser escrito como µ′1(n+ 1, 1) = − 1 2pi ∫ +∞ −∞ n(n+ 1)[1− Φ(x)]n−1e−x2dx = −n(n+ 1) 2pi Jn−1(1). Portanto, o primeiro momento da distribuic¸a˜o MON padra˜o, quando 0 < p ≤ 1, e´ dado por E(X) = − ∞∑ n=1 p(1− p)nn(n+ 1) 2pi Jn−1(1) = −p(1− p)J0(1) pi − 3p(1− p) 2J1(1) pi − 6p(1− p) 3J2(1) pi − 10p(1− p) 4J3(1) pi − ∞∑ n=5 p(1− p)nn(n+ 1) 2pi Jn−1(1) = −p(1− p)√ pi − 3p(1− p) 2 2 √ pi − 6p(1− p) 3 arctan √ 2 pi √ pi −10p(1− p) 4 pi [ 3 arctan √ 2 2 √ pi − √ pi 4 ] − ∞∑ n=5 p(1− p)nn(n+ 1) 2pi Jn−1(1). A Tabela 3.1, apresenta resultados nume´ricos para o primeiro momento da distribuic¸a˜o MON, para alguns valores de p, calculados de duas formas. A primeira delas, denotada por E(X), e´ feita utilizando-se a expressa˜o E(X) = ∫ ∞ −∞ x pφ(x) {1− (1− p)[1− Φ(x)]}2dx. (3.21) Ja´ a esperanc¸a de X aproximada, E(X) foi calculada pelas se´ries (3.18) e (3.21) somadas ate´ os menores valores de n onde se observou uma boa aproximac¸a˜o quando comparado com o ca´lculo direto de E(X) pela expressa˜o (3.21). A aproximac¸a˜o foi feita com treˆs casas decimais. Observa- se que para alguns valores de p a aproximac¸a˜o foi satisfato´ria utilizando apenas alguns termos da se´rie que representa o primeiro momento, quando comparados com os valores calculados diretamente pela expressa˜o (3.21). 26 DISTRIBUIC¸A˜O MARSHALL-OLKIN NORMAL 3.4 Tabela 3.1: Primeiro momento da distribuic¸a˜o MON padra˜o para alguns valores de p. p n E(X) E(X) aprox. 0.1 60 -1.244 -1.241 0.4 15 -0.513 -0.513 0.6 5 -0.287 -0.282 0.7 10 -0.201 -0.201 0.9 4 -0.059 -0.059 3 15 0.613 0.610 5 25 0.882 0.882 8 52 1.132 1.130 12 72 1.334 1.330 15 102 1.442 1.440 Segundo momento De forma similar como foi calculado para o primeiro momento da distribuic¸a˜o MON padra˜o, nesta subsec¸a˜o calcula-se os primeiros termos da expansa˜o em se´rie do segundo momento para uma amostra de n+ 1 observac¸o˜es da distribuic¸a˜o MON padra˜o. Substituindo s = 2 na expressa˜o dos momentos (2.12), apresentada no Cap´ıtulo 2, o segundo momento da distribuic¸a˜o MON padra˜o pode ser escrito como E(X2) = { ∑∞ n=0 p(1− p)n(n+ 1) ∫∞ −∞ x 2φ(x)[1− Φ(x)]ndx, se 0 < p ≤ 1,∑∞ n=0 q(1− q)n(n+ 1) ∫∞ −∞ x 2φ(x)[Φ(x)]ndx, se q−1 = p > 1. (3.22) Desenvolvendo a expansa˜o do segundo momento quando q−1 = p > 1 tem-se que E(X2) = ∞∑ n=0 q(1− q)n(n+ 1) ∫ ∞ −∞ x2φ(x)[Φ(x)]ndx (3.23) = q ∫ ∞ −∞ x2φ(x)dx+ ∞∑ n=1 q(1− q)n(n+ 1) ∫ ∞ −∞ x2φ(x)[Φ(x)]ndx = q + ∞∑ n=1 q(1− q)nµ′2(n+ 1, n+ 1), (3.24) em que µ′2(n + 1, n + 1) = (n + 1) ∫∞ −∞ x 2φ(x)[Φ(x)]ndx representa o segundo momento do ma´ximo de n+ 1 varia´veis com distribuic¸a˜o normal padra˜o. A integral ∫∞ −∞ x 2φ(x)dx = 1, pois denota o segundo momento da distribuic¸a˜o normal padra˜o, a variaˆncia. Por Bose e Gupta (1959), tem-se que o segundo momento do ma´ximo de n + 1 varia´veis com distribuic¸a˜o normal padra˜o, µ′2(n+ 1, n+ 1), pode ser expresso por µ′2(n+ 1, n+ 1) = 1 + n(n− 1)(n+ 1) 4pi ∫ ∞ −∞ [Φ(x)]n−2e− 3 2 x2 √ 2pi dx. (3.25) 3.4 MOMENTOS 27 Substituindo, respectivamente, n = 1 e n = 2 em (3.25), tem-se µ′2(2, 2) = 1, µ′2(3, 3) = 1 + 3 2pi √ 3 ∫ ∞ −∞ √ 3e− 3 2 x2 √ 2pi dx = 2pi + √ 3 2pi . Segundo Jones (1948), o segundo momento do ma´ximo de quatro varia´veis aleato´rias normal- mente distribu´ıdas, com me´dia 0 e variaˆncia 1, e´ dado por µ′2(4, 4) = pi + √ 3 pi . Substituindo os valores encontrados para µ′2(2, 2), µ ′ 2(3, 3) e µ ′ 2(4, 4) na expressa˜o (3.24), o segundo momento da distribuic¸a˜o MON padra˜o para p > 1 pode ser representado como E(X2) = q + ∞∑ n=1 q(1− q)nµ′2(n+ 1, n+ 1) = q + q(1− q)µ′2(2, 2) + q(1− q)2µ′2(3, 3) + q(1− q)3µ′2(4, 4) + ∞∑ n=4 q(1− q)nµ′2(n+ 1, n+ 1) = q + q(1− q) + q(1− q)2 ( 2pi + √ 3 2pi ) + q(1− q)3 ( pi + √ 3 pi ) + ∞∑ n=4 q(1− q)nµ′2(n+ 1, n+ 1). Analogamente, para 0 < p ≤ 1 tem-se que E(X2) = ∞∑ n=0 p(1− p)n(n+ 1) ∫ ∞ −∞ x2φ(x)[1− Φ(x)]ndx = p ∫ ∞ −∞ x2φ(x)dx+ ∞∑ n=1 p(1− p)n(n+ 1) ∫ ∞ −∞ x2φ(x)[1− Φ(x)]ndx = p+ ∞∑ n=1 p(1− p)nµ′2(n+ 1, 1), em que µ′2(n+ 1, 1) = ∫∞ −∞ x 2φ(x)[1−Φ(x)]ndx denota o segundo momento do mı´nimo de n+ 1 varia´veis aleato´rias com distribuic¸a˜o normal padra˜o. Novamente por Bose e Gupta (1959) o segundo momento do mı´nimo entre n + 1 varia´veis aleato´rias com distribuic¸a˜o normal padra˜o pode ser escrito como µ′2(n+ 1, 1) = 1 + n(n− 1)(n+ 1) 4pi ∫ ∞ −∞ [1− Φ(x)]n−2e− 32x2√ 2pi dx. (3.26) 28 DISTRIBUIC¸A˜O MARSHALL-OLKIN NORMAL 3.4 Substituindo n = 1, n = 2, n = 3 em (3.26), respectivamente, tem-se que µ′2(2, 1) = 1, µ′2(3, 1) = µ ′ 2(3, 3) = 2pi + √ 3 2pi µ′2(4, 1) = 1 + 6 pi ∫ ∞ −∞ e− 3 2 x2 √ 2pi dx− 6 pi ∫ ∞ −∞ Φ(x)e− 3 2 x2 √ 2pi dx = 1 + 2 √ 3 pi − [µ′2(4, 4)− 1] = √ 3 + pi pi . Portanto, o segundo momento para a distribuic¸a˜o MON padra˜o, para 0 < p ≤ 1, e´ dado pela expressa˜o E(X2) = p+ ∞∑ n=1 p(1− p)nµ′2(n+ 1, 1) = p+ p(1− p)µ′2(2, 1) + p(1− p)2µ′2(3, 1) + p(1− p)3µ′2(4, 1) + ∞∑ n=4 p(1− p)nµ′2(n+ 1, 1) = p+ p(1− p) + p(1− p)2 (2pi +√3 2pi ) + p(1− p)3 (pi +√3 pi ) + ∞∑ n=4 p(1− p)nµ′2(n+ 1, 1). Terceiro e quarto momentos Seguindo o mesmo procedimento das subsec¸o˜es anteriores, obteve-se os primeiros termos das expanso˜es para o terceiro e quarto momentos da distribuic¸a˜o MON padra˜o. As demonstrac¸o˜es sa˜o apresentadas no Apeˆndice A. O terceiro momento para a distribuic¸a˜o MON padra˜o, para 0 < p ≤ 1, pode ser representado como E(X3) = −p(1− p)5 √ pi 2pi − p(1− p)215 √ pi 4 − p(1− p)3 [ 15 arctan √ 2 pi √ pi + √ 2pi 2pi2 ] + ∞∑ n=4 p(1− p)nµ′3(n+ 1, 1), 3.5 VARIAˆNCIA 29 e para p > 1, usando a reparametrizac¸a˜o q = p−1, pode ser escrito como E(X3) = 5 √ piq(1− q) 2 + 15q(1− q)2 4 √ pi + q(1− q)3 [ 15 arctan √ 2 pi √ pi + √ 2pi 2pi2 ] + +q(1− q)4 [ 75 arctan √ 2 + 5√ (2pi)3 − 25 4 √ pi ] + ∞∑ n=5 q(1− q)nµ′3(n+ 1, n+ 1). O quarto momento para a distribuic¸a˜o MON padra˜o para 0 < p ≤ 1 pode ser expresso por E(X4) = 3p+ 3p(1− p) + p(1− p)2 [ −4 3 + 13 3 ( 2pi + √ 3 2pi )] + p(1− p)3 [ −4 3 + 13 3 ( pi + √ 3 pi )] +p(1− p)4 [ −4 3 + 13 3 µ′2(5, 1) + √ 5 4pi2 ] + ∞∑ n=5 p(1− p)nµ′4(n+ 1, 1). Para p > 1 utilizando a reparametrizac¸a˜o q = p−1, o quarto momento pode ser representado como E(X4) = 3q + 3q(1− q) + q(1− q)2 [ −4 3 + 13 3 ( 2pi + √ 3 2pi )] + q(1− q)3 [ −4 3 + 13 3 ( pi + √ 3 pi )] +q(1− q)4 ( −4 3 + 13 3 µ′2(5, 5) + √ 5 4pi2 ) + ∞∑ n=5 q(1− q)nµ′4(n+ 1, n+ 1). 3.5 Variaˆncia A variaˆncia de uma varia´vel aleato´ria e´ uma medida de dispersa˜o que indica o qua˜o distante os seus valores esta˜o afastados do valor esperado. Utilizando a expressa˜o da variaˆncia como func¸a˜o dos dois primeiros momentos centrais, se X e´ uma varia´vel aleato´ria com distribuic¸a˜o MON padra˜o, enta˜o sua variaˆncia para 0 < p ≤ 1 e´ expressa por Var(X) = E(X2)− [E(X)]2 = p+ ∞∑ n=1 p(1− p)nµ′2(n+ 1, 1)− [ ∞∑ n=1 p(1− p)nµ′1(n+ 1, 1) ]2 , em que µ′2(n+ 1, 1) e µ ′ 1(n+ 1, 1) denotam, respectivamente, o segundo e o primeiro momento do mı´nimo de n+ 1 varia´veis com distribuic¸a˜o normal padra˜o. Analogamente, se p > 1, consi- derando a reparametrizac¸a˜o q = p−1, tem-se que Var(X) = q + ∞∑ n=1 q(1− q)nµ′2(n+ 1, n+ 1)− [ ∞∑ n=1 q(1− q)nµ′1(n+ 1, n+ 1) ]2 , com µ′2(n+ 1, n+ 1) e µ ′ 1(n+ 1, n+ 1) representando, respectivamente, o segundo e o primeiro 30 DISTRIBUIC¸A˜O MARSHALL-OLKIN NORMAL 3.6 momento do ma´ximo de n+ 1 varia´veis com distribuic¸a˜o normal padra˜o. A Figura 3.6 ilustra a variaˆncia da distribuic¸a˜o MON padra˜o para alguns valores de p calculada numericamente pela expressa˜o Var(X) = ∫ ∞ −∞ x2 pφ(x) {1− (1− p)[1− Φ(x)]}2dx− (∫ ∞ −∞ x pφ(x) {1− (1− p)[1− Φ(x)]}2dx )2 . Observa-se que a variaˆncia e´ crescente para 0 < p < 1 e decrescente para p > 1. 0 5 10 15 20 25 30 0. 0 0. 2 0. 4 0. 6 0. 8 1. 0 1. 2 p Va riâ nc ia Figura 3.6: Variaˆncia de uma varia´vel aleato´ria com distribuic¸a˜o MON padra˜o para diferentes valores de p. 3.6 Assimetria As medidas de assimetria possibilitam analisar uma distribuic¸a˜o de acordo com as relac¸o˜es entre suas medidas de tendeˆncia central, tais como moda, me´dia e mediana. Seguindo o artigo de Rubio e Stell (2012), para avaliar o comportamento do paraˆmetro p como mecanismo de introduzir assimetria na distribuic¸a˜o MON, foram consideradas treˆs medidas de assimetria: o terceiro momento padronizado (EM), a medida de assimetria de Pearson (PM) e a medida de assimetria Arnold-Groeneveld (AG) introduzida por Arnold e Groeneveld (1995). Conceitualmente, a assimetria descreve qual lado de uma distribuic¸a˜o tem uma cauda mais longa. Se a cauda longa esta´ a` direita, a assimetria e´ para a direita ou positiva, e se a cauda e´ mais longa do lado esquerdo, enta˜o a assimetria e´ a` esquerda ou negativa. A assimetria e´ usualmente medida pelo terceiro momento padronizado definido por EM = µ3 µ 3/2 2 , em que µ2 e µ3 sa˜o, respectivamente, o segundo e o terceiro momentos centrais. Essa medida de assimetria pode ser enganadora, uma vez que pode ser dominada pelo comportamento no ex- 3.7 CURTOSE 31 tremo das caudas. Ale´m disso, na˜o e´ sempre que esta´ definida e pode ser de dif´ıcil interpretac¸a˜o pois na˜o e´ limitada. Uma outra medida de assimetria e´ a medida de assimetria de Pearson (PM) (Pearson, 1895), definida por PM = Me−Mo µ 1/2 2 , com Me e Mo representando, respectivamente, a me´dia e a moda da distribuic¸a˜o. Essa me- dida permite calcular o grau de assimetria de uma distribuic¸a˜o. Segundo Ferreira (2005), se |PM | < 0.15 a assimetria da distribuic¸a˜o e´ considerada fraca. A distribuic¸a˜o sera´ considerada moderadamente assime´trica se 0.15 ≤ |PM | < 1, e para |PM | ≥ 1 a assimetria e´ considerada forte. Outra medida de verificac¸a˜o de assimetria em termos da moda foi introduzida por Arnold e Groeneveld (1995). Os autores assumem nessa medida que a moda existe e e´ u´nica, e a definem como AG = [1− F (Mo)]− F (Mo) = 1− 2F (Mo), com F sendo a func¸a˜o de distribuic¸a˜o acumulada e Mo denotando a moda. A medida AG calcula a diferenc¸a entre as massas alocadas em ambos os lados da moda. Ela satisfaz −1 < AG < 1, em que AG = 0 significa que a distribuic¸a˜o e´ sime´trica. Valores negativos de AG sa˜o associados com assimetria a` esquerda e positivos refletem assimetria a` direita. Ale´m de ser limitada, uma das vantagens desta medida e´ que ela na˜o requer a existeˆncia de qualquer momento. A Figura 3.7 ilustra numericamente as medidas de assimetria EM, PM e AG para a dis- tribuic¸a˜o MON padra˜o. O valor ma´ximo, em mo´dulo, assumido pela medida de assimetria de Pearson foi de 0.2606, o que indica que a distribuic¸a˜o MON, de acordo com essa medida, pode ser considerada moderadamente assime´trica. Ja´ para a medida de assimetria AG, o valor ma´ximo em mo´dulo encontrado foi 0.1445, o que sugere que a distribuic¸a˜o MON na˜o possui assimetria significativa. Pelos gra´ficos tem-se que o terceiro momento padronizado, a medida de assimetria de Pearson e medida Arnold-Groeneveld, atribuem a` distribuic¸a˜o MON, respectivamente, uma assimetria forte, moderada e fraca. Como a medida AG e´ limitada e de fa´cil interpretac¸a˜o, utilizando essa medida para medir o grau de assimetria, conclui-se que a distribuic¸a˜o MON na˜o e´ recomendada para modelar dados com assimetria alta ou mesmo moderada. Portanto, a distribuic¸a˜o MON na˜o compete com distribuic¸o˜es assime´tricas como afirmaram Garc´ıa et al. (2010). 3.7 Curtose A curtose e´ uma medida de dispersa˜o que caracteriza o pico ou achatamento da curva da func¸a˜o de distribuic¸a˜o de probabilidade. Essa medida pode ser definida como a raza˜o entre o quarto 32 DISTRIBUIC¸A˜O MARSHALL-OLKIN NORMAL 3.8 0 5 10 15 − 1. 0 − 0. 5 0. 0 0. 5 1. 0 (a) p Te rc e iro m om en to p ad ro ni za do 0 5 10 15 − 1. 0 − 0. 5 0. 0 0. 5 1. 0 (b) p M ed id a de a ss im et ria d e Pe a rs o n 0 5 10 15 − 1. 0 − 0. 5 0. 0 0. 5 1. 0 (c) p M ed id a de a ss im et ria A G Figura 3.7: Medidas de assimetria da distribuic¸a˜o MON: (a) terceiro momento padronizado; (b) medida de assimetria de Pearson; (c) medida de assimetria AG . momento central e o quadrado do segundo momento central (variaˆncia), ou seja, Curtose(X) = E(X − E(X))4 {E[X − E(X)]2}2 = E(X4)− 4E(X3)E(X) + 6E(X2)E2(X)− 3E4(X) [Var(X)]2 . Sob essa definic¸a˜o, a curtose da distribuic¸a˜o normal e´ igual a 3. Como a curtose da dis- tribuic¸a˜o MON padra˜o e´ uma expressa˜o longa e complicada, ela foi calculada numericamente diretamente pelas integrais para alguns valores de p, representada na Figura 3.8. Observa-se que os valores para a curtose sa˜o maiores do que 3 e, portanto, a distribuic¸a˜o MON padra˜o e´ mais alta (afunilada) e concentrada que a distribuic¸a˜o normal. Diz-se enta˜o que a distribuic¸a˜o MON padra˜o e´ leptocu´rtica e desta forma possui caudas pesadas. Isso implica que a MON pode compete com a t-Student. 0 10 20 30 40 50 0 1 2 3 4 5 6 7 p Cu rto se Figura 3.8: Curtose da distribuic¸a˜o MON padra˜o para determinados valores de p. 3.8 ENTROPIA 33 3.8 Entropia A entropia de uma varia´vel aleato´ria X com func¸a˜o densidade de probabilidade f(x) e´ uma medida que quantifica a incerteza ou aleatoriedade de um sistema. Essa medida e´ muito utilizada nas a´reas de engenharia e cieˆncias em geral. Nesta sec¸a˜o encontra-se duas medidas de entropia para a distribuic¸a˜o MON padra˜o, as entropias de Shannon e de Re´nyi , as quais ate´ o presente trabalho na˜o estavam dispon´ıveis na literatura. A entropia de Shannon, e´ definida por Hx = − ∫ T (x) f(x) ln f(x)dx, em que T (x) e´ o suporte de X e f(x) e´ func¸a˜o de densidade de probabilidade. Considerando a distribuic¸a˜o MON padra˜o, a entropia de Shannon pode ser escrita como Hx = − ∫ ∞ −∞ pφ(x) {1− (1− p)[1− Φ(x)]}2 ln ( pφ(x) {1− (1− p)[1− Φ(x)]}2 ) dx. (3.27) Utilizando a expansa˜o do binoˆmio de Newton para expoentes negativos, o denominador da expressa˜o (3.27) pode ser reescrito como {1− (1− p)[1− Φ(x)]}−2 = ∞∑ m=0 (−2 m ) (−1)m(1− p)m[1− Φ(x)]m = ∞∑ m=0 (m+ 1)(1− p)m[1− Φ(x)]m. Para 0 < p < 1, tem-se que ∣∣∣(1− p)[1− Φ(x)]∣∣∣ < 1 e, portanto, a expansa˜o do logaritmo pode ser expressa como − 2 ln {1− (1− p)[1− Φ(x)]} = 2 ∞∑ n=1 (1− p)n[1− Φ(x)]n n . Portanto, a entropia de Shannon para a distribuic¸a˜o MON padra˜o pode ser representada por Hx = − ∫ ∞ −∞ pφ(x) ∞∑ m=0 (m+ 1)(1− p)m[1− Φ(x)]m { ln [pφ(x)]− 2 ln {1− (1− p)[1− Φ(x)]} } dx = − ∫ ∞ −∞ pφ(x) ∞∑ m=0 (m+ 1)(1− p)m[1− Φ(x)]m { ln [pφ(x)] + 2 ∞∑ n=1 (1− p)n[1− Φ(x)]n n } dx. Para p ≥ 1 considerando a reparametrizac¸a˜o p = q−1 tem-se que a entropia de Shannon para a distribuic¸a˜o MON e´ expressa por Hx = − ∫ ∞ −∞ qφ(x) {1− (1− q)Φ(x)}2 ln ( qφ(x) {1− (1− q)Φ(x)}2 ) dx. (3.28) 34 DISTRIBUIC¸A˜O MARSHALL-OLKIN NORMAL 3.8 Pela expansa˜o do binoˆmio de Newton para expoentes negativos, o denominador da expressa˜o (3.28) pode ser reescrito como {1− (1− q)Φ(x)}−2 = ∞∑ m=0 (m+ 1)(1− q)mΦm(x). Para p > 1 tem-se que 0 < q < 1, e desta forma ∣∣∣(1− q)Φ(x)∣∣∣ < 1. Sendo assim, a expansa˜o do logaritmo pode ser feita obtendo-se − 2 ln {1− (1− q)Φ(x)} = 2 ∞∑ n=1 (1− q)nΦn(x) n . Desta forma, quando p > 1, a entropia de Shannon para a distribuic¸a˜o MON padra˜o pode ser representada por Hx = − ∫ ∞ −∞ qφ(x) ∞∑ m=0 (m+ 1)(1− q)mΦm(x) { ln [qφ(x)] + 2 ∞∑ n=1 (1− q)nΦn(x) n } dx. Uma outra medida de entropia chamada de entropia de Re´nyi e´ definida por IR(γ) = 1 1− γ log [∫ fγ(x)dx ] , com γ > 0, γ 6= 1. Quando γ → 1, a entropia de Re´nyi converge para a entropia de Shannon. Considerando a func¸a˜o densidade de probabilidade apresentada na expressa˜o (3.2) da dis- tribuic¸a˜o MON padra˜o, tem-se que a entropia de Re´nyi para essa distribuic¸a˜o pode ser escrita por IR = 1 1− γ log [∫ ∞ −∞ ( pφ(x) {1− (1− p)[1− Φ(x)]}2 )γ dx ] = 1 1− γ log [∫ ∞ −∞ pγφγ(x){1− (1− p)[1− Φ(x)]}−2γdx ] . Utilizando a expansa˜o do binoˆmio de Newton para expoentes negativos tem-se que a entropia de Re´nyi para a distribuic¸a˜o MON padra˜o pode ser expressa como IR = 1 1− γ log [∫ ∞ −∞ pγφγ(x) ∞∑ m=0 (−2γ m ) (−1)m(1− p)m[1− Φ(x)]mdx ] = 1 1− γ log [ ∞∑ m=0 (−2γ m ) pγ(−1)m(1− p−1)m ∫ ∞ −∞ [1− Φ(x)]mφγ(x)dx ] . 3.9 IDENTIFICABILIDADE 35 Fazendo a substituic¸a˜o x = √ 2 γ y a entropia de Re´nyi pode ser reescrita como IR = 1 1− γ log  ∞∑ m=0 (−2γ m ) pγ(−1)m(1− p−1)m ∫ ∞ −∞ [ 1− Φ (√ 2 γ y )]m e−y 2 dx √ γpi  = 1√ γpi(1− γ) log [ ∞∑ m=0 (−2γ m ) pγ(−1)m(1− p−1)mJm (√ 2 γ )] , (3.29) em que Jm( √ 2 γ ) foi dado anteriormente em (3.18). 3.9 Identificabilidade A suposic¸a˜o de identificabilidade e´ fundamental quando se considera a teoria da estat´ıstica cla´ssica. Uma famı´lia de distribuic¸a˜o de probabilidade parame´trica e´ dita ser na˜o identifica´vel se existem dois paraˆmetros diferentes que determinam a mesma distribuic¸a˜o de probabilidade. Famı´lias na˜o identifica´veis aparecem em muitos modelos estat´ısticos tais como misturas de distribuic¸o˜es, distribuic¸o˜es generalizadas, ana´lise de variaˆncia, modelos de sobreviveˆncia entre outros. Nesta sec¸a˜o mostra-se que o modelo MON e´ identifica´vel, o que ate´ o presente trabalho na˜o estava dispon´ıvel na literatura. A Definic¸a˜o 1 apresenta o conceito de paraˆmetro identifica´vel. Definic¸a˜o 1. O paraˆmetro θ1 pertencente ao espac¸o parame´trico Θ e´ globalmente identifica´vel se na˜o existe um outro valor θ2 em Θ tal que Pθ1 = Pθ2. O paraˆmetro θ1 sera´ chamado de localmente identifica´vel se existe uma vizinhanc¸a V de θ1 tal que ∀ θ2 6= θ1, θ2 ∈ V⇒ Pθ1 6= Pθ2 . Ou seja, um paraˆmetro θ1 no espac¸o parame´trico e´ dito identifica´vel quando na˜o existe outro paraˆmetro θ2 tal que quando aplicados na func¸a˜o de distribuic¸a˜o tenham o mesmo valor. A Definic¸a˜o 2 estende o conceito de identificabilidade de um paraˆmetro para identificabilidade de um modelo. Definic¸a˜o 2. Dados θ1, θ2 ∈ Θ, um modelo e´ na˜o identifica´vel se θ1 6= θ2 ⇒ f(x, θ1) = f(x, θ2), ∀ x ∈ Ω, com Ω denotando o espac¸o amostral. Em outras palavras, um modelo e´ dito na˜o identifica´vel se existem dois paraˆmetros diferentes que determinam o mesmo valor da func¸a˜o de densidade de probabilidade. Quando se tem um problema de identificabilidade na˜o e´ poss´ıvel encontrar qual dos paraˆmetros realmente gerou a amostra. 36 DISTRIBUIC¸A˜O MARSHALL-OLKIN NORMAL 3.9 Existe na literatura um crite´rio geral para identificabilidade de um paraˆmetro proposto por Bowden (1973). Para isso, e´ necessa´rio a definic¸a˜o da informac¸a˜o de Kullback-Leibler dada por H(θ, θ0) = Eθ0 { ln [ f(x, θ0) f(x, θ) ]} = ∫ ∞ −∞ ln [ f(x, θ0) f(x, θ) ] f(x, θ0)dx. (3.30) A informac¸a˜o de Kullback-Libler mede a informac¸a˜o perdida quando o modelo f(x, θ) e´ aproxi- mado por f(x, θ0). O Teorema 5 a seguir mostra duas propriedades muito u´teis da informac¸a˜o de Kullback-Leibler. Teorema 5. A informac¸a˜o de Kullback-Leibler H satisfaz H(θ1, θ2) ≥ 0, H(θ1, θ2) = 0⇔ Pθ1 = Pθ2 . O crite´rio geral de identificabilidade proposto por Bowden (1973) e´ apresentado no Teo- rema 6 o qual utiliza a informac¸a˜o de Kullback-Leibler para provar a identificabilidade de um paraˆmetro. Teorema 6. Seja Pθ uma distribuic¸a˜o absolutamente cont´ınua para todo θ ∈ Θ. O paraˆmetro θ0 e´ globalmente identifica´vel se, e somente se, a equac¸a˜o H(θ, θ0) = 0 tem como soluc¸a˜o u´nica θ0 em todo Θ. O paraˆmetro sera´ dito localmente identifica´vel se, so- mente se, θ0 e´ u´nica soluc¸a˜o em alguma vizinhanc¸a de θ0. As demonstrac¸o˜es dos teoremas 5 e 6 podem ser encontradas em Bowden (1973). As de- finic¸o˜es e os teoremas apresentados sera˜o utilizados para mostrar que a distribuic¸a˜o MON padra˜o e´ identifica´vel no ponto p = 1. Utilizando a expressa˜o (3.2) para a func¸a˜o densidade de probabilidade quando 0 < p ≤ 1, tem-se que a informac¸a˜o de Kullback-Leibler para a distribuic¸a˜o MON padra˜o no ponto p = 1 e´ expressa por H(p, 1) = ∫ ∞ −∞ ln ({1− (1− p)[1− Φ(x)]}2 p ) φ(x)dx = − ln p+ 2 ∫ ∞ −∞ ln {1− (1− p)[1− Φ(x)]}φ(x)dx. Como |(1− p)[1− Φ(x)]| < 1 a expansa˜o do logaritmo pode ser feita obtendo-se H(p, 1) = − ln p+ 2 ∫ ∞ −∞ ( − ∞∑ n=1 (1− p)n[1− Φ(x)]n n ) φ(x)dx = − ln p− 2 ∞∑ n=1 (1− p)n n ∫ ∞ −∞ [1− Φ(x)]nφ(x)dx. Tem-se que (n+1)[1−Φ(x)]nφ(x) representa a densidade do mı´nimo de n+1 varia´veis aleato´rias com distribuic¸a˜o normal padra˜o. Portanto, ∫∞ −∞(n + 1)[1 − Φ(x)]nφ(x) = 1. Desta forma, a 3.9 IDENTIFICABILIDADE 37 informac¸a˜o de Kullback-Leibler pode ser reescrita como H(p, 1) = − ln p− 2 ∞∑ n=1 (1− p)n n(n+ 1) ∫ ∞ −∞ (n+ 1)[1− Φ(x)]nφ(x)dx = − ln p− 2 ∞∑ n=1 (1− p)n n(n+ 1) = − ln p− 2 ∞∑ n=1 [ (1− p)n n − (1− p) n n+ 1 ] = − ln p− 2 ∞∑ n=1 (1− p)n n + 2 ∞∑ n=1 (1− p)n n+ 1 = − ln p− 2(− ln p) + 2 ∞∑ n=1 (1− p)n n+ 1 = ln p+ 2 ∞∑ n=1 (1− p)n n+ 1 = − ∞∑ n=1 (1− p)n n + 2 ∞∑ n=1 (1− p)n n+ 1 = ∞∑ n=1 (1− p)n [ 2 n+ 1 − 1 n ] = ∞∑ n=1 (1− p)n(n− 1) n(n+ 1) . (3.31) Como n ≥ 1, a se´rie (3.31) possui apenas termos positivos. Sendo assim, a informac¸a˜o de Kullback-Leiber e´ maior ou igual que zero para 0 < p ≤ 1, com a igualdade se p = 1. Portanto, a distribuic¸a˜o MON e´ identifica´vel no ponto p = 1. Analogamente, para p ≥ 1, a informac¸a˜o de Kullback-Leibler para a distribuic¸a˜o MON padra˜o e´ representada por H(p, 1) = ∫ ∞ −∞ ln ( [1− (1− p−1)Φ(x))]2 p−1 ) φ(x)dx = − ln p−1 + 2 ∫ ∞ −∞ ln [1− (1− p−1)Φ(x)]φ(x)dx. Utilizando a expansa˜o do logaritmo e o fato de que (n + 1)Φ(x)nφ(x) representa a densidade do ma´ximo de n + 1 varia´veis aleato´rias com distribuic¸a˜o normal padra˜o, tem-se que H(p, 1) 38 DISTRIBUIC¸A˜O MARSHALL-OLKIN NORMAL 3.9 pode ser reescrita como H(p, 1) = − ln p−1 + 2 ∫ ∞ −∞ ( − ∞∑ n=1 (1− p−1)nΦ(x)n n ) φ(x)dx = − ln p−1 − 2 ∞∑ n=1 (1− p−1)n n(n+ 1) ∫ ∞ −∞ (n+ 1)Φ(x)nφ(x)dx = − ln p−1 − 2 ∞∑ n=1 (1− p−1)n n(n+ 1) = − ln p−1 − 2 ∞∑ n=1 (1− p−1)n n + 2 ∞∑ n=1 (1− p−1)n n+ 1 = − ln p−1 − 2(− ln p−1) + 2 ∞∑ n=1 (1− p−1)n n+ 1 , continuando, tem-se que H(p, 1) = ln p−1 + 2 ∞∑ n=1 (1− p−1)n n+ 1 = − ∞∑ n=1 (1− p−1)n n + 2 ∞∑ n=1 (1− p−1)n n+ 1 = ∞∑ n=1 (1− p−1)n [ 2 n+ 1 − 1 n ] = ∞∑ n=1 (1− p−1)n(n− 1) n(n+ 1) . (3.32) Como n ≥ 1, a se´rie da pela expressa˜o (3.32) possui apenas termos positivos e portanto a informac¸a˜o de Kullback-Leibler para p ≥ 1 e´ na˜o negativa. Novamente, H(1, 1) = 0 e portanto a distribuic¸a˜o MON padra˜o e´ identifica´vel no ponto p = 1. Para mostrar que a distribuic¸a˜o MON padra˜o e´ identifica´vel em todo ponto do espac¸o parame´trico e´ necessa´rio provar que H(α, β) ≥ 0, com a igualdade se, e somente se, α = β. Sejam 0 < α ≤ 1 e 0 < β ≤ 1. A informac¸a˜o de Kullback-Leibler H(α, β) e´ dada por H(α, β) = ∫ ∞ −∞ ln [ α β { 1− (1− β)[1− Φ(x)] 1− (1− α)[1− Φ(x)] }2 ] αφ(x) {1− (1− α)[1− Φ(x)]}2dx. Utilizando as expanso˜es do binoˆmio de Newton para expoentes negativos e do logaritmo, a 3.9 IDENTIFICABILIDADE 39 informac¸a˜o de Kullback-Leibler, H(α, β), pode ser reescrita como H(α, β) = ln ( α β ) + 2α ∫ ∞ −∞ ln {1− (1− β)[1− Φ(x)]}φ(x) ∞∑ m=0 (m+ 1)(1− α)m[1− Φ(x)]mdx −2α ∫ ∞ −∞ ln {1− (1− α)[1− Φ(x)]}φ(x) ∞∑ m=0 (m+ 1)(1− α)m[1− Φ(x)]mdx = ln ( α β ) − 2α ∫ ∞ −∞ ∞∑ n=1 (1− β)n[1− Φ(x)]n n φ(x) ∞∑ m=0 (m+ 1)(1− α)m[1− Φ(x)]mdx +2α ∫ ∞ −∞ ∞∑ n=1 (1− α)n[1− Φ(x)]n n φ(x) ∞∑ m=0 (m+ 1)(1− α)m[1− Φ(x)]mdx = ln ( α β ) − 2α ∞∑ n=1 (1− β)n n ∞∑ m=0 (m+ 1)(1− α)m (m+ n+ 1) ∫ ∞ −∞ (m+ n+ 1)[1− Φ(x)]m+nφ(x)dx +2α ∞∑ n=1 (1− α)n n ∞∑ m=0 (m+ 1)(1− α)m (m+ n+ 1) ∫ ∞ −∞ (m+ n+ 1)[1− Φ(x)]m+nφ(x)dx. Observa-se que ∫∞ −∞(m + n + 1)[1 − Φ(x)]m+nφ(x)dx = 1 pois (m + n + 1)[1 − Φ(x)]m+nφ(x) representa a densidade do mı´nimo de (m+ n+ 1) varia´veis aleato´rias com distribuic¸a˜o normal padra˜o. Portanto, H(α, β) pode ser reescrita como H(α, β) = ln ( α β ) + 2α ∞∑ m=0 (m+ 1)(1− α)m (m+ n+ 1) ∞∑ n=1 (1− α)n − (1− β)n n = 2α ∞∑ m=0 (m+ 1)(1− α)m (m+ n+ 1) ∞∑ n=1 (α− β) [(1− β)n−1 + (1− β)n−2(1− α) + · · ·+ (1− α)n−1] n + ln ( α β ) . Como [(1− β)n−1 + (1− β)n−2(1− α) + · · ·+ (1− α)n−1] conte´m apenas termos positivos, con- siderando α > β, tem-se que H(α, β) ≥ 0, com a igualdade se, e somente se, α = β. Portanto, a distribuic¸a˜o MON padra˜o e´ identifica´vel em todo o espac¸o parame´trico. Para valores de α, β ≥ 1, 0 < α ≤ 1 e β > 1 ou 0 < β ≤ 1 e α > 1 as demonstrac¸o˜es sa˜o ana´logas. No pro´ximo cap´ıtulo um breve estudo sobre infereˆncia e´ apresentado. Expresso˜es para os paraˆmetros estimados da distribuic¸a˜o MON pelo me´todo da ma´xima verossimilhanc¸a sa˜o cal- culadas e uma revisa˜o sobre testes parame´tricos e na˜o parame´tricos e alguns crite´rios de selec¸a˜o de modelos tambe´m sa˜o feitos. A matriz de informac¸a˜o esperada e´ encontrada e intervalos de confianc¸a para os paraˆmetros sa˜o constru´ıdos. 40 DISTRIBUIC¸A˜O MARSHALL-OLKIN NORMAL 3.9 Cap´ıtulo 4 Infereˆncia Neste cap´ıtulo aborda-se alguns to´picos relacionados a` infereˆncia da distribuic¸a˜o Marshall-Olkin normal (MON). Expresso˜es para os estimadores dos paraˆmetros de uma amostra independente da distribuic¸a˜o MON sa˜o obtidas utilizando o me´todo da ma´xima verossimilhanc¸a. A matriz de informac¸a˜o de Fisher do modelo em estudo tambe´m e´ apresentada, e as propriedades assinto´ticas dos estimadores de ma´xima verossimilhanc¸a sa˜o utilizadas para a construc¸a˜o de intervalos de confianc¸a e testes de hipo´teses. Os testes adotados foram da raza˜o de verossimilhanc¸a, da raza˜o de verossimilhanc¸a generalizada e de bondade de ajuste. Alguns crite´rios de selec¸a˜o de modelos tambe´m sa˜o considerados. 4.1 Estimac¸a˜o 4.1.1 Estimac¸a˜o pontual Seja x = (x1, · · · , xn)T uma amostra aleato´ria de tamanho n da distribuic¸a˜o MON com vetor de paraˆmetros λ = (p, µ, σ)T . Considere ti = xi − µ σ . A func¸a˜o de verossimilhanc¸a e´ dada por L(λ) = n∏ i=1 f(ti;λ) = n∏ i=1 pφ(ti) σ[Φ(ti)(1− p) + p]2 . (4.1) Observe que Φ(ti)(1 − p) + p e´ sempre positivo e diferente de um para p 6= 1. Para o caso p = 1 reca´ımos na distribuic¸a˜o normal. Desta forma, o logaritmo pode ser aplicado e a func¸a˜o de log-verossimilhanc¸a e´ escrita como l(λ) = log[L(λ)] = n∑ i=1 log { pφ(ti) σ[Φ(ti)(1− p) + p]2 } = n log p− n log σ + n∑ i=1 log φ(ti)− 2 n∑ i=1 log [Φ(ti)(1− p) + p]. (4.2) 41 42 INFEREˆNCIA 4.1 O estimador de ma´xima verossimilhanc¸a λˆ = (pˆ, µˆ, σˆ) do vetor de paraˆmetros λ = (p, µ, σ) e´ obtido atrave´s da maximizac¸a˜o da func¸a˜o de verossimilhanc¸a (4.2), solucionando o sistema de equac¸o˜es na˜o-lineares U = ( ∂l ∂p , ∂l ∂µ , ∂l ∂σ )T = 0. O vetor U , chamado de func¸a˜o ou vetor escore, para a distribuic¸a˜o MON e´ dado pelas expresso˜es ∂l(λ) ∂p = n p − n∑ i=1 2[1− Φ(ti)] Φ(ti)(1− p) + p, ∂l(λ) ∂µ = n∑ i=1 ti σ + 2(1− p) σ n∑ i=1 φ(ti) Φ(ti)(1− p) + p, ∂l(λ) ∂σ = −n σ + n∑ i=1 t2i σ + 2(1− p) σ n∑ i=1 φ(ti)ti Φ(ti)(1− p) + p. As equac¸o˜es ∂l(λ) ∂p = 0, ∂l(λ) ∂µ = 0, ∂l(λ) ∂σ = 0 na˜o podem ser resolvidas analiticamente e desta forma me´todos iterativos podem ser utilizados para encontrar estes estimadores numericamente. As Figuras 4.1, 4.2 e 4.3 representam, respectivamente, as superf´ıcies da func¸a˜o de verossimi- lhanc¸a da distribuic¸a˜o MON fixando os paraˆmetros p, µ e σ. Observa-se que existe apenas um ponto de ma´ximo e sendo assim tem-se evideˆncias nume´ricas que os ma´ximos da func¸a˜o de verossimilhanc¸a podem ser encontrados computacionalmente, como por exemplo utilizando o algoritmo de Newton-Raphson descrito a seguir. 4.1.2 Algoritmo de Newton-Raphson Expandindo a func¸a˜o escore U(λ) em se´rie de Taylor ate´ a primeira ordem em torno de um ponto inicial λ(0), obte´m-se U(λ) ∼= U(λ(0)) + (λ− λ(0))U ′(λ(0)) = U(λ(0)) + (λ− λ(0))H(λ(0)), (4.3) em que H(λ(0)) e´ a matriz de derivadas segundas da func¸a˜o log-verossimilhanc¸a avaliada em λ = λ(0). Fazendo U(λ) = 0, da equac¸a˜o (4.3) resulta o processo iterativo λ(k+1) = λ(k) −H(λ(k))−1U(λ(k)), k = 0, 1, · · · , que e´ repetido ate´ que o processo de estabilize, ou seja, ate´ que a distaˆncia entre λ(k+1) e λ(k) seja menor do que o n´ıvel desejado. Neste caso, o ponto λˆ que estabiliza o processo e´ enta˜o o estimador de ma´xima verossimilhanc¸a. 4.1 ESTIMAC¸A˜O 43 mu −2.0 −1.5 −1.0 −0.5 sigm a 0.5 1.0 1.5 M O −N 0.0 0.1 0.2 0.3 0.4 0.5 0.6 mu −2.0 −1.5 −1.0 −0.5 sigm a 0.5 1.0 1.5 M O −N 0.0 0.1 0.2 0.3 0.4 0.5 Figura 4.1: Superf´ıcie da func¸a˜o de verossimilhanc¸a fixando p = 0, 5 e p = 2 p 1.5 2.0 2.5sigma 0.5 1.0 1.5 M O −N 0.00 0.02 0.04 0.06 0.08 0.10 p 0.2 0.4 0.6 0.8 sigm a 0.5 1.0 1.5 M O −N 0.0 0.1 0.2 0.3 0.4 0.5 Figura 4.2: Superf´ıcie da func¸a˜o de verossimilhanc¸a fixando µ = −2 e µ = 2. p 1.5 2.0 2.5 mu −2 −1 0 1 2 M O −N 0.0 0.1 0.2 0.3 0.4 0.5 Figura 4.3: Superf´ıcie da func¸a˜o de verossimilhanc¸a fixando σ = 2. 44 INFEREˆNCIA 4.1 4.1.3 Func¸a˜o escore e informac¸a˜o Seja x = (x1, · · · , xn)T o valor observado de uma varia´vel aleato´ria X = (X1, · · · , Xn)T carac- terizada por uma func¸a˜o de densidade de probabilidade f(x; θ) com θ = (θ1, · · · , θp)T o vetor de paraˆmetros desconhecidos. A primeira derivada da func¸a˜o log-verossimilhanc¸a U(θ) = ∂l(θ) ∂θ e´ chamada de func¸a˜o (vetor) escore com dimensa˜o p× 1. A matriz de informac¸a˜o esperada para θ ∈ Rp J(θ) obtida atrave´s dos dados x e´ uma matriz quadrada p× p definida por K(θ) = E[U(θ)U(θ)T ]. Quando as observac¸o˜es sa˜o independentes, a func¸a˜o escore e a informac¸a˜o esperada sa˜o as somas de contribuic¸o˜es individuais sobre θ. As condic¸o˜es de regularidade usadas na teoria assinto´tica esta˜o relacionadas sobretudo com as propriedades diferenciais da func¸a˜o densidade de probabilidade e com a troca de diferen- ciac¸a˜o por integrac¸a˜o. Essas condic¸o˜es sa˜o necessa´rias para provar as propriedades assinto´ticas dos estimadores de ma´xima verossimilhanc¸a, tais como consisteˆncia, unicidade, normalidade, eficieˆncia e suficieˆncia. As condic¸o˜es de regularidade a seguir foram retiradas de Casella e Benger (2011, cap. 10): 1. Observa-se X1, · · · , Xn realizac¸o˜es independentes de uma varia´vel aleato´ria X, com Xi ∼ f(x|θ). 2. O paraˆmetro e´ identifica´vel, ou seja, se θ 6= θ′, enta˜o f(x|θ) 6= f(x|θ′). 3. As densidades f(x|θ) teˆm suporte comum e sa˜o diferencia´veis em θ. 4. O espac¸o parame´trico Θ conte´m um conjunto aberto no qual o verdadeiro valor do paraˆmetro θ0 e´ ponto interior. 5. Para cada x a densidade f(x|θ) e´ treˆs vezes diferencia´vel com relac¸a˜o a θ, cuja terceira derivada e´ cont´ınua em θ, e ∫ f(x|θ)dx pode ser diferenciado treˆs vezes. 6. Para qualquer θ ∈ Θ, existe um nu´mero positivo c e uma func¸a˜o M(x) de modo que∣∣∣∣∣ ∂3∂θ3 log f(x|θ) ∣∣∣∣∣ ≤M(x) com θ0 − c < θ < θ0 + c e Eθ0 [M(x)] <∞. Sob estas condic¸o˜es, a esperanc¸a do vetor escore e´ zero e sua covariaˆncia e´ dada por Cov(U) = E ( −∂U T ∂θ ) = E ( − ∂ 2l(θ) ∂θ∂θT ) = K, em que a matriz de primeiras derivadas do vetor escore com sinal negativo J = −∂U T ∂θ = − ∂ 2l(θ) ∂θ∂θT e´ denominada de matriz de informac¸a˜o observada. A matriz hessiana e´ dada por −J e sendo assim E(J) = K. 4.1 ESTIMAC¸A˜O 45 Casella e Berger (2011, cap.10) mostraram que se as condic¸o˜es de regularidade sa˜o satisfeitas enta˜o o estimador de ma´xima verossimilhanc¸a θˆ e´ consistente, assintoticamente eficiente e sua distribuic¸a˜o e´ aproximadamente normal p-variada: θˆ D→ Np(θ,K(θ)−1). 4.1.4 Estimac¸a˜o intervalar Sejam λ = (p, µ, σ)T o vetor de paraˆmetros da distribuic¸a˜o MON e λˆ = (pˆ, µˆ, σˆ)T seu estimador de ma´xima verossimilhanc¸a. A matriz de informac¸a˜o (esperada) de Fisher e´ definida por K(λ) = −E [ ∂2l(λ) ∂λ∂λT ] , e sua inversa sera´ representada por K(λ)−1. Utilizando o fato que a esperanc¸a do vetor escore e´ zero, das equac¸o˜es (4.3), encontra-se as relac¸o˜es E[vi(Ti)] = 1 2p , E[wi(Ti)] = − E(Ti) 2(1− p) e E[wi(Ti)Ti] = 1− E(T 2i ) 2(1− p) , (4.4) em que vi(ti) = 1− Φ(ti) Φ(ti)(1− p) + p e wi(ti) = φ(ti) Φ(ti)(1− p) + p. As segundas derivadas da func¸a˜o de log-verossimilhanc¸a sa˜o apresentadas no Apeˆndice B. A matriz de informac¸a˜o esperada de Fisher para os paraˆmetros (p, µ, σ) da distribuic¸a˜o MON e´ dada por K(λ) =  kp,p kp,µ kp,σkµ,p kµ,µ kµ,σ kσ,p kσ,µ kσ,σ  , em que os elementos de cada entrada sa˜o kp,p = n p2 − 2nE[v2(T )], kp,µ = − n σ(1− p)E(T ) + 2n(1− p) σ E[v(T )w(T )], kp,σ = n σ(1− p) [1− E(T 2)] + 2n(1− p) σ E[Tv(T )w(T )], kµ,p = kp,µ, kµ,µ = n σ2 E(T 2)− 2n(1− p) 2 σ2 E[w2(T )], kµ,σ = n σ E(T )− 2n(1− p) σ2 { E[(T 2 − 1)w(T )] + E[Tw2(T )]} , kσ,p = kp,σ, kσ,µ = kµ,σ, kσ,σ = n σ2 + n σ2 E(T 2)− 2n(1− p) σ2 E { T 2w(T )[T + w(T )] } , 46 INFEREˆNCIA 4.1 em que v(T ) = vi(Ti) para todo i = 1, 2, · · · , n. A esperanc¸a E[v2(T )] e´ uma integral do tipo beta e portanto e´ finita. A proposic¸a˜o a seguir mostra que a matriz de informac¸a˜o esperada de Fisher esta´ bem definida, ou seja, as outras esperanc¸as que aparecem na matriz K(λ) sa˜o finitas. Proposic¸a˜o 2. Seja f a func¸a˜o densidade de probabilidade da distribuic¸a˜o MON com paraˆmetros p, µ, σ e t = x− µ σ . As integrais da forma ∫ +∞ −∞ φk(t)tmf(t)dt = E[Tmφk(T )] sa˜o finitas para todo k,m ∈ N. Demonstrac¸a˜o. Pelo Teorema 4 para p < 1 tem-se as desigualdades E[Tmφk(T )] = ∫ +∞ −∞ φk(t)tm pφ(x) {Φ(x) + p[1− Φ(x)]}2dt (4.5) < ∫ +∞ −∞ φk+1(t)tm p dt = ∫ +∞ −∞ e− t2(k+1) 2 tm p( √ 2pi)(k+1) dt. (4.6) Tem-se que ∫ +∞ −∞ e− t2(k+1) 2 tm p( √ 2pi)(k+1) dt = Mm(t) p √ k + 1 em que Mm(t) representa o m-e´simo momento de uma distribuic¸a˜o normal com me´dia 0 e variaˆncia 1 k + 1 . Desta forma, E[Tmφk(T )] e´ finita. Para p ≥ 1 a demonstrac¸a˜o e´ ana´loga. Para amostras grandes e sob as condic¸o˜es de regularidade apresentadas para a func¸a˜o de verossimilhanc¸a, se λˆ e´ um estimador de ma´xima verossimilhanc¸a da distribuic¸a˜o MON enta˜o √ n(λˆ− λ) D→ N3(0, k(λ)−1), com D→ denotando a convergeˆncia em distribuic¸a˜o. Em outras palavras, a distribuic¸a˜o de λˆ e´ as- sintoticamente normal multivariada com me´dia λ e matriz de covariaˆncia K(λ)−1 = n−1k(λ)−1. Sendo assim, intervalos de confianc¸a assinto´ticos para p, µ e σ podem ser constru´ıdos como IC(p, 1− γ) = ( pˆ− zγ/2 √ k(λˆ)(p,p), pˆ+ zγ/2 √ k(λˆ)(p,p) ) IC(µ, 1− γ) = ( µˆ− zγ/2 √ k(λˆ)(µ,µ), µˆ+ zγ/2 √ k(λˆ)(µ,µ) ) IC(σ, 1− γ) = ( σˆ − zγ/2 √ k(λˆ)(σ,σ), σˆ + zγ/2 √ k(λˆ)(σ,σ) ) , 4.2 TESTES DE HIPO´TESES 47 em que k(λˆ)(p,p), k(λˆ)(µ,µ) e k(λˆ)(σ,σ) sa˜o as variaˆncias assinto´ticas de pˆ, µˆ e σˆ dadas pelos primeiro, segundo e terceiro elementos da diagonal da matriz n−1K(λ)−1, respectivamente. Os valores zγ/2 representam o (1 − γ)-e´simo quantil da distribuic¸a˜o. Os intervalos de confianc¸a possuem comprimento 100(1− γ)%. 4.2 Testes de hipo´teses Nesta sec¸a˜o e´ feita uma breve introduc¸a˜o dos testes parame´tricos e na˜o parame´tricos. Na parte parame´trica os testes da raza˜o de verossimilhanc¸a e da raza˜o de verossimilhanc¸a generalizada sa˜o apresentados. Sa˜o considerados na abordagem na˜o parame´trica o teste de bondade do ajuste feito atrave´s das estat´ısticas de W ∗ e A∗, o teste de Kolmogorov-Smirnov e alguns crite´rios de selec¸a˜o de modelos. Para obter as propriedades assinto´ticas dos estimadores de ma´xima verossimilhanc¸a da dis- tribuic¸a˜o MON, as condic¸o˜es de regularidade apresentadas devem ser cumpridas. Pore´m, na˜o foi poss´ıvel verificar todas essas condic¸o˜es analiticamente e sendo assim me´todos computacio- nais foram utilizados nos quais evideˆncias nume´ricas mostraram que a distribuic¸a˜o em estudo satisfazem todas as condic¸o˜es de regularidade. Seja x = (x1, x2, · · · , xn)T uma amostra indepen- dente de tamanho n de uma varia´vel aleato´ria com distribuic¸a˜o MON, com vetor de paraˆmetros λ = (p, µ, σ). Tem-se que 1. A distribuic¸a˜o MON e´ identifica´vel, ou seja, se λ 6= λ′ enta˜o Fλ 6= Fλ′ ; 2. A distribuic¸a˜o MON tem suporte independente do paraˆmetro λ e sua func¸a˜o densidade de probabilidade e´ diferencia´vel em λ; 3. O espac¸o parame´trico conte´m um conjunto aberto no qual o verdadeiro valor do paraˆmetro λ0 e´ um ponto interior; 4. A matriz de informac¸a˜o de Fisher e´ finita e definida positiva em uma vizinhanc¸a aberta de λ0; 5. As terceiras derivadas da func¸a˜o log-verossimilhanc¸a sa˜o limitadas por uma func¸a˜o in- tegra´vel de X ∼MON com esperanc¸a finita. 4.2.1 Teste da raza˜o verossimilhanc¸a O teste da raza˜o de verossimilhanc¸a (TRV) pode ser feito para testar dois modelos quando um dos modelos e´ submodelo do outro. O TRV e´ feito atrave´s da estat´ıstica de raza˜o de verossimilhanc¸a definida por LR = 2[l(λˆ)− l(λ˜)], (4.7) em que λˆ e λ˜ sa˜o, respectivamente, os estimadores de ma´xima verossimilhanc¸a (EMVs) para o modelo representado na hipo´tese alternativa HA e para o modelo representado na hipo´tese nula H0. Tem-se que sob H0, a estat´ıstica LR converge em distribuic¸a˜o para uma distribuic¸a˜o chi-quadrado com q graus de liberdade, com q sendo a diferenc¸a entre o nu´mero de paraˆmetros 48 INFEREˆNCIA 4.2 dos modelos. Matematicamente, LR d→ χ2p. Rejeita-se a hipo´tese nula se LR > p1−α, em que p1−α representa o quantil 1− α da distribuic¸a˜o chi-quadrado com q graus de liberdade e α e´ o n´ıvel de significaˆncia desejado. 4.2.2 Teste da raza˜o de verossimilhanc¸a generalizada Para testar modelos non-nested (na˜o aninhados) o teste da raza˜o de verossimilhanc¸a des- crito anteriormente na˜o e´ mais apropriado. Vuong (1989) apresentou a seguinte definic¸a˜o para modelos non-nested : Definic¸a˜o 3. Dois modelos Fθ e Gγ, sa˜o estritamente non-nested se, e somente se, Fθ∩Gγ = ∅. Considere a escolha entre dois modelos Fθ e Gγ com func¸o˜es de densidades de probabilidade cor- respondentes f(yi|xi, θ) e g(yi|xi, γ), respectivamente. A estat´ıstica da raza˜o de verossimilhanc¸a generalizada para testar a hipo´tese nula que os modelos sa˜o equivalentes e´ definida como TF,G = { 1√ n n∑ i=1 log f(yi|xi, θˆ) g(yi|xi, γˆ) } × { 1 n n∑ i=1 ( log f(yi|xi, θˆ) g(yi|xi, γˆ) )2 − ( 1 n n∑ i=1 log f(yi|xi, θˆ) g(yi|xi, γˆ) )2}− 1 2 . (4.8) A estat´ıstica TF,G converge em distribuic¸a˜o sob a hipo´tese nula de equivaleˆncia dos modelos, para a distribuic¸a˜o normal padra˜o. Seja c um valor cr´ıtico da distribuic¸a˜o normal padra˜o para o n´ıvel de significaˆncia desejado. Se o valor da estat´ıstica TF,G for maior que c enta˜o rejeita-se a hipo´tese nula que os modelos sa˜o equivalentes em favor do modelo Fθ ser melhor do que Gγ. Se TF,G for menor do que −c, enta˜o a hipo´tese nula e´ rejeitada em favor do modelo Gγ ser melhor do que o modelo Fθ. Por fim, se |TF,G| ≤ c, enta˜o os modelos sa˜o equivalentes com base nos dados. Para mais detalhes ver Vuong (1989). 4.2.3 Teste bondade do ajuste Para verificar qual distribuic¸a˜o entre as distribuic¸o˜es testadas se ajusta melhor a um determi- nado conjunto de dados, o teste de bondade de ajuste pode ser realizado. As estat´ısticas de Cra´mer-von Mises (W ∗), Anderson-Darling (A∗) e o teste de Kolmogorov-Smirnov sera˜o utiliza- dos. Em geral, o modelo que apresentar menores valores para (W ∗), (A∗) e para a estat´ıstica do teste de Kolmogorov-Smirnov, sera´ considerado o melhor para o ajuste do conjunto de dados. Para testar H0:X1, X2, · · · , Xn e´ uma varia´vel aleato´ria de uma distribuic¸a˜o cont´ınua com func¸a˜o de distribuic¸a˜o acumulada F (x;λ), em que a forma F e´ conhecida mas vetor de paraˆmetros λ e´ desconhecido, as estat´ısticas W ∗ e A∗ sa˜o calculadas seguindo os procedimentos descritos a seguir: 1. Estime λˆ um estimador eficiente de λ e calcule vi = Fi(xi; λˆ), em que os x ′ is sa˜o colocados em ordem crescente; 2. Calcule yi = Φ −1(vi), em que Φ(·) e´ a func¸a˜o de distribuic¸a˜o acumulada da distribuic¸a˜o normal padra˜o e Φ−1(·) sua inversa; 4.3 TESTES DE HIPO´TESES 49 3. Calcule ui = Φ ( yi − y¯ sy ) , em que y¯ = n−1 ∑n i=1 yi e s 2 y = (n− 1)−1 ∑n i=1(yi − y¯)2; 4. Calcule W 2 = n∑ i=1 { ui − (2i− 1) 2n }2 + 1 12n A2 = −n− 1 n n∑ i=1 [(2i− 1) log(ui) + (2n+ 1− 2i) log(1− ui)]; 5. Modifique W 2 por W ∗ = W 2(1 + 0.5/n) e A∗ = A2(1 + 0.75/n + 2.25/n2), em que n e´ o tamanho da amostra. A hipo´tese nula e´ rejeitada ao n´ıvel de significaˆncia α se as estat´ısticas modificadas W ∗ e A∗ excedem os limites superiores de significaˆncia apresentados em uma tabela dada por Chen e Balakrishnan (1995). Em geral, quanto menor as estat´ısticas W ∗ e A∗, melhor e´ o ajuste dos dados. Para mais detalhes ver os u´ltimos autores. O teste de Kolmogorov-Smirnov (KS) verifica se uma amostra pode ser considerada como proveniente de uma populac¸a˜o com uma determinada func¸a˜o de distribuic¸a˜o acumulada. As hipo´teses do teste sa˜o H0 : a populac¸a˜o tem uma determinada distribuic¸a˜o D H1 : a populac¸a˜o na˜o tem a distribuic¸a˜o D. O procedimento para calcular a estat´ıstica Dn do teste KS, a qual e´ definida como o ma´ximo valor absoluto da diferenc¸a entre as func¸o˜es de distribuic¸a˜o acumulada emp´ırica e estimada, e o correspondente p-valor sa˜o descritos a seguir. 1. Ordenar os n valores dos dados y(1) ≤ y(2) ≤ · · · ≤ y(n); 2. Calcular a estat´ıstica Dn = max j=1,...,n { j n − Fˆ (y(j)), Fˆ (y(j))− j − 1 n } , em que Fˆ (·) e´ a func¸a˜o de distribuic¸a˜o acumulada D sob a hipo´tese nula; 3. Gerar nu´meros aleato´rios de n distribuic¸a˜o U(0, 1) e ordenar, u (i) (i) ≤ u(i)(2) ≤ · · · ≤ u(i)(n); 4. Calcular d(i) = max j=1,...,n { j n − u(i)(j), u(i)(j) − j − 1 n } ; 5. Seja Ii = 1 se d (i) ≥ Dn e caso contra´rio zero. Repetir os passos 3 e 4 N vezes, I1, · · · , IN . O p-valor e´ estimado por ∑N i=1 Ii N . A hipo´tese nula e´ rejeitada se o p-valor for menor que o n´ıvel de significaˆncia utilizado para o teste. Para informac¸o˜es adicionais ver Lin et al. (2007). 50 INFEREˆNCIA 4.3 4.3 Crite´rios de selec¸a˜o de modelos 4.3.1 Crite´rio de informac¸a˜o de Akaike - AIC O crite´rio de informac¸a˜o de Akaike (AIC) (Akaike, 1973), e´ uma ferramenta para selec¸a˜o de modelos e foi desenvolvido a partir da distaˆncia de Kullback-Leibler, definida na expressa˜o (3.30). O AIC e´ definido como AIC = −2l(λˆ) + 2k, em que l(λˆ) e´ a func¸a˜o log-verossimilhanc¸a maximizada e k e´ o nu´mero de paraˆmetros do modelo. O termo acrescentado na func¸a˜o de log-verossimilhanc¸a tem a finalidade de corrigir o vie´s resultante da comparac¸a˜o de modelos com diferentes nu´meros de paraˆmetros. Dentre os modelos considerados o que possuir menor valor de AIC sera´ considerado o modelo de melhor ajuste. 4.3.2 Crite´rio de informac¸a˜o de Akaike corrigido - AICc Segundo Sugiura (1978), o crite´rio de informac¸a˜o de Akaike pode ser ruim se existem muitos paraˆmetros quando comparados com o tamanho da amostra. Desta forma ele propoˆs uma correc¸a˜o do vie´s do AIC atrave´s da expressa˜o AICc = AIC + 2k(k + 1) n− k − 1 , em que n e´ tamanho da amostra e k o nu´mero de paraˆmetros do modelo. Segundo Burnham e Anderson (2004) sua utilizac¸a˜o e´ indicada quando a n k < 40. Se a raza˜o for suficientemente grande os crite´rios AIC e AICc apresentam resultados semelhantes. O modelo com menor AICc e´ selecionado. 4.3.3 Crite´rio Bayesiano de Schwarz - BIC O crite´rio de informac¸a˜o de Schwarz (BIC) (Schwarz, 1978), pode ser expresso por BIC = −2l(λˆ) + 2k ln(n), em que l(λˆ) e´ func¸a˜o log-verossimilhanc¸a generalizada, n o nu´mero de observac¸o˜es e k o nu´mero de paraˆmetros. Uma caracter´ıstica desse crite´rio e´ penalizar os modelos com mais paraˆmetros. Um modelo com menor BIC e´ considerado o melhor modelo. O pro´ximo cap´ıtulo apresenta um estudo de simulac¸a˜o e um ajuste da distribuic¸a˜o MON para um banco de dados reais. Uma comparac¸a˜o desta distribuic¸a˜o e´ feita com as distribuic¸o˜es normal, Cauchy, log´ıstica e t-Student. Cap´ıtulo 5 Simulac¸a˜o e Aplicac¸a˜o Neste cap´ıtulo, apresenta-se um estudo de simulac¸a˜o em que amostras da distribuic¸a˜o MON sa˜o geradas. Para ilustrar a utilidade do modelo MON apresentado no Cap´ıtulo 3, um conjunto de dados reais sera´ analisado para comparar o modelo em estudo com distribuic¸o˜es usuais que modelam dados com caudas pesadas e curtose maior do que a da distribuic¸a˜o normal. 5.1 Simulac¸a˜o Para se obter uma varia´vel aleato´ria com distribuic¸a˜o MON e´ suficiente gerar um nu´mero aleato´rio u da distribuic¸a˜o Uniforme(0,1) e em seguida efetuar o quantil de ordem u da distri- buic¸a˜o MON: x = Φ−1 [ pu 1− (1− p)u ] σ + µ. A Figura 5.1 mostra alguns histogramas para dados simulados de uma distribuic¸a˜o MON com a linha cont´ınua representando a func¸a˜o de densidade estimada da frequeˆncia dos dados, dada pelo comando density do R em sua versa˜o 2.15.2.. 51 52 SIMULAC¸A˜O E APLICAC¸A˜O 5.2 x D en si da de −15 −10 −5 0 5 10 0. 00 0. 02 0. 04 0. 06 0. 08 0. 10 p= 0.7 µ= −3 σ= 6 n= 50 x D en si da de −20 −15 −10 −5 0 5 10 0. 00 0. 02 0. 04 0. 06 0. 08 0. 10 p= 6 µ= −8 σ= 5 n= 100 x D en si da de −10 −5 0 5 10 0. 00 0. 05 0. 10 0. 15 p= 0.04 µ= 5.5 σ= 4 n= 200 x D en si da de −20 −10 0 10 20 0. 00 0. 01 0. 02 0. 03 0. 04 0. 05 0. 06 0. 07 p= 8 µ= −5 σ= 7 n= 500 x D en si da de 0 10 20 30 40 0. 00 0. 01 0. 02 0. 03 0. 04 0. 05 0. 06 p= 7 µ= 12 σ= 8 n= 700 x D en si da de −15 −10 −5 0 5 10 15 0. 00 0. 02 0. 04 0. 06 0. 08 0. 10 p= 0.5 µ= 2 σ= 4 n= 1000 Figura 5.1: Gra´ficos da func¸a˜o densidade exata da distribuic¸a˜o MON com histogramas para dados simulados. 5.2 Aplicac¸a˜o Nesta sec¸a˜o apresenta-se uma ana´lise de um conjunto de dados reais para mostrar a flexibilidade da distribuic¸a˜o MON. Foram comparadas com a distribuic¸a˜o MON as distribuic¸o˜es normal, 5.2 APLICAC¸A˜O 53 log´ıstica, Cauchy e t-Student. O banco de dados utilizado foi originalmente considerado por Badar e Priest (1982) e representa 63 valores de resisteˆncia para amostras de fibras de carbono. Os dados sa˜o apresentados a seguir. 1.901 2.132 2.203 2.228 2.257 2.350 2.361 2.396 2.397 2.445 2.454 2.474 2.518 2.522 2.525 2.532 2.575 2.614 2.616 2.618 2.624 2.659 2.675 2.738 2.740 2.856 2.917 2.928 2.937 2.937 2.977 2.996 3.030 3.125 3.139 3.145 3.220 3.223 3.235 3.243 3.264 3.272 3.294 3.332 3.346 3.377 3.408 3.435 3.493 3.501 3.537 3.554 3.562 3.628 3.852 3.871 3.886 3.971 4.024 4.027 4.225 4.395 5.020. A Tabela 5.1, lista as estimativas de ma´xima verossimilhanc¸a (EMVs) com os correspon- dentes erros padro˜es entre pareˆnteses, o logaritmo da verossimilhanc¸a e as estat´ısticas AIC, BIC e AICc. Os resultados encontrados indicam que o modelo MON teve os menores valores Tabela 5.1: EMVs dos paraˆmetros dos modelos MON, normal, log´ıstica, t-Student e Cau- chy para dados de fibras de carbono, correspondentes erros-padra˜o (entre pareˆnteses), log- verossimilhanc¸a e valores dos AIC, BIC, AICc. Distribuic¸a˜o Estimativas (Erro) Log-vero AIC BIC AICc pˆ = 0.1786 (0.2009) MON µˆ = 3.6647 (0.4503) -57.2830 120.5660 126.9954 120.9728 σˆ = 0.6519 (0.0867) Normal µˆ = 3.0596 (0.0776) -58.8664 121.7329 126.0192 121.9329 σˆ = 0.6159 (0.0549) Log´ıstica µˆ = 3.0244 (0.0780) -59.3295 122.6591 126.9453 122.8591 σˆ = 0.3525 (0.0365) µˆ = 3.0475 (0.0773) t-Student τˆ = 0.6150 (0.0556) - 58.7922 123.5845 130.0139 123.9913 νˆ = 28.7203 (1.2437) Cauchy µˆ = 2.9902 (0.0916) -71.4473 146.8945 151.1808 147.0945 λˆ = 0.4033 (0.0611) para AIC e AICc dentre os modelos considerados, e enta˜o poderia ser escolhido como o me- lhor modelo. Em relac¸a˜o ao BIC, o da distribuic¸a˜o MON foi menor que o das distribuic¸o˜es t-Student e Cauchy, sendo considerado o melhor modelo quando comparado com as mesmas. Pore´m, quando comparado com as distribuic¸o˜es normal e log´ıstica, o BIC da MON foi maior do que o encontrado para estas distribuic¸o˜es. A diferenc¸a foi pequena (na primeira e na segunda casas decimais). Este resultado era de se esperar pois o BIC penaliza as distribuic¸o˜es com mais paraˆmetros. A Figura 5.2 ilustra o histograma dos dados com as densidades dos modelos comparados substituindo os valores encontrados para as estimativas de ma´xima verossimilhanc¸a. Nota-se que a distribuic¸a˜o MON proporciona um ajuste satisfato´rio aos dados. 54 SIMULAC¸A˜O E APLICAC¸A˜O 5.2 x D en si da de 2 3 4 5 0. 0 0. 2 0. 4 0. 6 0. 8 MON Normal Logística t − Student Cauchy Figura 5.2: Histograma do conjunto de dados de fibras de carbono com as func¸o˜es de densidades de probabilidades dos modelos MON, normal, log´ıstica, t-Student e Cauchy. Para verificar se o modelo MON se ajusta melhor ao banco de dados do que o modelo normal pode-se testar as hipo´teses H0: p = 1 versus H1: H0 na˜o e´ verdadeira, equivalentemente, H0: normal × H1: MON. A estat´ıstica LR encontrada para testar estas hipo´teses foi 3.1668 (p- valor < 0.10). Desta forma, rejeita-se a hipo´tese nula em favor da distribuic¸a˜o MON ao n´ıvel de significaˆncia de 10%, ou seja, o modelo MON e´ significantemente melhor que o modelo normal baseado na estat´ıstica da raza˜o de verossimilhanc¸a. Testou-se, via estat´ıstica dada na expressa˜o (4.8) para modelos non-nested (“na˜o aninha- dos”), o modelo MON com os modelos log´ıstica, Cauchy e t-Student. A estat´ıstica encontrada para testar H0: log´ıstica versus HA: MON foi de 0.2588. Desta forma, a hipo´tese nula na˜o e´ rejeitada ao n´ıvel de significaˆncia de 5%, ou seja, os modelos MON e log´ıstica sa˜o equivalentes para o conjunto de dados. Para testar as hipo´teses H0: Cauchy versus HA: MON, a estat´ıstica encontrada foi de 0.8951. Ao n´ıvel de 5% de significaˆncia a hipo´tese nula na˜o e´ rejeitada e portanto, os modelos MON e Cauchy sa˜o equivalentes para o ajuste dos dados. Por fim, a estat´ıstica encontrada para testar as hipo´teses H0: t-Student versus HA: MON foi de 0.3827. Aceita-se a hipo´tese nula o que significa que os modelos MON e t-Student sa˜o significantemente equivalentes para o ajuste do conjunto de dados. Os valores para as estat´ısticas (W ∗) e (A∗) encontrados para todos os modelos esta˜o listados na Tabela 5.2. Pela tabela de valores cr´ıticos para W ∗ e A∗, apresentada em Chen e Balakris- tihnan (1995), todas as distribuic¸o˜es testadas, exceto a distribuic¸a˜o Cauchy, se adequam aos 5.2 APLICAC¸A˜O 55 dados. Entretanto, as estat´ısticas encontradas para o modelo MON foram as menores e desta forma tem-se que este modelo se encaixa melhor ao conjunto de dados do que os outros modelos testados. Tabela 5.2: Teste bondade do ajuste Distribuic¸a˜o Estat´ıstica W ∗ Estat´ıstica A∗ MON 0.0051 0.1734 Normal 0.0069 0.3311 Log´ıstica 0.0094 0.3966 Cauchy 0.0657 2.4666 t-Student 0.0071 0.3281 A Tabela 5.3 mostra os resultados do teste de Kolmogorov-Smirnov (KS) para os cinco modelos ajustados. Dentre os modelos comparados, o melhor e´ o modelo MON com o maior p-valor igual a 0.7130. Isto e´, o teste KS sugere que os dados para fibra de carbono seguem uma distribuic¸a˜o MON. Tabela 5.3: Teste de Kolmogorov-Smirnov para as distribuic¸o˜es testadas Distribuic¸a˜o Dn p-valor MON 0.0868 0.7130 Normal 0.0987 0.5210 Log´ıstica 0.0944 0.6000 Cauchy 0.1239 0.2570 t-Student 0.0903 0.6810 56 SIMULAC¸A˜O E APLICAC¸A˜O 5.2 Cap´ıtulo 6 Concluso˜es e discusso˜es Neste trabalho, estudou-se a distribuic¸a˜o Marshall-Olkin normal, a qual e´ obtida atrave´s da transformac¸a˜o da famı´lia definida em Marshall e Olkin (1997). Expanso˜es em se´ries convergen- tes foram calculadas para as func¸o˜es de distribuic¸a˜o acumulada e de densidade de probabilidade, expresso˜es para alguns momentos foram deduzidas com os primeiros termos encontrados expli- citamente. As entropias de Shannon e de Re´nny foram calculadas e tambe´m estudou-se a iden- tificabilidade do modelo. Na parte inferencial, expresso˜es para os estimadores dos paraˆmetros de uma amostra independente da distribuic¸a˜o Marshall-Olkin normal foram obtidas atrave´s do me´todo de ma´xima verossimilhanc¸a. A matriz de informac¸a˜o esperada de Fisher foi apresentada e intervalos de confianc¸a foram constru´ıdos. Investigou-se o comportamento do paraˆmetro adicional como uma medida de assimetria e foi verificado que o resultado de Rubio e Stell (2012) e´ verdadeiro, ou seja, o paraˆmetro adicional da MON na˜o modela assimetria forte ou moderada. Para constatar esse resultado, um estudo com o mesmo conjunto de dados utilizado por Ga´rcia et al. (2010) foi realizado (os resultados se encontram no Apeˆndice C). Desta forma, verificou-se que a distribuic¸a˜o MON na˜o compete com distribuic¸o˜es assime´tricas como afirmaram Ga´rcia et al. (2010). A distribuic¸a˜o MON possui curva de densidade de probabilidade deslocada (para a direita ou esquerda) e e´ mais afunilada (alta) quando comparada com a distribuic¸a˜o normal, deduziu-se que esta distribuic¸a˜o poderia competir com distribuic¸o˜es usuais que modelam dados com cau- das pesadas e curtose maior do que a da distribuic¸a˜o normal. Para verificar esse pensamento intuitivo, utilizou-se um banco de dados reais ajustando-se ale´m da distribuic¸a˜o MON as dis- tribuic¸o˜es normal, log´ıstica, Cauchy e t-Student. As distribuic¸o˜es ajustadas foram comparadas utilizando-se as estat´ısticas AIC, BIC, CAIC, os testes da raza˜o de verossimilhanc¸a, da raza˜o de verossimilhanc¸a generalizada e de bondade de ajuste. De acordo com os crite´rios citados, a MON se ajustou melhor aos dados do que as outras distribuic¸o˜es testadas. Sendo assim, a distribuic¸a˜o Marshall-Olkin normal pode modelar fenoˆmenos com caudas pesadas, curtose maior que a da distribuic¸a˜o normal e um leve descolocamento, ou seja, modelar dados ligeiramente afastados da normalidade. 57 58 CONCLUSO˜ES E DISCUSSO˜ES 6.0 Refereˆncias Bibliogra´ficas Alice, T. e Jose, K.K. Bivariate semi-Pareto minification processes. Metrica, 59:305-313, 2004. Alice, T. e Jose, K.K. Marshall-Olkin Pareto processes. Far East Journal of Theoretical Statis- tics, 2:117-132, 2003. Arnold, B.C. e Groeneveld, R.A. Measuring skewness with respect to the mode. The American Statistician, 49:34-38, 2006. Bose, R.C. e Gupta, S.S. Moments of order statistics from a normal population. Biometrika, 46:433-440, 1959. Bowden R. The theory of parametric identification. Econometrica, 41:1069-1074, 1973. Caroni C. Testing for the Marshall-Olkin extended form of the Weibull distribution. Stat Com- put, 51:325-336, 2010. Castellares, F. e Lemonte, A. On the Marshall-Olkin extended distributions. Submetido para publicac¸a˜o, 2013. Chen, G. e Balakrishnan, N. A general purpose approximate goodness-of-fit test. Jornal of Qua- lity Technology, 27:154-161, 1995. Economou, P. e Caroni, C. Parametric proportional odds frailty models. Commun Stat Simulat, 36:579-592, 2007. Ferreira, D.F. Estat´ıstica Ba´sica. UFLA, 2005. Garc´ıa, V.J. , Go´mez-De´niz, E. e Va´zquez-Polo, F.J. A new skew generalization of the normal distribution: properties and applications. Computational Statistics and Data Analysis, 54:2021- 2034, 2010. Ghitany, M.E. Marshall-Olkin extended Pareto distribution and its application. International Journal of Applied Mathematics, 18:17-32, 2005. Ghitany, M.E. , Al-Awadhi, F.A. e Alkhalfan, L.A. Marshall-Olkin extended Lomax distribu- tion and its application to censored data. Communication in Statistics - Theory and Methods, 59 60 CONCLUSO˜ES E DISCUSSO˜ES 6.0 36:1855-1866, 2007. Ghitany, M.E. , Al-Hussaini, E.K. e AlJarallah, R.A. Marshall-Olkin extended Weibull distri- bution and its application to censored data. Journal of Applied Statistics, 32:1025- 1034, 2005. Ghitany, M.E. e Kotz, S. Reliability properties of extended linear failure-rate distributions. Pro- bab Eng Inform Sc, 21:441-450, 2007. Go´mez-De´niz E. Another generalization of the geometric distribution. Test, 19:399-415, 2010. Gupta, R.D. e Kundu, D. Generalized exponential distributions. Aust N Z J Stat, 41:173- 188, 1999. Gupta, R.D. e Peng, C. Estimating reliability in proportional odds ratio models. Comput Stat Data An, 53:1495-1510, 2009. Gupta, R.C., Lvin, S. e Peng, C. Estimating turning points of the failure rate of the extended Weibull distribution. Comput Stat Data An, 54:924-934, 2010. Jose, K.K. e Uma, P. On Marshall-Olkin Mittag-Leffler distributions and processes. Far East Journal of Theoretical Statistics, 28:189-199, 2010. Jose, K.K., Naik, S.R. e Ristic, M.M. Marshall-Olkin q-Weibull distribution and max-min pro- cesse. Statistical Papers, 51:837-851, 2010. Jose K.K., Ristic M.M. e Ancy Joseph. Marshall-Olkin bivariate Weibull distributions and pro- cesses. Statistical Papers (online version), 001 10.1007/S00362-009-0287-8, 2009. Kirmani S. e Gupta R.C. On the proportional odds model in survival analysis. Ann.Inst.Statist.Math, 53:203-216, 2001. Kotz, S., Balakrishnan, N. e Johnson, N. Continuous univariate distributions, volume 1-2. Wi- ley series in probability and statistics, Chichester, 1994. Kullback, S. e Leibler, R.A. On information and suficiency. The Annals of Mathematical Sta- tistics,, 22:79-86, 1951. Lam, K.F. e Leung, T.L. Marginal likelihood estimation for proportional odds models with right censored data. Lifetime Data Anal, 7:39-54, 2001. Lin, T.I. , Lee, J.C. e Hsieh, W.J. Robust mixture modeling using the skew t distribution. Stat Comput, 17: 81-92, 2007. Jones, H.L. Exact lower moments of order statistics in small samples from a normal distribu- tion. The Annals of Mathematical Statistics, 19:270-273, 1948. .0 61 Maiti, S.S. e Dey, M. Tilted normal distribution and its survival properties. Jornal of Data Sci- ence, 10: 225-240, 2012. Mardia, K. Statistics of Directional Data. Academic Press, 1972. Mardia, K. e Jupp, P. Directional statistics. Wiley series in probability and statistics, Chiches- ter, 2000. Marshall, A.W. e Olkin, I. A new method for adding a parameter to a family of distributions with application to the exponencial and Weibull families. Biometrika, 84:641-652. Ord, J. Families of Frequency Distributions. Grffin’s Statistical Monographs and Courses, 1972. Patil, G. , Kotz, S. e Ord, J. A modern course on statistical distributions in scientific work : Vol. 1: Models and Structures Vol. 2: Model Building and Model Selection Vol. 3: Characterizations and Applications, volume 79. Proceedings of the NATO Serie C. Advanced Study Institute held at the University of Calgary, Canada, 1975. Patil, G., Taillie, C. e Baldessari, B. A modern course on statistical distributions in scientific work : Vol. 4: Models, Structures, and Characterizations Vol. 5: Inferential Problems and Pro- perties Vol. 6: Applications in Physical, Social, and Life Sciences., volume 17. Proceedings of the NATO Serie C. Advanced Study Institute held at the University of Calgary, Canada, 1981. Rao G.S., Ghitany M.E. e Kantam R.R.L. Reliability test plans for Marshall-Olkin extended exponential distribution. Appl Math Sci, 55:2745-2755, 2009. Ristic, M.M.,Jose, K.K. e Ancy, J. A Marshall-Olkin gamma distribution and minification pro- cess. STARS: Stress and Anxiety Research Society, 11:107-117, 2007. Roberts, H.V. Data analysis for managers with minitab. The American Statistician, 41:270- 278, 1987. Rubio, F.J. e Steel, M.F.J. On the Marshall-Olkin transformation as a skewing mechanism. Computacional Statitics and Data Analysis, 56:2251-2257, 2012. Severini, T.A. Elements of Distribution Theory. Cambridge University Press, 2005. Zhang, T. e Xie, M. Failure data analysis with extended Weibull distribution. Commun Stat Simulat, 36:579592, 2007. 62 CONCLUSO˜ES E DISCUSSO˜ES .0 Apeˆndice A A.1 Terceiro momento Neste apeˆndice os primeiros termos da expansa˜o que representa os momentos de terceira e quarta ordem sa˜o calculados. Os resultados encontrados foram baseados no artigo de Bose e Gupta (1959). O terceiro momento para X ∼MON(p, 0, 1) e´ dado por E(X3) = { ∑∞ n=0 p(1− p)n(n+ 1) ∫∞ −∞ x 3φ(x)[1− Φ(x)]ndx, se 0 < p ≤ 1,∑∞ n=0 q(1− q)n(n+ 1) ∫∞ −∞ x 3φ(x)Φ(x)ndx, se q−1 = p > 1. (A.1) Para q−1 = p > 1 tem-se E(X3) = ∞∑ n=0 q(1− q)n(n+ 1) ∫ ∞ −∞ x3φ(x)[Φ(x)]ndx = q ∫ ∞ −∞ x3φ(x)dx+ ∞∑ n=1 q(1− q)n(n+ 1) ∫ ∞ −∞ x3φ(x)[Φ(x)]ndx = q ∫ ∞ −∞ x3φ(x)dx+ ∞∑ n=1 q(1− q)n(n+ 1) ∫ ∞ −∞ x3φ(x)[Φ(x)]ndx = ∞∑ n=1 q(1− q)nµ′3(n+ 1, n+ 1), pois ∫∞ −∞ x 3φ(x)dx e´ terceiro momento de uma distribuic¸a˜o normal padra˜o e e´ igual a zero, e µ′3(n+ 1, n+ 1) = (n+ 1) ∫ ∞ −∞ x3φ(x)[Φ(x)]ndx e´ o terceiro momento do ma´ximo de n + 1 varia´veis com distribuic¸a˜o normal padra˜o. Bose e Gupta (1959) mostraram que µ′3(n+ 1, n+ 1) = 5 2 µ′1(n+ 1, n+ 1) + ( n+ 1 4 )∫ ∞ −∞ [Φ(x)]n−3 e−2x 2 pi2 dx. (A.2) 63 64 A.1 Substituindo alguns valores de n na expressa˜o (A.2) tem-se µ′3(2, 2) = 5 2 µ′1(2, 2) = 5 √ pi 2 , µ′3(3, 3) = 5 2 µ′1(3, 3) = 15 4 √ pi , µ′3(4, 4) = 5 2 µ′1(4, 4) + 1 pi2 ∫ ∞ −∞ e−2x 2 dx = 15I2(1) pi + √ 2pi 2pi2 = 15 arctan √ 2 pi √ pi + √ 2pi 2pi2 . O valor de µ′3(5, 5) foi apresentado por Bose e Gupta (1959): µ′3(5, 5) = 75 arctan √ 2 + 5√ (2pi)3 − 25 4 √ pi . Assim, a expansa˜o do terceiro momento e´ dada por E(X3) = ∞∑ n=1 q(1− q)nµ′3(n+ 1, n+ 1) = q(1− q)µ′3(2, 2) + q(1− q)2µ′3(3, 3) + q(1− q)3µ′3(4, 4) + q(1− q)4µ′3(5, 5) + ∞∑ n=5 q(1− q)nµ′3(n+ 1, n+ 1) = 5 √ piq(1− q) 2 + 15q(1− q)2 4 √ pi + q(1− q)3 [ 15 arctan √ 2 pi √ pi + √ 2pi 2pi2 ] + +q(1− q)4 [ 75 arctan √ 2 + 5√ (2pi)3 − 25 4 √ pi ] + ∞∑ n=5 q(1− q)nµ′3(n+ 1, n+ 1). Quando 0 < p ≤ 1 o terceiro momento da distribuic¸a˜o MON padra˜o pode ser representado como E(X3) = ∞∑ n=0 p(1− p)n(n+ 1) ∫ ∞ −∞ x3φ(x)[1− Φ(x)]ndx (A.3) = p ∫ ∞ −∞ x3φ(x)dx+ ∞∑ n=1 p(1− p)n(n+ 1) ∫ ∞ −∞ x3φ(x)[1− Φ(x)]ndx = ∞∑ n=1 p(1− p)nµ′3(n+ 1, 1), A.2 QUARTO MOMENTO 65 em que µ′3(n+ 1, 1) = ∫∞ −∞(n+ 1)x 3φ(x)[1−Φ(x)]ndx e´ o terceiro momento do mı´nimo de n+ 1 varia´veis normais padra˜o. Por Bose e Gupta (1959) tem-se µ′3(n+ 1, 1) = 5 2 µ′1(n+ 1, 1)− ( n+1 4 ) pi2 ∫ ∞ −∞ [1− Φ(x)]n−3e−2x2dx. Substituindo n = (1, 2, 3), respectivamente, em (A.3), tem-se µ′3(2, 1) = 5 2 µ′1(2, 1) = − 5 √ pi 2pi , µ′3(3, 1) = 5 2 µ′1(3, 1) = − 15 √ pi 4 , µ′3(4, 1) = 5 2 µ′1(4, 1)− 1 pi2 √ 2pi 2 = −15 arctan √ 2 pi √ pi − √ 2pi 2pi2 . Desta forma, o terceiro momento da distribuic¸a˜o MON padra˜o para valores de p entre zero e um e´ dado pela expansa˜o E(X3) = ∞∑ n=1 p(1− p)nµ′3(n+ 1, 1) = p(1− p)µ′3(2, 1) + p(1− p)2µ′3(3, 1) + p(1− p)3µ′3(4, 1) + ∞∑ n=4 p(1− p)nµ′3(n+ 1, 1) = −p(1− p)5 √ pi 2pi − p(1− p)215 √ pi 4 − p(1− p)3 [ 15 arctan √ 2 pi √ pi + √ 2pi 2pi2 ] + ∞∑ n=4 p(1− p)nµ′3(n+ 1, 1). A.2 Quarto momento O quarto momento de uma varia´vel aleato´ria com distribuic¸a˜o MON padra˜o pode ser represen- tado por E(X4) = { ∑∞ n=0 p(1− p)n(n+ 1) ∫∞ −∞ x 4φ(x)[1− Φ(x)]ndx, se 0 < p ≤ 1,∑∞ n=0 q(1− q)n(n+ 1) ∫∞ −∞ x 4φ(x)Φ(x)ndx, se q−1 = p > 1. (A.4) 66 A.2 Para q−1 = p > 1 tem-se E(X4) = ∞∑ n=0 q(1− q)n(n+ 1) ∫ ∞ −∞ x4φ(x)[Φ(x)]ndx = q ∫ ∞ −∞ x4φ(x)dx+ ∞∑ n=1 q(1− q)n(n+ 1) ∫ ∞ −∞ x4φ(x)[Φ(x)]ndx = 3q + ∞∑ n=1 q(1− q)n(n+ 1) ∫ ∞ −∞ x4φ(x)[Φ(x)]ndx = 3q + ∞∑ n=1 q(1− q)nµ′4(n+ 1, n+ 1), em que µ′4(n+ 1, n+ 1) = (n+ 1) ∫ ∞ −∞ x4φ(x)[Φ(x)]ndx e´ o quarto momento do ma´ximo de n+1 varia´veis com distribuic¸a˜o normal padra˜o, e ∫∞ −∞ x 4φ(x)dx e´ o quarto momento (que representa a curtose) da distribuic¸a˜o normal padra˜o e e´ igual a 3. Por Bose e Gupta (1959), o quarto momento do ma´ximo de n+ 1 varia´veis com distribuic¸a˜o normal padra˜o pode ser escrito como µ′4(n+ 1, n+ 1) = − 4 3 + 13 3 µ′2(n+ 1, n+ 1) + 5 ( n+1 5 ) (2pi) 5 2 ∫ ∞ −∞ [Φ(x)]n−4e− 5 2 x2dx. (A.5) Substituindo n = 1, 2, 3 na expressa˜o (A.5), respectivamente, tem-se que µ′4(2, 2) = − 4 3 + 13 3 µ′2(2, 2) = 3, µ′4(3, 3) = − 9 3 + 13 3 µ′2(3, 3) = − 4 3 + 13 3 ( 2pi + √ 3 2pi ) , µ′4(4, 4) = − 4 3 + 13 3 µ′2(4, 4) = − 4 3 + 13 3 ( pi + √ 3 pi ) , µ′4(5, 5) = − 4 3 + 13 3 µ′2(5, 5) + 5 (2pi) 5 2 ∫ ∞ −∞ e− 5 2 x2dx = −4 3 + 13 3 µ′2(5, 5) + √ 5 4pi2 . A.2 QUARTO MOMENTO 67 Portanto, o quarto momento da distribuic¸a˜o MON padra˜o pode ser representado como E(X4) = 3q + ∞∑ n=1 q(1− q)nµ′4(n+ 1, n+ 1) = 3q + q(1− q)µ′4(2, 2) + q(1− q)2µ′4(3, 3) + q(1− q)3µ′4(4, 4) + q(1− q)4µ′4(5, 5) + ∞∑ n=5 q(1− q)nµ′4(n+ 1, n+ 1) = 3q + 3q(1− q) + q(1− q)2 [ −4 3 + 13 3 ( 2pi + √ 3 2pi )] + q(1− q)3 [ −4 3 + 13 3 ( pi + √ 3 pi )] +q(1− q)4 ( −4 3 + 13 3 µ′2(5, 5) + √ 5 4pi2 ) + ∞∑ n=5 q(1− q)nµ′4(n+ 1, n+ 1). Quando 0 < p ≤ 1 o quarto momento da distribuic¸a˜o MON padra˜o pode ser escrito como E(X4) = ∞∑ n=0 p(1− p)n(n+ 1) ∫ ∞ −∞ x4φ(x)[1− Φ(x)]ndx = p ∫ ∞ −∞ x4φ(x)dx+ ∞∑ n=1 p(1− p)n(n+ 1) ∫ ∞ −∞ x4φ(x)[1− Φ(x)]ndx = 3p+ ∞∑ n=1 p(1− p)nµ′4(n+ 1, 1), com µ′4(n + 1, 1) = (n + 1) ∫∞ −∞ x 4φ(x)[1 − Φ(x)]ndx sendo o quarto momento do mı´nimo de uma amostra de n + 1 observac¸o˜es da distribuic¸a˜o normal padra˜o. Por Bose e Gupta (1959), esse momento e´ dado por µ′4(n+ 1, 1) = − 4 3 + 13 3 µ′2(n+ 1, 1) + 5 ( n+1 5 ) (2pi) 5 2 ∫ ∞ −∞ [1− Φ(x)]n−4e− 52x2dx. (A.6) Escrevendo n = 1, 2, 3 na expressa˜o (A.6) os primeiros termos dessa expansa˜o sa˜o µ′4(2, 1) = − 4 3 + 13 3 µ′2(2, 1) = 3, µ′4(3, 1) = − 4 3 + 13 3 µ′2(3, 1) = − 4 3 + 13 3 ( 2pi + √ 3 2pi ) , µ′4(4, 1) = − 4 3 + 13 3 µ′2(4, 1) = − 4 3 + 13 3 ( pi + √ 3 pi ) , µ′4(5, 1) = − 4 3 + 13 3 µ′2(5, 1) + 5 (2pi) 5 2 ∫ ∞ −∞ e− 5 2 x2dx = −4 3 + 13 3 µ′2(5, 1) + √ 5 4pi2 . 68 A.2 Portanto, o quarto momento para a distribuic¸a˜o MON padra˜o para valores de p entre zero e um pode ser escrito como E(X4) = 3p+ ∞∑ n=1 p(1− p)nµ′4(n+ 1, 1) = 3p+ p(1− p)µ′4(2, 1) + p(1− p)2µ′4(3, 1) + p(1− p)3µ′4(4, 1) +p(1− p)4µ′4(5, 1) + ∞∑ n=5 p(1− p)nµ′4(n+ 1, 1) = 3p+ 3p(1− p) + p(1− p)2 [ −4 3 + 13 3 ( 2pi + √ 3 2pi )] + p(1− p)3 [ −4 3 + 13 3 ( pi + √ 3 pi )] +p(1− p)4 [ −4 3 + 13 3 µ′2(5, 1) + √ 5 4pi2 ] + ∞∑ n=5 p(1− p)nµ′4(n+ 1, 1). Apeˆndice B Neste apeˆndice sa˜o apresentadas as derivadas de segunda ordem da func¸a˜o de log-verossimilhanc¸a da distribuic¸a˜o MON. Lembrando que as representac¸o˜es usadas a seguir foram obtidas atrave´s da propriedade que a esperanc¸a do vetor escore e´ zero. Fazendo-se as representac¸o˜es vi(ti) = 1− Φ(ti) Φ(ti)(1− p) + p e wi(ti) = φ(ti) Φ(ti)(1− p) + p, tem-se que as derivadas parciais de segunda ordem em relac¸a˜o aos paraˆmetros da distribuic¸a˜o MON sa˜o dadas por ∂2l ∂p2 = − n p2 + 2 n∑ i=1 v2i (ti), ∂2l ∂µ2 = − n σ2 + 2(1− p) σ2 n∑ i=1 { tiwi(ti) + (1− p)w2i (ti) } , ∂2l ∂σ2 = n σ2 − 3 σ2 n∑ i=1 t2i + 2(1− p) σ2 n∑ i=1 { (t2i − 2)wi(ti)ti + t2iw2i (ti) } , ∂2l ∂p∂µ = − 2 σ n∑ i=1 wi(ti)− 2(1− p) σ n∑ i=1 vi(ti)wi(ti), ∂2l ∂p∂σ = − 2 σ n∑ i=1 tiwi(ti)− 2(1− p) σ n∑ i=1 tivi(ti)wi(ti), ∂2l ∂µ∂σ = − 2 σ n∑ i=1 ti + 2(1− p) σ2 n∑ i=1 { (t2i − 1)wi(ti) + (1− p)tiw2i (ti) } . 69 70 B.0 Apeˆndice C Neste apeˆndice, uma ana´lise do conjunto de dados utilizado por Garc´ıa et al. (2010) e´ realizada. Para verificar a bondade do ajuste, outros testes, ale´m dos utilizados por eles, sa˜o apresentados. Na Tabela C.1, tem-se as estimativas de ma´xima verossimilhanc¸a (com os correspondentes erros-padra˜o entre pareˆnteses) e os valores das estat´ısticas AIC, BIC e CAIC para os modelos MON, normal, normal poteˆncia (NP) e skew-normal (SN). Tabela C.1: EMVs dos paraˆmetros dos modelos MON, normal, NP, SN e SNB para dados de IQ Scores OITS, correspondentes erros-padra˜o (entre pareˆnteses) e valores dos AIC, BIC e CAIC. Distribuic¸a˜o Estimativas (Erro) Log-vero AIC BIC CAIC pˆ = 0.2507 (0.2436) MON µˆ = 112.8751 (4.7352) -182.3138 370.6276 376.4813 391.6477 σˆ = 8.3928 (0.9503) Normal µˆ = 106.6538 (1.1415) -183.3872 370.7744 374.6769 384.7878 σˆ = 8.2296 (0.7998) λˆ = 42.3960 (16.1669) NP µˆ = 68.4544 (5.3993) -182.4298 370.8596 376.7133 379.7133 σˆ = 17.4787 (2.0053) λˆ = 2.5463 (1.2147) SN µˆ = 97.4548 (1.9864) -182.1399 370.2798 376.1335 379.1335 σˆ = 12.3430 (1.9647) Na Tabela C.2 encontra-se os testes de hipo´teses realizados para testar a distribuic¸a˜o MON com as distribuic¸o˜es normal e skew-normal. Tabela C.2: Teste de Hipo´teses Teste H0 H1 Estat´ıstica Nı´vel p-valor Raza˜o de verossimilhanc¸a normal MON 2.1468 10% 0.1429 Raza˜o de verossimilhanc¸a generalizada SN MON -0.3505 5% - Desta forma, aceita-se a hipo´tese nula em favor da distribuic¸a˜o normal ao n´ıvel de signi- ficaˆncia de 5%, ou seja, o modelo normal se ajusta melhor ao conjunto de dados analizados do que o modelo MON, baseando-se na estat´ıstica da raza˜o de verossimilhanc¸a. Ja´ no teste da raza˜o de verossimilhanc¸a generalizada, aceita-se a hipo´tese nula o que significa que os modelos MON e skew-normal sa˜o significantemente equivalentes para o ajuste do conjunto de dados. 71 72 A Tabela C.3 apresenta os resultados para o teste de Kolmogorov-Smirnov para os modelos testados. Dentre os quatro modelos analisados, o melhor ajuste e´ do modelo SN com p-valor igual a 0.8250. Em outras palavras, tem-se que o teste KS sugere que os dados seguem uma distribuic¸a˜o skew-normal. Tabela C.3: Teste de Kolmogorov-Smirnov para as distribuic¸o˜es testadas. Distribuic¸a˜o Dn p-valor MON 0.0962 0.6570 Normal 0.1264 0.3450 NP 0.0932 0.734 SN 0.0859 0.8250 A Figura C.1 ilustra o histograma dos dados IQ scores OTIS. As linhas representam as densidades das distribuic¸o˜es MON, normal, normal poteˆncia e skew-normal, usando os valores encontrados para as estimativas de ma´xima verosimilhanc¸a encontradas para os paraˆmetros. x D en si da de 90 95 100 105 110 115 120 125 0. 00 0. 01 0. 02 0. 03 0. 04 0. 05 0. 06 MON Normal Skew − Normal Normal − Potência Figura C.1: Histograma dos dados de fibras de carbono com as func¸o˜es de densidades de proba- bilidades substituindo-se as EMVs dos modelos MON, normal, skew-normal e normal-poteˆncia.