Saltar ao contido

Inferencia estatística

Na Galipedia, a Wikipedia en galego.
Inferencia estatística
 Instancia de
 Subclase de
 Estudado por
Identificadores
Freebase/m/06vyy Editar o valor en Wikidata
OpenAlexC134261354 e C2986587452 Editar o valor en Wikidata
Wikidata C:Commons

A inferencia estatística é o procedemento que emprega a análise de datos para inferir as propiedades unha distribución de probabilidade subxacente aos mesmos.[1] Desta forma, infírense propiedades dunha poboación, por exemplo, probando hipóteses ou realizando estimacións. Normalmente, o conxunto de datos observado correspóndese cunha mostra dunha poboación máis grande.

A inferencia estatística contraponse coa estatística descritiva. A estatística descritiva céntrase unicamente nas propiedades dos datos observados e non se basean na suposición de que os datos proceden dunha poboación máis grande. En aprendizaxe automática, o termo inferencia ás veces úsase no sentido de "facer unha predición, avaliando un modelo xa adestrado";[2] neste contexto, a inferencia das propiedades do modelo denomínase adestramento ou aprendizaxe (en lugar de inferencia), e o uso dun modelo para a predición denomínase inferencia (en lugar de predición); véxase tamén inferencia preditiva.

Introdución

[editar | editar a fonte]

A inferencia estatística fai proposicións sobre unha poboación, empregando datos extraídos da poboación con algunha forma de mostraxe. Dada unha hipótese sobre unha poboación, para a que desexamos extraer inferencias, a inferencia estatística consiste en (primeiro) seleccionar un modelo estatístico do proceso que xera os datos e (segundo) deducir proposicións a partir do modelo.

Konishi e Kitagawa afirman que "a maioría dos problemas na inferencia estatística pódense considerar problemas relacionados coa modelaxe estatística".[3] De xeito similar, David Cox dixo: "A forma en que se realiza a tradución dun problema temático a un modelo estatístico adoita ser a parte máis crítica dunha análise".[4]

A consecuencia dunha inferencia estatística é unha proposición estatística.[5] Algunhas formas comúns de proposicións estatísticas son as seguintes:

  • Unha estimación puntual, é dicir, un valor particular que é o que mellor se aproxima a algún parámetro de interese.
  • Unha estimación dada por un intervalo, por exemplo, un intervalo de confianza. Un intervalo de confianza é un intervalo construído empregando datos dunha mostra, de tal xeito que se o procedemento se repetise en moitas mostras independentes (matematicamente, tomando o límite), unha proporción fixa (por exemplo, o 95%) dos intervalos resultantes contería o valor real do parámetro, é dicir, o parámetro da poboación.
  • Un intervalo crible, é dicir, un conxunto de valores que conteñen, por exemplo, o 95% da crenza posterior.
  • Rexeitamento dunha hipótese.
  • Agrupación en clústeres ou clasificación dos datos en grupos.

Modelos e suposicións

[editar | editar a fonte]

Calquera inferencia estatística require dalgunhas suposicións. Un modelo estatístico é un conxunto de suposicións relativas á xeración dos datos observados. As descricións dos modelos estatísticos adoitan centrarse no papel das características da poboación de interese, sobre as que desexamos extraer inferencias.[4] As estatísticas descritivas úsanse normalmente como paso preliminar antes de extraer inferencias máis formais.[6]

Modelos segundo as súas suposicións

[editar | editar a fonte]

Distínguense tres tipoloxías de modelos en función da natureza das súas hipóteses:

  • Totalmente paramétrico. As distribucións de probabilidade que describen o proceso de xeración dos datos asúmense que están completamente descritas por unha familia de distribucións de probabilidade que implican só un número finito de parámetros descoñecidos.[4] Por exemplo, pódese asumir que a distribución poboacional é normal, con media e varianza descoñecidas, e que os conxuntos de datos se xeran mediante mostraxe aleatoria simple. A familia dos modelos lineais xeneralizados é unha clase amplamente empregada e flexible de modelos paramétricos.
  • Non paramétricos. As suposicións feitas sobre o proceso de xeración dos datos son moito menores que nas estatísticas paramétricas, podendo chegar a ser mínimas.[7] Por exemplo, cada distribución de probabilidade continua ten unha mediana, que se pode estimar empregando a mediana mostral ou o estimador de Hodges-Lehmann, que ten boas propiedades cando os datos proveñen dunha mostraxe aleatoria simple.
  • Semiparamétrico. Este termo normalmente implica suposicións 'intermedias' entre os enfoques totalmente paramétricos e os non paramétricos. Por exemplo, pódese asumir que unha distribución da poboación ten unha media finita. Ademais, pódese supor que o nivel medio de resposta na poboación depende dun xeito verdadeiramente lineal dalgunha covariable (unha suposición paramétrica) pero non facer ningunha suposición paramétrica que describa a varianza arredor desa media (é dicir, sobre a presenza ou posible forma de calquera heteroscedasticidade). De xeito máis xeral, os modelos semiparamétricos adoitan separarse en compoñentes "estruturais" e de "variación aleatoria". Un compoñente trátase parametricamente e o outro non parametricamente. O coñecido modelo de Cox é un conxunto de suposicións semiparamétricas.[Cómpre referencia]

Importancia da validación dos modelos

[editar | editar a fonte]
A imaxe superior mostra un histograma que avalía a suposición de normalidade, que se pode ilustrar a través da dispersión uniforme baixo a curva de campá.

Sexa cal sexa o tipo de modelo que se considere, a inferencia calibrada correctamente, en xeral, require que as suposicións realizadas sexan correctas; é dicir, que os mecanismos de xeración de datos realmente se especificasen correctamente.

As suposicións incorrectas de mostraxe aleatoria simple poden invalidar os resultados da inferencia estatística.[8] Así mesmo, suposicións semiparamétricas e totalmente paramétricas máis complexas tamén son motivo de preocupación. Por exemplo, supoñer incorrectamente o modelo de Cox pode, nalgúns casos, levar a conclusións erróneas.[9] As suposicións incorrectas de normalidade na poboación tamén invalidan algunhas formas de inferencia baseada na regresión.[10]

O uso de calquera modelo paramétrico é visto con escepticismo pola maioría dos expertos en mostraxe de poboacións humanas: "a maioría dos estatísticos de mostraxe, cando tratan con intervalos de confianza, limítanse a afirmacións sobre estimadores baseadas en mostras moi grandes, onde o teorema do central do límite garante que estes estimadores terán distribucións case normais".[11] En particular, unha distribución normal "sería unha suposición totalmente irreal e catastroficamente imprudente se estivésemos a tratar con calquera tipo de poboación económica".[11] Aquí, o teorema do límite central afirma que a distribución da media mostral "para moi mostras grandes" ten unha distribución aproximadamente normal, se a distribución non ten cola pesada.

Distribucións aproximadas

[editar | editar a fonte]

Dada a dificultade para especificar distribucións exactas das estatísticas mostrais, desenvolvéronse múltiples métodos para aproximalas.

Para mostras finitas, existe resultados da teoría da aproximación que miden o preto que se achega unha distribución límite á distribución mostral da estatística. Por exemplo, con 10.000 mostras independentes, a distribución normal aproxima (con dous díxitos de precisión) a distribución da media mostral para moitas distribucións de poboación, mediante o teorema de Berry-Esseen.[12] Con todo, para moitos fins prácticos, a aproximación por unha normal proporciona unha boa aproximación á distribución da media mostral cando hai 10 (ou máis) mostras independentes.[13]

Seguindo o traballo de Kolmogorov na década de 1950, a estatística avanzada emprega a teoría da aproximación e a análise funcional para cuantificar o erro de aproximación. Nesta abordaxe, estúdase a xeometría métrica das distribucións de probabilidade; este enfoque cuantifica o erro de aproximación con, por exemplo, a diverxencia de Kullback-Leibler, a diverxencia de Bregman ou a distancia de Hellinger.[14][15][16]

Con mostras indefinidamente grandes, os resultados límite como o teorema central do límite describen a distribución límite do estatístico mostral, se existe algunha. Os resultados límite non son afirmacións sobre mostras finitas e, de feito, son irrelevantes para as mesmas.[16][17][18] Non obstante, a teoría asintótica das distribucións límite adoita empregarse para traballar con mostras finitas. Por exemplo, os resultados límite empréganse para xustificar o método xeneralizado dos momentos e o uso de ecuacións de estimación xeneralizadas, que son de uso habitual en econometría e bioestatística. A magnitude da diferenza entre a distribución límite e a distribución verdadeira (formalmente, o "erro" da aproximación) pódese avaliar mediante simulacións.[18]

Paradigmas da inferencia

[editar | editar a fonte]

Ao longo do tempo establecéronse diferentes escolas da inferencia estatística. Estas escolas (ou "paradigmas") non son mutuamente excluíntes e os métodos que funcionan ben baixo un paradigma adoitan ter interpretacións atractivas baixo outros paradigmas.

Bandyopadhyay e Forster describen catro paradigmas: o paradigma clásico (ou frecuentista), o paradigma bayesiano, o paradigma da verosimilitude e o paradigma baseado no criterio de información de Akaike.[19]

Inferencia frecuentista

[editar | editar a fonte]
Artigo principal: Inferencia frecuentista.

Este paradigma calibra a plausibilidade das proposicións considerando a mostraxe repetida dunha distribución da poboación para producir conxuntos de datos similares. Ao considerar as características do conxunto de datos baixo mostraxe repetida, pódense cuantificar as propiedades frecuentistas dunha proposición estatística, aínda que na práctica esta cuantificación pode ser complexa.

Exemplos de inferencia frecuentista

[editar | editar a fonte]

Inferencia frecuentista, obxectividade e teoría da decisión

[editar | editar a fonte]

Unha interpretación da inferencia frecuentista (ou inferencia clásica) é que só é aplicable en termos da probabilidade frecuentista; é dicir, en termos da mostraxe repetida dunha poboación. Non obstante, o enfoque de Neyman[20] desenvolve estes procedementos en termos de probabilidades previas ao experimento.

Pola contra, a inferencia bayesiana funciona en termos de probabilidades condicionais (é dicir, probabilidades condicionadas aos datos observados), en comparación coas probabilidades marxinais (pero condicionadas a parámetros descoñecidos) utilizadas na abordaxe frecuentista.

Aínda que os estatísticos que empregan a inferencia frecuentista deben escoller por si mesmos os parámetros de interese e os estimadores que se van a empregar, a ausencia de utilidades obviamente explícitas e distribucións previas axudou a que os procedementos frecuentistas sexan amplamente vistos como "obxectivos".[21]

Inferencia bayesiana

[editar | editar a fonte]
Véxase tamén: Inferencia bayesiana.

O cálculo bayesiano describe os graos de crenza ou convicción empregando a "linguaxe" da probabilidade; as crenzas son positivas, integran un e obedecen aos axiomas da probabilidade. A inferencia bayesiana emprega as crenzas posteriores dispoñibles como base para formular proposicións estatísticas.[22]

Exemplos de inferencia bayesiana

[editar | editar a fonte]

Inferencia bayesiana, subxectividade e teoría da decisión

[editar | editar a fonte]

Moitas inferencias bayesianas informais baséanse en resumos "intuitivamente razoables" da función posterior. Por exemplo, a media, a mediana e a moda posteriores, os intervalos de densidade posterior máis altos e os factores de Bayes poden motivarse deste xeito.

Formalmente, a inferencia bayesiana calíbrase con referencia a unha utilidade ou función de perda declarada explicitamente. A "regra de Bayes" é a que maximiza a utilidade esperada, promediada sobre a incerteza posterior. Polo tanto, a inferencia bayesiana formal proporciona automaticamente decisións óptimas nun sentido de teoría da decisión. Dados os supostos, os datos e a utilidade, a inferencia bayesiana pódese facer para esencialmente calquera problema, aínda que non todas as inferencias estatísticas teñen que ter unha interpretación bayesiana. As análises que non son formalmente bayesianas poden ser (loxicamente) incoherentes; unha característica dos procedementos bayesianos que usan distribucións a priori axeitadas (é dicir, aquelas que integran un) é que se garante que sexan coherentes. Algúns defensores da inferencia bayesiana afirman que a inferencia "debe" ter lugar neste marco da teoría da decisión, e que a inferencia bayesiana non debería concluír coa avaliación e o resumo das crenzas posteriores.

Inferencia baseada na verosimilitude

[editar | editar a fonte]

A inferencia baseada na verosimilitude é un paradigma empregado para estimar os parámetros dun modelo estatístico a partir de datos observados. O "verosimilitudismo" aborda a estatística mediante a función de verosimilitude, denotada como , que cuantifica a probabilidade de observar os datos dados , asumindo un conxunto específico de valores dos parámetros . Na inferencia baseada na verosimilitude, o obxectivo é atopar o conxunto de valores dos parámetros que maximiza a función de verosimilitude ou, equivalentemente, maximiza a probabilidade de observar os datos dados.

O proceso de inferencia baseada na verosimilitude adoita implicar os seguintes pasos:

  1. Formulación do modelo estatístico. Defínese un modelo estatístico baseado no problema en cuestión, especificando as suposicións distribucionais e a relación entre os datos observados e os parámetros descoñecidos. O modelo pode ser simple, como unha distribución normal con varianza coñecida, ou complexo, como un modelo xerárquico con múltiples niveis de efectos aleatorios.
  2. Construción da función de verosimilitude. Dado o modelo estatístico, a función de verosimilitude constrúese avaliando a densidade de probabilidade conxunta ou a función de masa dos datos observados como función dos parámetros descoñecidos. Esta función representa a probabilidade de observar os datos para diferentes valores dos parámetros.
  3. Maximización da función de verosimilitude. O seguinte paso é atopar o conxunto de valores de parámetros que maximiza a función de verosimilitude. Isto pódese conseguir mediante técnicas de optimización como os algoritmos de optimización numérica. Os valores estimados dos parámetros, a miúdo denotados como , son as estimacións de máxima verosimilitude (MLE).
  4. Avaliación da incerteza. Unha vez obtidas as MLE, é crucial cuantificar a incerteza asociada ás estimacións dos parámetros. Isto pódese facer calculando os erros estándar, os intervalos de confianza ou realizando os contrastes de hipóteses baseados na teoría asintótica ou en técnicas de simulación como o bootstrapping.
  5. Comprobación do modelo. Despois de obter as estimacións dos parámetros e avaliar a súa incerteza, é importante avaliar a adecuación do modelo estatístico. Isto implica comprobar as suposicións feitas no modelo e avaliar o axuste do modelo aos datos mediante probas de bondade de axuste, análise residual ou diagnósticos gráficos.
  6. Inferencia e interpretación. Finalmente, con base nos parámetros estimados e na avaliación do modelo, pódese realizar unha inferencia estatística. Isto implica sacar conclusións sobre os parámetros da poboación, facer predicións ou probar hipóteses baseadas no modelo estimado.

Inferencia baseada no AIC

[editar | editar a fonte]

O criterio de información de Akaike (AIC) é un estimador da calidade relativa dos modelos estatísticos para un conxunto de datos determinado. Dada unha colección de modelos para os datos, o AIC estima a calidade de cada modelo en relación con cada un dos outros modelos. Polo tanto, o AIC proporciona un medio para a selección de modelos.

O AIC baséase na teoría da información: ofrece unha estimación da información relativa que se perde cando se usa un modelo determinado para representar o proceso que xerou os datos. Ao facelo, trata o compromiso entre a calidade do axuste do modelo e a simplicidade do modelo.

Outros paradigmas da inferencia

[editar | editar a fonte]

Lonxitude mínima da descrición

[editar | editar a fonte]

O principio da lonxitude mínima da descrición (MDL) desenvolveuse a partir de ideas da teoría da información[23] e da teoría da complexidade de Kolmogorov[24]. O principio (MDL) selecciona modelos estatísticos que comprimen os datos ao máximo; a inferencia prodúcese sen asumir "mecanismos de xeración de datos" contrafactuais ou non falsificables ou modelos de probabilidade para os datos, como se podería facer nas abordaxes frecuentistas ou bayesianas.

Non obstante, se existe na realidade un "mecanismo de xeración de datos", entón, segundo o teorema da codificación fonte de Shannon, este proporciona a descrición MDL dos datos, en media e asintoticamente.[24] Ao minimizar a lonxitude da descrición (ou a complexidade descritiva), a estimación MDL é similar á estimación de máxima verosimilitude e á estimación a posteriori máxima. Non obstante, a MDL evita asumir que o modelo de probabilidade subxacente é coñecido; o principio MDL tamén se pode aplicar sen supor que, por exemplo, os datos xurdiron dunha mostraxe independente.[24][25]

O principio MDL aplicouse na comunicación: teoría da codificación en teoría da información, en regresión lineal,[25] e en minería de datos.[24]

A avaliación de procedementos inferenciais baseados en MDL adoita empregar técnicas ou criterios da teoría da complexidade computacional.[26]

Inferencia fiducial

[editar | editar a fonte]
Artigo principal: Inferencia fiducial.

Inferencia fiducial foi unha aproximación á inferencia estatística baseada na probabilidade fiducial, tamén coñecida como "distribución fiducial". En traballos posteriores, esta abordaxe foi cualificada de mal definida, extremadamente limitada en aplicabilidade e mesmo falaz.[27][28] Non obstante, este argumento é o mesmo que demostra[4] que a chamada distribución de confianza non é unha distribución de probabilidade válida e, dado que isto non invalidou a aplicación dos intervalos de confianza, non invalida necesariamente as conclusións extraídas de argumentos fiduciais. Intentouse reinterpretar o traballo inicial de Fisher sobre a argumento fiducial como un caso especial dunha teoría da inferencia que usa probabilidades superiores e inferiores.[29]

Inferencia estrutural

[editar | editar a fonte]

Xorde como un desenvolvemento de ideas de Fisher e de Pitman de 1938 a 1939, George A. Barnard desenvolveu a "inferencia estrutural" ou "inferencia pivotal",[30] un enfoque que usa a probabilidades invariantes en familias de grupos. Barnard reformulou os argumentos que sustentan a inferencia fiducial nunha clase restrinxida de modelos nos que os procedementos "fiduciais" estarían ben definidos e serían útiles. Donald A. S. Fraser desenvolveu unha teoría xeral para a inferencia estrutural[31] baseada na teoría de grupos e aplicouna a modelos lineais.[31] A teoría formulada por Fraser ten estreitos vínculos coa teoría da decisión e a estatística bayesiana e pode proporcionar regras de decisión frecuentistas óptimas se existen.[32]

Temas da inferencia

[editar | editar a fonte]

Os temas seguintes adoitan incluírse na área de inferencia estatística:

  1. Suposicións estatísticas
  2. Teoría estatística da decisión
  3. Teoría da estimación
  4. Probas de hipóteses estatísticas
  5. Revisión de opinións en estatística
  6. Deseño de experimentos, a análise da varianza e a regresión
  7. Mostraxe por enquisas
  8. Resumo de datos estatísticos

Inferencia preditiva

[editar | editar a fonte]

A inferencia preditiva é unha abordaxe da inferencia estatística que enfatiza a predición de observacións futuras baseadas en observacións pasadas.

Inicialmente, a inferencia preditiva baseábase en parámetros "observables" e era o obxectivo principal do estudo da probabilidade,[Cómpre referencia] pero caeu en desuso no século XX debido a unha nova abordaxe paramétrica iniciada por Bruno de Finetti. A abordaxe modelaba os fenómenos como un sistema físico observado con erro (por exemplo, a mecánica celeste). A idea de De Finetti da intercambiabilidade —que as observacións futuras deberían comportarse como as observacións pasadas— chamou a atención do mundo anglófono coa tradución do francés en 1974 do seu artigo de 1937,[33] e desde entón foi promulgada por estatísticos como Seymour Geisser.[34]

  1. Upton, Graham J. G.; Cook, Ian (2011). A dictionary of statistics: the invaluable guide to all aspects of statistics. Oxford paperback reference (en inglés) (2. ed. rev., reprinted with corr ed.). Oxford: Oxford Univ. Press. ISBN 978-0-19-954145-4. 
  2. "Inferencia de TensorFlow Lite". O termo inferencia refírese ao proceso de executar un modelo de TensorFlow Lite no dispositivo para facer predicións baseadas nos datos de entrada. }
  3. Konishi, Sadanori; Kitagawa, Genshiro (2008). "Information Criteria and Statistical Modeling". Springer Series in Statistics (en inglés): 75. ISSN 0172-7397. doi:10.1007/978-0-387-71887-3. 
  4. 4,0 4,1 4,2 4,3 Cox, David R. (2007). Principles of Statistical Inference. Cambridge University Press. pp. 197, 2. 
  5. "Statistical inference - Encyclopedia of Mathematics". www.encyclopediaofmath.org. Arquivado dende o orixinal o 02 de febreiro de 2020. Consultado o 2019-01-23. 
  6. Evans, Michael J.; Rosenthal, Jeffrey S. (2004). Probability and statistics: the science of uncertainty (2. print ed.). New York: W.H. Freeman and Co. p. 267. ISBN 978-0-7167-4742-0. 
  7. Vaart, Aad W. van der (2000). Asymptotic statistics. Cambridge series in statistical and probabilistic mathematics. Cambridge: Cambridge University Press. p. 341. ISBN 978-0-521-78450-4. 
  8. Kruskal, William (1988-12). "Miracles and Statistics: The Casual Assumption of Independence". Journal of the American Statistical Association 83 (404): 929. doi:10.2307/2290117. 
  9. Freedman, David A (2008-05). "Survival Analysis". The American Statistician 62 (2): 110–119. ISSN 0003-1305. doi:10.1198/000313008x298439. 
  10. Berk, Richard (2004). Regression analysis: a constructive critique. Advanced quantitative techniques in the social sciences series. Thousand Oaks, Calif.: Sage. ISBN 978-0-7619-2904-8. 
  11. 11,0 11,1 Brewer, K. R. W. (2002). Combined survey sampling inference: weighing Basu's elephants. London; New York: Arnold; Oxford Univesity Press. ISBN 978-0-340-69229-5. 
  12. Hoffman-Jögensen, Jörgen (2017-11-22). "Probability With a View Towards Statistics, Volume I" 1: 399. doi:10.1201/9780203742013. 
  13. Hoffman-Jörgensen, Jörgen (2017-11-22). "Probability With a View Towards Statistics, Volume II". doi:10.1201/9780203742006. 
  14. Torgersen, Erik (1991-03-14). Comparison of Statistical Experiments. Cambridge University Press. ISBN 978-0-521-25030-6. 
  15. Liese, Friedrich; Miescke, Klaus-J. (2008). Statistical decision theory: estimation, testing, and selection. Springer series in statistics. New York: Springer. ISBN 978-0-387-73193-3. 
  16. 16,0 16,1 Le Cam, Lucien Marie (1986). Asymptotic methods in statistical decision theory. Springer series in statistics. New York Berlin Paris [etc.]: Springer. ISBN 978-0-387-96307-5. 
  17. Kolmogorov, A.N. (1998-11). "On tables of random numbers". Theoretical Computer Science (en inglés) 207 (2): 387–395. doi:10.1016/S0304-3975(98)00075-9. 
  18. 18,0 18,1 Pfanzagl, J.; Hamböker, R. (1994). Parametric statistical theory. De Gruyter textbook. Berlin ; New York: W. de Gruyter. ISBN 978-3-11-014030-9. 
  19. Bandyopadhyay, Prasanta S.; Forster, Malcolm R. (2011). Philosophy of Statistics. Elsevier. pp. 1–50. ISBN 978-0-444-51862-0. 
  20. Neyman, J. (1937-08-30). "Outline of a Theory of Statistical Estimation Based on the Classical Theory of Probability". Philosophical Transactions of the Royal Society of London. Series A, Mathematical and Physical Sciences (en inglés) 236 (767): 333–380. ISSN 0080-4614. doi:10.1098/rsta.1937.0005. 
  21. Little, Roderick J (2006-08). "Calibrated Bayes: A Bayes/Frequentist Roadmap". The American Statistician (en inglés) 60 (3): 213–223. ISSN 0003-1305. doi:10.1198/000313006X117837. 
  22. Lee, Se Yoon (2022-03-19). "Gibbs sampler and coordinate ascent variational inference: A set-theoretical review". Communications in Statistics - Theory and Methods (en inglés) 51 (6): 1549–1568. ISSN 0361-0926. doi:10.1080/03610926.2021.1921214. 
  23. Soofi, Ehsan S. (2000-12). "Principal Information Theoretic Approaches". Journal of the American Statistical Association (en inglés) 95 (452): 1349–1353. ISSN 0162-1459. doi:10.1080/01621459.2000.10474346. 
  24. 24,0 24,1 24,2 24,3 Hansen, Mark H; Yu, Bin (2001-06). "Model Selection and the Principle of Minimum Description Length". Journal of the American Statistical Association (en inglés) 96 (454): 746–774. ISSN 0162-1459. doi:10.1198/016214501753168398. 
  25. 25,0 25,1 Rissanen, Jorma (1989). Stochastic complexity in statistical inquiry. World Scientific series in computer science. Singapore ; Teaneck, NJ: World Scientific. ISBN 978-9971-5-0859-3. 
  26. Traub, J. F.; Wasilkowski, G. W.; Woźniakowski, H. (1988). Information-based complexity. Computer science and scientific computing. Boston: Academic Press. ISBN 978-0-12-697545-1. 
  27. Neyman, Jerzy (1956-07-01). "Note on an Article by Sir Ronald Fisher". Journal of the Royal Statistical Society Series B: Statistical Methodology (en inglés) 18 (2): 288–294. ISSN 1369-7412. doi:10.1111/j.2517-6161.1956.tb00236.x. 
  28. Zabell, S. L. (1992-08-01). "R. A. Fisher and Fiducial Argument". Statistical Science 7 (3). ISSN 0883-4237. doi:10.1214/ss/1177011233. 
  29. Hampel, Frank R. (2003). "The proper fiducial argument" (en inglés): 13 S. doi:10.3929/ETHZ-A-004526011. 
  30. Barnard, George A. (1995-12). "Pivotal Models and the Fiducial Argument". International Statistical Review / Revue Internationale de Statistique 63 (3): 309. ISSN 0306-7734. doi:10.2307/1403482. 
  31. 31,0 31,1 Fraser, D. A. S. (1968). The structure of inference. New York: Wiley. ISBN 0-471-27548-4. OCLC 440926. 
  32. Taraldsen, Gunnar; Lindqvist, Bo Henry (2013-02-01). "Fiducial theory and optimal inference". The Annals of Statistics 41 (1). ISSN 0090-5364. doi:10.1214/13-AOS1083. 
  33. de Finetti, Bruno (1992). Kotz, Samuel; Johnson, Norman L., eds. Foresight: Its Logical Laws, Its Subjective Sources. New York, NY: Springer New York. pp. 134–174. ISBN 978-0-387-94037-3. doi:10.1007/978-1-4612-0919-5_10. 
  34. Geisser, Seymour (1993-06-01). Predictive Inference (en inglés). CRC Press. ISBN 978-0-412-03471-8. 

Véxase tamén

[editar | editar a fonte]