Jackknife (estadística)

En estadística, el método jackknife es una técnica de remuestreo. Es una técnica útil para la estimación del sesgo y la varianza de estimadores. Básicamente, se forma un estimador del parámetro de interés por la media de las estimaciones conseguidas al eliminar, para cada una de ellas, una de las observaciones de la muestra original. Este estimador luego se usa estimar el sesgo y la varianza.

Historia

La técnica jackknife es anterior a otros métodos de remuestreo comunes como el bootstrap. Fue desarrollada por Maurice Quenouille (1949, 1956) y John W. Tukey (1958) se expandió en la técnica y propuso el nombre actual jackknife, ya que, al igual que una navaja de Boy Scout, es una herramienta "áspera y lista" que puede resolver una variedad de problemas a pesar de que los problemas específicos pueden ser más eficientemente resueltos con una herramienta diseñada para tal fin.[1]​ Posteriormente Bradley Efron, al proponer la técnica bootstrap, demuestra que el jackknife es una aproximación lineal de esta.[2]

Definición del estimador jackknife

Sea θ {\displaystyle \theta } el parámetro que se quiere estimar usando un estimador θ ^ {\displaystyle {\hat {\theta }}} a partir de una muestra de tamaño n {\displaystyle n} . Se consideran los n {\displaystyle n} estimadores θ ^ ( j ) {\displaystyle {\hat {\theta }}_{(j)}} de misma forma funcional que θ ^ {\displaystyle {\hat {\theta }}} fruto de omitir la j {\displaystyle j} -ésima observación de la muestra para cada j = 1 , , n {\displaystyle j=1,\dots ,n} . A estas estimaciones se las conoce como replicas jackknife y un primer estimador es su media[3]

θ ^ ( ) = 1 n j = 1 n θ ^ ( j ) {\displaystyle {\hat {\theta }}_{(\cdot )}={\frac {1}{n}}\sum _{j=1}^{n}{\hat {\theta }}_{(j)}}

que en el caso en que las réplicas jackknife sean incorreladas, disminuye la varianza respecto a θ ^ {\displaystyle {\hat {\theta }}} .

El estimador θ ^ {\displaystyle {\hat {\theta }}} es en general sesgado. Una asunción razonable en la mayoría de los casos es que el sesgo del estimador tiende a 0 cuanto mayor es el tamaño muestral n {\displaystyle n} , así se puede suponer que E [ θ ^ ] θ + b n {\displaystyle \mathbb {E} [{\hat {\theta }}]\approx \theta +{\frac {b}{n}}} . Entonces la media de las réplicas jackknife cumple

E [ θ ^ ( ) ] = E [ θ ^ ( j ) ] θ + b n 1 {\displaystyle \mathbb {E} [{\hat {\theta }}_{(\cdot )}]=\mathbb {E} [{\hat {\theta }}_{(j)}]\approx \theta +{\frac {b}{n-1}}}

de manera que

E [ n θ ^ ( n 1 ) θ ^ ( ) ] n θ + b ( n 1 ) θ b = θ {\displaystyle \mathbb {E} [n{\hat {\theta }}-(n-1){\hat {\theta }}_{(\cdot )}]\approx n\theta +b-(n-1)\theta -b=\theta }

Se define el estimador jackknife con corrección de sesgo como

θ ^ j a c k = n θ ^ ( n 1 ) θ ^ ( ) {\displaystyle {\hat {\theta }}^{jack}=n{\hat {\theta }}-(n-1){\hat {\theta }}_{(\cdot )}}

que se puede escribir también como la media de los pseudovalores θ j = n θ ^ ( n 1 ) θ ^ ( j ) {\displaystyle \theta _{j}=n{\hat {\theta }}-(n-1){\hat {\theta }}_{(j)}}

θ ^ j a c k = 1 n j = 1 n θ ^ j {\displaystyle {\hat {\theta }}^{jack}={\frac {1}{n}}\sum _{j=1}^{n}{\hat {\theta }}_{j}}

Estimación del sesgo y de la varianza

De la discusión del apartado anterior se tiene que

E [ θ ^ ( ) θ ^ ] = b n ( n 1 ) {\displaystyle \mathbb {E} [{\hat {\theta }}_{(\cdot )}-{\hat {\theta }}]={\frac {b}{n(n-1)}}}

por lo tanto multiplicando por n 1 {\displaystyle n-1} se tiene una estimación aproximada del sesgo de θ ^ {\displaystyle {\hat {\theta }}} :

B ^ ( θ ^ ) = ( n 1 ) ( θ ^ ( ) θ ^ ) {\displaystyle {\hat {\mathbb {B} }}({\hat {\theta }})=(n-1)({\hat {\theta }}_{(\cdot )}-{\hat {\theta }})}

Si al estimador θ ^ {\displaystyle {\hat {\theta }}} se le resta la estimación de su sesgo, se obtiene de nuevo el estimador jackknife

θ ^ B ^ ( θ ^ ) = θ ^ ( n 1 ) ( θ ^ ( ) θ ^ ) = n θ ^ ( n 1 ) θ ^ ( ) = θ ^ j a c k {\displaystyle {\hat {\theta }}-{\hat {\mathbb {B} }}({\hat {\theta }})={\hat {\theta }}-(n-1)({\hat {\theta }}_{(\cdot )}-{\hat {\theta }})=n{\hat {\theta }}-(n-1){\hat {\theta }}_{(\cdot )}={\hat {\theta }}^{jack}}

Dada la expresión del estimador jackknife como media de pseudovalores, una estimación natural de su varianza es 1 n S 2 {\displaystyle {\frac {1}{n}}S^{2}} , siendo en este caso S 2 {\displaystyle S^{2}} la cuasivarianza o variana muestral de los pseudovalores[4]

V ^ ( θ ^ j a c k ) = 1 n ( n 1 ) j = 1 n ( θ ^ j θ ^ j a c k ) 2 {\displaystyle {\hat {V}}({\hat {\theta }}^{jack})={\frac {1}{n(n-1)}}\sum _{j=1}^{n}({\hat {\theta }}_{j}-{\hat {\theta }}^{jack})^{2}} .

Esta expresión se usa también como estimación de la varianza de θ ^ {\displaystyle {\hat {\theta }}} .

Referencias

  1. Trivedi, P. K. (2005). Microeconometrics : methods and applications. ISBN 978-0-521-84805-3. OCLC 56599620. Consultado el 4 de noviembre de 2022. 
  2. Efron, Bradley (1992). Kotz, Samuel, ed. Bootstrap Methods: Another Look at the Jackknife (en inglés). Springer. pp. 569-593. ISBN 978-1-4612-4380-9. doi:10.1007/978-1-4612-4380-9_41. Consultado el 4 de noviembre de 2022. 
  3. McIntosh, Avery (1 de junio de 2016). «The Jackknife Estimation Method». arXiv:1606.00497 [stat]. Consultado el 4 de noviembre de 2022. 
  4. «Resampling methods: The jackknife». Montana State University (en inglés). 
Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q847158
  • Identificadores
  • NLI: 987007544310305171
  • Wd Datos: Q847158