Experimentación y evidencia: dos visiones opuestas

Fronteras

La aproximación que tuvo éxito a la hora de descifrar las comunicaciones alemanas durante la Segunda Guerra Mundial se basaba en el teorema de Bayes no en la frecuencia pura de las señales. En la imagen, reproducción de «la bomba», la máquina que permitía descifrar los mensajes de Enigma, el sistema de codificación alemán. Fuente: Ted Coles/Wikimedia

Anteriormente, hablábamos de estándares de evidencia científica y del problema filosófico de la inferencia inductiva; de cómo Ronald Fisher, hace un siglo, promovió métodos —como los contrastes de hipótesis— que evaden el problema, y adelantábamos que dichos métodos suponen una aproximación frecuentista a la realidad. A continuación abundaremos en el problema metodológico que plantean la medida y la estimación estadística de la (in)certidumbre, y que tiene su raíz en el concepto mismo de probabilidad. Esto da lugar a dos visiones opuestas aunque, como veremos, estrechamente relacionadas, lo que en estadística se denomina frecuentismo vs. bayesianismo.

La probabilidad, en su definición más básica, es una medida de la certidumbre asociada a un suceso futuro. Aquí por suceso entendemos eventos que bien pueden ser simples, como la probabilidad de obtener “cara” al lanzar una moneda, o complejos, como la probabilidad de que un jugador de fútbol marque un penalti. Esta es la única definición operativa para la aproximación frecuentista, en la que la probabilidad de un suceso es simplemente la frecuencia relativa de dicho suceso cuando el experimento se repite infinitas veces. Es decir, si tirásemos infinitas veces una moneda ideal, obtendríamos “cara” la mitad de las veces, por lo que decimos que la probabilidad de “cara” (dada una moneda ideal) es de 0.5.

Por tanto, la aproximación frecuentista se dedica a responder a Pr(D | H), esto es, la probabilidad de ciertos datos asumiendo cierta hipótesis: ¿es normal obtener 58 caras y 42 cruces en 100 lanzamientos si la moneda no está trucada? Las limitaciones saltan a la vista: ¿qué me dice esto respecto a asumir que la moneda está trucada?, ¿cómo de trucada?, ¿cómo cambia mi conocimiento sobre esta cuestión si hago otros 100 lanzamientos y obtengo, por ejemplo, 47 caras y 53 cruces? Como vimos al hablar de p-valores, lo más a lo que podemos aspirar es a rechazar que no esté trucada, y si no lo logramos, no obtenemos ninguna información.

¿Podemos hacerlo mejor? Así lo afirma la aproximación bayesiana. Para ello, necesitamos extender la definición de probabilidad, que ahora pasa a ser la certidumbre asociada a una hipótesis dada cierta evidencia disponible: ¿qué certidumbre tengo de que la moneda (no) está trucada si obtengo 58 caras y 42 cruces en 100 lanzamientos? Dicho de otra manera, el enfoque bayesiano se ocupa de Pr(H | D), de las preguntas de la ciencia. No obstante, resulta paradójico que ambas corrientes —deductiva vs. inductiva— se encuentren irreconciliablemente unidas mediante un resultado fundamental de teoría de la probabilidad: el teorema de Bayes.

La probabilidad frecuentista se transforma en la probabilidad bayesiana, o a posteriori, simplemente multiplicando por Pr(H), que no es otra cosa que la información a priori que disponemos del problema en cuestión. La inclusión de este factor, que no está exento de sutilezas, pone muy nerviosos a los frecuentistas, ya que lo ven como una fuente de subjetividad y de sesgos que no tiene lugar en un análisis estadístico. A esto, los bayesianos replican que el frecuentismo no soluciona este problema, sino que simplemente evita la pregunta.

Así pues, el enfoque frecuentista puede verse como un caso particular del bayesiano con un conjunto de suposiciones implícitas que no son necesariamente buenas. Por el contrario, a través del teorema de Bayes se hace explícita esta elección, lo que da enormes ventajas tanto filosóficas (se responde directamente a la pregunta que nos interesa) como metodológicas (por ejemplo, es sencillo y directo actualizar mi grado certidumbre sobre la hipótesis cuando obtengo nuevos datos o nueva información), ventajas que se hacen más evidentes cuando las preguntas que nos hacemos y los modelos que planteamos son más y más complejos.

Entonces, ¿cuál es la moraleja? ¿Es el frecuentismo erróneo? No necesariamente. Pero sí es cierto que sus métodos, numerosos y diversos, se prestan con más facilidad a una elección, uso o interpretación incorrectos, incluso entre expertos, y en determinados contextos esto lleva a conclusiones erróneas. Es por ello que muchos de sus detractores lo consideran perjudicial para la ciencia y promueven el bayesianismo como solución. No obstante, hoy en día, todavía los cursos introductorios a la estadística de cualquier carrera universitaria siguen siendo superficialmente frecuentistas.

Sobre el autor: Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute

2 comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada.Los campos obligatorios están marcados con *