La tesis de Duhem-Quine (y VI): La falsación ya no es lo que era

480px-Pied_Crow_(Corvus_albus)_closeup_from_front

Ya hemos tratado anteriormente en el Cuaderno los pies de barro del falsacionismo, notablemente en Las teorías científicas no son falsables, donde intentamos explicar que la falsabilidad es una actitud y no una característica de las teorías, o cuando pretendimos ilustrar los límites de los razonamientos confirmatorio y disconfirmatorio en Desviación de la luz y falsabilidad. Sin embargo, para una comprensión completa de nuestro razonamiento en ambos artículos era quizás necesario un conocimiento previo de la tesis de Duhem-Quine. Por ello en esta entrega final de la serie volvemos a recapitular el por qué la falsación ya no es lo que era, a saber, ese criterio fácil y lógico que nos permite distinguir lo científico de lo que no lo es, la hipótesis “correcta” de la “incorrecta”.

La aproximación falsacionista a la ciencia se asocia fundamentalmente con Karl Popper. El mismo Popper no asumía que el falsacionismo fuese el método científico definitivo; de hecho, no pensaba que hubiese un método científico definitivo. Lo que sí afirmaba es que la falsación era un elemento clave de la ciencia, un criterio clave con el que distinguir las teorías científicas de las que no lo eran. Pero profundicemos un poco más.

En general, el argumento de Popper es que la ciencia debe poner el énfasis en intentar la refutación de las teorías en vez de en la confirmación de las mismas. Según Popper es demasiado fácil encontrar pruebas confirmatorias de muchas teorías. Por usar uno de los ejemplos de Popper, tomemos el psicoanálisis freudiano: las “predicciones” hechas por esta hipótesis son lo suficientemente generales como para que cualquier acontecimiento pueda ser interpretado como una confirmación de la hipótesis. Por consiguiente, las pruebas confirmatorias de hipótesis de este estilo no tienen mucho significado (a estas alturas ya sabemos que ni confirmatorias ni disconfirmatorias).

Para Popper es necesaria la asunción de riesgos por parte de una hipótesis. Retomemos el ejemplo de Desviación de la luz y falsabilidad. La teoría de la relatividad general de Einstein predecía que la luz de una estrella debería sufrir una desviación cuando pasase cerca de un objeto masivo como el Sol. Y dado que esta desviación, si realmente tenía lugar, podía ser observada durante un eclipse solar, la teoría de Einstein hacía una predicción concreta, crucial, una predicción no hecha por ninguna teoría competidora y que podía demostrarse con relativa facilidad si era incorrecta (esto ya vimos en Desviación de la luz y falsabilidad que es muy matizable, pero así es como aparece en muchos libros de historia de la física). La hipótesis de Einstein era, en este sentido, muy arriesgada.

Como decíamos, en cierto sentido, para Popper cuanto más arriesgada es una teoría más científica es: por ello la teoría de la relatividad general de Einstein es mucho más científica que el psicoanálisis de Freud. En general, para Popper esta es la seña de identidad de la buena ciencia, a saber, la ciencia hace hincapié en la falsación frente a la confirmación, y debe formular hipótesis lo más arriesgadas que sea posible.

Por tanto, para Popper, como para muchos falsacionistas, dan igual todas las pruebas que parezcan confirmar una hipótesis, lo que caracterizaría a una buena hipótesis científica, una hipótesis de éxito, una teoría, es que sobreviva a intentos continuados de falsarla mediante la comprobación experimental de predicciones espectaculares y arriesgadas (cruciales) concretas.

Este es el planteamiento de Popper, en general, y el que muchos científicos tienen en mente en su aproximación a la ciencia, tal ha sido su éxito (que nosotros atribuimos a su simplicidad lógica que casa muy bien con la mentalidad físico-matemática). Ahora bien, vemos que esta argumentación hace aguas por todas partes si tenemos en cuenta la tesis de Duhem-Quine. Los casos de disconfirmación clara son mucho más raros de los que nos gustaría admitir. Como hemos repetido en varias ocasiones, en el caso de que un resultado no salga como se espera siempre se puede atribuir a una hipótesis auxiliar y, en muchos casos, lo más razonable es rechazar la hipótesis auxiliar y no la propia teoría.

En definitiva, si bien es innegable el papel que los casos de disconfirmación han jugado y juegan en la ciencia, los problemas asociados a este tipo de pruebas y que se recogen en la tesis de Duhem-Quine son lo suficientemente complejos como para poder afirmar que la disconfirmación, esto es, la falsación, no puede ser esa característica central en la ciencia que muchos piensan que es. Y es que la falsación ya no es lo que era. De hecho, es una actitud que no depende de la hipótesis.

I Introducción

II El tribunal de la experiencia

III El experimento crucial que nunca existió

IV La subdeterminación de las teorías

V Los métodos de la ciencia

VI La falsación ya no es lo que era

Sobre el autor:César Tomé López es divulgador científico y editor de Mapping Ignorance

1 Comentario

Deja un comentario

Orlando S. MarotoOrlando S. Maroto

Enorme serie de @EDocet RT : La tesis de Duhem-Quine (y VI): La falsación ya no es lo que era – t.co/KdZq7DTvw6

Deja un comentario

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>