La IA podría convertir la ciencia en algo incomprensible

Investigación UPV/EHU

Hace unos días un artículo preaceptado en la revista Nature nos hablaba de las maravillas del modelo de inteligencia artificial (IA) AlphaFold 3, que superaban en mucho a su versión anterior. Se trata de un sistema capaz de predecir la estructura de proteínas, ácidos nucleicos y moléculas pequeñas cuyo potencial para la medicina de precisión y la creación de medicamentos es enorme. Además, el uso de modelos –tanto predictivos como generativos– de IA para diagnóstico está produciendo resultados asombrosos.

Casi al mismo tiempo, se nos informaba en los medios del proyecto de creación en la Unión Europea de un centro de investigación en IA dedicado especialmente al desarrollo de sistemas útiles para la investigación científica.

Todo esto no ha hecho más que comenzar. Las consecuencias que la extensión del uso de modelos predictivos tendría para la ciencia desde el punto de vista epistemológico y metodológico es un asunto sobre el que hay un creciente interés.

ia
Esta imagen fue creada por Twistedpoly como parte del proyecto Visualizando la IA de Google DeepMind. Foto: Google DeepMind / Unsplash

En otro artículo publicado este año en Nature se señalan tres ilusiones a las que puede conducir una aplicación acrítica de la IA en la investigación científica:

  1. La ilusión de profundidad explicativa. Consistiría en hacer creer a los científicos que entienden más sobre un conjunto de fenómenos porque han sido predichos con exactitud por un modelo de IA.
  2. La ilusión de amplitud exploratoria. Consistiría en creer que lo que puede ser modelizado por la IA agota la realidad que ha de ser explorada.
  3. La ilusión de objetividad. Consistiría en creer que las herramientas de la IA eliminan cualquier elemento de subjetividad y representa a todos los puntos de vista relevantes.

Son tres peligros que habrá que esquivar. La pérdida de importancia de la comprensión profunda de los fenómenos en la ciencia es un riesgo. La ciencia ha buscado la explicación y la predicción. Cabe la posibilidad de que el enorme éxito predictivo conseguido a través de sistemas de IA –que se comportan como cajas negras, puesto que son incapaces de justificar sus resultados–, relegue a un segundo plano la capacidad explicativa.

Como resultado, perdería peso la elaboración teórica en la ciencia y la búsqueda de las causas.

Estos modelos predictivos pueden ser muy útiles en la práctica, puesto que son capaces establecer correlaciones precisas que nos avisen con bastante seguridad de cuándo puede suceder algo –cuándo está aumentando la incidencia de una enfermedad–, pero el precio a pagar podría ser la imposibilidad de desentrañar lo que ocurre para encontrar una explicación causal.

Es cierto que no todos los sistemas de IA que se emplean en investigación funcionan como cajas negras. También es cierto que las correlaciones halladas por los modelos predictivos podrían ayudar a encontrar, mediante investigaciones ulteriores, relaciones causales imprevistas, conexiones nuevas e incluso fenómenos no conocidos o no conceptualizados hasta entonces.

Sin embargo, el empleo cada vez más extendido de sistemas de IA que presentan lo que se ha denominado opacidad epistémica puede conducir a la merma en la comprensión de la realidad que nos procura la capacidad explicativa de hipótesis, modelos y teorías.

“Calla y calcula”

Se suele decir que la interpretación de Copenhague de la mecánica cuántica se resume en el mandato “calla y calcula”. Es una exageración, claro está, que buscaba que los físicos no se entretuvieran demasiado con las cuestiones de fundamento, ampliamente filosóficas, y se centraran en el éxito predictivo de la teoría. Cabría la posibilidad de que muchos científicos tomaran esa boutade como un mandato inevitable de la ciencia sometida a los designios de la IA.

Esta actitud podría tener consecuencias negativas en ciencias sociales y biomédicas, en las que se basan políticas públicas, y las decisiones que se tomen pueden afectar a la vida de las personas a causa, por ejemplo, de sesgos no detectados. Estas ciencias tratan sobre sistemas complejos en los que con frecuencia una pequeña variación en las condiciones iniciales puede llevar a resultados completamente diferentes.

¿Cómo decirle a un paciente que un modelo predictivo ha dado como resultado una alta probabilidad de padecer una enfermedad mortal de la que no muestra ningún síntoma, pero sin que haya posibilidad de darle ninguna explicación acerca de cómo el sistema ha llegado a tal conclusión? ¿Bastará con señalarle que el sistema es altamente fiable porque su éxito predictivo está bien constatado? ¿Debería un médico actuar de alguna manera o prescribir un tratamiento sin tener una garantía epistémica adicional que justifique su intervención?

Un resultado interesante a este respecto es que algunos estudios recientes han mostrado que las personas son favorables a priorizar la exactitud en las predicciones de los sistemas de IA frente a la explicabilidad de los resultados si tienen que elegir entre ambas cosas.

De esa elección entre explicación y predicción podrían decir mucho todas las ciencias basadas en modelos matemáticos, como la economía o la biología evolutiva. Pero, hasta ahora, incluso en esas ciencias los modelos cuantitativos buscaban establecer en la medida de lo posible relaciones causales, cosa que no es objetivo central de los modelos predictivos de IA, que solo buscan el acierto.

Sin embargo, la tentación de usar estos modelos predictivos es fuerte, puesto que los gestores de políticas públicas reclaman con frecuencia a los científicos sociales respuestas claras para los problemas acuciantes. Aquí se trata en el fondo de obtener respuestas fiables a problemas complejos, aún a costa de no entender bien por qué esa debe ser la respuesta correcta. Hay quienes abogan por una integración de ambos tipos de modelos, los centrados en la explicación causal y los centrados en la predicción. Está por ver cómo lograr tal cosa.

¿Hacia una ciencia ininteligible?

El uso generalizado de estos modelos en la ciencia afectaría también a la idea de que el progreso científico se basa en la elaboración de hipótesis revisables que van siendo sustituidas por mejores hipótesis. En ese proceso, como ya señaló el filósofo de la ciencia Larry Laudan, una ganancia explicativa puede compensar una cierta pérdida predictiva.

No menos perturbadora sería la tendencia a creer que lo no tratable mediante modelos de IA deja de tener interés para la propia ciencia. En último extremo, podría conducir incluso a una ciencia en buena medida ininteligible para los humanos, en el sentido de que tendrán resultados conseguidos mediante modelos no interpretables. Este cambio nos obligaría a replantearnos no ya solo qué noción de verdad es la que aceptaremos sino, incluso, si no tendríamos que abandonar el concepto como tal, contentándonos con la mera utilidad de una creencia.

No parece que el ser humano esté, de momento, capacitado para este cambio.

Todo esto son buenas razones para no poner todo el peso de la investigación en los modelos predictivos, por beneficiosos que puedan ser. Estos modelos han de ser completados con el uso de modelos explicativos y con la búsqueda de hipótesis explicativas contrastables. Una contrastación para la que los modelos predictivos pueden cumplir una importante función.

Otra cosa sería que finalmente pudiera lograrse abrir de algún modo esas cajas negras, quizás mediante otros sistemas de IA que no fueran a su vez ellos mismos cajas negras, o bien que pudiera alcanzarse en el futuro una IA transparente, en la que los algoritmos fueran capaces de dar cuenta cabal de sus resultados de un modo inteligible para los seres humanos. Es un objetivo en el que se trabaja con creciente atención por parte de la inteligencia artificial explicable (XAI), pero el camino es aún incierto. Ojalá seamos capaces de hallarlo pronto.The Conversation

Sobre los autores: Antonio Diéguez Lucena, Catedrático de Lógica y Filosofía de la Ciencia, Universidad de Málaga e Iñigo De Miguel Beriain, Investigador distinguido, Facultad de Derecho, Ikerbasque Research Professor, Universidad del País Vasco / Euskal Herriko Unibertsitatea

Este artículo fue publicado originalmente en The Conversation. Artículo original.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.Los campos obligatorios están marcados con *