“Son once contra once”, “No hay rival pequeño” o “Un partido no termina hasta que el árbitro pita el final” son solo algunos de los tópicos asociados al fútbol que oímos incansablemente a jugadores, entrenadores, analistas y portavoces de clubes deportivos. Pero detrás de estas declaraciones enlatadas y reutilizadas hasta la extenuación se esconde una reflexión de cierto calado: el fútbol es un juego en el que intervienen variables muy diversas y, por este motivo, disponer de los mejores jugadores, del mejor equipo técnico o de los mejores servicios médicos no garantiza la victoria. Por más que se prepare un partido siempre hay elementos que escapan del control de los protagonistas. Una lesión fortuita de la estrella del equipo, un arbitraje desafortunado o un espontáneo que salta al terreno de juego y obliga a suspender el encuentro. En definitiva, la incertidumbre también juega. Los profesionales del fútbol lo saben y por eso se dedican a dibujar esquemas de juego en la pizarra, a estudiar concienzudamente a los rivales, a ensayar disparos desde el punto de penalti o a preparar jugadas con el objetivo de intentar sustituir el azar por el conocimiento. Pero ¿de verdad son la incertidumbre y la ciencia rivales tan irreconciliables?
El antagonismo secular entre el devenir de la fortuna y la sabiduría, entre la ciencia y la incertidumbre, ha sido el punto de partida de la charla “Hacer predicciones es muy difícil, sobre todo las del futuro” con la que la catedrática de Economía Aplicada de la UPV/EHU, Eva Ferreira, ha repasado la evolución de los vínculos entre lo que sabemos y lo que predecimos desde los tiempos de los faraones hasta el momento presente. La intervención se ha desarrollado en el marco del evento de divulgación científica Naukas Bilbao, que ha tenido lugar los días 20 y 21 de septiembre en el Palacio Euskalduna de la capital vizcaína.
“El desarrollo del conocimiento científico no ha tenido en cuenta la gestión de la incertidumbre hasta hace bien poco. El cálculo de probabilidades comienza en el siglo XVII y la extensión a todas las ramas del conocimiento no llega hasta el siglo XX”, ha asegurado Ferreira, quien ha detallado que fue en el pasado siglo cuando se introdujo la “consideración de que la mayoría de las medidas son inciertas” a un paradigma hasta ese momento centrado en “un desarrollo científico casi totalmente determinista”.
De acuerdo con el relato de Ferreira, “el uso de la inferencia estadística” ha hecho posible establecer patrones usando muestras seleccionadas y controlar las probabilidades de error, un modelo que se basa en la existencia de datos y en la habilitación de métodos efectivos para su sistematización. Los datos y su gestión como antídoto a la incertidumbre.
En la actualidad existe abundante y sofisticada tecnología para gestionar cantidades ingentes de información, procesarlas, jerarquizarlas, analizarlas, extraer conclusiones y optimizar los procesos de toma de decisiones.
“Oír los términos Big data, inteligencia artificial, revolución digital, machine learning es muy común cuando se habla del modelo de negocio de una empresa, de la selección de personal, de inversiones financieras, de estrategias políticas, de marketing… La publicidad de quienes diseñan algoritmos para estos fines nos habla de dejar atrás la improvisación y el caos para disfrutar del marketing predictivo”, ha apostillado la experta, que, sin embargo, advierte de los riesgos de asignar a las herramientas -por avanzadas y precisas que estas sean- capacidades de las que carecen: “La gestión sistemática de datos tiene una importancia enorme, pero corremos el riesgo de atribuirle a los instrumentos propiedades que no tienen”.
Para abundar en este tema, Ferreira ha explicado que conferir propiedades predictivas a los datos y a su sistematización es osado porque para que esto fuera cierto no se deberían producir transformaciones sociales o cambios de conducta.
“Nuestro comportamiento puede cambiar según los datos que tenemos a disposición. De hecho, no hace falta decir que nuestras preferencias, nuestro comportamiento y las decisiones que tomamos pueden cambiar en función de la información que recibimos”, agrega.
En su opinión es imprescindible, por tanto, construir modelos dinámicos, que incluyan información tanto cuantitativa como cualitativa, procedente de fuentes diversificadas y pasada por el tamiz de las distintas ramas del conocimiento.
“Hay multitud de ejemplos que nos ilustran cómo el tratamiento de datos debe ir de la mano de la reflexión previa. La debacle de Nokia, el algoritmo de Amazon que no reclutaba mujeres, las burbujas financieras… nos recuerdan una máxima muy sencilla: que ningún algoritmo que se base únicamente en el pasado, predecirá por sí mismo algo que nunca antes haya sucedido”, concluye Ferreira.
El fútbol y las predicciones son así: una apasionante mezcla de ciencia, técnica e incertidumbre.
Sobre la autora: Marta Berard, es periodista, responsable de contenidos de la agencia de comunicación GUK y colaboradora de la Cátedra de Cultura Científica de la UPV/EHU.