Sobre la ciencia y sus medidas

Firma invitada

Foto: Gabriel Sollmann / Unsplash

La ciencia es una de nuestras fuentes de conocimiento más fiables y esto se ve reflejado en la autoridad que se le concede en nuestra sociedad. Los escándalos que han salido a la luz en la prensa esta semana pasada ponen de manifiesto algunas limitaciones de nuestras instituciones científicas. Por ejemplo, el desmesurado énfasis que la evaluación de la ciencia pone en el número de artículos (con investigadores que publican uno cada pocos días), así como los efectos perversos que esto tiene sobre los rankings (con la “compra” de afiliaciones universitarias para poder escalar puestos). En un mundo ideal, estos problemas no debieran existir, pero, cuando suceden, es bueno que los casos salgan a la luz para poder reflexionar sobre sus causas e intentar darles solución. Pero puede suceder también que, al intentar generalizar a partir de estos casos, los árboles no nos dejen ver el bosque, proponiendo soluciones inefectivas por no abordar el origen del problema.

Creo que en el debate sobre los escándalos nos estamos concentrando en los árboles, si es posible publicar tanto, si es inmoral cobrar por adscribirse nominalmente a otra universidad, etc., y estamos ignorando el bosque. Y esto es así por dos razones: estos no son los problemas fundamentales de la ciencia en España y en tanto en cuanto estas prácticas son un problema, estamos fijándonos en el aspecto equivocado.

La falta de supervisión ética en ciencia

Vayamos con el primer punto. ¿Son los problemas de la corrupción de autorías o rankings universitarios los más significativo de la ciencia española? Si lo son, no parecen serlo porque haya montones de profesionales de la ciencia o de universidades españolas que se dedican a realizar estas prácticas. En realidad, ninguna universidad española se encuentra entre las 100 más valoradas del mundo y parece que los números de superpublicadores o de quienes utilizan malas conductas científicas son escasos.

Digo parece, porque en realidad España carece de un organismo que supervise, desde el punto de vista ético, la producción científica. Y este es un problema importante. A diferencia de muchos otros países, España no cuenta con una oficina que inspeccione la integridad científica, que investigue de manera independiente cuando se sospecha mala conducta científica y que tenga poder para sancionar a los individuos o instituciones que cometen violaciones de las practicas apropiadas. Existen, es cierto, Comités Éticos de Investigaciones Clínicas, pero su función fundamental es proteger los derechos y bienestar de los participantes en investigaciones en humanos. Y aunque las universidades y centros de investigación pueden tener Comités que investigan la integridad científica, no existen en España ni unos estándares específicos que se puedan utilizar, ni un requisito de que se creen estos comités. De hecho, no existe ningún requisito de formación en la ética de la investigación que se exija a quienes se dedican a ella.

Otro problema significativo que se ha perdido en la discusión es que quienes se dedican a la ciencia en España hacen limonada con los limones que el sistema les ofrece. El volumen de publicaciones científicas de España compite con el de muchas potencias científicas del mundo. Esto es así, a pesar de los muchos problemas que tiene la ciencia en España. Por ejemplo, a pesar de las mejoras en financiación, la inversión de España en ciencia e innovación está todavía por debajo de la media europea. La precariedad en los contratos es la norma en vez de la excepción, lo cual lleva a muchos a marcharse a otros países donde encuentran más oportunidades. Si la situación es mala en general, es particularmente mala para las mujeres cuyos números en los puestos de catedrático y profesor de investigación, no llega al 25 por ciento, a pesar de que su presencia en la ciencia es del 42 por ciento. Las burocracias académicas hacen perder tiempo y esfuerzo sin que parezca que mejoren la calidad de la ciencia o el bienestar de quienes se dedican a ella. España tiene también problemas con la transferencia del conocimiento, en parte porque no se fomenta las colaboraciones público-privadas y en parte porque no hay muchas empresas con las que colaborar.

Un problema estructural

Segundo, dejando de lado la discusión de lo que es verdaderamente pernicioso en la situación de la ciencia en España, la forma en la que se ha presentado el debate sobre autorías y rankings da la impresión de que al final, el problema principal es que hay individuos, universidades o empresas corruptos. Pero el problema es estructural y se origina en nuestros métodos para evaluar la calidad de la investigación.

Por principio, tales métodos debieran evaluar si se cumplen los objetivos centrales de la investigación, el progreso del conocimiento y, en particular, la producción de conocimientos útiles o relevantes. Estamos interesados en que, por ejemplo, las ciencias biomédicas nos ayuden a entender la biología humana, pero también en que nos permitan mejorar nuestra salud. De las ciencias sociales esperamos que nos expliquen cómo funcionan nuestros sesgos cognitivos o dinámicas grupales, pero también que nos den pistas sobre cómo mejorar nuestra organización social. De las ciencias físicas queremos conocer la estructura fundamental pero también que nos ofrezca la posibilidad de desarrollar instrumentos prácticos.

Establecer en qué consiste la utilidad o relevancia de una investigación no es fácil. Además, la evaluación de la calidad de la investigación es una tarea multidimensional: queremos decidir qué áreas de investigación o qué proyectos priorizar, identificar áreas científicas particularmente innovadoras, pero también establecer criterios que ayuden a determinar a quién premiar individualmente: con ascensos y cátedras, con becas o fondos de investigación, con reconocimiento en sociedades profesionales. Para simplificar este enredo, las instituciones científicas se han concentrado en criterios de evaluación fácilmente medibles, como, por ejemplo, los indicadores bibliométricos: número de artículos, veces que se citan, el factor de impacto de las revistas donde se publican.

Empezamos a darnos cuenta más y más que algunos de estos indicadores no son siempre medidas fiables de la calidad de la investigación. Pero nadie puede extrañarse de que, si las instituciones premian las autorías de artículos, esto lleve a quienes se dedican a la investigación a esforzarse en acumular todos los artículos que les sea posible. Si una buena posición en un ranking permite a una universidad atraer financiación, estudiantes o profesores ¿qué hay de raro en que proliferen las clasificaciones de universidades y se multipliquen las formas para trucarlas? El problema no se limita, por tanto, a que unas pocas personas “se corrompan” y publiquen de manera exorbitante o a que unas pocas instituciones se dediquen a trucar las reglas para incrementar sus rankings. El problema es que quienes se dedican a la ciencia tienen pocas posibilidades de éxito si no siguen las reglas del juego de la evaluación.

Por supuesto, los indicares bibliométricos captan elementos muy importantes de la calidad científica. Pero deberíamos pensar que las decisiones sobre qué medir vienen acompañadas de consecuencias: se mide esto, pero no aquello. Lo que se mide se valora, lo que no, se deja de lado, no importa su relevancia. Este problema se pone de manifiesto en la continua dejadez que se expresa por las humanidades, para las que la obsesión con el medir es particularmente pernicioso.

Deberíamos por lo tanto también pensar en esos otros elementos que nadie se ha preocupado de medir. Se computan autorías y citas, pero no tanto el tiempo que se dedica a formar a nuevas generaciones de investigadores e investigadoras, o el esfuerzo que se invierte en eliminar obstáculos para grupos, como –por ejemplo– las mujeres, que tienen dificultades para ingresar y progresar en la carrera científica. Se cuenta la financiación recibida, pero poco valor se les da a las labores esenciales sin las que los laboratorios no podrían funcionar adecuadamente o sin las que ciertas investigaciones no se podrían hacerse, como, por ejemplo, la obtención de muestras humanas en las que a veces participan profesionales de la salud. Se mide el número de publicaciones, pero poco nos preocupamos de si la ciencia que se publica mejora la calidad de vida de las personas más desfavorecidas.

La imperiosa necesidad de reestructurar

¿De quién es la responsabilidad de asegurarse de que los criterios que se utilizan para evaluar la producción científica sean adecuados? No de los individuos particulares sino de las agencias que subvencionan la investigación, de las instituciones académicas que deciden los requisitos de promociones e incentivos, de las sociedades profesionales que determinan los criterios para conceder honores. Las instituciones evaluadoras han decidido que, en vez de desarrollar criterios que nos den la mejor indicación posible de cómo promover los objetivos centrales de la ciencia, hay que centrarse en lo que es más fácil medir y esperar que lo que estamos midiendo sea un buen indicador de la calidad de la producción científica. En algún sentido, la evaluación científica se comporta como el borracho que busca la moneda que ha perdido debajo de una farola, no porque es ahí donde la ha perdido, sino porque ahí es donde hay luz.

En realidad, lo que necesitamos con urgencia es una reestructuración del sistema de evaluación de la ciencia. Lo que se necesita es llevar a la mesa a gente con experiencias, conocimientos y habilidades diversas, a personas involucradas en varios sectores de la sociedad, academia, ciencia, empresas, el público. Lo que se necesita es dedicar un poco más de tiempo y cuidado a determinar qué es lo que queremos de la ciencia, qué medidas serían más apropiadas para conseguirlo y qué sistemas de evaluación nos darían mas posibilidades de incentivar y premiar aquello que realmente valoramos. Esta no es una tarea fácil, pero eso no es razón para no embarcarse en ella.

Nada de lo que he dicho se ofrece como justificación de la mala conducta científica de individuos o instituciones. No he dicho tampoco que los indicadores de calidad que actualmente valoramos estén completamente equivocados. Al fin y al cabo, la ciencia continúa ofreciéndonos conocimiento fiable, despertando nuestra curiosidad y ayudándonos en nuestras vidas. Claramente, hay cosas que se están haciendo bien. La cuestión es pensar cómo lo podríamos hacer mejor.

Para saber más:

Los males de la ciencia

Sobre la autora: Inmaculada de Melo Martín es Catedrática de Ética Medica en Weill Cornell Medicine—Universidad de Cornell (Nueva York, EE.UU.)

Deja una respuesta

Tu dirección de correo electrónico no será publicada.Los campos obligatorios están marcados con *