Andrea Saltelli: "La ciencia nunca se pensó para el mercado, pero hoy es una mercancía"

Núria Jar. Observatorio Social de La Caixa

Pie de foto: Andrea Saltelli

Andrea Saltelli (Italia, 1953) es profesor visitante en el Centro para el Estudio de las Ciencias y las Humanidades de la Universidad de Bergen (Noruega) e investigador invitado en el Institut de Ciència i Tecnologia Ambientals de la Universitat Autònoma de Barcelona. Junto con el filósofo Silvio Funtowicz ha publicado recientemente una serie de escritos sobre la post-verdad.

Todo el mundo habla de una crisis en la ciencia... ¿en qué consiste esa crisis?

En primer lugar, hay una crisis de reproducibilidad, que es especialmente evidente en medicina, y me refiero a la posibilidad de que un estudio genere los mismos resultados si se reprodujera exactamente. Se han escrito muchos artículos por parte de personas que intentaron reproducir experimentos y se toparon con la decepción de que muchos fallaron. Por ejemplo, John Ioannidis y otros autores han intentado reproducir experimentos preclínicos y clínicos.

¿Cuáles son las causas de esta crisis?

Este es un debate que queda muy abierto, porque las causas son múltiples. La principal es que la ciencia nunca se pensó ni se concibió para el mercado. Pero hoy en día es una mercancía: está en el mercado y se paga un precio por ella. El historiador Philip Mirowski ha explicado este proceso en un libro titulado Science-Mart. Privatizing American Science [El mercado científico: la privatización de la ciencia en EE UU] que, mediante un juego de palabras a partir de Wal-Mart, la conocida cadena estadounidense de grandes almacenes baratos, expresa que cuando la ciencia se convierte en un supermercado, cuando es prácticamente una mercancía que se vende libremente, la calidad desaparece.

¿Es algo que esté ocurriendo en todas las disciplinas?

Afecta a todas, pero se aprecia especialmente en psicología. El premio Nobel Daniel Kahneman, autor del libro Thinking, Fast and Slow [Pensar rápido, pensar despacio], fue el primero en detectar que algo estaba yendo realmente mal, porque los experimentos no se podían reproducir. Auguste Comte, un filósofo de mediados del siglo XIX, pensaba que las ciencias se clasifican según una jerarquía basada en su mayor o menor proximidad a leyes exactas. De manera que, en lo alto de la pirámide, están las matemáticas, la geometría, y después viene la física, la química, la biología y las ciencias sociales. Cuanto más se aleja uno de la cúspide, de las leyes exactas, más se acerca a dominios en los que las cosas son más confusas y complejas. Casi dos siglos después de Comte, Daniele Fanelli comparó los índices de reproducibilidad de diferentes disciplinas. Descubrió que cuanto más desciendes por la jerarquía científica, más aumentan los resultados positivos, lo cual confirmó su hipótesis de que las disciplinas «blandas» sufren más sesgos.

En este sentido, ¿dónde están los límites de la ciencia?

La ciencia no puede resolver todos los problemas. El reduccionismo consiste en pensar que, si se toma un sistema complejo, se divide en pequeñas partes y se estudian todas ellas, se comprenderá el conjunto del sistema. Pero hay sistemas que no pueden abordarse de ese modo, por ejemplo, los sistemas vivos. Para poder estudiar un sistema biológico hay que delimitarlo de alguna manera. Pero, ¿cómo se delimita? En los organismos, todo está interconectado

Sé que decir esto es bastante polémico, pero es una situación que se repite una y otra vez con el clima, fenómeno demasiado complejo como para llegar a predecirlo de manera fiable mediante modelos matemáticos. Cuando un sistema presenta tantas causas concomitantes posibles, los efectos pueden neutralizarse mutuamente o quedar ocultos detrás de la variabilidad natural. En la década de 1960, alguien llamó a esto transciencia, para aludir a procesos que pueden estudiarse científicamente, pero cuyos problemas no pueden solucionarse. Hay problemas que, por su propia magnitud, no podemos solventar. La ciencia tiene que aprender a ser humilde y estar dispuesta a admitirlo cuando no puede dar una solución.

Para solucionar un problema tan enorme, ¿podrían ser útiles consorcios constituidos por diversos centros y países?

Bueno, por ejemplo, el Proyecto Genoma Humano fue un éxito, pero ha resultado mucho más difícil demostrar que del mapa del genoma humano podamos inferir relaciones entre genes y enfermedades. Y éste es precisamente uno de los casos en los que un sistema se ha comportado de manera compleja y con propiedades que van surgiendo sobre la marcha: son propiedades que no se detectan dividiéndolo en trozos e identificando un par de genes. Me parece que esa es la razón de que las empresas emergentes que han tratado de hacer negocios utilizando cartografía genética hayan sufrido grandes decepciones. No estoy diciendo que eso no deba intentarse, sino que hay que tener cuidado de no caer en la trampa del reduccionismo.

¿La posverdad está llegando también a la ciencia?

Este asunto de la posverdad es poco creíble. ¿Por qué tenemos posverdad ahora? ¿Porque antes teníamos verdad? La verdad es que lo dudo mucho. La ciencia nació en el siglo XVII cuando se conjugó el deseo de descubrir la naturaleza, por el puro y simple placer de descubrirla, y el de dominarla. Ambos aspectos contribuyeron a que la ciencia se convirtiera en la base del Estado moderno. Pero cuando se desarrollaron los Estados modernos, la ciencia fue convirtiéndose en un instrumento para la dominación, el beneficio y el crecimiento, así como en el origen de toda clase de cosas magníficas de las que ahora disfrutamos. La ciencia ya no nace del deseo de conocer.

Entonces, en estos tiempos, ¿para qué sirve la ciencia? ¿Es para el bien común o para el provecho de unos pocos? Se ha derrumbado, por una parte, el acuerdo que daba legitimidad a la ciencia y la democracia, y, por otra, la legitimidad de la propia gobernanza científica. Esto tiene que ver con la conversión paulatina de la ciencia en un producto de mercado, incluso en un mercado en sí misma. De manera que, para mí, detrás de la posverdad hay dos procesos: la pérdida de legitimidad de la ciencia y el conocimiento, en tanto pilares del Estado moderno, y el derrumbe de la calidad de la propia ciencia.

Parece que la confianza y la seguridad que inspiran los expertos se están erosionando... ¿Por qué?

Un ejemplo clásico a este respecto es el tema del azúcar. Es explosivo y me sorprende que haya pasado prácticamente desapercibido. La gente está perdiendo poco a poco la fe en la ciencia, pero yo esperaba una reacción mucho más airada, porque la noticia es impresionante. El año pasado la revista de la Asociación Médica de Estados Unidos publicó un informe que revelaba que la industria azucarera había financiado investigaciones sobre la grasa, para apartar la atención del azúcar. ¿Se puede usted imaginar las consecuencias que ha podido tener esto para la salud? ¿Y si calculáramos cuántos años de vida se han perdido, por ejemplo, por la diabetes, a causa de esta gigantesca corrupción de la integridad científica?

¿Qué papel tienen los científicos, comom individuos, en esta crisis?

Es relativamente fácil malinterpretar las cosas y pensar que has descubierto algo. El físico Richard Feynman declaró que «la persona más fácil de engañar es uno mismo», porque cuando buscas algo, todo te parece que tiene que ver con eso que buscas. A esto se le llama sesgo de confirmación y significa que los científicos tienden a creerse los resultados que desde el principio pensaron que obtendrían.

¿Se pueden evitar esos sesgos?

Hay que ser tenaz, pero también obsesionarse con la calidad y la precisión de lo que haces. El pensador Jerome Ravetz ha entendido muy bien a los científicos y sus comunidades de práctica. Todo lo que haces en el laboratorio se compone de muchos elementos que no están en los manuales y que deben comunicarse de forma personal. Es el componente tácito que tiene todo oficio. En la ciencia, en esas comunidades, todo es personal. Pero hoy en día esas comunidades prácticamente han desaparecido. La ciencia se ha vuelto impersonal. Yo puedo publicar un artículo y no me importa equivocarme, porque, después de todo, la gente me conoce por mi índice de impacto. Cuanto más elevado sea, más brillante seré; así que lo que a mí me interesa es publicar muchos artículos, aunque sean erróneos. Y así se cometen errores que pueden mantenerse en el sistema durante años sin que nadie los llegue a detectar.

¿Quienes están en la vanguardia científica suelen equivocarse más?

Quienes están realmente en la vanguardia científica constituyen pequeñas comunidades que suelen cometer menos errores. En ellas, la ciencia puede alcanzar éxitos espectaculares. Pienso, por ejemplo, en la física de alta energía o en el descubrimiento de las ondas gravitatorias. Son triunfos, hitos realmente imponentes que se consiguen gracias a la tenacidad de los físicos.

En su opinión, ¿qué soluciones podría tener esta crisis?

Hay mucha gente valiosa realizando buenas investigaciones, que está intentando cambiar el sistema desde dentro. Munafó, Ioannidis, y otros autores publicaron hace poco A manifesto for reproducible science [Manifiesto por una ciencia reproducible]. Deberíamos realmente dejar de utilizar cosas como los índices de impacto y el factor de citación, que supuestamente describen la importancia de las revistas y los investigadores. Por otra parte, el sistema de evaluación por pares también se ha vuelto disfuncional. Hay recomendaciones para cambiar la situación y yo estoy absolutamente a favor de esos enfoques. Necesitamos algo muy eficaz, porque no creo que el sistema se pueda curar solo.

¿Existe alguna iniciativa colectiva para intentar solucionar estos problemas?

Se ha producido una importante declaración contra el uso de los índices de impacto para conceder becas. Si consultamos la Declaración de San Francisco sobre Evaluación de la Investigación (Declaración DORA) de 2012, comprobaremos que es un documento muy importante y que ofrece un conjunto muy bien pensado de recomendaciones métricas, pero nadie las aplica, ni siquiera parcialmente. Si yo quiero obtener una ayuda del European Research Council se fijaran en mi índice de impacto. Lo cual nos lleva a la paradoja de que la gente como yo, a la que no debería importar cuántas veces le citan, tiene mucho cuidado con ese índice.

Aunque ideológicamente estés convencido de que esas cosas son negativas, sigues utilizándolas, y las instituciones que otorgan ayudas a la investigación también las utilizan. ¿Por qué se fijan en el índice de impacto? Porque la única alternativa sería leerse los artículos de los candidatos, y para eso hace falta tiempo. En muchos países, para acceder al título de doctor se pide a los estudiantes que tengan tres artículos aceptados en revistas con evaluación por pares, con lo que incluso la evaluación de la calidad de los candidatos, en lugar de recaer en los profesores del centro, se desplaza a las revistas. Lo que todas esas fuerzas impulsoras consiguen es que se publiquen 2 millones de artículos al año, es una enorme fábrica de artículos.

¿Es usted pesimista a este respecto?

Sí, soy más pesimista que optimista. A pesar de todas esas declaraciones y manifiestos que acabo de mencionar, será muy difícil combatir los incentivos perversos que apuntan en la dirección del engaño. Si amas la ciencia, tienes que defenderla, y para eso hay que ser crítico. Pero mucha gente prefiere ocultar el problema, porque, según dicen, si atacas a la ciencia pondrás en peligro su financiación. Pero yo no me opondría a poner en peligro la financiación de la ciencia si estamos hablando de una práctica científica indebida. ¿Por qué debemos pagar una ciencia de mala calidad?

Teniendo en cuenta el contexto que describe, ¿podemos identificar iniciativas que hayan conducido a una mejora a nivel del sistema? ¿O alguna buena práctica que ya esté en marcha para mejorar la situación actual?

Tenemos noticia –irónicamente, no como una sugerencia para Occidente– de que en China, si se falsean los datos de las pruebas sobre medicamentos, se arriesga uno a acabar en la cárcel o incluso a la pena capital.

Ironías al margen, iniciativas como el proyecto de reproducibilidad de Brian Nosek en psicología, el centro de innovación en metainvestigación de John Ioannidis en Stanford o el proyecto alltrials.net de Ben Goldacre no solo están bien encaminadas para empezar a cambiar las cosas, sino que fomentan un nuevo clima de transformación. A esto hay que añadir el blog Retraction Watch, una herramienta inestimable para que las revistas especializadas y sus directores no bajen el nivel de exigencia. También estoy convencido de que si los científicos se involucran directamente tomando partido por los ciudadanos en los problemas sociales y medioambientales, contribuirán decisivamente a generar confianza entre ciencia y sociedad. Pienso por ejemplo en el científico Mark Edwards y el caso de la contaminación del agua en Flint, Michigan. En los años setenta, un grupo de científicos británicos constituyeron una sociedad, la British Society for Social Responsibility in Science, para velar por la responsabilidad social en la ciencia con el propósito de cambiar primero la ciencia para después cambiar el mundo. Quizá sería necesario algo parecido en la actualidad.