26 El oficio de la duda

A lo largo del libro he tratado de describir las distintas propuestas filosóficas con ecuanimidad, mostrando sus fortalezas y sus limitaciones. Sin embargo, en este capítulo, que pretendo que sirva como resumen de lo creo haber aprendido, mostraré mi punto de vista, que es el de un científico concreto con una dilatada experiencia en genética y sin conocimientos previos de filosofía.

26.1 Problema y asunciones

Acepto las tesis de que existe un mundo externo a mi mente y de que al menos algunos aspectos de ese mundo son cognoscibles. La tesis filosófica del escepticismo radical no es descartable de un modo absoluto, pero, simplemente, la considero improductiva y, además, ni creo que haya ningún solipsista honesto ni tampoco tengo interés en las discusiones metafísicas relativas al idealismo (la tesis filosófica que confiere supremacía a lo mental frente a la existencia de lo material).

Además, también creo que el mundo externo tiene un cierto orden, es un cosmos con un logos coherente. El cosmos está caracterizado por patrones reales comprimibles y, más o menos estables. Es decir que esos patrones pueden ser descritos utilizando menos información de la que sería necesario utilizar si habitásemos en un caos absoluto. Por ejemplo, puedo describir una bolita de hierro dando su composición, diámetro, velocidad y posición. Esta limitada información me permite anticipar gran parte de su comportamiento a pesar de que no sé cuales son las posiciones y velocidades de cada uno de sus átomos.

Los patrones que comprenden el logos, el orden del cosmos, tienen estructuras a distintas escalas, desde las que se corresponden con los campos cuánticos a las galácticas, pasando por los gatos o los ecosistemas.

Nosotros también formamos parte del cosmos, pero desde el punto de vista epistemológico conviene dividir el mundo en dos sistemas: el que genera y alberga conocimiento y el resto del mundo, que es lo que estoy denominando mundo externo.

El investigador no tiene un acceso directo al logos, no podemos aprehender directamente el orden del cosmos, pero sí somos capaces de interaccionar con el mundo externo para obtener información sobre él. En esta información puede haber regularidades que reflejen, indirectamente, la estructura presente en los patrones que caracterizan el mundo externo. Además, disponemos de metodologías que nos permiten inferir estas regularidades. Es así como la información obtenida del mundo externo se convierte en percepciones, hipótesis, teorías, leyes, objetos, procesos, categorizaciones o clasificaciones taxonómicas, es decir, en mapas que tratan de reflejar el orden del mundo externo, del territorio.

La necesidad de anticipar las regularidades presentes en el mundo externo es antigua, apareció junto a la vida. La supervivencia de un ser vivo depende de explotar los recursos presentes en el mundo externo y para ello utiliza mapas que reflejan las regularidades del territorio. Utilizamos mapas cuando percibimos un tomate en la ensalada o cuando un mejorador utiliza la genética mendeliana para crear nuevas variedades comerciales de tomate. Por supuesto, estos no mapas no se han creado con el mismo rigor, unos son percepciones cotidianas y los otros son conocimiento científico, pero el principio subyacente es el mismo: existe un sistema, el conocedor, que ha utilizado una información para generar un mapa sobre la estructura del territorio. Estos modelos nos permiten predecir, hasta cierto punto, qué ocurrirá si llevamos a cabo una acción u otra. Es decir, posibilitan que actuemos con eficiencia, que nos movamos con éxito por el territorio. Somos lo que Dennett llamaba seres popperianos.

El principal objetivo de los mapas es eliminar la sorpresa. El investigador trata de conocer el mundo externo lo suficiente como para anticipar lo que espera ver en el futuro. El mapa absoluto sería aquel que le permitiese anticipar con precisión completa qué información recibirá en cada momento. Esos modelos tendrían una adecuación empírica absoluta. Esto, como veremos, no implicaría tener un conocimiento metafísicamente absoluto y, además, en general, este es un objetivo inalcanzable, de modo que los investigadores se limitan a ir actualizando sus mapas basándose en la diferencia entre sus expectativas y lo percibido, es decir, en la sorpresa.

Esta distinción entre mapa y territorio, entre modelo y mundo externo es fundamental, pero es fácil caer en el error de ignorarla. Mis ojos parecen mostrarme a la gata que duerme junto a mí tal cual es, parecen aprehender la realidad en su totalidad. Sin embargo, si queremos entender el conocimiento es necesario analizar con más detalle el proceso que me lleva a ver a mi gata. Lo que ha hecho mi sistema visual es crear una percepción teniendo en cuenta la información recibida desde el mundo externo. Además, para conseguirlo ha utilizado una metodología que, en este caso, se haya implícita en la propia estructura del sistema visual. La percepción presente en mi mente no es el patrón real que hay en el mundo externo, la gata que veo, no es la realidad en sí, sino una representación basada en algunas de las regularidades presentes en la información que me ha llegado, que mi sistema visual ha considerado relevantes y que mi mente ha etiquetado automáticamente como “mi gata.”

Por supuesto, esto no implica que lo que veo no tenga relación con el mundo externo, pero sí es importante recordar un par de detalles. En primer lugar, el mapa no refleja la estructura completa del territorio. De hecho, la metodología que hemos utilizado para generarlo, en este caso la estructura del sistema visual, no trata de obtener todos los detalles, sino, tan sólo aquellos que nos son relevantes. Y esto nos lleva al segundo punto: el mapa depende en parte del cartógrafo y en parte del territorio. El mapa podría ser más o menos detallado, podría contener más o menos errores e, incluso en algunos casos, podría ser una completa alucinación. No hay un absoluto filosófico que garantice el conocimiento del mundo externo: el conocimiento siempre será falible y potencialmente mejorable. Siempre cabe la posibilidad de que el mapa sea sólo aproximado o de que sea, simplemente, erróneo. Esto no es una mera posibilidad teórica, en el pasado nos hemos equivocado en incontables ocasiones y, por lo tanto, tendríamos que ser sistemáticos en nuestras investigaciones y cautos en nuestras conclusiones. Me rompe el corazón que la gente actúe como si el número de contagios detectados y registrados en una población fuese el número de casos real. En demasiados casos no comprender la distinción entre mapa y territorio produce muerte y dolor.

El concepto de mapa que estoy planteando está, hasta cierto punto, relacionado con el concepto de conocimiento, pero prefiero no utilizar el mismo término para evitar confusiones. En este texto estoy asumiendo que mapa es cualquier modelo, explícito o implícito, que nos permite anticipar, al menos aproximadamente, nuevas informaciones provenientes del mundo externo. Esta es una definición metafísicamente mucho más modesta que la del conocimiento clásico, que, recordemos, exigía verdad. Esta definición no requiere de certeza absoluta y la justificación y la verdad se sustituyen por una relativa falta de sorpresa. Además, es una definición mucho más general que la de conocimiento clásico ya que engloba cualquier regularidad que un sistema aprenda sobre otro como, por ejemplo: las percepciones generadas por los sistemas perceptuales, el saber del herrero que forja una espada utilizando las técnicas que le transmitió su maestro, el conocimiento científico e, incluso, las destrezas implícitas presentes en seres sin vida mental alguna.

Soy consciente de que el ánimo de esta definición es muy distinto al que la definición platónica clásica, pero creo que las analogías entre los distintos ejemplos que he planteado son lo suficientemente amplias como para que sea útil considerar conjuntamente el conocimiento implícito y explicito, aunque también reconozco que las diferencias entre ambos son notables. Además, tampoco quisiera transmitir la idea de que la ciencia es equivalente a la percepción o al conocimiento cotidiano. El conocimiento científico es explícito, justificado, mucho más sistemático y, además, los científicos hacen autocrítica y reflexionan sobre las metodologías que utilizan para conseguir que ser cada vez más rigurosos.

26.2 Hija del escepticismo y el empirismo

La ciencia moderna es rabiosamente empírica y moderadamente escéptica. El éxito científico no se asienta sobre la confianza, sino sobre la suspicacia.

El ideal científico desconfía de las evidencias, duda de la palabra y sólo considera las evidencias públicas que, además, es preferible que sean reproducibles. Es decir, descarta las evidencias más endebles y acepta sólo hechos, y aun así los considera falibles y revisables.

Desde la revolución científica los instrumentos se han convertido en un modo de estandarizar y materializar algunas de las metodologías observacionales. Gracias a ellos hemos alcanzado una mayor intersubjetividad, un mejor acuerdo entre observadores, y, además, con el tiempo, el análisis de las fortalezas y limitaciones de cada equipo ha permitido que la observación instrumental sea cada vez más precisa. Los escépticos de la antigüedad discutieron hasta la extenuación el problema de que el agua que a un observador le parecía tibia a otro le causaba escalofríos. Sin embargo, gracias a la invención del termómetro, que mide algo mucho más concreto que lo que perciben los sensores de calor de nuestra piel y que está más estandarizado, es fácil llegar a un acuerdo sobre si la temperatura es una u otra. Lo mismo sucedió, por ejemplo, con el tiempo. La sensación subjetiva de paso del tiempo puede ser muy variable, pero los relojes se estandarizan y se sincronizan para llegar a un acuerdo.

Por otro lado, los instrumentos son prótesis que nos permiten acceder a rangos empíricos previamente inaccesibles para los seres humanos como la luz infrarroja, los mundos microscópicos o los neutrinos.

La observación en condiciones controladas, el experimento, fue otro de los grandes avances modernos. Los experimentos permiten modificar distintas variables a nuestro antojo para observar su influencia en el sistema estudiado y, normalmente, son más reproducibles que las observaciones simples. Por desgracia, no todos los sistemas se prestan a estas manipulaciones controladas y esto dificulta su estudio. Por ejemplo, es técnicamente imposible crear estrellas y las consideraciones morales prohíben que infectemos con patógenos poblaciones humanas a sabiendas.

Los hechos, las evidencias más fiables, son uno de los pilares fundamentales de la ciencia y cuando no pueden conseguirse o cuando están demasiado influidas por la hipótesis que estamos intentando contrastar perdemos nuestro mejor aliado en la generación de conocimiento científico. Esto suele ser un problema en las ciencias sociales, pero también en mi área, la genética de poblaciones, que depende de asunciones taxonómicas previas, los hechos también pueden sesgar nuestra mirada. Más adelante haré algunos comentarios sobre la necesidad de utilizar conocimiento previo y de los problemas que ello implica.

El ideal científico moderno no sólo sospecha de las evidencias, sino que también desconfía de las capacidades de los investigadores y de las metodologías que emplean. Por este motivo exige rigor metodológico y justificaciones empíricas abundantes. El uso de la inferencia estadística es un ejemplo de esta desconfianza. Sabemos que el pensamiento intuitivo humano falla en estos aspectos y por eso se recomienda utilizar métodos de inferencia estadística explícitos y estandarizados.

26.3 No hay un método

Es común que se caracterice a lo científico como aquel conocimiento que ha sido generado utilizando el método científico. En la mente de muchas personas éste sería un método que, de ser seguido, garantizaría conocimiento objetivo. Sin embargo, creer en la existencia del método científico es un profundo error que conlleva trágicas consecuencias sociales.

No existe un algoritmo claramente definido que nos indique el camino a seguir para crear conocimiento científico. Existen tipos de aproximaciones generales que podemos tomar como guía en algunas situaciones y metodologías que podemos utilizar en distintas áreas científicas, pero hemos de pensar en ellas como en las herramientas del taller del artesano. No son tan detalladas como para crear un algoritmo óptimo con el que programar a un robot. El investigador ha de elegir qué metodología utilizar, cuánto valorar cada evidencia o cómo modificar una hipótesis cuando las observaciones no son las esperadas. La creación de conocimiento científico requiere oficio y esto implica, claro está, un cierto margen de libertad por parte del investigador y, por lo tanto, una gran responsabilidad. Los valores de los científicos son relevantes en el proceso.

La falta de método no implica que la ciencia sea completamente irracional o que carezca de estándares. Ningún científico defenderá nunca que uno más uno es tres o que las bolas de plomo flotan a un metro sobre la superficie terrestre. Sin embargo, estos estándares no llegan a constituir un algoritmo detallado.

Lo que sí podemos hacer es dividir la búsqueda de conocimiento científico en distintos procedimientos que, tal vez, puedan servirnos como guías para el análisis de la práctica científica. Confieso que me tienta usar el término fase de investigación, en vez de procedimiento, pero no quiero dar la impresión de estar proponiendo una serie de fases que habrían de darse necesariamente en un orden definido.

26.4 Obtención de evidencias

El conocimiento del mundo externo ha de ser eminentemente empírico. Si queremos elaborar mapas del territorio, no queda más remedio que echar mano de la información proveniente del territorio. Esto, además de ser obvio, en el pasado ha demostrado ser la aproximación más fructífera; cuando más cercanas se han mantenido las investigaciones a los datos empíricos más éxito han solido tener. Los intentos más racionalistas tienden a quedarse atascados en un marasmo de ideas que, aunque pueden parecer razonables, suelen fracasar al tratar de usarlas como mapas.

Esta defensa del papel preponderante de las evidencias empíricas no implica que yo defienda el inductivismo. Las hipótesis científicas a veces se generan a partir de las observaciones, pero esto no siempre es así. Además, la relación entre hechos y teoría puede ser muy sutil. Es un hecho que la Tierra parece inmóvil y que el Sol parece girar sobre nuestras cabezas, pero no es eso lo que defienden nuestras teorías.

Además, en muchos casos la búsqueda de evidencias está guiada por las hipótesis previas. Por ejemplo, al buscar nuevas evidencias conviene, muy especialmente, no olvidarse de tratar de hacer observaciones que pudiesen, potencialmente, falsar nuestra hipótesis. Otro caso común consiste en buscar evidencias que permitan distinguir entre varias hipótesis alternativas, es decir, que puedan favorecer en diferente grado a unas frente a otras. Imaginemos que disponemos de dos hipótesis, una se comporta, matemáticamente como una recta, mientras que la otra es parabólica. Puede que en el rango empírico que hemos explorado ambas hipótesis hagan predicciones muy similares y que para distinguirlas nos interese buscar nuevas evidencias en regiones en las que las predicciones de ambas hipótesis sean bastante distintas. En este caso las hipótesis habrán sido generadas antes de las evidencias. Esta aproximación es más cercana al método hipotético-deductivo.

También es común utilizar el conocimiento previo o, incluso, las hipótesis generadas para eliminar observaciones erróneas. Por ejemplo, puede que hayamos hecho cientos de observaciones, que todas se alineen, aproximadamente, en una recta, pero que una, que se hizo cuando hubo un pico en la corriente que alimentaba al aparato de medida, sea muy superior a las demás. En ese caso sería razonable eliminar esa medida del análisis por considerarla errónea. Sin embargo, hemos de tener mucho cuidado con este tipo de procedimientos puesto que podrían producir sesgos. Por ejemplo, podríamos acabar descartando observaciones robustas simplemente porque no encajan en nuestra hipótesis. Es una mala práctica científica no mostrar todas las evidencias, aunque, en la práctica, las que consideramos completamente erróneas no solemos incluirlas en los artículos para no distraer al lector con una avalancha de datos espurios. Esto puede ser más o menos justificable en muchos casos, pero puede llegar a convertirse en una mala práctica científica muy fácilmente.

Esta dependencia de la búsqueda de evidencias de nuestro conocimiento previo es capaz de sesgar nuestra mirada de formas muy sutiles. Por ejemplo, podríamos someter a un mayor escrutinio a las evidencias contrarias a nuestra hipótesis preferida. Este sesgo, llevado al extremo, convertirá nuestras ideas previas en una cárcel de la que no podremos escapar fácilmente.

Este es el problema que trataba de evitar la recomendación inductivista de buscar evidencias sin tener en cuenta nuestras hipótesis. En algunos casos esto tiene mucho sentido. El problema es que no siempre es fácil hacer observaciones sin hipótesis previa. Es común que las observaciones científicas sean caras y que, por lo tanto, hayamos de elegir con sumo cuidado cuáles queremos realizar. Además, las expediciones de pesca, por ejemplo, los análisis genómicos generales, tienden a crear correlaciones espurias. Estos análisis sin hipótesis previas pueden resultar útiles para generar hipótesis, pero después habrá que buscar nuevas evidencias para contrastarlas.

26.5 Creación de hipótesis

La creación de hipótesis es uno de los aspectos más difícil de codificar. Las aproximaciones pueden ser muy diferentes y, además, en muchos el planteamiento de una hipótesis exitosa exige aunar creatividad, intuición y rigor.

Como acabamos de comentar, una posibilidad, la preferida por los inductivistas, consiste en acaparar un gran número de observaciones y buscar en ellas regularidades utilizando heurísticas ampliativas que hayan demostrado en el pasado generar buenas hipótesis en situaciones análogas. El área del aprendizaje automático está explorando de forma muy satisfactoria estas aproximaciones. Como ejemplo podemos pensar en el caso de un conjunto de puntos en un plano cartesiano. Podemos utilizar un procedimiento de búsqueda de rectas para localizar la que mejor se ajuste a ellos.

Otras veces se procede partiendo de un número limitando de evidencias y explotando la asunción de que vivimos en un universo coherente. Einstein para desarrollar la relatividad general no utilizó evidencias que fuesen mucho más allá de las ya conocidas por Galileo. Por ejemplo, fue clave el hecho de que, si se ignora la resistencia del aire, dos objetos de distinto peso experimentan la misma aceleración al caer. A partir de ahí se esforzó por crear una teoría coherente. Einstein, desoyendo completamente la recomendación inductivista, no utilizó como principal herramienta de generación de hipótesis la inducción, sino la deducción. Y esto pudo hacerlo, como ya he dicho, porque asumía que las regularidades que caracterizan el territorio deben ser coherentes y que, por lo tanto, el mapa también habría de aspirar a serlo. Es esta coherencia la que hace que el uso de la lógica y las matemáticas sea tan fructífero en la generación de conocimiento.

En realidad, ni siquiera es estrictamente necesario tener en cuenta evidencia alguna para generar nuevos mapas. Por ejemplo, la evolución biológica genera nuevas formas de enfrentarse al mundo externo, nuevos genomas, simplemente, introduciendo cambios al azar. Y los artesanos de la antigüedad crearon tecnologías imprescindibles para el mantenimiento de la civilización, básicamente, mediante prueba y error. Estos mecanismos, evidentemente, son muy ineficientes e incluso puede que haya conocimientos que, en la práctica, nunca puedan llegar a generarse de este modo, como, por ejemplo, la fundición del aluminio, pero tampoco se puede negar su éxito.

Es intuitivo pensar que las hipótesis tienen que derivarse de las evidencias, pero, en realidad esto no es lo fundamental. Lo que importa es que las hipótesis estén bien justificadas y contrastadas. Imagina que viene un profeta o unos extraterrestres y nos dan una hipótesis, si funcionan, si es un buen mapa, poco importa cómo haya sido generada. Lo que asumimos, implícitamente, al suponer que lo relevante es el descubrimiento es que disponemos de un método capaz de extraer adecuadamente las regularidades presentes en las evidencias y, por lo tanto, una hipótesis generada por ese método tendrá que ser un buen mapa. Pero la realidad es que lo que importa es que el mapa sea adecuado, no cuál es su origen.

En la práctica, es común que el proceso de generación de hipótesis consista en una serie de iteraciones en las que los investigadores van proponiendo hipótesis, haciendo experimentos para contrastarlas y modificando esas hipótesis en función del resultado. A una versión de esta aproximación se le suele denominar método científico, pero no olvidemos que este proceso puede ser muy libre.

26.6 Justificación

En ciencia las conclusiones deben justificarse, es decir, han de aportarse evidencias y argumentos en favor de las mismas. El conocimiento científico, como el filosófico, debe ser defendido racionalmente. Además, en el caso del conocimiento sobre el mundo externo, como ya hemos dicho, las justificaciones han de incluir una parte relevante de soporte empírico. En los artículos científicos esto se traduce en que las conclusiones, hasta cierto punto y teniendo en cuenta los límites impuestos por las inferencias ampliativas, han de estar soportadas por las evidencias. Es decir, el modelo propuesto tiene que describir adecuadamente las evidencias o, al menos, debe hacerlo hasta cierto punto.

De nuevo, la evaluación de estas justificaciones, aunque incluya uso de estándares epistémico, no puede ser codificada en un algoritmo. Por ejemplo, dado que los modelos que creamos en la mayor parte de los casos son aproximados, siempre podremos aducir que las evidencias que no cuadran son espurias. Esto es lo que hizo Galileo para justificar la obvia discrepancia entre sus observaciones de sobre la caída de los cuerpos y sus modelos teóricos. El pisano adujo que, en un mundo ideal, sin rozamiento ni resistencia, las bolitas caerían siguiendo sus modelos. La justificación científica debe ser eminentemente empírica, pero la relación entre hechos y teoría no es, en absoluto, trivial.

Estas justificaciones, además, tienen que someterse al juicio del resto de la comunidad para que ésta pueda examinar las evidencias y las inferencias en busca de posibles errores, limitaciones o matizaciones. El conocimiento científico lo valida la comunidad y, en muchos casos, lo genera también la propia comunidad. El conocimiento y la capacidad cognitiva de los investigadores individuales es muy limitada y los problemas con los que tratamos, en la mayoría de los casos, nos superan.

En una comunidad comprometida, en mayor o menor grado, con el ideal del diálogo racional la exigencia de justificación permite avanzar ya que, entre todos, se fortalecen los puntos débiles de las evidencias, las hipótesis o las justificaciones. Además, también es común combinar las conclusiones obtenidas en un problema concreto con las obtenidas por otros investigadores en el estudio de otros fenómenos.

En cualquier caso, conviene recordar que la justificación, de ser correcta, no podrá garantizar más allá de que el modelo propuesto describe aproximadamente las regularidades que hemos encontrado en las evidencias.

26.7 Contrastación

La contrastación consiste en comprobar el modelo con evidencias distintas a las que se utilizaron para elaborar o justificar la hipótesis originalmente. Por ejemplo, si hemos hecho un ajuste lineal para obtener una recta a partir de unos puntos concretos situados en un plano cartesiano, ¿los nuevos conjuntos de puntos se siguen pareciendo a la recta?

Lo que tratamos de comprobar con la contrastación es si el modelo propuesto inicialmente tiene utilidad explicativa y predictiva real en el territorio. ¿Por qué se requiere una contrastación con evidencias distintas a las utilizadas durante la justificación? El problema es que la probabilidad de que un modelo no sea un buen mapa cuando no se contrasta independientemente es elevada. Recordemos que las evidencias iniciales podrían haber sido parciales o erróneas y la justificación inicial, a pesar de ser razonable, podría ser errónea. Esta es una de las mayores aportaciones de Galileo: contrasta tus hipótesis con nuevas evidencias.

Además, incluso aunque las evidencias iniciales fuesen correctas, representativas del fenómeno y la justificación correcta, nuestro modelo podría ser un mal mapa puesto que podría estar sobreajustado. Esta es una limitación fundamental de la generación del conocimiento sobre el mundo externo relacionada con el salto ampliativo. Un modelo está sobreajustado cuando refleja regularidades espurias que se encontraban en las evidencias originales, pero que no se corresponden con las regularidades presentes en general en el fenómeno que estamos estudiando. Cuando sucede esto el modelo resume muy bien los datos originales, pero no sirve como mapa.

Cuando se generan los modelos utilizando inferencias estadísticas se trata de reducir el riesgo de sobreajuste teniendo en cuenta el incremento en el ajuste de los modelos a medida que estos se van haciendo más complejos. Lo que se trata de impedir es que los modelos lleguen a reflejar regularidades espurias a base de ir introduciendo pequeños ajustes adicionales durante su creación. El problema de esta aproximación es que, aunque, en la práctica, funciona en muchas ocasiones, no deja de ser un criterio superempírico y, por lo tanto, es mejor contrastar el modelo generado con nuevas evidencias para comprobar que, efectivamente, es un mapa adecuado.

El modo más común de contrastación consiste en utilizar las conclusiones previas en el marco de nuevos estudios. Por ejemplo, si un grupo ha publicado que un gen concreto controla el tamaño del fruto, otros investigadores podrían tratar de utilizar ese gen para reducir el tamaño de los frutos en una variedad comercial concreta. El éxito de este nuevo desarrollo tecnológico sería una contrastación de las conclusiones del primer estudio.

En otros casos la contrastación es más directa. Por ejemplo, cuando se buscan genes por asociación en una población concreta, como los genes de susceptibilidad a la covid19 en la población europea, los resultados pueden contrastarse comprobando la asociación de los genes encontrados en otras poblaciones.

También pueden utilizarse los mapas en regiones empíricas distintas a las cubiertas por las evidencias iniciales. Las extrapolaciones exitosas son una garantía de que la estructura de nuestro mapa está reflejando, al menos en parte, algunos aspectos de las regularidades de los patrones reales. Esto es, por ejemplo, lo que se hizo al contrastar la relatividad general con la observación de la curvatura de la luz por los campos gravitatorios o de las ondas gravitacionales. Ninguno de estos fenómenos se encontraba entre las evidencias que se utilizaron para justificar la teoría inicialmente.

Por último, una excelente vía de contrastación es hacer predicciones y comprobar si se cumplen. Por desgracia, no todos los problemas se prestan a hacer predicciones. Por ejemplo, es difícil predecir el comportamiento exacto de los sistemas complejos. Durante la pandemia de la covid19 se ha demostrado, en repetidas ocasiones que los modelos epidemiológicos van a rebufo de la realidad. Hay demasiados factores cambiantes e incontrolables como: las mutaciones del propio virus, la actitud de la población, que está influida por la percepción del riesgo o la instauración de distintas medidas gubernamentales. Esto no quiere decir que los modelos generados sean completamente inútiles. Incluso aunque no seamos capaces de predecir cuál será el número de casos con un mes de antelación, es útil saber que el uso de mascarillas y la ventilación de los espacios cerrados son medidas útiles y esto es algo que hemos aprendido, al menos en parte, gracias a la epidemiología.

Al contrastar estamos comprobando si el mapa generado anticipa realmente la respuesta del territorio. La contrastación está relacionada con la exigencia de verdad en la definición clásica de conocimiento. Estamos comprobando que el mapa, al menos parcialmente, se corresponde con el territorio. Podríamos decir que un artículo científico es buena ciencia si está bien justificado, pero sus conclusiones sólo merecen ser consideradas como parcialmente verdaderas si han sido contrastadas. Podemos pensar también en lo justificado como lo razonable y lo contrastado como lo verdadero. Aunque no tenemos un acceso directo a las regularidades del mundo externo, al logos, al menos, podemos ir haciendo contrastaciones para ir comprobando si nuestros modelos parecen ser mapas útiles. En el límite aspiramos a disponer de mapas que nos permitan dejar de ser sorprendidos por el territorio.

En la contrastación reside una de las claves del éxito operacional de la ciencia. Si eliminamos los mapas que no funcionan, iremos seleccionando, gracias a esta purga empírica, mapas cada vez más adecuados. Este era el secreto, por ejemplo, de la evolución biológica y de la evolución de las tecnologías antiguas. Evidentemente esos modos de generación de mapas no son sistemáticos y, por lo tanto, son mucho más ineficientes que la aproximación científica, pero aún así funcionan porque si se insiste en eliminar la paja lo que queda será el grano. En la medida en la que la contrastación pueda hacerse con evidencias abundantes y que sean neutrales respecto a los modelos evaluados la ciencia podrá avanzar fácilmente.

En realidad, la contrastación no está claramente separada de la justificación, pero aun así creo que es interesante tener en cuenta esta distinción en la práctica científica. Por ejemplo, puede que una hipótesis haya sido ya contrastada antes de ser publicada por primera vez. La diferencia entre justificación y contrastación es útil, pero no es nítida.

En cualquier caso, ni la justificación ni la contrastación serán garantías absolutas, pero lo que sí podemos ir haciendo gradualmente es aumentar o disminuir nuestro grado de confianza en que nuestras hipótesis son buenos mapas del territorio, es decir, que pueden servirnos para anticipar el comportamiento futuro de los sistemas o fenómenos estudiados. Es muy importante ser conscientes de qué hipótesis han sido más o menos contrastadas. Esta es, al fin y al cabo, una de las principales lecciones de la inferencia bayesiana. De modo que podríamos pensar en la contrastación como una heurística derivada del marco bayesiano. O, alternativamente, podríamos pensar en ella de un modo pragmático: es verdad aquello que se ha comprobado que funciona.

26.8 Elección entre hipótesis

Los principales motivos para elegir entre hipótesis deberían ser, y en muchos casos, especialmente cuando se llega a alcanzar consensos, son epistémicos: evidencias empíricas y coherencia lógica. Como regla general, es obvio que son más deseables las hipótesis que describen con una mayor precisión las evidencias empíricas y que son coherentes con el resto del conocimiento. Lo habitual es que, si las hipótesis hacen predicciones precisas y los hechos son neutrales respecto a esas hipótesis, la elección entre teorías no sea demasiado conflictiva.

Podríamos hacer esta elección aplicando el estándar racional bayesiano. En este caso terminaríamos asignando grados de confianza a cada una de las hipótesis en liza en función de las evidencias disponibles y de nuestras probabilidades a priori. Sin embargo, este es un estándar, muy exigente computacionalmente y que requiere hipótesis muy precisas por lo que, en muchos casos, es difícil de aplicar y, además, en la práctica, hay muchas cuestiones que la inferencia bayesiana no soluciona.

Por otro lado, aunque los motivos empíricos deben prevalecer, en la práctica otros motivos superempíricos, como la sencillez o el poder explicativo, es decir, la relación entre la cantidad de aspectos explicados y el número de supuestos requeridos por la hipótesis, también pueden ser tenidos en cuenta.

Sin embargo, la evaluación de las hipótesis no siempre es trivial. Por ejemplo, una hipótesis no tiene por qué ser falsada sólo por que un hecho no cuadre: el hecho podría ser erróneo o la predicción podría ser una equivocación incluso aunque la hipótesis fuese correcta. Además, la mayoría de nuestros modelos sólo aspiran a ser aproximados, por lo que no esperamos que su adecuación empírica sea completa.

En algunas ocasiones distintos investigadores pueden llegar a valorar las bondades y las limitaciones de las distintas teorías de distinto modo, así que la comparación entre hipótesis no siempre tiene por qué ser estrictamente objetiva. Sin embargo, es importante reconocer que cuando los motivos empíricos son claros las discusiones acaban zanjándose, sólo cuando no lo son es común que no se alcancen consensos. Es en estos casos menos claros en los que los factores psicológicos y sociales pueden llegar a hacerse más relevantes; es cuando los hechos no son suficientes cuando los motivos subjetivos y contingentes suelen hacerse más patentes. Además, recordemos que tenemos que ser especialmente cautos cuando los hechos no sean neutros respecto a las hipótesis evaluadas. Cuando las conclusiones todavía no son claras, cuando los expertos todavía están discutiendo entre ellos, lo recomendable es que los no expertos reservemos el juicio.

En cualquier caso, aunque la evaluación de las hipótesis no tiene por qué ser trivial en todos los casos, tampoco no hemos de quedarnos con la idea de que siempre será subjetiva. A veces las teorías sí se falsan con claridad. Por ejemplo, cuando Galileo estableció que Venus tenía fases incompatibles con el modelo ptolemaico y la comunidad astronómica validó el hecho, los modelos heliocéntricos, simplemente, se descartaron. El ideal de objetividad basada en razones epistémicas es alcanzable, pero es importante recordar que no todas las conclusiones de todos los estudios científicos alcanzan este grado de solidez.

Aunque no es posible hacer recomendaciones absolutas, sí es posible considerar algunas guías generales. Por ejemplo, la falsabilidad es una buena idea. El investigador racional ha de huir de aquellas hipótesis vagas capaces de explicarlo todo o de aquellas que no puedan ser afectadas por las evidencias empíricas. Si no puedes imaginar evidencias que puedan, al menos potencialmente, falsar tu hipótesis, no estás haciendo ciencia. De hecho, es una muy buena recomendación plantearse antes de hacer un experimento qué esperarías observar si tu hipótesis fuese correcta y cuáles serían tus conclusiones si no se observase lo que esperas. Esto te evitará hacer un buen número de experimentos no concluyentes. Además, la falsación, al menos en primera aproximación, es otra buena idea. Si los hechos contradicen una y otra vez tu hipótesis, habrías de abandonarla. Es lícito plantear hipótesis ad hoc para explicar una anomalía empírica, pero, sobre todo, cuando estas modificaciones no implican predicciones empíricas adicionales, has de tener muy buenas razones para seguir manteniendo la hipótesis. Lo que por desgracia no podemos hacer es establecer un umbral objetivo que marque el límite entre la razón y la sinrazón.

La inferencia bayesiana es una guía más general que el falsacionismo. Por ejemplo, nos permite concluir que si hacemos una observación y obtenemos el resultado esperado, debemos aumentar nuestra confianza en que nuestro mapa refleja correctamente esa región del territorio. Además, el bayesianismo nos recuerda que para ser racionales hemos de evaluar todas las evidencias, tanto las favorables a nuestra hipótesis como las contrarias y que, también hemos de sopesar todas las hipótesis y no sólo nuestra preferida. Por otro lado, cuando buscamos nuevas evidencias es muy importante no tratar de encontrar sólo aquellos hechos que confirmarían nuestra hipótesis, sino, muy especialmente, aquellos que podrían ser capaces de falsarla.

26.9 Iteración

El proceso científico es iterativo: se van obteniendo evidencias, se van evaluando las hipótesis y, si todo va bien, poco a poco, vamos obteniendo mapas cada vez más adecuados. Sin embargo, no hemos de pensar que estos procedimientos o fases que he acabo de describir someramente han de ocurrir en un orden fijo. En la práctica suelen alternarse de formas complejas. Por ejemplo, es común que plantemos observaciones para validar o falsar nuestras hipótesis y que los resultados obtenidos sean tan distintos a los esperados que nos obliguen a crear hipótesis completamente nuevas. En otras ocasiones, sin embargo, puede que la mayoría de las evidencias empiecen a cuadrar y que los ciclos se limiten a acumular nuevos hechos en favor de la hipótesis.

26.10 Progreso científico

Las teorías de las áreas de conocimiento que merecen plenamente el calificativo de científicas progresan paulatinamente en su adecuación empírica y en su poder explicativo hasta conseguir generar hipótesis que dan cuenta de las evidencias empíricas disponibles. El territorio cada vez nos sorprende menos y los mapas demuestran ser herramientas útiles para la acción sobre el mundo externo.

También hay un progreso en la acumulación de hechos que han de ser explicados por cualquier teoría futura. Por ejemplo, cualquier física futura deberá dar cuenta de por qué dos objetos de distinta masa sufren la misma aceleración gravitatoria. A esto hay que añadir los nuevos fenómenos reproducibles que se van creando. Los fenómenos eléctricos que los físicos aprendieron a generar a lo largo del siglo XIX o los láseres del XX quedarán para siempre.

Los estándares de justificación también progresan. En matemáticas, que no es una ciencia puesto que no estudia el mundo externo, sino una disciplina formal que es utilizada como herramienta por las ciencias, el cambio metodológico ha sido mínimo. El estándar de justificación en matemáticas es el deductivo y aunque las deducciones de Euclides, o incluso las de Newton, eran menos rigurosas que las actuales, las diferencias son pequeñas.

Sin embargo, en ciencia los cambios metodológicos y las recomendaciones sobre como justificar los resultados han sido enormes. Aristóteles recomendaba hacer justificaciones estrictamente deductivas en las que, partiendo de premisas generales sobre el funcionamiento del mundo natural, había que justificar las conclusiones utilizando silogismos. Arquímedes aceptó la recomendación deductiva aristotélica, pero la hizo más general al admitir la cuantificación y las matemáticas. Este fue el estándar que Galileo, a principios de la revolución científica todavía trató de defender, con pequeñas modificaciones relativas a la contrastación, en algunos de sus trabajos. Pero las cosas cambiaron durante la revolución y el resultado final fue la adopción de un estándar de justificación mucho más inductivo: las conclusiones tenían que estar soportadas por hechos concretos, no por reglas generales. Este es un cambio que permitió acoger de un modo más natural a los trabajos más basados en la observación y la experimentación que en la teorización. Desde entonces los métodos de inferencia y justificación han seguido, y siguen, refinándose. Ahora, por ejemplo, se usan mucho más las inferencias estadísticas.

También han progresado las técnicas instrumentales y las metodologías de observación, experimentación y descubrimiento que utilizan los científicos. La mayoría de las observaciones de los científicos del siglo XVIII les parecerían a los científicos de hoy muy rudimentarias y poco rigurosas. En la actualidad los protocolos utilizados en los laboratorios suelen ser muy detallados y los instrumentos son mucho más precisos y estandarizados.

En el fondo, las metodologías científicas parten originalmente de las heurísticas que utilizamos en el pensamiento cotidiano. La evolución nos equipó con sistemas perceptuales y cognitivos capaces de generar conocimiento sobre el mundo externo y las metodologías científicas no son más que una sistematización de esas herramientas básicas.

Las bases sobre las que se asienta la generación de conocimiento científico son tan elementales que resulta difícil rechazarlas: nuestros sentidos crean representaciones que tienen una relación estrecha con la estructura del mundo externo y cualquier sistema lógico debe aspirar a ser coherente. La ciencia, simplemente hace uso de sistemas epistémicos que sistematizan estos principios.

Las heurísticas de inferencia lógica sufrieron una evolución similar. Nuestros razonamientos intuitivos, que en muchos casos no son conscientes, funcionan bastante bien en muchas situaciones cotidianas y han generado una gran cantidad de conocimiento, pero también tienen limitaciones importantes. Estos problemas son especialmente relevantes cuando tratamos de estudiar situaciones a las que no se enfrentaron nuestros antepasados o cuando las evidencias entran en conflicto con ideas muy queridas por nosotros o por el grupo humano con el que nos identificamos.

La lógica y las matemáticas parten de intuiciones muy elementales, como que una proposición no puede ser verdadera y falsa el mismo tiempo, y sobre ellas construyen, exigiendo coherencia, edificios que superan, con mucho, nuestras limitaciones intuitivas. Es decir, el punto de partida es intuitivo, pero el esfuerzo de sistematización nos eleva a regiones inalcanzables para alguien sin formación. El problema de esta aproximación es que requiere un gran esfuerzo durante su aprendizaje y durante su uso. La ciencia, la lógica o las matemáticas no son difíciles porque partan de fundamentos extraños, sino porque gracias a la exigencia de coherencia, alcanzan una sistematización y unos resultados que terminan siendo difíciles de aprender y utilizar.

La ciencia, al fin y al cabo, no es más que conocimiento sobre el mundo externo obtenido sistemáticamente. Cuando se rechaza la ciencia por principio se rechaza el conocimiento. Es legítimo criticar tal o cuál hipótesis defendida por algún experto, pero, si queremos ser racionales, esto sólo podrá hacerse justificadamente, caso por caso y asumiendo que necesitamos un nivel de conocimiento elevado. Es decir, el único modo racional de criticar el consenso de los expertos es convertirse en uno.

El científico no es el único tipo de conocimiento que surge por la sistematización de nuestras capacidades naturales. La sistematización de las herramientas artesanales junto a la incorporación del conocimiento científico convirtió a los artesanos en ingenieros y la sistematización de nuestras intuiciones morales o cognitivas creó la ética, la epistemología, la lógica y las matemáticas.

Toda esta evolución metodológica científica es posible porque hay una guía meta-metodológica, una meta-regla: hemos de mantener aquellas metodologías que demuestran crear mapas que, en general, tienen más éxito durante la contrastación. Es decir, se eligen las metodologías que han creado buenos mapas en el pasado. Esto, de nuevo, es una recomendación general, no un algoritmo, pero conviene recordar que en ciencia no sólo progresan los mapas, sino, también, las herramientas del cartógrafo. Las herramientas a disposición del investigador cada vez son más precisas, poderosas, sistemáticas y están más estandarizadas. Kuhn defendió que el cambio metodológico estaba asociado a las grandes revoluciones teóricas, pero las evidencias históricas son abundantes e indican que, en general, los cambios metodológicos son independientes de los teóricos y que, además, son graduales.

El progreso en las estructuras teóricas también es mayoritariamente gradual y esto se debe principalmente a que las nuevas teorías han de acomodar la mayoría de los hechos que ya justificaban las antiguas. Podemos pensar en la estructura como una red teórica que se ancla a distintos puntos del mundo externo mediante la información empírica. La recta ajustada a unos puntos, unas evidencias, es un buen ejemplo. Este anclaje empírico genera en las estructuras teóricas una rigidez en las regiones mejor exploradas empíricamente. Es decir, cualquier teoría futura tendrá una estructura lógica o matemática similar en las regiones del territorio de las que disponemos de más evidencias. A medida que vamos acumulando más hechos, la holgura que se puede permitir a las teorías en esas regiones es cada vez menor.

En algunas ciencias el cambio ontológico, es decir, el cambio en las entidades que pueblan sus teorías también suele ser pequeño. Pero, como veremos, resulta más problemático encontrar una dirección ontológica clara en las teorías físicas fundamentales. Durante un tiempo la luz pareció estar formada por partículas, luego por ondas y finalmente por algo muy extraño cuya metafísica todavía no ha sido consensuada. Sin embargo, aunque la decimonónica electrodinámica de Maxwell tenía una metafísica radicalmente distinta a la electrodinámica del modelo estándar actual, sus predicciones en los rangos empíricos conocidos en los tiempos de Maxwell son muy similares. La metafísica planteada por dos teorías puede ser muy distinta aunque su adecuación empírica o sus estructuras lógicas o matemáticas sean muy similares. De hecho, como mencionamos para el caso newtoniano, una misma estructura matemática puede ser interpretada de formas muy distintas.

26.11 Metafísica

La incomprensión de la relación entre el progreso gradual de la adecuación empírica, de las estructuras y el posible cambio radical de las ontologías tiene consecuencias sociales negativas puesto que genera una inmerecida desconfianza en la ciencia.

Por ejemplo, suele pensarse, de algún modo más o menos vago, que Einstein demostró que las ideas newtonianas eran equivocadas cuando, en realidad, la relatividad surgió como un refinamiento de la mecánica newtoniana y, de hecho, las predicciones de ambas teorías en los rangos empíricos explorados hasta el siglo XIX eran casi idénticas. Lo que cambió más profundamente fue la metafísica asociada a las estructuras teóricas. No es que este cambio no sea relevante a nivel filosófico, al fin y al cabo, uno de los objetivos de los científicos es comprender la realidad y, por lo tanto, el debate sobre la naturaleza última de los patrones del cosmos es importante. Pero es urgente transmitir a la sociedad que otro de los objetivos del científico es construir teorías útiles, mapas adecuados y ese es un objetivo que progresa mucho más suavemente que las ontologías de la física fundamental.

Es muy importante distinguir entre adecuación empírica y metafísica. Una teoría es empíricamente adecuada cuando describe correctamente las partes observables del mundo externo. Las hipótesis se aceptan o se rechazan considerando, principalmente, su adecuación empírica. Sin embargo, la metafísica propuesta por la teoría es el conjunto de entidades o procesos que postula. Dos teorías pueden hablar de entidades muy distintas y, aún así, ambas podrían tener una adecuación similar. De hecho, la parte de la teoría que influye en su adecuación empírica es su estructura lógica o matemática y no las etiquetas ontológicas que asignamos a esa estructura. Podemos asignar ontologías distintas a una misma teoría y también podemos tener estructuras diferentes, pero con implicaciones empíricas muy similares.

Además, también sería positivo que la sociedad comprendiese que una hipótesis científica puede fallar de dos formas completamente distintas y que no deben ser confundidas. 1) Como falló la mecánica newtoniana, que fue reemplazada a nivel fundamental por otras teorías que refinaron su adecuación empírica. 2) Como una hipótesis completamente errónea, es decir, como una idea que nunca fue empíricamente adecuada. Esta segunda hipótesis nunca fue un mapa bien contrastado, no fue más que un error, una mera alucinación. Es un error muy grave confundir ambos tipos de error. Que la teoría newtoniana se reemplazase no implica que la ciencia fallase, sino que sus conclusiones pueden refinarse. La mecánica newtoniana fue un gran éxito. La NASA todavía envía cohetes utilizando la mecánica newtoniana porque sigue siendo empíricamente adecuada. El segundo caso es común en ciencia, pero no suele serlo en las hipótesis que gozan de un amplio consenso. Durante la crisis del coronavirus, por ejemplo, hemos visto numerosas conclusiones publicadas en artículos relevantes que no han resistido los intentos de contrastación más mínimos. El uso de la hidroxicloroquina para la covid19 fue un error, una alucinación, pero, aunque se consideró seriamente, nunca alcanzó un mínimo consenso entre los expertos. Así es como debe funcionar la ciencia, equivocarse no es tan grave, especialmente si el error es fruto de un intento honesto, lo trágico sería persistir en el error. Esta es, precisamente, una de las características que más diferencia a la ciencia de otras creencias mantenidas por la sociedad. Las comunidades científicas no suelen consensuar alucinaciones porque no suelen consensuar hipótesis sin una amplia contrastación.

Pero volvamos a la metafísica. Tanto las teorías científicas como la mayoría de nuestras creencias cotidianas tienen una relación estrecha con la realidad. Lo que no es tan sencillo es precisar en qué consiste esa relación. En primer lugar, acepto como tesis que el mundo externo es. Es decir, existe un mundo externo y mi objetivo, tanto cotidiano como científico, es generar mapas que reflejen las regularidades existentes en ese mundo externo para poder anticipar su respuesta, pero los mapas no son el mundo externo. Sólo el territorio es, los mapas son meros reflejos de esa realidad.

Podemos averiguar aspectos sobre las regularidades presentes en el mundo externo gracias a que podemos interaccionar con él y, muy especialmente, a que somos capaces de obtener información del mismo. A esta tesis podríamos denominarla verificacionismo matizado. En principio, podemos aspirar a estudiar cualquier patrón que esté conectado informacionalmente con nosotros, aunque esto no implica que vayamos a conseguir, necesariamente, obtener un buen mapa. Hay problemas que son demasiado complicados. En cualquier caso, esta tesis tiene otra consecuencia negativa obvia: si existen fenómenos o entidades que no están conectadas informacionalmente, directa o indirectamente, con nosotros no pueden ser estudiadas, incluso podría decirse que no forman parte de nuestro mundo.

Podría defenderse que el empirista haría bien olvidar el asalto a los cielos metafísicos ya que, si somos estrictos, a lo máximo que puede aspirar es a detectar regularidades en la información obtenida del territorio. Sin embargo, creo que la actitud realista es irrenunciable en ciencia, la Tierra o se mueve o no se mueve. La ciencia también tiene por objeto comprender la naturaleza del cosmos y no sólo crear teorías útiles. Este, además, no es un problema limitado a la ciencia, estrictamente hablando es metafísicamente arriesgado afirmar que estoy observando a mi gata en el sillón ya que lo único que mi sistema visual ha podido hacer es buscar regularidades en la información recibida por mis ojos. Sin embargo, esto se ha traducido en una actualización de mis percepciones visuales y en un convencimiento claro de que mi gata está realmente en el sillón.

Tal vez sería útil reflexionar sobre qué implican realmente afirmar que mi gata está en el sillón o de que la Tierra se mueve. Recordemos que el territorio es, pero el mapa es sólo una representación que nos permite anticipar lo que ocurrirá al obtener nueva información del territorio. De modo que no es trivial justificar la existencia de las entidades que pueblan nuestros mapas. Creo que la clave radica, por un lado, en que la estructura del mapa acaba reflejando, gracias a regularidades detectadas en la información recibida, las regularidades que caracterizan los patrones del mundo externo y, por otro, en que las regularidades presentes en la estructura del mapa son entendidas como entidades, procesos u objetos. Cuando afirmamos que existe la fuerza de la gravedad estamos diciendo que la parte de la estructura teórica a la que nos denominamos fuerza de la gravedad esté relacionada informacionalmente con un patrón del territorio. El significado de un término ontológico depende en parte de la estructura lógica de nuestras creencias y en parte de la relación con el mundo externo.

Dado que la estructura de las teorías está constreñida por la información empírica, podemos estar seguros de cualquier teoría futura tendrá estructuras similares en los rangos empíricos mejor explorados y, por lo tanto, cualquier teoría futura podrá mantener las entidades que se corresponden con esas regiones de su estructura. Cualquier teoría biológica futura incluirá gatos y cualquier teoría química átomos y moléculas. Lo que es más dudoso es qué sucederá con las regiones más alejadas de la información empírica actual.

Además, el hecho de que los mapas no se deriven únicamente de la información empírica, sino que también puedan usar la exigencia de la coherencia lógica para llegar más allá nos permite plantear teorías capaces de hacer predicciones sobre las regularidades estructurales que deberán encontrarse en regiones inexploradas empíricamente. Por ejemplo, Mendeléyev hizo predicciones de nuevos elementos químicos haciendo interpolaciones en la estructura que había descubierto y Dirac predijo la existencia de algo que debía comportarse como un positrón al unir las restricciones teóricas de la relatividad especial con las de la mecánica cuántica.

Además, las regularidades presentes en los patrones del mundo externo se dan en distintos niveles. Hay regularidades a nivel atómico, ecológico o galáctico. Las estructuras que puedan aparecer al estudiar niveles hasta ahora inesperados empíricamente son completamente inesperadas, lo cual no implica, en absoluto, que las presentes en otros niveles vayan a ser afectadas. Puede que mañana los físicos descubran que el espaciotiempo puede derivarse de la estructura del espacio de Hilbert o puede que no lo hagan, pero de lo que podemos estar seguros es de que seguirá siendo útil hablar de espaciotiempo en teorías que tratan sobre la estructura del universo.

26.12 Hemos de utilizar conocimiento previo

A pesar de que el progreso científico ha sido enorme, debemos tener muy en cuenta que el conocimiento del mundo externo está sujeto a unas limitaciones inevitables que, en algunos casos, tienen implicaciones prácticas importantes.

Por otro lado, en muchos casos, incluso aunque dispongamos de las evidencias, las metodologías se aplican mal. No todos los artesanos ejercen su oficio con profesionalidad. De hecho, es casi imposible que el investigador individual no se equivoque una y otra vez. Es gracias al diálogo racional que esta limitación puede superarse parcialmente, pero, como veremos, existen en las comunidades humanas incentivos opuestos a esta racionalidad.

Otro de los problemas fundamentales es que los mapas no se generan, ni deben generarse, teniendo en cuenta sólo la información empírica, sino que requieren bastante conocimiento previo y ese conocimiento podría ser erróneo y podría sesgar el resultado. El conocimiento previo es imprescindible, pero a veces resulta ser un prejuicio que nos condena a generar espejismos.

Antes de empezar a estudiar filosofía de la ciencia puede que hubiese estado de acuerdo con la posición inductivista: el conocimiento debe generarse en dos fases, primero se obtienen las evidencias y más tarde se generan las conclusiones. Esta era la receta inductivista para evitar sesgos causados por nuestros prejuicios. El problema es que, por desgracia, este es un ideal ingenuo, que, aunque puede ser una guía general a tener en cuenta, estrictamente hablando es imposible de alcanzar; es imposible partir de una tabla rasa. Podríamos pensar también que no pasa nada si la fase de descubrimiento resulta algo confusa puesto que lo único que importa es la justificación y la contrastación y esto es cierto, pero sólo hasta cierto punto.

Por ejemplo, ya hemos visto que nuestras hipótesis previas han de guiar nuestra búsqueda de evidencias y que renunciar a ello implica que nos expongamos a que tomemos regularidades espurias con reales.

Además, no podemos hacer ciencia sin metodologías que utilizamos tanto para hacer observaciones sistemáticas, como para justificar nuestras conclusiones. Algunas de estas metodologías, por ejemplo, las basadas estrictamente en la lógica o las matemáticas se derivan de la asunción de coherencia del cosmos. Si aceptamos que los mapas han de ser coherentes la lógica y las matemáticas son normativas. Ningún científico puede aceptar que 1 más 1 son 3.

Pero no es posible derivar las metodologías científicas sólo de la lógica y las matemáticas. En realidad, las metodologías que utilizamos son aquellas que han parecido funcionar mejor en el pasado, es decir, aquellas que nos pareció que nos ayudaban a crear mejores mapas. Y esto implica que las metodologías incluyen, explícita o implícitamente asunciones sobre el comportamiento del sistema estudiado. Por ejemplo, nuestro sistema visual asume implícitamente que estamos observando un mundo continuo tridimensional y eso le permite generar buenas representaciones en alta definición a pesar de partir de una información limitada que por sí misma no es suficiente para crear las representaciones que crea. Son estas asunciones las que le permiten dar saltos lógicos ampliativos con más garantías, pero también es cierto que cuando fallan aparecen las ilusiones ópticas. La situación en ciencia es completamente análoga. Por ejemplo, en genética de poblaciones utilizamos modelos estadísticos que asumen apareamientos al azar, cuando esta asunción se viola los resultados obtenidos pueden ser engañosos. Aunque tampoco es cierto que la violación de una asunción implique que la conclusión sea completamente falsa, recordemos que estamos buscando mapas aproximados. Por ejemplo, todo el campo de la reconstrucción filogenética se basa en asunciones que sabemos que, en el fondo, no se cumplen estrictamente y aún así tenemos confianza en que las reconstrucciones que hacemos recogen aspectos relevantes de los patrones históricos.

Por otro lado, nuestro conocimiento está formado por redes y esto podemos aprovecharlo para plantear hipótesis a priori sobre fenómenos que no hemos estudiado empíricamente. Sean Carroll propone un ejemplo relacionado con la Luna. Antes de aterrizar en ella ya concedíamos una probabilidad muy alta a la hipótesis de que no estaba hecha de queso porque aplicábamos nuestro conocimiento sobre geología. Las teorías no están aisladas y esto, as su vez, conlleva el problema de que tampoco pueden ser evaluadas aisladamente. Por fortuna, no todo el conocimiento está relacionado con el resto en el mismo grado y esto es lo que nos permite hacer mejoras en distintas partes de la red.

El filósofo positivista Otto Neurath propuso la magnífica analogía del conocimiento como un barco. Cada teoría, hecho y metodología sería una madera del barco y nuestra misión consistiría en ir reemplazando y mejorando cada aspecto, pero sin olvidar que nos encontramos en alta mar y de que, en ningún momento, podemos permitirnos el lujo de partir desde cero.

En realidad, la forma óptima de generar mapas es actualizar nuestras expectativas, lo que los inductivistas podrían denominar nuestros prejuicios. Este es el modo en el que, como hemos explicado, funcionan nuestros sistemas perceptuales. Al tener en cuenta los mapas del pasado podemos generar mejores mapas del territorio actual dada una información limitada. El problema, claro está, es que las expectativas originales fuesen erróneas o que el territorio haya cambiado desde que se generaron. En la práctica sólo cuando disponemos de evidencias amplias y de buena calidad podemos limitar la influencia de la información previa y esta es una recomendación a tener en cuenta. Recordemos que el ideal científico moderno es escéptico y suspicaz así que tenderá a reservar el juicio cuando las evidencias sean limitadas. El problema se agrava cuando necesitamos tomar decisiones basándonos en información limitada. En ese caso lo racional es apoyarse más en las expectativas, pero siempre recordando que estamos corriendo un riesgo mayor; hay una fina línea entre usar el conocimiento previo y ser presa de nuestros prejuicios.

26.13 Los hechos son limitados, falibles y están cargados de teoría

Las evidencias empíricas también están sujetas a limitaciones fundamentales. Por ejemplo, son limitadas. En muchos casos no disponemos de evidencias que serían clave y, además, las que sí tenemos podrían ser erróneas. ¿Qué observaríamos si pudiésemos hacer experimentos detallados a nivel cuántico cerca de un agujero negro? No lo sabemos. ¿Cuáles son los eventos reales de infección y contagio que permiten que un virus se mueva por una comunidad? En la mayoría de los casos no tenemos información directa sobre ellas. En las ciencias sociales suele ser muy difícil disponer de la información relevante: ¿cuál es el grado de felicidad de la gente? De hecho, ¿qué significa esto de la felicidad y cómo podría cuantificarse? Es muy común que no dispongamos de las evidencias que habríamos de tener para detectar las regularidades más relevantes presentes en el territorio. En muchas ocasiones actuamos como el borracho que busca las llaves debajo de la farola. No las busca ahí porque las haya perdido en ese punto, sino porque ese es el único lugar iluminado y, por lo tanto, el sitio en el que más esperanzas tiene de encontrarlas.

Estamos tratando de mejorar el barco, pero no podemos hacerlo sin apoyarnos en él. Recordemos, por ejemplo, que habíamos recomendado que nuestras hipótesis previas guiasen la búsqueda de nuevas evidencias a favor y en contra de las distintas hipótesis en liza.

Además, también hemos de recordar que los hechos son falibles, podrían ser, simplemente, erróneos o, al menos, matizables y que siempre hemos de estar abiertos a reevaluarlos. El conocimiento del mundo externo no se sostiene sobre una sólida base granítica, sino, más bien, sobre un lecho pantanoso en el que se van clavando pilares más o menos sólidos. Por ejemplo, podemos partir de percepciones elementales. Estas evidencias, a su vez, sostienen la estructura sobre la que, gracias a la coherencia lógica de esas percepciones, se van construyendo teorizaciones cada vez más alejadas de la percepción. En realidad, la distinción entre hecho y teoría no es tan clara. Las órbitas keplerianas fueron teorías para Kepler, pero hechos para Newton; en muchos casos las conclusiones de una investigación se convierten en los hechos de la siguiente. Y, además, las leyes de newton terminaron contradiciendo parcialmente los hechos keplerianos.

Es fácil asumir que los hechos se encuentran en el mundo externo como los champiñones y que nuestra labor consiste, simplemente, en recogerlos. Si hay un gato, veo un gato y eso es un hecho, no merece la pena darle muchas más vueltas al asunto. Pero, la realidad es mucho más sutil. De hecho, como hemos visto, ni siquiera es tan trivial justificar la existencia del gato en el territorio, lo que es indudable es que yo percibo un gato, pero el territorio es mucho más complejo, el gato está formado por moléculas y átomos que yo no percibo.

Los hechos dependen, en cierto grado, de nuestro conocimiento previo y de las metodologías que los generan, están, por lo tanto, cargados de teoría, esta es otra de las limitaciones fundamentales. Por ejemplo, un investigador ha de aprender a observar, esto le permite generar hechos que una persona no entrenada no sería capaz de ver. Por ejemplo, un botánico volverá del campo con hechos sobre la flora que yo nunca podré generar.

Parte de esta carga teórica es debida a las categorizaciones que utilizamos. Creamos entidades y clases para reflejar la estructura que nos parece haber detectado en el territorio y no podemos crear hechos que no hagan uso de estas categorías. Cuando en mi trabajo digo que el tomate cultivado tradicional europeo tiene una diversidad genética menor que el americano estoy haciendo uso de una taxonomía que, evidentemente, depende de mi conocimiento previo. Si, además, estoy tratando de comparar las diversidades genéticas de distintas poblaciones habré de ser muy cauto porque estos hechos dependen, claramente, de las poblaciones que haya decidido utilizar. La categorización, en principio, debería reflejar las regularidades del territorio, pero, casi siempre será aproximada y dependerá, al menos en parte, de nuestra perspectiva y, en ocasiones, podría llegar a ser muy engañosa. En cualquier caso, es fundamental reconocer que las categorizaciones no dependen exclusivamente del mundo externo, sino que, en realidad, son mapas que pretenden reflejar su estructura.

Todos los hechos están cargados de teoría, pero no todas las cargas teóricas no afectan por igual a la elección entre hipótesis. Este problema se hace relevante, sobre todo, cuando los hechos no son neutrales respecto a las hipótesis que estamos evaluando. Por ejemplo, si dos astrónomos discuten sobre las trayectorias de los planetas, sus observaciones dependen de las teorías ópticas, pero esta carga teórica es neutral respecto a las hipótesis que están evaluando porque las afecta de igual modo. Sin embargo, las cosas se complican cuando los hechos, como, por ejemplo, las clasificaciones taxonómicas, influyen desigualmente en las hipótesis evaluadas. En estos casos los hechos dejan de ser evidencias imparciales en el juicio a las hipótesis evaluadas. Conviene entonces reevaluar la situación con cuidado, tal vez descendiendo a observaciones más elementales. Por ejemplo, en el caso del tomate decidí prescindir de las clasificaciones taxonómicas que estaba manejando y recopilé nuevas evidencias que utilicé para generar y justificar nuevas clasificaciones.

Resumiendo, los hechos están cargados de teoría y esta carga puede no ser neutral. Esto no implica que los hechos sean inútiles, recordemos que también dependen del mundo externo y, por lo tanto, contienen información sobre él. Pero sí hemos de tratar de evaluar en qué grado dependen del mundo externo y en qué medida del observador y siempre hemos de tener en cuenta que podrían encerrar sesgos debidos a nuestra perspectiva.

26.14 El problema de las inferencias ampliativas

Es imposible inferir conocimiento general a partir de información limitada sin dar saltos lógicos inválidos. Esta es otra de las limitaciones fundamentales que el cartógrafo deberá asumir. Esto no implica que nuestros mapas vayan a ser necesariamente falsos, es evidente que puede generarse conocimiento útil, pero sí que hemos de considerar que, incluso aunque nos esmeremos por hacer ciencia con el máximo rigor, las conclusiones siempre serán falibles o, al menos, parciales y aproximadas.

Esta limitación general se concreta en varios problemas prácticos. Por ejemplo, hemos defendido que el conocimiento del territorio se fundamenta sobre los hechos, pero estos hechos, además de ser falibles y de ser más o menos neutrales respecto a las hipótesis evaluadas, son, irremediablemente, hechos que provienen del pasado. Por lo tanto, nuestros mapas, en el mejor de los casos, serán adecuados, pero, se referirán, irremediablemente, al pasado. Mientras que el territorio no cambie esto no es problema, pero si cambia el mapa, como es obvio, fallará a pesar de que en el pasado lo hubiésemos contrastado con el máximo rigor. Este problema también afecta a nuestras metodologías que se validaban, al menos en parte, por haber demostrado funcionar en el pasado. Y, recordemos, el territorio puede cambiar sin previo aviso y sin que nos demos cuenta.

Por ejemplo, nuestros sistemas perceptuales utilizan heurísticas implícitas que, en general, nos sirvieron bien en el pasado, pero cuando se enfrentan a estímulos que violan las reglas que funcionaron en el pasado producen ilusiones perceptuales. Sufrimos problemas análogos cuando tratamos de aplicar mapas generados en el pasado a territorios que han cambiado sin que nos hayamos dado cuenta.

La solución parcial es asumir que no tenemos garantía de que el territorio no haya cambiado y permanecer atentos a que las nuevas evidencias puedan estar invalidando nuestro conocimiento previo.

Otro problema ineludible es el de la subdeterminación. Siempre puede haber otra hipótesis que sea igual o, incluso, mejor que la nuestra. Esto no es una simple posibilidad filosófica, a principios del siglo XX los físicos vieron como sus teorías mejor contrastadas, la mecánica newtoniana y la electrodinámica de Maxwell eran sustituidas por teorías que, al menos en el caso de la mecánica cuántica, eran radicalmente distintas.

Es cierto que si nos ceñimos a las estructuras, el problema de la subdeterminación es menor puesto que las nuevas teorías tendrán estructuras similares en las regiones mejor exploradas empíricamente por las contrastaciones antiguas, pero aún así fuera de los rangos previamente conocidos pueden aparecer dragones y, además, la metafísica también tiene una cierta importancia porque es así como entendemos el mundo los seres humanos y porque, además, influye en las decisiones relativas a la investigación que toman los científicos.

26.15 Podría fallar, pero suele funcionar

Estas limitaciones ineludibles impiden que disfrutemos de garantías absolutas, siempre cabe la posibilidad de que estemos terriblemente equivocados, pero esto no implica que nuestros mapas siempre vayan a ser completamente erróneos; el escepticismo radical es una conclusión estéril. La percepción suele funcionar y la ciencia también. El conocimiento del mundo externo no disfruta de un absoluto filosófico; hay muchas cosas que podrían ir mal, pero no es menos cierto que hemos acumulado mucho conocimiento, que las ciencias clásicas funcionan bastante bien, que el éxito operacional alcanzado por esas ciencias es espectacular, que hemos enviado sondas a Plutón, que alimentamos a 7000 millones de personas, que hemos desarrollado vacunas en menos de dos meses desde la aparición de una nueva enfermedad y que disponemos de potentes computadoras de bolsillo capaces de mostrarnos vídeos de gatitos sin interrupción.

No he hablado de estos problemas y limitaciones porque piense que la ciencia es una simple construcción social sin una relación especial con el territorio. Que exista la posibilidad lógica de que algo puede ir mal no implica que tenga que fallar en todos los casos. Me he detenido en las limitaciones porque es importante tener en cuenta que el camino del conocimiento es tortuoso y exige virtud metodológica y modestia intelectual. Espero que esta crítica constructiva contribuya a que permanezcamos siempre vigilantes; la ciencia no funciona gracias a la confianza, sino a la suspicacia y el rigor. No hemos de creer aquello que nos parezca haber visto, hemos de aceptar sólo aquello para lo que tengamos abundantes observaciones y aun en ese caso sólo tentativamente. Nuestro conocimiento nunca podrá ser completo. Es imprescindible asumir una gran modestia intelectual. Con esto tampoco quiero decir que debamos asumir que no sabemos nada, no, la modestia intelectual simplemente implica que el territorio que estamos tratando de cartografiar es traicionero y que nuestras capacidades son limitadas. Tendremos que hacer acopio del mayor rigor posible y es imprescindible que contemos con colaboradores racionales dispuestos a criticarnos justificadamente. Ser conscientes de qué tarea es difícil facilita que encontremos y corrijamos los errores y eso nos permitirá solventar problemas más difíciles.

26.16 Normas y jueces

En ciencia hay normas epistémicas, y aunque hay algunas absolutas, como la aritmética, la mayoría deben ser evaluadas en cada situación puesto que podrían entrar en conflicto entre sí. Por ejemplo, hemos dicho que hay que rechazar las hipótesis que no cuadran con los hechos, pero también hemos asumido que los hechos pueden ser erróneos o que el aparente conflicto puede ser debido a asunciones auxiliares erróneas y no a la propia hipótesis. Hay normas epistémicas, pero no un algoritmo absoluto, un método, que dicte con completa precisión cómo aplicarlas en cada ocasión. Esto implica que los investigadores tienen una cierta libertad a la hora de juzgar una cuestión concreta. Necesitamos jueces que decidan cómo interpretar y aplicar las normas epistémicas. En muchos casos el juicio será obvio, no se puede tolerar que una hipótesis requiera que 1 más 1 sean 3 o que aceptemos que los burros vuelan, pero en otros la dependencia del buen oficio y del compromiso epistémico de los jueces será mayor.

En última instancia es la comunidad la que interpreta las normas y la que alcanza, o no, una decisión consensuada. Un científico puede proponer, pero, al final, lo que tendremos que valorar es que se alcance un consenso más o menos amplio entre los expertos. Además, lo que no somos expertos en un área haremos bien en adoptar la postura consensuada por los expertos y habremos de abstenernos de juzgar sobre problemas complejos.

Existe una tensión entre la normatividad de las reglas epistémicas y el oficio y la libertad de los jueces que las aplican. La existencia de normas epistémicas hace posible que hablemos de racionalidad, pero esta racionalidad necesita de una comunidad que la aplique y esta aplicación dependerá, hasta cierto punto, del buen criterio de los investigadores involucrados. La racionalidad no consiste en un algoritmo, sino que, en muchos casos, requerirá de juicios complejos que dependerán, al menos en parte, de la interpretación que hagan los investigadores utilizando esas normas. Esto hace que, en un grado variable que depende de la dificultad del problema, el resultado dependa de los valores y de la capacidad de la comunidad. El buen oficio de los investigadores es un factor relevante.

Por otro lado, cuanto más fuertes sean las evidencias menos margen de interpretación habrá. Galileo pudo enfrentarse, y acabar convenciendo a la comunidad, porque sus propuestas estaban bien justificadas por los hechos y la lógica, no necesitó más. Sin embargo, en otros casos, sobre todo cuando las evidencias escasean, los hechos están muy cargados de la teoría evaluada y los fenómenos estudiados son complejos, la libertad epistémica de la que gozan los investigadores puede tener mucha relevancia y es en algunos de esos casos en los que puede que sea recomendable reservar el juicio.

26.17 Exigencias deontológicas

Este grado de libertad epistémica del investigador implica una gran responsabilidad y hace necesario que se consideren los valores epistémicos de los buscadores de conocimiento. Los científicos deberían actuar en todo momento tratando de optimizar la creación de conocimiento. La práctica honesta de la ciencia exige un compromiso radical con la integridad intelectual.

El científico no ha de enamorarse de una hipótesis concreta, tiene que defender el proceso de generación de conocimiento; debemos ser buscadores de la verdad, no defensores de nuestras ideas. Lo contrario puede sesgar los juicios que necesariamente habremos de hacer y nos puede encerrar en círculos viciosos que favorezcan únicamente la validación de nuestras ideas previas.

La cognición humana es limitada y falible, así que tenemos que esforzarnos en ser autocríticos y por buscar la crítica razonada de nuestros compañeros. Nuestros críticos racionales no son rivales, sino colaboradores que nos ayudan a reconocer el error. Y, por supuesto, hemos de devolver el favor que se nos hace participando en la construcción colectiva de conocimiento llevada a cabo mediante el diálogo racional del ágora. Este diálogo implicará crítica, pero crítica racional; el objetivo es obtener entre todos los hechos más fuertes, construir las justificaciones más sólidas y lograr construir las hipótesis más contrastadas.

La integridad intelectual implica también la participación en las discusiones sociales que se dan en la sociedad en su conjunto. El experto íntegro tiene el deber de luchar contra los errores, relacionados con su área de conocimiento, que detecte en la sociedad.

26.18 Incentivos perversos

Los científicos, al menos por el momento, son humanos y aunque no hemos de desdeñar nuestra necesidad animal de comprender el territorio, tampoco hemos de caer en la equivocación de creer que somos epistémicamente puros. Es cierto que nos interesa, en mayor o menor grado, la generación de conocimiento, pero, como mamíferos sociales que somos, la posición en la jerarquía es otro de nuestros grandes intereses. En muchas ocasiones estos dos grandes incentivos entran en conflicto y, en la práctica, no siempre vence el compromiso con la integridad intelectual.

Los científicos suelen estar muy preocupados por su prestigio, tanto dentro de las comunidades científicas, como en la sociedad en general; son conscientes de que de él dependen su carrera profesional, la financiación de sus investigaciones y la atención que les presta el resto de la comunidad.

Existe, por tanto, la tentación de convertirnos en propagandistas, de traicionar el ejemplo de Platón o Darwin, de no publicitar las debilidades de nuestras hipótesis y justificaciones. Un artículo científico en el que no se destaquen las limitaciones de la investigación es un ejercicio publicitario. De hecho, cada vez es más habitual que los artículos científicos no sólo oculten sus debilidades, sino que inflen sus virtudes. Hay que tener en cuenta que los investigadores piensan, probablemente con razón, que es más difícil publicar un artículo cuando no se exponen sus limitaciones y se es generoso con sus virtudes. Esta es una tentación que llega, en muchos casos, a convertir a los investigadores en malos científicos que sesgan sus juicios para defender conclusiones llamativas.

Es muy importante que los no expertos entendamos que los estudios individuales no tienen utilidad para nosotros, precisamente, por estos motivos. Los científicos además de que pueden equivocarse, tienen incentivos que les llevan, en muchos casos, a inflar las conclusiones y los no expertos no somos capaces de evaluar sus justificaciones. La ciencia no avanza por una acumulación de verdades, sino gracias a un complejo proceso de discusión. Un artículo concreto no ha de considerarse como una verdad, sino como un argumento en la discusión que puede ser completamente erróneo. Los no expertos hemos de confiar en el consenso de los expertos y cuando este no se alcance lo más recomendable es que reservemos el juicio.

La crítica racional del investigador a sus colegas es otra de sus obligaciones, pero hemos de recordar que un mamífero que maltrata a un compañero es un traidor. El ideal habría de ser respetar la verdad y, además, el colega tendría que agradecer nuestro interés por ayudarle a salir del error, pero en la práctica la crítica daña el prestigio del colega y, por lo tanto, sus oportunidades laborales. La crítica también implica un coste para quien la hace porque los mamíferos sociales repudiamos a los traidores. De modo que la crítica siempre implica una tensión entre traicionar a la razón o a la manada. Estamos incentivados para abandonar nuestro papel socrático para convertirnos en cortesanos que maquinan en las pausas del café de los congresos para conseguir ventajas en una próxima publicación o en la financiación de un nuevo proyecto.

La vitalidad de las comunidades racionales depende del compromiso de sus miembros con la verdad por encima de otras consideraciones. Respeto mi colega y por eso amo más a la verdad.

También estamos tentados de traicionar nuestro deber socrático para con la sociedad en su conjunto. Suele pedirse que el científico se acerque a la sociedad y que divulgue su conocimiento. Es habitual elogiar los intentos por explicar el funcionamiento de los agujeros negros o de los cánceres. Sin embargo, no se habla tanto del papel del científico como crítico social. En la sociedad se mantienen muchas ideas erróneas y es deber de los expertos en cada área criticarlas. Por ejemplo, es común pensar que la denominada agricultura ecológica tiene un impacto medioambiental menor que la convencional a pesar de que la realidad es la contraria. Es deber de los que trabajamos en agricultura explicar este error. Pero hacerlo implica renunciar a financiación. Recordemos que los organismos públicos, que son elegidos democráticamente, eligen cómo se financia la ciencia. En la actualidad las administraciones europeas y locales llevan tiempo financiando proyectos de investigación cercanos al área de la agricultura ecológica y muchos investigadores eligen callar sus críticas razonadas para poder mantener sus laboratorios abiertos. Esto, por supuesto, nos convierte en pseudointelectuales.

26.19 Ágora, corte y bazar

El ágora racional es el ideal a seguir. Debemos fomentar el diálogo racional y el compromiso con la integridad intelectual en todas las comunidades relacionadas con el conocimiento.

En realidad, probablemente por estar espoleadas por la facilidad de la contrastación, las comunidades científicas suelen ser uno de los mejores ejemplos de comunidades racionales que tenemos los seres humanos. Es cierto que hay aspectos mejorables, pero el compromiso con la búsqueda de la verdad es, claramente, mucho mayor en las comunidades científicas que, por ejemplo, en las religiosas. El ejemplo del diálogo racional de Bohr y Einstein, la autocrítica de Darwin o la sumisión de Kepler a las observaciones, tal vez sea el principal legado que la ciencia pueda hacer a la sociedad en general.

Por otro lado, las comunidades científicas harían bien en tomarse en serio su papel ejemplar, en fomentar la crítica racional y en castigar a los propagandistas y cortesanos. Las comunidades en las que participo, a veces, me recuerdan demasiado a las cortes, a los reinos de tafias, a las redes clientelares y a los publicistas de las grandes agencias.

La realidad, supongo, se encontrará, más bien, cercana al bazar. Hay actores comprometidos en distinto grado con la integridad intelectual y esto, en gran medida, creo que depende de la facilidad de contrastación de los problemas tratados. Si sabes que la realidad es fácil de comprobar estás incentivado para detectar el error antes de que otros lo detecten por ti. Sin embargo, cuando crees que podrás colar tu mala ciencia sin que se descubra el pastel, te sentirás más libre para convertirte en un cortesano y un publicista.

26.20 Ciencias y ciencias

La ciencia es muy heterogénea y está compuesta por áreas en la que se estudian fenómenos muy diferentes utilizando metodologías muy diversas. Existe un sólo territorio, pero su estructura es tan rica a distintas escalas, que su estudio se organiza en distintas ciencias y comunidades que son, hasta cierto punto, independientes.

Estas perspectivas son complementarias, no alternativas, siempre que se estudie un mismo fenómeno desde distintos puntos de vista las conclusiones obtenidas deberían ser coherentes. Por ejemplo, Carnot y Boltzmann estudiaron la termodinámica a escalas y con metodologías muy distintas, flujos de calor macroscópicos y mecánica estadística microscópica respectivamente, pero sus conclusiones fueron completamente coherentes. Lo mismo ocurrió con los átomos de los químicos, derivados de las relaciones estequiométricas de las reacciones químicas, y de los físicos, que aparecieron en multitud de fenómenos.

Por otro lado, los investigadores se enfrentan a problemas con niveles de dificultad muy diferentes. Por ejemplo, hay problemas que no se prestan a la realización de experimentos. En algunos casos, como en astrofísica o epidemiología, no podemos controlar las condiciones de la observación y, en otros, como en filogenética, estudiamos fenómenos históricos que no volverán a repetirse y que queremos reconstruir a partir de los vestigios que dejaron.

La contrastación es mucho más sencilla cuando podemos hacer predicciones. Por ejemplo, si mi teoría predice que la bolita tiene que caer con una aceleración determinada y se queda flotando en el aire, mi teoría tiene un problema serio. Sin embargo, si mi hipótesis no puede hacer predicciones porque se refiere a un sistema muy complejo en el que influyen múltiples causas, será más difícil falsarla. Por ejemplo, yo podría plantear un modelo para la difusión de un virus en la población y si me atreviese a predecir que su incidencia aumentará en dos semanas y, sin embargo, a las dos semanas observo que ha disminuido, podría decir que el modelo falló porque los políticos implementaron medidas adecuadas o que los ciudadanos fueron conscientes de la gravedad de la situación y aumentaron su cautela. Este no es un problema insalvable. Por ejemplo, los meteorólogos han aprendido a predecir probabilidades de distintos resultados y el resultado de sus modelos es, por lo tanto, probabilístico. Este es un gran ejemplo, pero, por desgracia, hacer esto es difícil incluso para un área en la que se conocen perfectamente todas las leyes fundamentales.

Cuando las predicciones no son posibles las hipótesis pueden contrastarse utilizando nuevas observaciones. Por ejemplo, los epidemiólogos no pueden hacer experimentos, pero sí pueden contrastar sus modelos frente a observaciones obtenidas en poblaciones muy distintas.

La excesiva, e inevitable, carga teórica de los hechos es otras de las dificultades principales a las que se enfrentan algunas ciencias. Por ejemplo, en psicología es difícil generar hechos que estén cerca de percepciones elementales o que tengan una carga teórica neutral respecto a las hipótesis evaluadas. Esto no imposibilita completamente la contrastación, pero la hace mucho más difícil.

Cuando los problemas son complejos o las evidencias tienen mala calidad o no son neutras respecto a las hipótesis evaluadas, nuestras limitaciones cognitivas, las motivaciones ideológicas y los incentivos perversos que acechan en las comunidades pueden hacerse más patentes y el progreso del área de conocimiento afectada se hará más difícil. Si no es sencillo separar el grano de la paja, elegir los mapas que funcionan y los que no, el área tendrá una mayor tendencia a quedarse atascada. Además, cuanto más difícil sea la contrastación empírica, más fácil será esconder la mala ciencia. La clave del progreso no reside en no equivocarnos, sino en ser capaces de detectar el error. Como en la selección natural, cuanto más clara sea la forma de discriminar los modelos buenos de los malos, más eficiente será la generación de conocimiento. Si, además, no hay incentivos que favorezcan el diálogo racional, la tentación de generar narrativas reconfortantes, que estaremos tentados de confundir con verdaderos mapas, será grande. Confundir una narrativa con conocimiento es el equivalente cognitivo de la alucinación colectiva. Hemos de ser muy cautos cuando nos enfrentemos a un área en las que los mapas no pueden usarse para hacer intervenciones o predicciones exitosas y en la que hay que echar mano de continuas hipótesis ad hoc para apuntalar nuestras hipótesis o en la que las hipótesis son capaces de dar cuenta de cualquier observación. En estos casos lo honesto sería reconocer la poca utilidad de los resultados obtenidos.

La eficiencia y el grado de éxito dependen de la dificultad del problema, de la facilidad de contrastación y de la cultura de la comunidad; la dificultad de generación de conocimiento depende del cartógrafo y del territorio. Hay problemas que, incluso con nuestras mejores herramientas y nuestras mejores intenciones, no podremos resolver. Pero lo peor que nos puede pasar no es que no podamos saber algo, sino que creamos algo falso. Conviene recordar que tendemos a detectar regularidades incluso donde no las hay; esta es una de las principales debilidades de la cognición humana, la otra es aferrarnos a nuestras creencias más queridas. Es importante evaluar cuánto han influido en las conclusiones los factores internos, psicológicos o sociales, y cuánto los externos, la información proveniente del territorio. Si la evaluación es difícil, o el problema tiene poco interés, los aspectos internos pueden ganar protagonismo y la comunidad puede acabar dando respuestas empíricamente poco adecuadas a las que se les asigne una confianza inmerecida, es decir, puede acabar generando alucinaciones creadas por las dinámicas sociales y los sesgos de los investigadores.

En cualquier caso, los valores epistémicos y el compromiso deontológico son importantes sólo hasta cierto punto. Cuando un área no consigue progresar durante un tiempo prolongado, cuando sus hipótesis son vagas y no permiten actuar sobre el territorio, cuando no favorece la creación de tecnologías, cuando el territorio sigue sorprendiendo, se empieza a dudar de su lugar junto al resto de ciencias.

El riesgo principal es asumir que todas las ciencias merecen la misma confianza. Algunas conclusiones son más sólidas que otras y no hemos de trasladar el prestigio obtenido gracias al éxito operacional de algunas ciencias al conjunto de las áreas autodenominadas científicas. Es un error trágico trasplantar el prestigio de la física del estado sólido a la macroeconomía o a algunas de las recomendaciones pedagógicas. Sin embargo, la tentación de arrogarse el prestigio social de las ciencias exitosas es grande, tanto dentro como fuera del mundo académico. La ciencia funciona bien en muchos casos, pero en ocasiones puede llegar a tener un exceso de confianza casi absurdo, similar al de una pseudociencia.

Lo que no debemos hacer en ningún caso es aceptar el relativismo; cuando desconocemos la estructura territorio es absurdo aceptar cualquier mapa, lo racional es hacer una prudente y escéptica reserva de juicio, hemos de admitir, simplemente que no sabemos o que nuestro conocimiento es muy tentativo.

26.21 Para qué sirve la ciencia

La ciencia es el fruto de nuestro mejor intento colectivo de comprender el Cosmos, nuestro mejor intento de racionalidad; falible y abierta a mejora, pero capaz de generar las tecnologías que sostienen nuestra civilización.

Gracias al conocimiento científico sabemos quienes somos: mamíferos sociales con lenguaje e ínfulas que habitan un pequeño oasis fértil en un inmenso universo hostil. Por el contrario, el provinciano mito religioso que permeaba la cultura de mi infancia pretendía que éramos hijos del omnipotente y omnisapiente creador del universo y que el mundo natural estaba a nuestro servicio. No podremos comprender nuestro papel en el Cosmos mientras seamos ajenos a la realidad. Recuerdo que la primera vez que el rompecabezas encajó fue cuando, siendo niño, escuché la voz de Carl Sagan desgranando, capítulo tras capítulo, qué somos y qué es el Cosmos.

Por si esto fuese poco, la ciencia nos eleva estéticamente imbuyéndonos del logos. Para el iniciado el orden del ciclo químico de la fotosíntesis y la respiración o las profundas implicaciones de los modestos planos inclinados son equivalentes las sinfonías de Beethoven o las partitas de Bach. Si hay algo que lamento, es ser consciente de la enormidad de la belleza que todavía me es ajena. Son tantísimas las cosas que no sé.

Por último, la ciencia y la filosofía señalan los límites del conocimiento, la desafiante frontera que atrapa nuestras pupilas, que nos impele a dar un paso más, que nos eleva.

Un cerdo que no vuela no es más que un cerdo. Hayao Miyazaki