14 Elección entre hipótesis
Probablemente una de las actividades más importantes para el investigador sea la de elegir, de entre todas las hipótesis planteadas, la más adecuada.942 Para poder generar conocimiento sobre el mundo externo, es esencial disponer de unos criterios de elección entre hipótesis que dependan, esencialmente, de ese mundo externo. En este capítulo trataremos de analizar cuáles son los criterios que se utilizan en la práctica y cuáles son los que deberían usarse.
14.1 Criterios epistémicos
Las hipótesis tendrían que ser seleccionadas, sobre todo, basándose en criterios epistémicos. Es decir, habríamos de considerar, principalmente, las evidencias empíricas disponibles, así como la coherencia lógica de la hipótesis.943 Una teoría debería ser, como mínimo, empíricamente adecuada, es decir, su descripción y predicciones relativas al fenómeno descrito deberían corresponderse, al menos hasta cierto punto, con las evidencias disponibles.944 Este concepto de adecuación empírica puede parecer trivial, pero el lector hará bien en recordarlo porque será fundamental cuando más adelante tratemos la cuestión de la metafísica naturalista. La adecuación empírica es uno de los objetivos fundamentales de las teorías científicas.
Además, cuanto mayor sea la precisión de las predicciones mayor habría de ser el interés por la teoría. La relatividad general, por ejemplo, hace mejores predicciones que la newtoniana sobre la órbita de Mercurio y este es uno de los motivos por los que la preferimos como teoría fundamental de la naturaleza. La precisión es uno de los criterios más importantes que tienen en cuenta los investigadores a la hora de prestar su apoyo a una teoría o a otra.945
Un problema es que la comparación de la adecuación empírica entre distintas hipótesis no siempre es trivial. Una dificultad con la que, en la práctica, suelen encontrarse los investigadores es que una hipótesis rara vez dará cuenta de todas las observaciones. Es posible que algunas evidencias sean, simplemente, erróneas. Pero también hemos de tener en cuenta que las hipótesis suelen reflejar la estructura del mundo externo sólo aproximadamente, por lo que, en muchas ocasiones, algunas de las observaciones sí cuadrarán, pero otras no. Esto dificulta la comparación objetiva de distintas hipótesis. Incluso puede ocurrir que diferentes hipótesis den cuenta de aspectos complementarios del problema estudiado. En estos casos, si insistimos en elegir una de ellas estaríamos obligados a conceder una importancia relativa a unas observaciones frente a otras. Por fortuna, también es cierto que a medida que la investigación avanza las hipótesis se van reformulando, es decir, se van creando hipótesis nuevas que incorporan las enseñanzas de las anteriores y las colisiones con las observaciones y que, por lo tanto, acaban teniendo una adecuación empírica claramente superior que facilita la comparación objetiva. Aunque hemos de tener en cuenta que este proceso puede demorarse bastante tiempo y que, además, en algunos casos, nos conformamos con las vacas esféricas.
Por otro lado, los científicos de entre aquellas teorías empíricamente adecuadas, suelen preferir las que tienen un mayor poder explicativo946 o fuerza empírica,947 es decir las capaces de describir un mayor número de fenómenos partiendo de menos supuestos. El poder explicativo sería el reverso positivo de las hipótesis ad hoc. La relatividad general, por ejemplo, es una teoría que puede construirse partiendo de muy pocos principios y que, sin embargo, es capaz de describir el salto de un gato o la órbita de un planeta o de predecir la existencia de los agujeros negros y el cambio en la frecuencia de giro de un sistema estelar binario debido a las ondas gravitacionales. Es, por lo tanto, una teoría que tiene un extraordinario poder explicativo.
Esta preferencia por teorías con mayor poder explicativo, además, termina estableciendo una forma de progreso científico ya que, poco a poco, se van necesitando menos teorías para describir múltiples fenómenos que antes se consideraban como independientes. Uno de los grandes éxitos newtonianos, por ejemplo, fue unificar el movimiento de los planetas y las manzanas mediante una única teoría gravitatoria.948 Y el otro gran triunfo clásico consistió en unificar la descripción de los múltiples fenómenos magnéticos y eléctricos en sólo cuatro ecuaciones que, además, inesperadamente, también describían la luz como una onda electromagnética. Esta es una forma de progreso científico reconocida por la práctica totalidad de los filósofos de la ciencia. Incluso Kuhn, que, como veremos, no fue capaz de encontrar progreso en los supuestos bandazos metafísicos de la ciencia, asumió de buen grado que las teorías posteriores suelen explicar más fenómenos, tienen un mayor poder explicativo, que las anteriores.949
Sin embargo y a pesar de estos éxitos no hemos de pensar que algún día llegaremos a tener una única teoría capaz de explicar desde los átomos a los movimientos bursátiles. Actualmente, es difícil, incluso, predecir el comportamiento químico partiendo de la física fundamental. A lo que podemos aspirar es a tener un conjunto de teorías coherentes, cada vez más reducido, que no se contradigan entre sí, y que cada vez expliquen más fenómenos.
Además, en muchos casos, las nuevas teorías suelen ser más productivas que las antiguas, es decir, que abren nuevas vías de investigación. Por ejemplo, el electromagnetismo de Maxwell, que acabamos de comentar, permitió predecir la existencia de las ondas de radio y, posteriormente, sirvió para integrar en el mismo marco descriptivo los rayos X, la luz infrarroja y la ultravioleta.
La del poder explicativo, puede ser entendida como la capacidad que tiene una hipótesis de resumir las observaciones, es decir, como el poder de compresión de la información empírica disponible en unos principios teóricos mínimos. La relatividad general, por ejemplo, puede, partiendo de un marco teórico muy pequeño, explicar multitud de fenómenos, lo que equivale a decir que resume muy eficientemente la estructura detectada en multitud de observaciones, y esto es, sin duda, un aspecto positivo. Podríamos pensar en otra hipótesis planteada por Seinstein, el primo calvo de Einstein, que hiciese las mismas predicciones empíricas, pero que requiriese de muchas más asunciones. Esta teoría, a pesar de ser empíricamente adecuada, tendría una capacidad de compresión menor, y nos enfrentaría, en mi opinión, a un riesgo epistémico superior. Yo estaría más tranquilo planeando mis acciones futuras poniéndome en manos de Einstein que de Seinstein. Esto puede parecer llamativo puesto que ambas, como he dicho, serían capaces de explicar las mismas evidencias, pero creo que hay un riesgo epistémico relacionado con el problema del sobreajuste (en inglés overfitting).
Cualquiera que intente extraer patrones a partir de un conjunto de observaciones debería ser consciente del problema del sobreajuste. En muchos casos, el mundo externo tiene un comportamiento complejo debido a la interacción de varios fenómenos. Por ejemplo, los objetos caen acelerados por la gravedad terrestre, pero, además, la estructura del mundo externo debida a este fenómeno es enturbiada por otros fenómenos secundarios, como el rozamiento con el aire o la rotación de los objetos durante su caída. Recordemos que Galileo nos recomendó ignorar algunos de estos detalles, que él consideró espurios, para centrar nuestra atención en los patrones principales. De algún modo, ignorar esos detalles le permitió describir un patrón, el gravitatorio, capaz de ser extrapolado a muchos otros casos por ser más fundamental y estable. Si, por el contrario, hubiese tratado de describir con absoluta precisión la caída de los cuerpos que estudió, habría obtenido algunas reglas empíricas difícilmente extrapolables, ya que habrían sido muy particulares, habrían dependido de cada cuerpo estudiado, así como, de las circunstancias de viento, presión, temperatura y rozamiento.
Este es un ejemplo particular del problema del sobreajuste al que se enfrentan los métodos estadísticos de búsqueda de patrones. Imaginemos, por ejemplo, que tenemos un conjunto de puntos en un plano cartesiano que se ajustan, aproximadamente, a una recta, pero que han sido obtenidos por un método que tiene un pequeño error de medida. En este caso, lo más informativo sería describir el patrón como una recta, pero esto implicará que el ajuste obtenido no coincidirá con la mayoría de los puntos observados. Para reflejar el patrón relevante estaremos obviando parte de la señal como si fuese ruido. Si, por el contrario, tratásemos de conseguir un ajuste perfecto, una curva que pasase por todos los puntos, obtendríamos un patrón mucho más complejo, pero que no podríamos extrapolar con éxito a otros experimentos similares.
Para evitar este problema del sobreajuste, los estadísticos que construyen modelos del mundo mediante técnicas de aprendizaje automático suelen dividir sus evidencias en dos grupos: uno que utilizan para generar el modelo y otro que emplean para comprobar las predicciones del modelo generado. De este modo evitan los modelos sobreajustados que sólo funcionan con el primer conjunto de datos, pero que no son extrapolables al segundo.950 Estos investigadores no se conforman con tener un modelo que resuma lo que ya sabemos, con inducir un modelo empíricamente correcto, sino que aspiran a obtener un modelo capaz de hacer predicciones válidas con las que guiarnos en el futuro y, para ello, tratan de evitar los detalles espurios que puedan estar enturbiando la estructura básica del fenómeno estudiado.
Los modelos más complejos tienden a ajustarse muy bien a los datos de entrenamiento, pero suelen estar sobreajustados y eso hace que tengan una mayor tendencia a fallar después en el mundo real. Aunque, por otro lado, un modelo excesivamente simple puede que esté ignorando una estructura real.951 La ultima palabra sobre el nivel de simplicidad adecuado, en cualquier caso, la tendrá el comportamiento del modelo con nuevos conjuntos de datos.
El poder predictivo suele ser una indicación de que el patrón que hemos generado a partir de los datos observados refleja una estructura profunda de la realidad que será extrapolable a otras circunstancias. No obstante, estas predicciones, por supuesto, pueden empezar a fallar sin previo aviso ya que al usar la inducción estamos asumiendo que el resultado sólo funcionará si la estructura relevante del mundo externo se mantiene en el futuro.
Por otro lado, podría pensarse que la virtud del poder explicativo está relacionada con las evidencias disponibles en el momento en el que se planteó la hipótesis, pero esto sería problemático. En primer lugar, como ya hemos mencionado, ¿deberíamos tener en cuenta el momento en el que se descubre una evidencia, algo que es, hasta cierto punto, históricamente contingente, para juzgar una hipótesis? El ideal inductivo defiende la histéresis epistémica: nuestra confianza en una hipótesis no ha de depender de cuándo fueron obtenidas las evidencias. Lo que sí podríamos tener en cuenta es qué evidencias fueron consideradas para construir la hipótesis, independientemente del momento en el que fueron descubiertas.952 Por ejemplo, el problema del perihelio de Mercurio era conocido en 1906, pero Einstein no utilizó esta información para construir su teoría, por lo que su predicción del mismo puede considerarse un éxito de la relatividad general. Digamos que, como Einstein no hizo ninguna modificación ad hoc para acomodar este dato, podríamos considerar el cálculo de este efecto como una verdadera predicción de la teoría.
Sin embargo, esto nos lleva a otro problema, ¿cómo podemos saber si Einstein tuvo en mente o no el problema del perihelio de Mercurio al desarrollar la relatividad general? Y, además, incluso aunque pudiésemos llegar a estar seguros de que no lo consideró, ¿debería este aspecto psicológico relacionado con el descubrimiento tenerse en cuenta a la hora de juzgar la justificación de la teoría? En principio, si respetamos el principio de la separación del contexto de descubrimiento y de justificación, este aspecto psicológico habría de ser ignorado. Aunque esto es algo que, como casi todo, acabaremos matizando. Es importante tratar de valorar las hipótesis en base a sus virtudes empíricas, ignorando los aspectos psicológicos o sociales que condujeron a su planteamiento, pero, el problema, es que, en algunas ocasiones, estos aspectos pueden haber sido relevantes.
14.2 Virtudes superempíricas
Hemos insistido mucho en que el estudio del mundo externo ha de ser, eminentemente, empírico, por lo que alguien podría pensar que los criterios que tendrían que emplearse para elegir entre distintas hipótesis deberían ser exclusivamente empíricos y, sin embargo, esta es una posición que no defiende casi nadie. Podemos discutir si la virtud del poder explicativo, que acabamos de comentar, es empírica o no, pero no es la única que va más allá de la pura descripción de lo observado. Algunas de las virtudes superempíricas que suelen comentar los filósofos son la sencillez o la coherencia con otras teorías.953
Los científicos suelen elegir las teorías, en primer lugar, basándose en criterios empíricos, pero, sobre todo durante la fase de descubrimiento o, incluso, cuando se enfrentan a una subdeterminación, pueden elegir favorecer una teoría frente a otra basándose en estas virtudes superempíricas.954 Esto es lo que hicieron, por ejemplo, Aristarco o Copérnico al plantear sus hipótesis heliocéntricas. Los modelos que propusieron no describían mejor las observaciones disponibles, pero eran más sencillos. Esta virtud, la sencillez, es la que los investigadores suelen utilizar para resolver el problema lógico de las esmeraldas verdules.
Los científicos, y muy especialmente los físicos, también suelen referirse a la belleza o a la elegancia de las teorías955 como guía para buscar nuevas teorías más profundas e, incluso, en algunos casos, como criterio para evaluarlas. Por ejemplo, Paul Dirac (1902-1984) alabó la belleza de una de sus creaciones, la fórmula que unía la mecánica cuántica con la relatividad especial.
La belleza no es un concepto fácil de definir, ni en ciencia ni fuera de ella, y distintos investigadores pueden estar refiriéndose a aspectos diferentes cuando utilizan el término. Por ejemplo, podrían ser características de una teoría bella la simetría, el poder explicativo o la naturalidad. En muchas ocasiones los físicos hablan de elegancia cuando encuentran una teoría con un gran poder explicativo,956 es decir, que hace numerosas predicciones sobre fenómenos muy diversos. De algún modo, la teoría parece ofrecer una gran cantidad de frutos a pesar de ser parca en premisas.
Por otro lado, la belleza también suele relacionarse con la simetría subyacente en las matemáticas de la teoría.957 Este sería un criterio relacionado con la simplicidad. Por ejemplo, Mendeléyev buscó un patrón simétrico para desarrollar su tabla periódica y lo mismo hizo Murray Gell-Mann al proponer la existencia de los quarks basándose en una simetría que denominó camino óctuple.
En cualquier caso, las virtudes superempíricas, aunque pueden servirnos de guía a la hora de proponer nuevas teorías no deberían situarse por encima de los criterios meramente empíricos. Aunque podemos favorecer las hipótesis más sencillas, lo fundamental es que las teorías sean empíricamente adecuadas, que se correspondan con el mundo externo.958 Sin embargo, recordemos también los problemas del sobreajuste y de las vacas esféricas, la adecuación empírica no tiene por qué ser absoluta.
14.4 Resumen
La elección entre hipótesis debería basarse, y en las comunidades científicas en la mayoría de los casos eventualmente acaba basándose, en criterios principalmente epistémicos. Es mejor la hipótesis que se corresponde con una mayor precisión con las evidencias disponibles. La relatividad general es mejor que la mecánica newtoniana porque se ajusta mejor a las evidencias. Además, hay que tener en cuenta la coherencia de las hipótesis con el resto del conocimiento, así como, su poder explicativo, es decir, la relación entre la cantidad de fenómenos explicados y el número de supuestos en los que se basa.
El problema es que no siempre disponemos de evidencias suficientes y, además, en ocasiones, nos vemos obligados a evaluar evidencias aparentemente contradictorias. Por otro lado, tenemos que recordar que nuestros modelos no suelen aspirar a dar cuenta de todas y cada una de las evidencias, sino que suelen asumir que hay una cierta cantidad de ruido en las mismas y esto exige que tomemos decisiones sobre qué es y qué no es relevante en nuestras observaciones. Por lo tanto, evaluar el grado de adecuación empírica puede no ser trivial. Todo esto hace que los factores psicológicos y sociales tengan una cierta relevancia, es decir, que en ciencia los motivos subjetivos y contingentes, especialmente cuando las evidencias no son muy abundantes o claras, también juegan un papel.
Esto no implica que las teorías bien establecidas hayan sido elegidas por motivos contingentes, pero sí que la historia de las discusiones científicas, que se dan típicamente cuando las evidencias aún no son sólidas, suele ser compleja e idiosincrática y que el estudio de las cuestiones más complejas es terreno abonado para el surgimiento de modas o de hipótesis defendidas más por motivos ideológicos que epistémicos. La lección que hemos de extraer de todo esto los no expertos es la de confiar en los consensos científicos, pero la de reservar el juicio cuando hay todavía discrepancias entre partes importantes de la comunidad.
Pigliucci and Boudry, Philosophy of Pseudoscience, location:4093.↩︎
Ibid., location:439.↩︎
Ladyman, Understanding Philosophy of Science, location:175.↩︎
Kuhn, The Structure of Scientific Revolutions.↩︎
Ladyman et al., Every Thing Must Go, location:1336.↩︎
Wootton, The Invention of Science, location:10216.↩︎
Brown, Philosophy of Science, location:419.↩︎
Godfrey-Smith, Theory and Reality, location:1440.↩︎
Bergstrom and West, Calling Bullshit, location:2787.↩︎
Bergstrom and West, Calling Bullshit, location: 2810.↩︎
Brown, Philosophy of Science, location:421.↩︎
Ladyman, Understanding Philosophy of Science, pagina:176.↩︎
Ibid.↩︎
Ibid.↩︎
Hossenfelder, Lost in Math, location:1533.↩︎
Ibid., location:450.↩︎
Brown, Philosophy of Science, location:2929.↩︎
Okasha, Philosophy of Science, location:1392.↩︎
Buck and Cohen, PSA 1970, location:2573.↩︎
Ladyman, Understanding Philosophy of Science, pagina:93.↩︎
Buck and Cohen, PSA 1970, location:2893.↩︎
Okasha, Philosophy of Science, location:1402.↩︎
Brown, Philosophy of Science, location:2930.↩︎
Godfrey-Smith, Theory and Reality, location:2533.↩︎
Ibid., location:2313.↩︎
Chalmers, What is This Thing Called Science?, location:2306.↩︎