25 Bayesianismo

A pesar de que han transcurrido milenios desde los primeros resultados deductivos aristotélicos, el estudio de la lógica sigue progresando. De hecho, en las últimas décadas, el desarrollo de los métodos de inferencia racional está siendo especialmente notable. Por ejemplo, es muy destacable el trabajo que se está llevando a cabo en el área del aprendizaje automático, pero los avances que vamos a tratar, dada su relevancia filosófica, son los circunscritos al campo de la inferencia bayesiana.

25.1 Revolucionarios o conservadores

La inferencia bayesiana trata de calcular el grado de confianza que habríamos de otorgar a cada una de nuestras creencias. En varias ocasiones hemos comentado la tensión existente en las comunidades racionales entre la aceptación de las teorías bien establecidas y la crítica de las mismas. El científico transita sobre la línea que separa la credulidad y la crítica: debe tener la mente abierta a las nuevas ideas, pero, al mismo tiempo, sus pies han de estar bien asentados sobre las evidencias empíricas y las teorías contrastadas.

Según Kuhn, las revoluciones acaban sucediendo a pesar de los científicos porque, recordemos, los investigadores que trabajan dentro del marco de la ciencia normal han aceptado ciertas tesis que no se plantean criticar. Popper, sin embargo, recomendaba que, dado que nuestras teorías más longevas no pasan de ser nuestras mejores conjeturas actuales, las comunidades científicas deberían caracterizarse por la crítica constante a todas las hipótesis.

Según Polanyi los maestros han de enseñar la rebelión controlada.1442 Es el equilibrio entre el conservadurismo y apertura lo que permite a la ciencia renovarse con eficiencia. Además, puede que una vez consideradas las evidencias disponibles haya un grado de confianza determinado que el pensador racional habría de asignar a cada una de sus creencias. Este es, precisamente, el objetivo de la inferencia bayesiana, establecer en qué grado habría de otorgar un pensador racional a cada una de sus hipótesis.

25.2 Creencias, probabilidades y estadística

Los seres humanos asignan distintos grados de confianza a diferentes creencias y es común formalizar este proceder asignando probabilidades a estas confianzas.1443 Esta es una probabilidad epistémica puesto que refleja el grado en el que creemos en algo.

En principio, parece razonable depositar más confianza en una conclusión inductiva a medida que vayamos acumulando evidencias a su favor y, además, este grado de confianza podría ser representado por una probabilidad. Cuando hablamos del escéptico Carnéades ya comentamos que su pithanon podía traducirse por probabilidad o verosimilitud. Sin embargo, a pesar de que la probabilidad parece una buena compañera de la inducción, estas ideas no fueron formalizadas durante milenios.1444 En el siglo XX Carnap sugirió que mientras que la implicación era el concepto clave en la lógica deductiva, el grado de confirmación habría de serlo en la inductiva.

Un modo de pensar en estas probabilidades es plantearnos qué apuesta estaríamos dispuestos a aceptar sobre nuestras creencias.1445 Por ejemplo, yo estaría dispuesto a apostar contra una cuota de 1 en 1 millón que si dejo un kilo de plomo a un metro del suelo caerá y no flotará, pero sólo apostaría 1 contra 10 a que el tomate se domesticó cerca del norte de Perú. Esto refleja, claramente, que mi confianza en una creencia y en la otra no es la misma.

Stephen Hawking realizó a lo largo de su carrera varias apuestas de este tipo. Por ejemplo, en 1971, se apostó una subscripción a una revista con Kip Thorne sobre si el objeto Cygnus X-1 era un agujero negro. En 1990 Hawking consideró que la evidencia a favor del agujero negro era tan grande que pagó una subscripción a Penthouse a Thorne.1446 En otra ocasión, Hawking y Thorne apostaron contra el físico John Preskill a favor de que en los agujeros negros se pierde información y en 2004 Hawking consideró que debía pagar la apuesta a Preskill. En este caso el pago consistió en una enciclopedia de béisbol.

A muchos lectores puede que la probabilidad les recuerde a la estadística, de hecho, estas dos cuestiones suelen estudiarse conjuntamente. Sin embargo, aunque es cierto que ambas ideas están relacionadas, en realidad, son conceptos bastante diferenciados. La estadística consiste en utilizar las evidencias disponibles para hacer inferencias sobre el comportamiento de un sistema.1447 Por lo tanto, podríamos plantearnos por qué necesitamos de la probabilidad para hacer inferencias estadísticas. La respuesta es que la probabilidad nos permite calcular qué esperamos observar si el sistema obedece a una hipótesis, a un modelo, particular.1448 Por ejemplo, si suponemos que nuestro dado de seis caras está perfectamente equilibrado podemos utilizar las reglas de la probabilidad para calcular qué esperamos obtener si lanzamos ese dado 100 veces. Este, evidentemente, es un paso necesario si queremos comprobar en qué medida el sistema estudiado se comporta según nuestra hipótesis.

La teoría de la probabilidad es un típico formalismo matemático. Partiendo de unos axiomas básicos se construye un conjunto de resultados matemáticos. Esta formalización fue llevada a cabo por el matemático soviético Andrey Kolmogorov (1903–1987). Kolmogorov procedió de modo análogo a como Euclides había construido su geometría milenios antes. Es decir, creó un edificio deductivo construido sobre unos cuantos axiomas.

Una vez disponemos de esta teoría formal, podemos hacer uso de ella otorgando a las probabilidades distintas interpretaciones filosóficas. Hemos comentado que hay quien asocia la probabilidad con los grados de creencia, pero esta no es la única opción. La probabilidad también puede asignarse a una propensión del mundo físico. En este caso reflejaría la medida en la que un sistema físico va a comportarse de un modo u otro.1449 Este uso es muy distinto al de grado de creencia ya que asocia la probabilidad a una característica externa a nuestra mente, a una propensión de un sistema real. La afirmación de que “la probabilidad de que salga un uno al lanzar el dado es de un sexto” puede interpretarse de distintos modos. Podemos plantear que el dado tiene una propensión objetiva de un sexto de acabar mostrando un uno, independiente de lo que nosotros pensemos o, alternativamente, podemos interpretar la afirmación como que nosotros otorgamos una probabilidad de un sexto a nuestra confianza en que el dado caerá mostrando un uno. Esto último está asociado a nuestra creencia, es parte del mapa, no del territorio. En la práctica, la noción de la propensión objetiva no puede usarse directamente ya que es una propiedad metafísica, correspondiente al territorio, que habremos de estimar de algún modo.1450

Lo que sí podemos hacer es plantear modelos teóricos en los que sus entidades tengan distintas propensiones, diferentes comportamientos. Por ejemplo, podemos imaginar dados ideales, que tengan unas propensiones asignadas por nosotros. Además, también podemos lanzar muchas veces un dado real y calcular el número de veces que sale una cara u otra. La probabilidad clásica se asigna de este último modo, calculando la frecuencia de un resultado en el límite, cuando se hacen muchos ensayos.1451 A esta noción clásica de probabilidad, propuesta por el físico y matemático francés Siméon Denis Poisson (1781-1840) se le denomina frecuentista y suele contraponerse a la de las creencias subjetivas.

25.3 Estadística frecuentista

Partiendo de estas dos interpretaciones sobre la probabilidad, la frecuentista y la epistémica, se han construido dos aproximaciones a la inferencia estadística: la frecuentista y la bayesiana. La estadística frecuentista ha sido la más utilizada en el siglo XX y, todavía hoy en día, continúa siendo muy útil.

Este es un debate con consecuencias muy relevantes para la ciencia actual. Los investigadores suelen desconocer las justificaciones de la estadística frecuentista y esta es una de las causas del p-hacking. Por ejemplo, los científicos suelen creer que al encontrar que algo es estadísticamente significativo están justificados para pensar que su hipótesis es verdadera. Sin embargo, el concepto frecuentista de la significación estadística no tiene una relación directa con la verdad, sino, más bien, con el rechazo de las hipótesis.

La aproximación que suele seguirse en la estadística frecuentista es plantear una hipótesis, que suele denominarse nula, y haciendo la asunción de que esta hipótesis nula es cierta, se calcula cómo de probable sería obtener las evidencias que hemos obtenido. Si nuestras observaciones se encuentran dentro de las que veríamos habitualmente si la hipótesis nula fuese correcta, diríamos que no hemos rechazado la hipótesis nula. Sin embargo, si nuestras medidas son muy inusuales para esa hipótesis, se afirma que nuestras medidas difieren significativamente de lo esperado según la hipótesis nula y, por lo tanto, dicha hipótesis se rechaza. Esta es la base de la inferencia estadística frecuentista.

Por ejemplo, imaginemos que estamos estudiando si una moneda es justa, es decir, si la mitad de las veces cae cruz y la otra mitad cara. Podríamos hacer un experimento en el que lanzamos la moneda 100 veces y obtenemos un número determinado de caras, por ejemplo 56. Esta sería nuestra medida. A continuación, simulamos experimentos con nuestra moneda ideal. Gracias a la teoría de la probabilidad podemos calcular cuántas veces en estas simulaciones ideales obtendríamos cero caras, una, dos, tres, etcétera hasta cien. Por supuesto, obtener cero o cien caras será muy improbable, lo más habitual es que el número de caras esperado sea cercano a 50. A continuación, comparamos nuestra medida real con las expectativas y rechazamos la hipótesis original si nuestra medida es muy improbable. Es decir, podemos concluir que sería muy extraño que la moneda estuviese bien equilibrada en ese caso de que el resultado obtenido hubiese sido muy inusual. Este procedimiento es análogo al falsacionismo de Popper. La única diferencia es que, recordemos, Popper nos instaba a rechazar la hipótesis utilizando una inferencia deductiva y que, en este caso, nuestra inferencia está siendo probabilística.

Dado que en este marco frecuentista estamos trabajando con el grado en el que nuestras observaciones serían esperables si la hipótesis nula fuese cierta, es común establecer un umbral que consideraríamos intolerable. Una vez sobrepasado este umbral se concluye que obtener unas evidencias como las observadas sería tan extraño que lo más razonable sería rechazar la hipótesis nula. A esto se le denomina significación estadística y el umbral suele situarse, por convención, en el famoso 0,05. Esto significa que si el sistema estudiado se comportase según dicta la hipótesis nula, sólo obtendríamos resultados como los que hemos medido en un 5% de los casos. Por lo tanto, es habitual concluir que, de obtenerlos, estemos justificados para rechazar la hipótesis nula.

Un problema muy común es que los usuarios de la estadística frecuentista creen estar trabajando con las probabilidades de que la hipótesis nula sea verdadera y que al rechazar esta hipótesis lo están haciendo porque han calculado que su probabilidad es muy baja. Sin embargo, esto no es cierto. Recordemos, el rechazo de la hipótesis se ha basado en la probabilidad de haber observado el resultado que hemos obtenido asumiendo que la hipótesis es correcta. Ya sé que todo esto es extremadamente confuso. De hecho, es habitual que los usuarios de la estadística frecuentista no entiendan bien qué están haciendo. Si se trabaja de este modo es porque es más fácil calcular la probabilidad de obtener un resultado concreto si asumimos un modelo de funcionamiento del sistema estudiado que calcular la probabilidad que realmente nos gustaría saber: la probabilidad de que la hipótesis sobre el funcionamiento del mundo obedezca una hipótesis concreta teniendo en cuenta que hemos observado unas evidencias particulares.

25.4 Inferencia reversa

Para tratar de aclarar el asunto merece la pena hablar sobre la probabilidad condicional. La probabilidad condicional es la probabilidad de que ocurra un evento sabiendo que también ha sucedido otro. Por ejemplo, cuál es la probabilidad de que en mi casa haya pelos de perro sabiendo que no tengo perro. Esta es una probabilidad condicionada que podría escribir, utilizando la nomenclatura habitual, como p(pelos perro|no perro). Esta expresión se lee como: probabilidad de pelos de perro dado que no hay perro.

Las probabilidades utilizadas en estadística frecuentista suelen tener la forma p(evidencias|hipótesis). Es decir, cuál es la probabilidad de observar unas evidencias determinadas dado que hemos asumido una hipótesis como verdadera. Por ejemplo, p(obtener cara|moneda bien equilibrada). Si asumimos que nuestra moneda tiene una cara y una cruz perfectamente equilibradas podremos concluir que la probabilidad de obtener cara en un lanzamiento concreto es de un medio: en la mitad de lanzamientos de esta moneda ideal obtendremos una cara. Si planteamos un modelo de funcionamiento del mundo, en principio, hemos de poder calcular la probabilidad de encontrar un resultado concreto.

Estas son las probabilidades utilizadas habitualmente por los frecuentistas: asumen una hipótesis nula y calculan la probabilidad de obtener unos resultados dados para, posteriormente, comparar lo que hemos observado con estos resultados esperados. El problema del frecuentismo es que no nos permite calcular la probabilidad en la que realmente estamos interesados, que es la reversa, es decir la probabilidad de que la hipótesis sea cierta dado que hemos obtenido unos resultados concretos: p(hipótesis|evidencias).

La probabilidad que nos interesa realmente no es la de obtener cara si la moneda es ideal, p(número caras|moneda equilibrada), sino la contraria, dado que hemos obtenido 54 caras y 37 cruces cuál es la probabilidad de que la moneda esté bien equilibrada: p(moneda equilibrada|número caras). Dadas las observaciones queremos asignar una probabilidad a la hipótesis. A esta probabilidad, dado que no puede ser calculada directamente a partir de nuestra hipótesis, se la denominó probabilidad reversa y puede calcularse gracias al teorema de Bayes:

p(A|B) = p(A) * p(B|A) / p(B).

En realidad, lo que ahora denominamos inferencia bayesiana fue conocido como probabilidad inversa o de las causas hasta los años 50.1452

Es muy común que los usuarios de los p-valores no entiendan estos problemas y que interpreten el p-valor obtenido como una probabilidad de la hipótesis, pero no lo es. En realidad, el p-valor está relacionado con la probabilidad de haber observado los datos si la hipótesis nula fuese correcta. Este es un caso de la denominada falacia del fiscal, una falacia que, dada nuestra limitada capacidad para pensar correctamente sobre probabilidades, está muy extendida tanto en el pensamiento científico como en el cotidiano.

En los juzgados suele confundirse la probabilidad de que hayan aparecido las evidencias que se han presentado durante el juicio si se asume la inocencia del acusado con la probabilidad de que el acusado sea inocente dadas las evidencias que se han observado. Por ejemplo, es común que se planteen razonamientos de este tipo: el testigo vio un hombre alto de pelo rizado vestido con sudadera y la sangre en el lugar del crimen es cero positiva, además, el acusado tiene pelo rizado, viste habitualmente con sudadera y tiene sangre de tipo cero positivo, por lo tanto, es esperable que si asumimos que el acusado es el asesino hayamos obtenido estas evidencias. Este razonamiento es falaz, se está utilizando la probabilidad p(evidencias|el acusado es el asesino), cuando debería utilizarse p(el acusado es el asesino|evidencias). Para calcular esta segunda probabilidad, que es que nos interesa, hemos de echar mano del teorema de Bayes y, al hacerlo, nos daremos cuenta de que hay una información fundamental sin la cual no podemos llegar conclusión alguna: cuál es la proporción de hombres de pelo rizado poseedores de sudaderas que tienen tipo sanguíneo cero positivo. Si hay muy pocos hombres que cuadren con esta descripción la probabilidad de que el acusado sea culpable será alta, pero si casi todos los hombres del barrio tienen el pelo rizado, poseen sudadera y tienen sangre cero positivo estas evidencias no nos están diciendo prácticamente nada.

Otro error, del mismo tipo, muy habitual consiste en confundir la probabilidad de tener una enfermedad vírica, dado que nuestro test ha sido positivo, con la probabilidad de dar positivo si estamos contagiados. Esto le pasó a un amigo mío al que un análisis de sangre le salió positivo para HIV. Una persona normal se habría asustado mucho, pero mi amigo sabía la estadística suficiente como para comprender que lo más probable, incluso teniendo en cuenta que su test había sido positivo, era que no estuviese infectado. Esta última afirmación puede resultar sorprendente, pero voy a tratar de explicarlo con un ejemplo.

Imaginemos, por simplificar, que contagio implica enfermedad y que el análisis disponible es capaz de detectar correctamente 99 de cada 100 personas sanas. Es decir, si estás sano tienes una probabilidad de 0,99 de que tu test salga negativo y sólo una probabilidad de 0,01 de que el resultado sea positivo. Es necesario asumir que siempre habrá una pequeña probabilidad de error puesto que ningún test es perfecto. De modo que la probabilidad de aparecer como positivo en el test, aun no estando infectado, es de 0,01 (1 en 100). ¿Cuál será entonces la probabilidad de que estés contagiado si te informan de un test positivo? Ante esta pregunta es bastante natural responder: 0,99. Si has respondido esto has cometido la falacia del fiscal o de la frecuencia base. De hecho, con los datos que he dado es imposible calcular la probabilidad de estar infectado sabiendo que tu análisis ha salido positivo. Recuerda, p(contagiado|test positivo) es diferente de p(test positivo|contagiado). Para poder calcular la que nos interesa necesitamos saber la prevalencia de la infección en la población.

Imaginemos que la prevalencia, la proporción de individuos infectados en la población general es de 0,001, es decir, 1 de cada 1000 individuos está contagiado. Supongamos además que hemos hecho 1 millón de análisis eligiendo individuos al azar. Entre estas personas habrá unas 1000 contagiadas (1 de cada 1000) y 999.000 sanos. Dado que tenemos una tasa de falsos positivos de 1 en 100, 9.990 de estos individuos sanos obtendrán un test positivo. Supongamos además que somos capaces de detectar a todos los contagiados, a los 1000. De ser así, tendríamos 10.990 individuos que reciben un test positivo: 9.990 sanos más 1000 enfermos. Ahora sí podemos calcular cuál es la probabilidad de estar sanos a pesar de que nuestro análisis haya salido positivo: 9.990 / 10.990, es decir, 0,09. Sólo 1 de cada 10,9 personas cuyo test es positivo estará realmente enferma. Y esta probabilidad depende tanto de la tasa de falsos positivos como de la prevalencia de la enfermedad. Si la enfermedad fuese muy infrecuente, por ejemplo, si sólo la tuviese una de cada 10.000 personas sólo 1 de cada 101 positivos estará realmente contagiado.

En realidad, lo que puede hacer el pensador racional al obtener el resultado positivo del test es actualizar su probabilidad de estar contagiado. Mientras que la probabilidad inicial, antes de tener el resultado del test, era de 1 en 10.000, que es la prevalencia en la población, después de tener el resultado la probabilidad pasa a ser de 1 en 101. La evidencia, el test positivo, ha modificado nuestra probabilidad inicial, nuestra probabilidad a priori.

Este es uno de los motivos por los que no suele recomendarse hacer análisis masivos en poblaciones en las que las prevalencias son bajas. Por ejemplo, si se hiciesen mamografías a la población de mujeres jóvenes, muchos de los tumores detectados serían falsos positivos y un falso positivo implica bastante angustia, así como intervenciones médicas innecesarias para las personas implicadas.1453

Estos resultados son muy contraintuitivos, pero es que a los seres humanos nos cuesta pensar con probabilidades condicionales, por eso es tan importante recordar estos problemas y confiar en el teorema de Bayes.

En el caso de la inferencia bayesiana el error equivalente a ignorar la importancia de la prevalencia consiste en olvidar la importancia del conocimiento previo. La probabilidad a priori debe influir en la confianza final en la hipótesis.1454 Nuestras creencias deben depender del resultado del experimento, pero también de nuestras confianzas previas, que, a su vez, recogen los resultados experimentales y teóricos previos. Uno de los problemas de la inferencia estadística frecuentista consiste, precisamente, en no incluir explícitamente el conocimiento previo en sus cálculos.

Esta es una lección que, en la práctica, se aplica en ciencia continuamente. Cuando, en 2011, los físicos detectaron en el experimento OPERA neutrinos más rápidos que la luz no concluyeron que había neutrinos más rápidos que la luz. Dado que los resultados previos hacían muy improbable esta hipótesis y el nuevo resultado no era tan relevante como para superar completamente esta desconfianza inicial, prefirieron reservar el juicio. Conclusiones extraordinarias requieren evidencias extraordinarias.

25.5 Inferencia bayesiana

La regla de inferencia bayesiana aparece al sustituir en el teorema de Bayes las probabilidades relativas a las confianzas en las hipótesis y las evidencias:

p(Hipótesis|Evidencia) = p(Hipótesis) * p(Evidencia|Hipótesis) / p(Evidencia)

Este tipo de inferencia nos permite calcular la probabilidad que queríamos calcular: el grado de confianza que hemos de asignar a una hipótesis dadas unas evidencias determinadas. Esta aproximación dicta como hemos de modificar nuestra confianza previa en una hipótesis (p(Hipótesis)) al tener noticia de nuevas evidencias. La inferencia bayesiana formaliza una parte importante del aprendizaje racional: la concerniente a la actualización de nuestras hipótesis en base a las nuevas evidencias observadas. Lo único que queda fuera de este marco es la generación de nuevas hipótesis, la fase de descubrimiento y la investigación en busca de evidencias.

En realidad, la receta bayesiana no debería resultar demasiado sorprendente: el conocimiento final depende del conocimiento previo y de las nuevas evidencias.

A la probabilidad que refleja nuestra confianza previa se le suele denominar probabilidad a priori (p(Hipótesis)), mientras que a la que obtenemos tras considerar las nuevas evidencias, se le suele denominar probabilidad a posteriori de la hipótesis (p(Hipótesis|Evidencia)). En este caso a priori y a posteriori no implican momentos en el tiempo si no, tan sólo, confianzas antes y después de considerar una evidencia concreta.

El uso de la inferencia bayesiana exige que partamos de un conjunto de hipótesis a evaluar, así como de una confianza previa asociada a cada una de esas hipótesis. La inferencia bayesiana dicta cómo debemos actualizar nuestra confianza en cada hipótesis al considerar la evidencia.1455 Es decir, indica al pensador racional cómo tendría que actualizar su conocimiento dada la nueva observación. En esto es análoga a la inferencia deductiva que, recordemos, también exigía partir de un conocimiento previo, de unas premisas previas. La diferencia es que la inferencia bayesiana parte de unas hipótesis que no considera ciertas, sino tan sólo probables mientras que la deducción asumimos que las evidencias son completamente verdaderas o falsas.

El conocimiento previo se actualiza de acuerdo a p(Evidencia|Hipótesis) / p(Evidencia). A esta razón se la conoce como factor de Bayes o fuerza de la evidencia y cuantifica cómo de probable habría sido observar la evidencia si una de las hipótesis fuese verdad frente a como de probable sería obtener la evidencia si fuese verdad cualquiera de las hipótesis.1456 Una evidencia confirma la hipótesis si hace que aumente su probabilidad posterior y la desconfirma si la disminuye. Cuanto mayor sea la diferencia entre el numerador y el denominador más debería hacernos variar la evidencia considerada nuestra confianza en la hipótesis estudiada.

Para un bayesiano la evidencia sólo es relevante si altera la probabilidad de la hipótesis. Sin embargo, hay muchas evidencias irrelevantes que no lo hacen.1457 ¿Cuánto he de cambiar mi confianza en que existan los ponis rosas si alguien me dice que se ha tomado un café? Nada, puesto que la probabilidad de esta evidencia es la misma tanto si asumo que existen los ponis rosas como si pienso que no existen. Dejo como ejercicio para el lector extender el razonamiento a la evidencia anecdótica que suele aportarse en defensa de las pseudoterapias.

Del mismo modo, un pequeño ensayo clínico que arroje un resultado positivo a favor de la eficacia de la homeopatía, no ha de hacernos pensar que la homeopatía funciona. Para ser racionales nuestras conclusiones deben depender necesariamente de todo el conocimiento previo disponible. No es racional asignar una confianza a la conclusión basándose sólo en las evidencias empíricas de un estudio, debemos considerar todo el cuerpo de conocimiento anterior.1458 Esto, sin embargo, no implica que el pensador racional haya de tener una mente cerrada, es sólo que debe considerar su conocimiento completo y que sólo ha de modificar la confianza en sus creencias en la medida dictada por la fuerza de las evidencias.

Además, es muy importante que un pensador racional recuerde que el grado en el que una evidencia debe afectar a nuestra confianza en una creencia determinada no sólo depende de la probabilidad de que hubiésemos observado la evidencia si la hipótesis fuese cierta, sino, también, de la probabilidad de que la hubiésemos observado si la hipótesis fuese falsa. Es un error grave aumentar nuestra confianza en una hipótesis sólo por el hecho de que hayamos observado algo que hubiese ocurrido si la hipótesis fuese correcta; debemos considerar también qué predicen las hipótesis alternativas.1459 Por ejemplo, 1000 enfermos de constipado participan en un estudio en el que se administra homeopatía, se curan los 1000 ¿deberíamos modificar nuestras ideas a priori sobre la efectividad de la homeopatía? No. Los 1000 se habrían curado tanto si la homeopatía funciona como si no funciona, por lo tanto, la fuerza de la evidencia es nula.

25.6 Subjetividad y convergencia

La inferencia bayesiana nos recuerda que en el conocimiento siempre hay un aspecto subjetivo. Esta limitación se formaliza al introducir el requisito de que propongamos unas hipótesis, las que nosotros deseemos, y unas probabilidades a priori.

Para el bayesiano las probabilidades representan los grados de confianza que deposita en la capacidad de que sus hipótesis modelen el funcionamiento del mundo externo y esto es, en parte, subjetivo. Este es un punto que los críticos del bayesianismo han discutido hasta la extenuación. Incluso se ha tratado, infructuosamente, de establecer un modo objetivo de fijar las probabilidades a priori. La verdad es que no acabo de entender el revuelo que suele rodear a estas probabilidades y, al mismo tiempo, me llama la atención que no suela cuestionarse la elección de hipótesis que, al fin y al cabo, es también subjetiva.

Esta limitación, sin embargo, no implica que un pensador racional pueda establecer las probabilidades a priori arbitrariamente. Por ejemplo, no es racional asignar una alta probabilidad a que un virus se transmita con una alta eficiencia en un espacio cerrado y, al mismo tiempo, creer que no se transmite bien en un aula cerrada. Las probabilidades que asignamos a nuestras hipótesis deberían ser coherentes.1460 Esta es una exigencia difícil de satisfacer, pero el pensador racional debería esforzarse por tratar de conseguirlo.

Existen distintas formas de asignar las probabilidades a priori sistemáticamente. Por ejemplo, podríamos optar por distribuir estas probabilidades uniformemente entre todas las hipótesis, es decir, por considerar a priori todas las hipótesis igual de probables. Esta aproximación se conoce como principio de indiferencia.1461

Otra propuesta, tal vez más atractiva, consiste en establecer las probabilidades a priori en función de la complejidad de las hipótesis. En este caso estaríamos otorgando un mayor valor inicial a las hipótesis más sencillas.1462 Existen incluso formalizaciones matemáticas de esta sofisticada navaja de Ockham como, por ejemplo, la inducción de Solomonoff.1463 La idea subyacente es que si dos hipótesis predicen lo mismo deberíamos quedarnos con la más sencilla. Esto no implica que la hipótesis más sencilla tenga una mayor probabilidad de ser verdad en un sentido metafísico, sino, simplemente, que para nosotros es más útil la más sencilla ya que la más compleja no aporta un mayor poder predictivo.

En cualquier caso, estas reglas, puesto que se utilizan antes de considerar la evidencia, son criterios superempíricos y no hay forma de establecer de un modo objetivo y para un caso general cuáles debemos utilizar. Por lo tanto, los bayesianos suelen aceptar un cierto grado de subjetividad en el conocimiento. Nuestra confianza en las distintas hipótesis depende del mundo exterior, pero también, en mayor o menor grado, de nuestras ideas previas.1464 Aunque este es un punto que suele discutirse cuando se habla del bayesianismo, no es algo de lo que estén exentas ni la inferencia deductiva, que depende de las premisas, ni la inferencia estadística frecuentista, que hace numerosas asunciones subjetivas y convencionales.

Además, en muchas ocasiones sí tenemos motivos razonables para asignar unas probabilidades a priori determinadas. Por ejemplo, puede que estemos estudiando un sistema análogo a otros que se han estudiado antes. En este caso podríamos utilizar la distribución de resultados de esos análisis previos para fijar nuestra distribución de probabilidades a priori. Esto es, por ejemplo, lo que hacen los jugadores en un casino; asumen que los juegos que están jugando en este casino son análogos a los vistos en ocasiones previas. También proceden del mismo modo nuestros sistemas perceptuales al tener en cuenta, implícitamente, lo percibido en circunstancias análogas en ocasiones previas para sesgar lo que vamos a percibir hacia unos resultados concretos. Este es el motivo por el que yo suelo ver en muchas ocasiones, por el rabillo del ojo, a mi gata a pesar de que cuando giro la cabeza resulta no estar ahí. Mi sistema visual, a falta de un estímulo claro, a falta de la evidencia, a priori, asume que voy a ver un gato y, a continuación, actualiza esta asunción previa en base a la nueva información recibida.

En cualquier caso, la inferencia bayesiana, como la deductiva, deja la puerta abierta a que dos investigaciones racionales puedan comenzar su investigación desde distintos puntos de vista. Aceptar esto ha sido un problema para mucha gente. Se asumía que el proceso científico tenía que ser completamente objetivo, por lo tanto, el bayesianismo, con sus probabilidades a priori subjetivas, no había de tener cabida.1465 Sin embargo, los bayesianos responden que lo que nos enseña la inferencia bayesiana es que estas discrepancias subjetivas son inevitables y que, por lo tanto, lo más recomendable es hacerlas explícitas. La alternativa no consiste en disponer de una inferencia completamente objetiva, sino en barrer la subjetividad debajo de la alfombra.1466

La inferencia estadística frecuentista, que ha sido la más común en la ciencia hasta el momento, también es subjetiva. Por ejemplo, la elección del umbral del p-valor es subjetiva1467 y también lo son las hipótesis a considerar. De hecho, el problema es mayor incluso en esta aproximación clásica, por eso estamos tan expuestos al p-hacking.1468

Por otro lado, este subjetivismo de las probabilidades a priori no es tan relevante como podría pensarse ya que, si las evidencias son fuertes, las probabilidades posteriores dependerán fundamentalmente de estas evidencias y aunque dos pensadores racionales partan originalmente desde distintos puntos de vista terminarán por converger.

Además, la aproximación bayesiana tiene la ventaja de poder ser utilizada iterativamente. Es decir, podríamos comenzar con unas hipótesis y un conjunto de probabilidades a priori e ir repitiendo la inferencia iterativamente, con una evidencia tras otra. Esto reduce en gran medida el inevitable problema de la subjetividad inicial de las probabilidades a priori ya que, dada una cantidad suficiente de evidencias, dos investigadores racionales acabarán teniendo una confianza final en sus hipótesis muy similar.1469 De hecho, si las evidencias son fuertes, en la práctica, esta convergencia en las probabilidades a posteriori se alcanzará con prontitud. Si los hechos son claros el grado de creencia inicial no es un problema para un pensador racional.

Podría pensarse que cabe la posibilidad de que los investigadores difieran en la probabilidad que les asignen a las evidencias. Esto daría al traste con la posibilidad de que las confianzas de los investigadores en sus creencias terminen convergiendo. Sin embargo, no es tan fácil que esto suceda ni en la práctica ni en teoría. En la práctica lo más común es que se difiera en la confianza en las conclusiones, pero, en ciencia, las evidencias, que, al fin y al cabo, suelen ser mucho menos controvertidas. Además, Robert Aumann demostró un teorema que garantiza que dos investigadores racionales, siempre que tengan acceso a la misma información, no pueden diferir en la actualización de sus creencias.1470 Dos científicos racionales no pueden conformarse con estar en desacuerdo.1471

25.7 Historia del bayesianismo

La cuestión la subjetividad unida a la dificultad de cálculo han hecho que el bayesianismo haya tenido una historia bastante complicada. A pesar de lo que pudiese pensarse, Thomas Bayes (1702-1761), que fue un matemático y religioso británico, no publicó el teorema que lleva su nombre ni la inferencia bayesiana. Sabemos de su propuesta porque fue publicada por su amigo Richard Price (1723-1791), que era escritor y clérigo, y que trabajó en ella durante un par de años.1472

De todos modos, la formulación moderna no se la debemos ni a Bayes ni a Price, sino al astrónomo y matemático francés Pierre-Simon Laplace (1749-1827), el mismo que le dijo a Napoleón que no había necesitado de la hipótesis de Dios para explicar el cosmos y que nombró el metro, el centímetro y el milímetro. Laplace descubrió la regla independientemente en 1774 y trabajó en su desarrollo durante 40 años hasta darle la forma actual.1473 Laplace fue también una figura clave en el desarrollo de los métodos frecuentistas.

Sin embargo, el bayesianismo, debido al problema de la subjetividad, fue ignorado durante la primera mitad del siglo XX, que es cuando se desarrolló la inferencia estadística clásica.

Uno de los primeros éxitos de la aproximación bayesiana fue su uso por parte de Turing para romper la encriptación Enigma. Sin embargo, no se sabe hasta qué punto Turing desarrollo la aproximación independientemente. Lo que si está claro es que la nomenclatura utilizada por Turing fue completamente diferente y que su éxito fue secreto hasta 1973.1474

En los 60 el bayesianismo comenzó a ser considerado por algunos estadísticos que valoraban sus sólidos fundamentos lógicos frente a la abigarrada mezcla de métodos frecuentistas. La primera conferencia internacional bayesiana se celebró en Valencia en 1979 y contó la partición de casi todos los bayesianos relevantes del momento, 100 en total.1475

Aunque actualmente la estadística bayesiana, gracias a sus fundamentos lógicos, goza de un mayor prestigio entre muchos estadísticos, en la práctica el uso de los métodos frecuentistas todavía es más sencillo: requiere menos capacidad de cómputo, tiene más software disponible y sus métodos son más conocidos.1476 A pesar de estas limitaciones los métodos bayesianos se están utilizando cada día más.

Puede que el lector haya quedado con la impresión de que yo favorezco el uso de métodos bayesianos en el laboratorio, pero no es así. No sería deseable que los científicos rechazasen el uso de los métodos frecuentistas. Lo ideal sería utilizar la aproximación más adecuada y más práctica para cada caso teniendo en cuenta las bases filosóficas las limitaciones subyacentes a cada método. Normalmente si se tienen muchos datos las aproximaciones frecuentistas funcionan tan bien como las bayesianos y su cálculo es más sencillo, aunque es cierto que los bayesianos tienden a ser más potentes cuando se dispone de pocas evidencias.1477 En cualquier caso, lo más relevante para el investigador es hacer buenos diseños experimentales, disponer de evidencias sólidas y entender la aproximación que está utilizando. Las cuestiones planteadas por el científico y el filósofo son ligeramente diferentes, por lo tanto, no es incompatible que mi recomendación sea pragmática para el científico, pero que, al mismo tiempo, defienda el bayesianismo frente al frecuentismo como método de inferencia desde un punto de vista filosófico.

25.8 ¿El método?

Para un pensador racional que desee actualizar su confianza en un conjunto de hipótesis teniendo en cuenta unas evidencias determinadas la inferencia bayesiana no es opcional, es normativa, es el estándar al que aspirar, el modo óptimo de inferencia.1478 La inferencia bayesiana no es una simple recomendación más, es la norma que tendríamos que seguir, el estándar de justificación.

A lo largo de este libro hemos comentado distintos tipos de razonamientos utilizados en ciencia como, por ejemplo, el método hipotético-deductivo. Estos métodos son recomendables como guías generales, pero siempre hemos indicado que tienen limitaciones serias y que, por lo tanto, no pueden plantearse como un estándar. Sin embargo, la inferencia bayesiana sí está muy cerca del estándar de justificación hipotética. Si disponemos de varias hipótesis en juego y un conjunto de evidencias, el ideal racional consistiría en utilizar la inferencia bayesiana para asignarles las confianzas finales. En esto el bayesianismo es análogo a la lógica deductiva. Un pensador racional que partiese de unas premisas asumidas como verdaderas consideraría la lógica deductiva como el estándar a seguir, la inferencia bayesiana constituye el estándar cuando la confianza en las hipótesis no es necesariamente absoluta.

El modo más común de justificar la normatividad de la inferencia bayesiana consiste en explicar el problema del libro holandés (dutch book) o de la succión financiera para el apostante. Imaginemos un individuo que decide apostar en varios partidos de fútbol. En este caso se puede demostrar que si sus confianzas en sus creencias sobre los resultados de esos partidos y, por lo tanto, sus apuestas, no siguiesen los axiomas de la teoría de la probabilidad, siempre habría un modo de apostar contra él, denominado libro holandés, que nos garantizaría que fuese cual fuese el resultado final de los partidos el apostante perdería dinero y nosotros lo ganaríamos.1479 Por lo tanto, un apostante racional debe establecer su confianza en sus creencias siguiendo la teoría de la probabilidad.

Sin embargo, en la práctica la inferencia bayesiana es un estándar que no resulta fácil de alcanzar. Una posibilidad es utilizarla como una forma de inspiración general que nos sirva de guía en nuestros razonamientos. Además, muchas de las reglas y métodos que hemos propuesto a lo largo de esta obra pueden extraerse como casos particulares de la inferencia bayesiana. Por ejemplo, el método hipotético-deductivo nos recomendaba contrastar las predicciones de nuestras hipótesis con las evidencias, pero no dictaba con precisión qué debíamos concluir a partir de estas observaciones, algo que sí hace con precisión la inferencia bayesiana.

Como ya comentamos, en un marco deductivo estamos expuestos a los problemas planteados por Duhem y Quine, pero estas limitaciones se solventan en gran medida al aplicar la inferencia bayesiana a la red de hipótesis, tanto principales como auxiliares.1480 Una predicción exitosa o fallida no tiene por qué influir en el mismo grado a nuestra confianza en todas estas hipótesis. Este procedimiento formaliza nuestra idea intuitiva de que, si predecimos la existencia de Vulcano, pero no conseguimos observarlo, lo más razonable es pensar que el planeta no existe, no que las teorías ópticas que han servido para construir el telescopio son erróneas.

Además, la iteración bayesiana se presta de forma natural a la evaluación iterativa de nuestras hipótesis. A medida que vamos obteniendo nuevas evidencias debemos ir utilizándolas para actualizar nuestra confianza en las distintas hipótesis. Por ejemplo, imaginemos que queremos hacernos una idea de cuál es la frecuencia de personas infectadas por un virus en una población. Inicialmente nuestra incertidumbre es absoluta, pero a medida que nos vamos encontrado con personas no infectadas e infectadas podemos ir incorporando esta evidencia para ir determinando la confianza que nos merecen los distintos grados de prevalencia. Si nos encontrásemos con muchos enfermos, poco a poco, iríamos concluyendo que las prevalencias más elevadas son más probables y haríamos lo contrario si vemos pocos infectados en nuestros ensayos.

Carl Sagan hizo famosa la frase: “afirmaciones extraordinarias requieren evidencia extraordinaria.” Este aforismo puede extraerse fácilmente de la regla de inferencia bayesiana. Si la confianza inicial en la hipótesis es baja necesitamos una evidencia de gran fuerza para que ésta llegue a merecer una alta confianza final.

Por cierto, esta idea ya fue propuesta por Laplace: “El peso de la evidencia en favor de una afirmación extraordinaria debe ser proporcional a su improbabilidad” y, antes aún, fue utilizada por Hume para descartar los testimonios en favor de los milagros. Hume planteó que debíamos evaluar qué era más probable, que el milagro hubiese ocurrido o que el testimonio fuese equivocado y dado que la probabilidad a priori del milagro era muy baja, se necesitaría una evidencia muy alta para confiar en el milagro. Hume resumió su aproximación escribiendo:

Una persona razonable evalúa sus creencias sopesando la evidencia

25.9 Todas las hipótesis

La inferencia bayesiana tiene otra característica que puede llamar la atención: su objetivo no consiste en seleccionar la mejor hipótesis, sino en modificar racionalmente nuestra confianza en todas las hipótesis evaluadas. La inferencia bayesiana dicta cómo deberíamos actualizar la distribución de probabilidades a priori dada la evidencia disponible.1481 Es decir, si comenzamos planteando mil hipótesis iniciales, el resultado final será que seguimos teniendo las mismas mil hipótesis finales. Lo que habrá cambiado es nuestra confianza en cada una de ellas. Puede que ahora haya una que tenga una probabilidad final de 0,99 y el resto se repartan el 0,01 restante de probabilidad, pero también podría resultar que dos, tres o más hipótesis acabasen teniendo al final una probabilidad elevada.

Otra aproximación muy utilizada en estadística, la máximo-verosímil si se plantea como objetivo elegir una sola hipótesis: aquella que hace más probable las evidencias que hemos observado (p(Evidencia|Hipótesis)). El problema de elegir una sola hipótesis es que puede que haya otra casi igual de adecuada que vamos a acabar ignorando. Sin embargo, este es un problema que no afecta al bayesiano.

Además, en general, es muy buena idea evaluar todas las hipótesis y no sólo la favorita. Es común que cuando tenemos una hipótesis razonable intentemos confirmarla enumerando las evidencias que cuadran con la misma. Esta aproximación, sin embargo, no es completamente racional. Es preferible evaluar todas las hipótesis, no sólo la que nosotros creemos más probable a priori. Además, hay que utilizar en su evaluación todas las evidencias disponibles, no sólo las favorables, y debemos comprobar para cada evidencia si da o no soporte al resto de hipótesis.

En cualquier caso, aunque estemos obligados a considerar todas las hipótesis puede, como ya he mencionado, que al final una de ellas tenga una probabilidad muy alta.1482

25.10 Lógica inductiva

La inferencia bayesiana puede considerarse como una formalización de la inferencia inductiva no ampliativa. La probabilidad podría interpretarse como el grado en el que una afirmación es verdadera dado que otras también lo son en diverso grado.

El filósofo, matemático y economista Frank Ramsey (1903–1930) indicó que la teoría de la probabilidad exige consistencia y que, por lo tanto, podría ser utilizada para extender la inferencia deductiva. Si desobedecemos las reglas de la lógica deductiva podemos acabar aceptando conjuntos de proposiciones como verdaderas que, en realidad, no pueden ser simultáneamente verdaderas, mientras que, en el caso inductivo, al violar las reglas de la probabilidad quedaríamos expuestos al problema del libro holandés.1483

La diferencia entre la inferencia bayesiana y la deductiva consiste en que mientras la deducción serviría para afirmaciones que consideramos verdaderas o falsas con certeza absoluta, este nuevo tipo de inferencia lógica nos sirve también para aquellos enunciados de los que no estamos completamente seguros.1484

La inducción simple, tal y como la consideramos en los capítulos anteriores, es ampliativa y por eso implica un salto lógico, pero la inferencia bayesiana, como la deductiva, no lo es, no crea nuevo contenido factual, simplemente transforma las premisas en conclusiones, siendo ambas, en el caso bayesiano, probabilísticas.1485 En este caso no estamos proponiendo nuevas hipótesis, como lo hacemos normalmente al inducir, sino que estamos obteniendo probabilidades a posteriori a partir de las asunciones iniciales.

25.11 Límites del bayesianismo

El bayesianismo representa el estándar racional de la justificación. Si hay varias hipótesis planteadas, lo ideal sería evaluarlas a la luz de las evidencias utilizando la inferencia bayesiana, pero, por desgracia, esto no siempre es posible y, además, hay aspectos del proceso científico, como el del descubrimiento, que no están cubiertos por la aproximación bayesiana.

Otro de los problemas que no soluciona el bayesianismo es el de la constancia de las regularidades del cosmos. Si mañana cambiasen las regularidades presentes en el sistema que hemos estudiado, si se violase el principio de uniformidad que discutimos en el capítulo dedicado al problema de la inducción, la inferencia bayesiana quedaría tan expuesta como cualquier otra. La inferencia bayesiana formaliza algunos aspectos de la inducción, pero no puede solventar por completo el problema de la inducción. Esto es lógicamente imposible: siempre que haya un investigador haciendo modelos sobre el funcionamiento y la constitución de un sistema a partir de información limitada estaremos expuestos a este problema. Este no es un problema que afecte sólo a la ciencia, cabe la posibilidad lógica que dentro de cinco minutos el mundo deje de existir, las esmeraldas pasen a ser rojas o que los polos Frigo Pie sepan a pollo asado. Esto, recordemos, no es una mera posibilidad teórica. Es cierto que parece improbable que las leyes del universo vayan a cambiar repentinamente, pero si estamos estudiando un sistema complejo puede que las reglas que lo rigen sean modificadas sin que nos demos cuenta. Por ejemplo, puede que tengamos un modelo epidemiológico sobre el funcionamiento de una enfermedad que nos ha funcionado muy bien durante dos décadas, pero que, de repente, falle estrepitosamente porque, sin que nos hayamos dado cuenta, la bacteria causante de la enfermedad haya adquirido una mutación que la hace mucho más infectiva.

El bayesianismo se enfrenta además a numerosos problemas prácticos. Una de las limitaciones principales suele ser la de calcular p(Evidencia|Hipótesis). Para poder hacer este cálculo nuestra hipótesis tiene que estar perfectamente determinada de un modo matemático. Sin embargo, la mayor parte del trabajo científico utiliza hipótesis que no están definidas con tanta precisión. De hecho, fuera de la física, en muchos casos, las hipótesis no son ni siquiera cuantitativas. En estos casos, aunque el bayesianismo debería ser una inspiración, un estándar que nos guiase, no podrá utilizase formalmente.

Por otro lado, incluso cuando hayamos hecho el esfuerzo de plantear hipótesis cuantitativas precisas, es muy probable que no podamos utilizar la inferencia bayesiana, simplemente, porque computacionalmente es demasiado costosa. El problema general de la actualización de la confianza en nuestras creencias suele tener un coste computacional tan elevado que que los cálculos son imposibles de realizar Pearl,1486 location:8088].

En la práctica, para poder resolver los cálculos, hay que hacer asunciones que suelen funcionar bien en la mayoría de los casos, pero que no tienen la garantía del rigor del calculo bayesiano estricto. Es decir, en las aplicaciones habituales solemos aplicar heurísticas que, aunque en la mayoría de los casos funcionan bien, en algunos casos podrían llevarnos a conclusiones equivocadas. Existen muchas de estas aproximaciones simplificadas como, por ejemplo, las redes de creencias,1487 el muestreo de hipótesis más prometedoras por cadenas de Markov o las basadas en la energía libre.1488

Por último, debemos recordar que la aproximación formaliza la justificación de las hipótesis y que incluso existen investigaciones para ampliarla a la fase de investigación de nuevas evidencias.1489 Sin embargo, la fase de creación de hipótesis, en la mayor parte de los casos, continúa siendo un arte. Dadas unas evidencias, antes de poder evaluar las hipótesis, debemos llegar a formularlas y aquí es donde, en la práctica, solemos fallar. Si no planteamos las hipótesis correctas nuestro análisis bayesiano servirá de bien poco y, además, siempre quedaremos expuestos al problema de las hipótesis no planteadas.1490 Puede que mañana llegue otro investigador que ha encontrado un patrón que a nosotros se nos había escapado por completo.

25.12 Resumen

Depositamos un grado de confianza en cada una de nuestras creencias, algunas nos parecen más seguras como representación del mundo externo y otras menos. Esta confianza habría de ser coherente entre distintas creencias y la asignación de probabilidades a cada una de ellas nos permite hacer uso del cálculo de probabilidades para conseguir esta coherencia.

El pensador racional ha de tener en cuenta las evidencias disponibles cuando asigna una confianza a una hipótesis. Además, es importante no caer en la falacia de la frecuencia base, hemos de recordar que la probabilidad que nos interesa, la de nuestra hipótesis dado que hemos obtenido unas evidencias, es la reversa a la que podemos calcular más fácilmente: la de observar un resultado determinado si asumimos que el mundo funciona siguiendo la hipótesis. Esta probabilidad se calcula utilizando el teorema de Bayes y este es el fundamento de la inferencia bayesiana.

Una consecuencia ineludible de esta aproximación es que nuestra confianza en nuestras creencias ha de depender, además de en las evidencias, del conjunto de nuestro conocimiento previo. Este conocimiento previo se introduce en el formalismo bayesiano como las hipótesis y sus confianzas previas.

La inferencia bayesiana formaliza un aspecto importante del aprendizaje, cómo hemos de variar nuestra confianza en nuestras creencias cuando obtenemos una nueva evidencia. Este proceso de aprendizaje puede ser iterativo, a medida que vamos obteniendo nuevas creencias podemos ir aplicando la inferencia bayesiana para actualizar nuestras confianzas.

La inferencia bayesiana es una formalización de las inferencias no ampliativas. Generaliza la lógica deductiva añadiendo la posibilidad de asignar grados de confianza a las proposiciones. Al no ser ampliativa no implica un salto lógico y, por lo tanto, evita algunos de los problemas asociados a la inducción.

Aun así, no soluciona todos los problemas. Por ejemplo, que cualquier conocimiento sobre un sistema está obligado a asumir el principio de uniformidad; si el sistema cambiase el conocimiento previo adquirido quedaría obsoleto. Esta es una limitación inevitable general del conocimiento del mundo externo. Además, al no ser ampliativa acepta unas limitaciones adicionales de partida. La principal de ellas es que no nos sirve de guía durante la fase de descubrimiento de las hipótesis o sobre qué confianza inicial tenemos que depositar en ellas. Tampoco soluciona el problema de las hipótesis no planteadas, en cualquier momento podría aparecer una hipótesis rival que no hemos considerado y que podría ser mejor que cualquiera de las nuestras. Y, por último, también nos deja expuestos al problema de la carga teórica de los hechos.

Aunque, también se puede ver el vaso medio lleno. La inferencia bayesiana es un gran avance ya se establece un estándar para la justificación hipotética que nos sirve como guía para evaluar cualquier hipótesis disponible dadas unas evidencias. Además, al menos en teoría, es capaz de resolver el problema de Duhem-Quine.

En la práctica aplicar la inferencia bayesiana no es sencillo. Por un lado, exige que asignemos probabilidades tanto a las hipótesis como a las evidencias y que los modelos sean los suficientemente detallados como para que podamos calcular probabilidades a partir de ellos. Y, por otro, los cálculos suelen ser computacionalmente tan costosos que, en la práctica, nos obligan a usar aproximaciones.

En cualquier caso, la inferencia bayesiana es un estándar que, al menos, hemos de tomar como referencia. Muchas de las reglas que hemos comentado anteriormente, como el falsacionismo o el método hipotético-deductivo pueden derivarse como casos particulares de esta aproximación general. Es importante recordar que el pensador racional debe considerar todas las hipótesis, no sólo la que trata de contrastar, y que tiene que tener en cuenta todas las evidencias, no sólo las favorables. Aunque es cierto que, en la práctica, puede que algunas hipótesis tengan una confianza inicial tan ridículamente baja que no merezca la pena evaluarlas a no ser que se disponga de nuevas evidencias muy sólidas a su favor. Este es, por ejemplo, el caso de la homeopatía.

Por último, no me gustaría terminar sin recordar a todos los que utilizan la inferencia estadística, sea esta bayesiana o frecuentista, que hacerlo sin entender la filosofía que hay detrás es una muestra de mala ciencia. Si no entiendes por qué estás aplicando un test y no otro y cuáles son las implicaciones filosóficas de lo que estás haciendo no deberías estar utilizando ese test sin el consejo de un especialista.


  1. Rhodes, The Making of the Atomic Bomb, location:724.↩︎

  2. Howson and Urbach, Scientific Reasoning, location:20.↩︎

  3. Chalmers, What is This Thing Called Science?, location:1072.↩︎

  4. McGrayne, The Theory That Would Not Die, location:1122.↩︎

  5. Sautoy, What We Cannot Know, location:4096.↩︎

  6. Spiegelhalter, The Art of Statistics, location:426.↩︎

  7. Ibid., location:2969.↩︎

  8. Howson and Urbach, Scientific Reasoning, location:28.↩︎

  9. Spiegelhalter, The Art of Statistics, location:2730.↩︎

  10. Ibid., location:2717.↩︎

  11. Spiegelhalter, The Art of Statistics.↩︎

  12. Yudkowsky, Rationality, location:11815.↩︎

  13. Carroll, The Big Picture, location:1250.↩︎

  14. Gower, Scientific Method, location:5069.↩︎

  15. Howson and Urbach, Scientific Reasoning, location:110.↩︎

  16. Ibid., location:264.↩︎

  17. Ibid., location:38.↩︎

  18. Yudkowsky, Rationality, location:12604.↩︎

  19. Gower, Scientific Method, location:4087.↩︎

  20. Howson and Urbach, Scientific Reasoning, location:279.↩︎

  21. Ibid., location:142.↩︎

  22. Yudkowsky, Rationality, location:15517.↩︎

  23. Spiegelhalter, The Art of Statistics, location:3729.↩︎

  24. Ibid., location:3735.↩︎

  25. Howson and Urbach, Scientific Reasoning, location:278.↩︎

  26. Ibid., location:171.↩︎

  27. Yudkowsky, Rationality, location:12492.↩︎

  28. Michael Strevens, “The Bayesian Approach Tothe Philosophy of Science,” location:13.↩︎

  29. Carroll, The Big Picture, location:1943.↩︎

  30. Yudkowsky, Rationality, location:1328.↩︎

  31. McGrayne, The Theory That Would Not Die, location:313.↩︎

  32. Ibid., location:85.↩︎

  33. Ibid., location:1745.↩︎

  34. Ibid., location:3470.↩︎

  35. Spiegelhalter, The Art of Statistics, location:4057.↩︎

  36. McGrayne, The Theory That Would Not Die, location:709.↩︎

  37. Domingos, The Master Algorithm, locaiton:2306.↩︎

  38. Gower, Scientific Method, location4901.↩︎

  39. Michael Strevens, “The Bayesian Approach Tothe Philosophy of Science,” location:10.↩︎

  40. Howson and Urbach, Scientific Reasoning, location:250.↩︎

  41. Domingos, The Master Algorithm, location:2704.↩︎

  42. Howson and Urbach, Scientific Reasoning, location:86.↩︎

  43. Ibid., location:64.↩︎

  44. Ibid., location:92.↩︎

  45. Probabilistic Reasoning in Intelligent Systems.↩︎

  46. Ibid., location:526.↩︎

  47. Sean Carroll, Karl Friston on Brains, Predictions, and Free Energy.↩︎

  48. Ibid.↩︎

  49. Michael Strevens, “The Bayesian Approach Tothe Philosophy of Science,” location:10.↩︎