CIENCIA Y TECNOLOGÍA

¿Un universo afortunado?

Dios y el fine tuning

Credit: NASA, ESA, Hubble Heritage Team

Nuestro universo parece estar hecho para la vida[1] y tener las características adecuadas para hacerla posible, para que prospere y evolucione. Alberga actividad biológica, tal vez con un discreto derroche de espacio – al día de hoy somos capaces de observar una extensión total de cerca de 92.000 millones de años luz, o sea, alrededor de 9 x 1023 km (=9 seguido de 23 ceros) –, de todas formas, la vida está ahí. Aunque solo existiese la vida en este pequeño planeta que orbita en torno a una estrella en los márgenes de una en 100 millones de galaxias, incluso con todo este «derroche de espacio», la vida está ahí.

Su presencia, ¿es una observación obvia, que damos por sentada? Tal vez. Pero teólogos, filósofos, cosmólogos y científicos en general llevan siglos haciéndose esta pregunta: ¿por qué las leyes de la naturaleza parecen haber sido «afinadas», sintonizadas de manera tan sutil y precisa como para permitir el desarrollo de seres vivos? Es lo que en cosmología se conoce como «el problema del fine tuning». Este enigma debería ser también una cuestión de suma importancia para los hombres y mujeres de fe, que con mente y espíritu abiertos a la verdad se apasionan por la creación.

El fine tuning del universo consiste en constatar que, si las leyes de la física fueran distintas, incluso por poco, la vida no sería posible[2]. Y las leyes físicas – tal como las observamos – no representan más que una opción entre todas las posibles, volviendo así nuestro universo – regido por estas leyes particulares – sumamente improbable. Sin embargo, es el único en el que vivimos y que observamos experimentalmente.

Para explicar la sintonía de las leyes físicas podemos proponer una analogía con el violinista que afina su instrumento antes del inicio del concierto, de modo que suene armónicamente con toda la orquesta. Algo similar parece suceder con las leyes naturales, solo que en una «escala» mucho mayor y con una precisión bastante más alta.

Pero, ¿qué podemos llamar «vida»? Como no somos expertos en biología, evitemos entrar en cuestiones técnicas y complejas. Sin embargo, no erramos de mucho si afirmamos que no sabemos exactamente qué es la vida. Sabemos, eso sí, que bajo ciertas condiciones esta no sería posible, y que, con muy alta probabilidad, en un universo completamente distinto al nuestro esta no existiría[3].

Ahora bien, decir «no lo sabemos» no es algo intrínsecamente negativo, y – un aspecto metodológico todavía más importante – saber reconocer cuándo un concepto o una magnitud no son esenciales para comprender el fenómeno bajo estudio es uno de los puntos fuertes de la ciencia (y de la física). La capacidad de delimitar la propia área de investigación – y es así como debería proceder la ciencia, cuando se la considera seria y honestamente – es un elemento fundamental y una garantía para la aventura científica.

El problema principal y la metodología

Describimos nuestro universo a partir de leyes físicas que tienen valores numéricos llamados, en lenguaje técnico, «constantes universales fundamentales». Podríamos decir que las leyes (en su formulación matemática) son la gramática del universo, mientras que las constantes – los valores numéricos – son las palabras concretas, utilizadas por el universo para «expresarse».

Así, podríamos preguntarnos qué sucedería si las leyes físicas, o las constantes, fueran distintas. ¿Seguiría siendo posible la vida? Y, por tanto, ¿cómo es posible que el universo esté afinado de manera tan precisa como para permitir el nacimiento de seres vivos complejos y sensibles?

Lo que suelen hacer los cosmólogos es construir enormes y complejos programas de simulación en ordenadores para estudiar universos posibles con leyes naturales distintas, desarrollando así el juego de «¿qué sucedería si…?». ¿Qué sucedería si se modificara la constante de aceleración gravitacional? ¿Qué consecuencias tendría el cambio de masa del electrón? ¿Qué sucedería si la interacción nuclear fuerte, la que mantiene unidos a los protones y los neutrones (que forman los núcleos de los átomos), fuera diferente? ¿Y si se modificara la masa de los quark (o sea, los elementos que forman los protones y los neutrones, y están en la base de los núcleos atómicos)? Los cosmólogos aplican esta estrategia de manera cada vez más radical, llegando incluso a preguntarse cuáles serían las consecuencias de cambiar los parámetros libres[4] de los modelos físicos, las diversas fuerzas fundamentales[5], la segunda ley de la termodinámica[6], e incluso el número de dimensiones espaciales.

Aunque no puedan observarse experimentalmente, estos estudios y sus conclusiones representan hechos consolidados y son en general compartidos por la comunidad científica. Se puede afirmar que universos hipotéticos con leyes naturales apenas modificadas no serían habitables.

En este artículo presentaremos, a modo de ejemplo, solo dos de los múltiples estudios llevados a cabo, procurando elegir los que creemos son más significativos y de más fácil comprensión.

La masa de los electrones

El primer ejemplo es probablemente bastante intuitivo: involucra la masa de los electrones. Para volver el problema lo más simple posible, dejaremos de lado muchos otros parámetros estrechamente interconectados con la masa de esta partícula. Es importante aclarar que la variación de esta magnitud debería ser considerada en toda su complejidad, es decir, que las diversas cantidades cambian de manera coordinada y sistemática, y no de manera desconectada e independiente, tal como por simplicidad describiremos a continuación.

Inscríbete a la newsletter

Cada viernes recibirás nuestros artículos gratuitamente en tu correo electrónico.

El electrón es una de las partículas fundamentales del universo. Este «orbita» – o, mejor, tiene una «distribución probabilística» – en torno al núcleo de los átomos, y su masa puede medirse con altísima precisión. Ella corresponde a 9,10938215 x 10-40 kg (con una exactitud muy elevada de 4,5 x 10-40 kg, es decir, aproximadamente medio milmillonésimo respecto a la cantidad medida)[7]. Este valor es universal: todos los electrones tienen la misma masa en cualquier punto del universo. Además, vale la pena notar que esto es lo que se conoce como free parameter del Standard Model[8] de la física de las partículas.

Si consideramos una etapa tardía en la historia del universo – más cercana a nuestra vida cotidiana –, el aumento de la masa electrónica a cerca de 3,5 x 10-28 kg trastornaría completamente la química que conocemos: no habrían planetas sólidos, ni moléculas de ADN estable, ni huesos, ni paredes celulares, ni órganos, ni vida.

Si se examina, en cambio, un escenario cosmológico primordial – es decir, más cercano al instante «inicial» del que podemos tener algún conocimiento, el Big Bang –, el cambio en la masa de los electrones a unos 2 x 10-30 kg impediría la formación de átomos en el universo primitivo. Esto porque los núcleos (formados por neutrones y protones) se tragarían a los electrones que «orbitan» a su alrededor. Un universo así estaría completamente enroscado sobre sí mismo y sería radicalmente inadecuado para la vida.

La atracción gravitacional

También se puede plantear la hipótesis de un universo en el que la atracción gravitacional sea diferente. La gravedad es una fuerza fundamental de la naturaleza. Mantiene unidos a los objetos que tienen masa, los hace caer, como las manzanas de los árboles[9], mantiene los planetas en órbita en los sistemas solares y hace que las galaxias se muevan con un movimiento regular, elegante y armónico.

En la teoría de Newton, la fuerza de gravedad se describe como una ley cuya atracción es proporcional al producto de la masa de los objetos mismos. Para la teoría de la Relatividad General – nacida del genio de Einstein –, el campo gravitacional es concebido más bien como una perturbación del espacio-tiempo y del entramado espacio-temporal. Este puede ser comparado a una sábana tensada que se deforma cuando se apoyan en ella objetos pesados (una manzana, un libro, etc.). En física, el campo es una entidad que expresa una magnitud en función de la posición en el espacio y el tiempo (o en el espacio-tiempo, si el campo es relativista). El campo gravitacional es lo que puede llamarse un «campo vectorial», donde un vector – dado por una «longitud», una dirección y un sentido – indica la fuerza que actúa sobre una masa unitaria convencional imaginaria, situada en algún punto concreto del espacio considerado.

Todos los cuerpos que existen en el universo – los planetas, los sistemas solares, nosotros mismos – se mueven sobre esta «sábana» de acuerdo a trayectorias que no son rectilíneas, sino curvas, según la curvatura causada por las masas que ocupan este mantel y que se encuentran en el camino.

En la teoría de Einstein, el parámetro G – que ya está presente en la teoría newtoniana como coeficiente de proporcionalidad de la aceleración de la caída de los cuerpos – es el parámetro que correlaciona la curvatura espacio-temporal con la cantidad de materia y de energía presentes en el espacio local. Modificar el valor de ese parámetro, incluso en pocas unidades porcentuales, crearía un universo increíblemente distinto del nuestro. Un aumento incluso mínimo provocaría en poco tiempo, inmediatamente después del Big Bang, un colapso de toda la materia, impidiendo a la vida desarrollarse y volverse compleja. Si la constante fuera, en cambio, ligeramente más pequeña, los elementos no podrían agruparse y formar galaxias, estrellas, planetas y vida.

Improbabilidad de las constantes universales y el «Intelligent Designer»

De modo que las variables físicas parecen haber sido ajustadas con extrema precisión para permitir el desarrollo de la vida. Pero, al mismo tiempo, todos los demás valores habrían podido ser igualmente posibles. En efecto, vale la pena destacar que el valor exacto que toma cada constante es uno solo – a saber, el valor «regulado y afinado con precisión» -, y es uno entre muchos. Así que la probabilidad de que ese número «ocurra» exactamente es increíblemente baja, mucho más baja que la suma de las probabilidades del resto de las opciones tomadas al azar. Un poco como sucedería si tuviéramos a disposición una ruleta con 38 números: la probabilidad de extraer exactamente un número («el» número sobre el que hemos apostado) es de 1/38 (cerca de 2,63%), mientras que la probabilidad total de obtener cualquier otro número es de 37/38 (es decir, 97,37%)[10]. Y es necesario considerar que en cosmología el número de situaciones posibles es bastante más elevado que 38.

¿Se podría, entonces, concluir que las leyes de la naturaleza y las constantes universales, tan precisamente ajustadas, fueron proyectadas para permitir este resultado concreto, este universo y la vida compleja? ¿Estamos obligados, bajo este razonamiento lógico, a aceptar el «principio antrópico», o el concepto del «diseño inteligente»?

Dona

APOYA A LACIVILTACATTOLICA.ES

Queremos garantizar información de calidad incluso online. Con tu contribución podremos mantener el sitio de La Civiltà Cattolica libre y accesible para todos.

En lo que concierne al principio antrópico, hay que distinguir sus dos formulaciones: la débil y la fuerte. El «principio antrópico débil», introducido por primera vez por el cosmólogo Brandon Carter[11] en 1973, sostiene que debemos tener presente que «nuestra posición en el universo es necesariamente privilegiada, porque es compatible con nuestra existencia como observadores». La formulación «fuerte» del mismo principio, afirma que «el universo debe ser así para permitir la creación de observadores», asumiendo de esta forma un carácter más propiamente teleológico. A partir de esta última formulación John Barrow y Frank Tipler[12] han propuesto, en su libro The Anthropic Cosmological Principle (1986), una nueva definición. Los autores sostienen que «el universo debe tener las propiedades que permitan a la vida desarrollarse en él en algún momento de su historia»[13]. El principio antrópico, sobre todo el débil, no debe considerarse como una explicación del «por qué» estamos aquí, sino más bien como una tautología: «Puesto que existimos, el universo (con sus leyes) debe haber permitido la existencia de observadores, es decir, de nosotros»[14]. Aunque no tenga poder explicativo, este tipo de afirmaciones tautológicas tienen de alguna manera un papel importante en la comprensión científica del mundo.

Más allá de las posibles posiciones derivadas de los diversos principios antrópicos, esta condición de extrema improbabilidad exige una explicación, ya sea admitiendo la existencia de un Intelligent Designer (un Ser superior sobrenatural) que haya «ajustado a mano» las leyes con el fin de tenernos aquí; ya sea para descubrir una teoría física más profunda, todavía por explorar, y que supere y sostenga nuestros conocimientos actuales. O tal vez ambos escenarios puedan coexistir.

«Multiverso» e «inflación eterna»

Más o menos recientemente, aparecieron en la escena cosmológica modelos que parecen gozar de gran crédito en la comunidad científica. Tomaremos en consideración los del multiverso y los inflacionistas.

El escenario del «multiverso» busca, en cierto sentido, resolver el problema de la extrema improbabilidad de nuestros parámetros físicos planteando la hipótesis de una multiplicidad de universos, cada uno de los cuales tiene sus propias leyes físicas. Teniendo en cuenta la gran cantidad de casos posibles – tanto en el tiempo como en el espacio –, desde un punto de vista estadístico podría no ser imposible que uno de estos universos tenga leyes adecuadas para albergar formas de vida complejas.

La «Teoría de la inflación cósmica eterna» está vinculada al escenario del multiverso. En nuestro universo la inflación comenzó unos 10-35 s después del nacimiento inicial y duró hasta los 10-34 s. Durante este lapso de tiempo infinitesimal el volumen del cosmos se multiplicó por al menos 80 veces (2 x 1080, 2 seguido de ochenta ceros). De acuerdo a la Teoría de la inflación cósmica eterna, esta fase inflacionaria duraría todavía en la mayor parte del universo, que se «inflaría» sin cesar, produciendo continuamente una gran cantidad de universos, cada uno con sus propias leyes naturales. La expansión se detendría solo en una pequeñísima fracción de este inmenso paisaje cósmico, y nuestro universo sería parte de una de las secciones en las que la inflación se detuvo. La enorme variedad de universos «paralelos» ocurre incluso simultáneamente, aumentando así las posibilidades disponibles en el escenario cósmico y resolviendo el enigma de la probabilidad infinitesimal de nuestras leyes físicas: si el número de casos aumenta de manera desproporcionada, incluso una situación que al principio parecía muy improbable puede volverse posible.

Sin embargo, según Alan Guth, uno de los creadores de estos modelos, si bien la inflación es generalmente ilimitada en el futuro, no habría sido eterna en el pasado[15]. Considerando además los trabajos de Lewis, Barnes, Davies y otros, la «inflación eterna» y su consecuente «multiverso» dejan abierta y sin solución una serie de problemas (aunque debemos decir que a veces las objeciones sobre el «multiverso» y el modelo de la «inflación eterna» exhiben una naturaleza más filosófica que científica). El multiverso y la inflación eterna parecen, de hecho, no resolver el problema fundamental del fine tuning: ¿cómo es posible que los parámetro de la física hayan sido tan precisamente ajustados como para obtener un universo capaz de albergar vida? ¿Cuál es el campo – en sentido físico – original de la inflación, que regula la dinámica, que ordena el fin de la inflación?

Por lo tanto, se podría afirmar que la inflación es más bien un efecto antes que una causa del fine tuning, justo cuando nuestro objetivo consiste precisamente en la búsqueda de las causas de todo esto. Además, la inflación eterna podría ser incluso un argumento a favor de una formulación determinada del principio antrópico: nosotros, seres vivos y sensibles, ocupamos una posición privilegiada en el «multiverso». Y los hombres volverían a ser el centro del universo o, más precisamente, de los universos, en una suerte de perspectiva neotolomeica.

Algunos aspectos filosóficos

Un aspecto al que debemos prestar atención al considerar los argumentos es el de distinguir, lo más honesta y precisamente posible, entre afirmaciones filosóficas o teológicas y afirmaciones propiamente científico-observacionales.

La ciencia no es una «interpretación» de los datos, es más bien una «interpolación» descriptivo-predictiva de estos. Nos toca a nosotros inevitablemente – en cuanto seres humanos – desarrollar nuestra propia visión del mundo y nuestras interpretaciones más filosóficas (que deben estar, de todas formas, de acuerdo con los resultados científicos). En cualquier caso, hay que reconocer e incentivar la cosmología científico-observacional cuando instaura un diálogo estrecho y enriquecedor con el pensamiento filosófico.

El método que la comunidad científica utiliza para confirmar o rebatir una hipótesis es el «enfoque bayesiano»[16]. Este permite asignar a una determinada teoría una probabilidad de validez sobre la base de datos observables. Un elemento esencial de este método consiste en la consciencia de que, incluso si los datos experimentales son inciertos e incompletos, la verdadera teoría, que debería ser reconocida gracias a estos, no es en absoluto incierta. Para los bayesianos – conocidos como los «objetivos» -, la teoría validada logra decirnos algo sobre el universo mismo, tal como es. Y, en cierto sentido, es precisamente este el fin último de la ciencia: ofrecer un conocimiento del universo lo más libre posible de los prejuicios humanos. En el caso del fine tuning, se puede razonar de la siguiente manera: 1) si un universo determinado obedece a leyes de la naturaleza, sin que estas, y en particular las constantes universales, sean completamente especificadas, 2) la probabilidad de que este pueda contener formas de vida es extremadamente baja; 3) pero, en realidad, nosotros observamos un universo que contiene vida, lo que requiere un fine tuning que fije tales leyes.

Por lo tanto, el fine tuning podría no implicar necesariamente la existencia de un Dios que «ajuste a mano» las constantes físicas; pero la probabilidad de que exista una divinidad personal[17] es más coherente con este escenario (ajustado) respecto a la que teoriza un proceso completamente aleatorio, que requiere una serie muy numerosa de universos. Un Dios que haya afinado las leyes físicas – de cualquier manera, incluso a través del orden natural – no es para nada contradictorio con las observaciones científicas.

Hay que añadir que un Dios trascendente también podría ofrecer una garantía de que las leyes naturales, y la física en particular, tienen un fundamento. En este sentido, la oposición no se da en absoluto entre las diversas teorías o modelos científicos; la alternativa es más bien entre las perspectivas que apelan al causalism («casualismo») y las que apelan al theism («teísmo»).

El causalismo sostiene que la realidad física es la única realidad, y que no existe nada más allá de ella. En consecuencia, las leyes naturales son lo que son, y no tienen explicación o fundamento. Para el enfoque «casualista», todo es posible de un modo completamente aleatorio: las constantes y las leyes de la naturaleza, que emergen sintonizadas para hacer posible la vida, parecen ser tales solo para nosotros, pero, en realidad, el concepto mismo de fine tuning es una mera ilusión que no requiere ninguna explicación más que la que permita eliminarlo. No hay nada más allá que pueda sostener las leyes de la física. En última instancia, las leyes naturales y las constantes universales son lo que son, porque «simplemente ocurrió así».

Por el contrario, el teísmo prefiere aquellas leyes de la naturaleza que permiten la existencia de formas de vida complejas, inteligentes y morales. Y puesto que este es el universo y la única realidad que observamos – o sea, nuestros datos experimentales –, de acuerdo al razonamiento bayesiano objetivo, es más probable que exista un Dios a que no exista.

A estas alturas, no creemos que debamos extraer conclusiones objetivas y categóricas a partir de estas consideraciones. Nos inclinamos más bien a dejar a cada uno la posibilidad de escoger libremente y de percibir de manera plena que «la vida supera a la ciencia», como afirma John C. Polkinghorne[18]. Sin embargo, nos sentimos inclinados a afirmar que el teísmo anima una investigación científica cada vez más profunda, de visión amplia y en diálogo con filósofos y teólogos. Es una posición intelectual y existencial que se maravilla y siente curiosidad en la revelación de la genial creatividad del Absoluto. Es posible notar cómo esta actitud – que podríamos definir como «teísmo razonable» – se diferencia bastante de la concepción del «Dios tapa-agujeros» de cierta religiosidad ya superada, y está íntimamente ligada a la «fe inteligente» de la espiritualidad jesuita. Esta creatividad divina podría realmente encontrar su actualización en un plano puramente natural y descriptible con una «nueva física» que – es lo que esperamos – sería capaz de ofrecer una respuesta al enigma del fine tuning a través de leyes físicas para nosotros aún desconocidas. Entendemos el término new physics («nueva física») en el sentido interpretado por los físicos, es decir, como un término técnico y amplio que señala nuevos modelos y teorías físicas que van mucho más allá del Modelo Estándar.

En conclusión, parece que lo Trascendente, antes que un obstáculo o un freno a las capacidades del hombre, es en realidad una energía que alienta la investigación y la ciencia misma.

  1. El reciente descubrimiento de fosfano (una sustancia química que se presenta en cantidades abundantes solo cuando hay actividad biológica) en Venus parece indicar que el planeta Tierra no sería el único que goza de las cualidades necesarias para acoger la vida.

  2. Al respecto, cfr G. F. Lewis – L. A. Barnes, A Fortunate Universe. Life in a Finely Tuned Cosmos, Cambridge, Cambridge University Press, 2016.

  3. Ibid, 13; 161-164.

  4. En física, los parámetros libres, o free parameters, son aquellas magnitudes que no pueden predecirse (¿por ahora?) mediante teorías fundamentales y son determinadas, por lo tanto, de forma experimental. Parámetros libres pueden ser la masa de las partículas elementales (la del electrón, por ejemplo), o la constante gravitacional, o las coupling constants («constantes de acoplamiento») numéricas, que parametrizan la «intensidad» de cada fuerza fundamental.

  5. En física, tal como la conocemos hoy, tenemos cuatro fuerzas fundamentales: la fuerza gravitacional, la fuerza electromagnética, la fuerza nuclear débil y la fuerza nuclear fuerte. La fuerza gravitacional es la más débil de las interacciones y puede prácticamente dejarse de lado cuando se consideran dimensiones subnucleares (menores a 10-10 m, es decir 0,0000000001 m) descritas por la mecánica cuántica, pero es la que experimentamos cotidianamente. La fuerza electromagnética es la responsable de la electricidad y el magnetismo. La fuerza nuclear débil da cuenta de la mayor parte de las desintegraciones radioactivas de las partículas. Esta fuerza fue unificada, en los años Sesenta, con el electromagnetismo en una única formulación matemática. Por eso hoy se habla de fuerza electrodébil, para indicar la fuerza electromagnética y la fuerza nuclear débil. La cuarta fuerza fundamental es la fuerza nuclear fuerte, que mantiene unidos los componentes de los núcleos atómicos (protones y neutrones) y describe también las interacciones entre los quark.

  6. La segunda ley de la termodinámica afirma que: «la cantidad de orden en el universo (o de una parte de este que sea aislada) no puede aumentar espontáneamente» (A Fortunate Universe…, cit., 97). Hay que decir, sin embargo, que el concepto de «orden» es en cierto modo subjetivo y algo equívoco, y en física se prefiere usar la mayoría de las veces conceptos cuantitativos y claramente definidos. En lugar de «orden», nos referimos a la «entropía», que representa la cantidad de energía que puede extraerse y convertirse en otra forma.

  7. Normalmente en la física de las partículas se usa como unidad de medida el electron-volt dividido por la velocidad de la luz al cuadrado (eV/c2), a través de la conocida ecuación de Einstein E=mc2. En esta unidad, la masa del electrón es de 0,511 x 106 eV/c2.

  8. El Standard Model es, hasta hoy, la descripción más completa y fundamental que tenemos del mundo subatómico. Es esencial para la comprensión del mundo subatómico (es decir, 10-10 m) y es también un instrumento fundamental para comprender el universo extremadamente grande (de dimensiones del orden de 1021 m, es decir, 1 seguido de 21 ceros). El Modelo Estándar es un instrumento extraordinario, extremadamente eficaz: todos los experimentos y todas las observaciones efectuadas hasta el momento han confirmado sus predicciones. Pero es poco elegante y, sobre todo, sabemos que no está completo: por ejemplo, no puede explicar – entre otras cosas – la presencia de la enigmática «materia oscura» del universo y no puede explicar la existencia de la masa de los neutrinos (otras partículas elementales muy importantes para la astrofísica y la cosmología).

  9. Según la leyenda, Isaac Newton descubrió la ley de gravedad observando una manzana caer de un árbol.

  10. Esta proporción (37/38) representa la probabilidad de obtener todos los demás números posibles con la ruleta, excepto el elegido como «ganador», y 97,37% es una probabilidad muy cercana a la certeza (es decir, a 1).

  11. Brandon Carter es un físico teórico australiano, investigador del Laboratoire Univers et Théories del CNRS.

  12. John D. Barrow, cosmólogo inglés, físico teórico y matemático, fue profesor de geometría en el Gresham College. Frank J. Tipler, físico matemático y cosmólogo norteamericano, ha trabajado en el departamento de Matemática y Física de Tulane University.

  13. J. D. Barrow and F. J. Tipler, The Anthropic Cosmological Principle, Ox­ford, Calderon Press, 1986.

  14. G. F. Lewis – L. A. Barnes, A Fortunate Universe…, cit., 54.

  15. Cfr A. H. Guth, «L’inflazione eterna e le sue implicazioni», en Journal of Physics A 40 (2007) 6811-6826.

  16. Thomas Bayes fue un estadístico, filósofo y ministro presbiteriano inglés, que vivió en el siglo XVIII. Fue el primero en usar la probabilidad condicional, que utiliza la evidencia para calcular los límites de un parámetro desconocido. El teorema de Bayes podría considerarse, para la teoría de la probabilidad, lo que el teorema de Pitágoras es para la geometría.

  17. En esta argumentación se debería considerar no solo la existencia de formas de vida complejas, sino también las características morales de los seres vivos.

  18. John C. Polkinghorne es un filósofo, teólogo y físico británico, miembro de la Royal Society (FRS) y pastor anglicano.

Paolo Beltrame
Jesuita romano y estudiante de teología en París. Licenciado en Física de partículas, en 2009 obtiene el doctorado en Alemania, al efectuar la medida más precisa jamás realizada: el momento magnético del muon. Trabaja en el CERN, y se dedica a la investigación de la materia oscura en UCLA, en Israel y en la Universidad de Edimburgo.

    Comments are closed.