- -
- 100%
- +
El desarrollo de las ciencias de la complejidad durante el siglo XX puso fuertemente a prueba el determinismo mecanicista. La coexistencia —en los sistemas caóticos— de leyes deterministas no lineales, junto con establecimientos inciertos de las condiciones iniciales del sistema físico, ha hecho imposible la predicción unívoca de la evolución temporal de cada una de las muchas partículas de los sistemas reales. Debido a que en estos sistemas el movimiento de las partículas está regido por ecuaciones muy sensibles a las condiciones iniciales, las trayectorias que siguen dos puntos inicialmente muy cercanos divergen exponencialmente (y no de forma lineal) con el transcurso del tiempo, de manera que pequeñas incertidumbres iniciales son amplificadas exponencialmente en los sistemas caóticos. Si bien sigue siendo posible sostener un determinismo en la dinámica de los sistemas caóticos, esta exige una interpretación peculiar. Como en los sistemas complejos, se pueden predecir estadísticamente de un modo holístico los estados futuros, los procesos que parecen aleatorios macroscópicamente pueden interpretarse como respuestas de leyes deterministas microscópicas subyacentes, responsables estas últimas de restaurar la dependencia temporal unívoca entre los estados del sistema. Si se considera que la estadística tiene la exclusiva función de permitir el tratamiento de sistemas muy complejos con un número enorme de grados de libertad, la probabilidad podría concebirse como la expresión de nuestra ignorancia acerca de los procesos perfectamente deterministas que siguen un sinnúmero de elementos inobservables. Pero ¿admiten entonces los fenómenos caóticos la coexistencia de un determinismo y de un indeterminismo en diferentes niveles o estratos de la realidad? Si así fuera, ¿cómo debería explicarse esta coexistencia?
En el capítulo 7, Olimpia Lombardi y Rafael Martínez exploran las nuevas perspectivas abiertas por el estudio de los sistemas altamente inestables. Señalan que la teoría del caos y la teoría ergódica parecen conducir a conclusiones contradictorias acerca del carácter determinista o indeterminista de la realidad. Los autores muestran que, para resolver este aparente conflicto, caben dos alternativas. La primera consiste en asumir una objetividad estratificada que permita hablar de determinismo e indeterminismo igualmente objetivos, pero relativos al nivel ontológico que se considere en cada caso. La segunda interpreta tal dualidad como fundamentalmente epistemológica, pues reconoce el pluralismo a nivel de descripción teórica, pero distingue entre la dinámica determinista del sistema y su no-determinación ontológica o contingencia.
Una disyuntiva similar se encuentra al abordar el estudio de los fenómenos cuánticos. A pesar de sus enormes éxitos predictivos, la mecánica cuántica continúa presentando grandes desafíos a la hora de su interpretación, cuestión singularmente relevante para el tema que nos ocupa, pues la respuesta sobre el carácter determinista o indeterminista de la mecánica cuántica depende fuertemente de la interpretación de la teoría adoptada. Si bien la mayoría de las interpretaciones favorecen un marco indeterminista, tampoco han faltado nuevos formalismos cuánticos, como el de Bohm, que restituyen el determinismo (Bohm 1952a, b). Ahora bien, las más recientes interpretaciones de la mecánica cuántica, ¿favorecen un indeterminismo epistemológico u ontológico? Más específicamente, ¿introducen estas interpretaciones un indeterminismo ontológico en la microfísica o las probabilidades de la mecánica cuántica son un mero signo de nuestra ignorancia? En el capítulo 8, Sebastian Fortin y Leonardo Vanni eligen dos interpretaciones diversas de la mecánica cuántica —la mecánica bohmiana y las interpretaciones modales— para mostrar que la mecánica cuántica no brinda una respuesta conclusiva respecto al indeterminismo de la naturaleza.
Si en el ámbito más restringido de la física no existe una formulación única para el determinismo, la situación es aún más difícil en el estudio de los seres vivos. En las explicaciones biológicas, el indeterminismo fue introducido dentro del contexto de los fenómenos complejos y de los procesos de autoorganización. Pero cabe preguntarse si la complejidad biológica exige necesariamente una visión indeterminista. La contingencia del mundo biológico, cuyos fenómenos poseen tanto un componente estocástico como uno causal, involucra una diversidad de niveles de complejidad. Así, en la actualidad, una de las cuestiones con mayor relevancia para la filosofía de la biología es comprender la determinación e indeterminación que caracterizan la organización de los seres vivos dentro del contexto de la complejidad.
En la biología contemporánea en general, y en la genética en particular, el concepto de información desempeña un importante papel (Godfrey-Smith y Kim 2008). Los científicos han descubierto que la información almacenada en el genoma está regulada en gran medida por factores epigenéticos (Latchman 2010). Ante esto cabría preguntarse si los factores epigenéticos abren nuevamente un espacio a la indeterminación, dentro del contexto del determinismo genético. Las aproximaciones epigenéticas no ignoran los componentes genéticos de la innovación —como las variaciones genéticas o el gen regulador de la evolución—, pero las asumen como consideraciones siempre presentes en el contexto de trabajo, a la vez que se concentran en intentar explicar los mecanismos que subyacen en la generación de novedades (Müller 2010). Actualmente, el paradigma epigenético es mayoritariamente aceptado, aunque persisten discusiones acerca de su alcance. A pesar de esto, aún no se tiene un modelo explicativo que pueda dar cuenta de la dinámica del sistema como un todo de un modo preciso.
El capítulo 9, escrito por María Cerezo y Ángela Suburo, subraya que la complejidad de la genética fuerza a relativizar la oposición determinismo-indeterminismo en el desarrollo de los organismos biológicos. Los diferentes mecanismos de expresión de los genes indican que estos últimos ciertamente son un factor primordial en la determinación de las características del fenotipo, pero de ninguna manera el único. Este punto, que cuenta con abundante evidencia empírica, conduce a la pregunta por cuál sería la noción y el modelo de causalidad que refleja mejor la relación entre los rasgos biológicos de los individuos y sus genes.
Además de reabrir las cuestiones relativas a la evolución y a la estructura de los sistemas biológicos, la biología contemporánea se interesó también por el desarrollo biológico. Las consideraciones evolutivas (Arp 2007), sistémicas (Craver 2001) y organizacionales (Artiga 2011) de la complejidad biológica ofrecieron así nuevas perspectivas para el estudio de las funciones orgánicas. Estos enfoques permiten considerar las teorías evolutivas no solo a la luz de la biología molecular, sino que ponen también de manifiesto la necesidad de considerar los mecanismos involucrados en el desarrollo y la autoorganización de los vivientes (Bertolaso 2009).
La consideración de una dimensión estocástica a nivel microscópico, junto con una determinación funcional de las partes y del sistema a nivel macroscópico, abrió el camino al surgimiento de las perspectivas sistémicas, que aplicaron la teoría de sistemas al estudio de los vivientes (Von Bertalanffy 1986). El desarrollo se produce a través de la selección de ciclos autocatalíticos en ciertas configuraciones de procesos, los cuales organizan de forma competitiva el sistema cuando los recursos se vuelven limitados. El desarrollo biológico coordina así la diferenciación de las partes constitutivas del sistema y su contribución al funcionamiento del organismo de un modo peculiar. Como la biología del desarrollo considera minuciosamente las redes de flujo y las relaciones jerárquicas que definen un sistema, así como su contexto, toda la causalidad no aleatoria resulta del desarrollo. Desde este punto de vista, una causalidad hacia abajo —bajo la forma de restricciones organizacionales o informacionales— parecería predominar en los sistemas maduros, pues en ellos el funcionamiento depende en menor medida de las partes constitutivas de los niveles inferiores. En el capítulo 10, Marta Bertolaso y Francisco Güell presentan un valioso aporte a la filosofía de la biología. Para entender qué es un ser vivo, proponen un paradigma constitucional, en el cual el principio de autoestructuración sea suficientemente flexible al entorno y a las circunstancias como para permitir espacios de indeterminación en el desarrollo del viviente.
La investigación neurocientífica actual también abre un nuevo capítulo en el problema del determinismo. La asociación que hoy podemos establecer, cada vez con mayor detalle, entre funciones neurales y actos mentales, lleva a plantearse el nada despreciable problema de la naturaleza de la conciencia y de aquellos actos de los que nos consideramos autores. ¿Cómo incide el determinismo o indeterminismo de los eventos neurales en la posibilidad de una auténtica libertad? Las posiciones clásicas se dividen entre compatibilistas e incompatibilistas (Fischer et al. 2007, Kane 2005). Mientras que varios compatibilistas afirman que un sistema determinista deja espacio al libre albedrío, los incompatibilistas lo niegan. Entre estos, los libertarios dicen que el libre albedrío es real, pero presupone el indeterminismo del mundo físico. Otros adoptan una posición determinista dura, según la cual el determinismo es verdadero y esto excluye la posibilidad de actos libres. Sin embargo, no es verdad que toda posición indeterminista asegure el libre albedrío. Si, por ejemplo, la fijación de las indeterminaciones cuánticas respondiera a movimientos aleatorios, la acción humana tampoco estaría originada en una decisión genuinamente libre.
Los experimentos de Libet y otros similares (Libet 1985, Haggard y Eimer 1999, Soon 2008) forzaron a examinar nuevamente el problema del libre albedrío. Si bien Libet fue bastante cauteloso acerca del alcance de sus investigaciones, ciertamente estas han desatado un intenso debate. Un punto central en discusión es si los procesos neurológicos son compatibles con el establecimiento de metas por parte de un agente voluntario. Algunos autores consideran que la conciencia que se tiene de ser uno mismo quien elige llevar a cabo una determinada acción es solo una ilusión, aunque también muchos otros afirman lo contrario utilizando argumentos diversos (Mele 2000, Murphy y Brown 2007, Sanguineti 2011).
Pablo Brumovski y Miguel García Valdecasas acometen en el capítulo 11 la difícil discusión sobre si el cerebro puede ser asiento de una causación mental no-reduccionista. Lo hacen siguiendo de cerca la teoría emergentista de Michael Gazzaniga, quien afirma que el yo es un producto de un sistema dinámico localizado en el hemisferio izquierdo del cerebro, al que denominó «sistema intérprete». Debido a su autonomía respecto de los niveles inferiores, los sistemas dinámicos parecerían ser un correlato físico adecuado, aunque aún están lejos de explicar suficientemente la subjetividad del yo. Por esto, si bien Gazzaniga es partidario de conjugar un determinismo suave con la libertad de la persona, los autores señalan que la inclinación hacia una posición eliminativista del yo introduce tensiones innecesarias en su teoría.
En el capítulo 12, Ángela Suburo y José Ignacio Murillo se preguntan qué relación existe entre los procesos neurobiológicos y el establecimiento de fines por parte de la persona. Para responder, recuerdan que el problema mente-cerebro no es algo que pueda considerarse resuelto. Consideran en particular la formación de las intenciones, que parecen poner en entredicho el determinismo neural, pues implican la anticipación de un fin. En efecto, sin dejar de ser requerido para la acción, por definición el fin no es algo que pueda actuar eficientemente, es decir al modo en que un acontecimiento, cerebral o no, desencadena un estado neural o mental, o una conducta.
Juan Pablo Roldán y Carlos Blanco abordan en el capítulo 13 un aspecto importante del debate acerca de la libertad humana en el contexto de la neurociencia. La negación de la libertad es un lugar común en ciertas reflexiones que interpretan los descubrimientos neurocientíficos. Ante esto, los autores no solo ofrecen una posible vía de solución en sintonía con el curso actual de la investigación neurobiológica, sino que también proponen una dilucidación histórica de la idea filosófica de libertad para aclarar algunos presupuestos que gravitan en el debate, pero que el debate mismo no es capaz de hacer aflorar.
INTERROGANTES FILOSÓFICO-TEOLÓGICOS
La discusión sobre el determinismo de la naturaleza tuvo también fuertes implicaciones en la teología natural. En los estudios referidos al origen del universo y de la vida, a la acción providente de Dios en el mundo o a las explicaciones de la unidad de mente y cerebro humano, siempre subyace una cosmovisión determinista o indeterminista, explícita o implícitamente asumida.
El estudio del origen del universo siempre fue un tema especialmente abierto a la investigación de las ciencias y de la teología. Por un lado, las explicaciones de la cosmología científica intentan reconstruir las distintas etapas evolutivas de nuestro universo desde su inicio. Por otro lado, cada tradición religiosa ofrece una doctrina sobre estos orígenes. La cosmología contemporánea propone diversos modelos cosmológicos, pero ¿son todos ellos compatibles con la creación divina o algunos la excluyen? Stephen Hawking, por ejemplo, sostiene que no es necesario acudir a Dios para explicar el origen del universo, pues para él tanto el big bang como la posibilidad de un multiverso serían una mera consecuencia de las leyes de la física (Hawking y Mlodinow 2010). Otros autores, con una visión metafísica más profunda, argumentan en cambio que el origen del universo implica una relación causal que trasciende a la naturaleza y al método científico (Carroll 2008, Tanzella-Nitti 2005). Asumiendo una perspectiva más amplia, Alejandro González Sánchez y Francisco José Soler Gil buscan —en el capítulo 14— establecer puentes de diálogo entre la teología natural y la cosmología científica actual, destacando que los rasgos de objetualidad, racionalidad y orientación a fines se encuentran tanto en los modelos cosmológicos actuales como en la doctrina de la creación.
Los estudios sobre el origen de la vida y la biología evolutiva también abrieron desafíos nuevos a la reflexión teológica, como explican Rafael Vicuña y Rafael Martínez en el capítulo 15. Sin embargo, el origen de la vida continúa siendo un misterio para la ciencia actual, pues existe una diversidad de teorías que aspiran a explicarla, junto con una gran divergencia de opiniones entre los científicos. La mayor dificultad que afrontan estas explicaciones es la tremenda complejidad de los vivientes, incluso la de aquellos más simples. Los autores sostienen que, para comprender cómo puede aparecer la vida, es necesario conocer mejor los mecanismos físicos, químico-moleculares y biológicos que la hacen posible. Aunque también señalan que el problema del origen no refiere solamente a un inicio temporal, entendido como la determinación del primer evento en una cadena de organismos vivientes. Es decir, la perspectiva ‘naturalista’, irrenunciable para la ciencia, no se opone a la reflexión filosófica, cuando esta se pregunta por el sentido de la realidad viva para ahondar en la comprensión del problema del origen. Cuando la ciencia nos revela una inteligibilidad en la naturaleza, da a entender que el mundo debe poseer una causa radical que es no solo inteligible, sino también fuente de inteligibilidad.
Pero no es la pregunta sobre el origen el único tema con consecuencias teológicas que surge al cuestionar el determinismo de la naturaleza. En tiempos recientes, el programa de investigación llamado «Perspectivas científicas sobre la acción divina» ha estudiado los diversos modos en los que la ciencia contemporánea ha abierto algún tipo de espacio metafísico para dar cabida a una acción divina en el mundo sin necesidad de violar las leyes de la naturaleza (Russell, Stoeger y Murphy 2009). Para algunos investigadores de este programa, Dios eligió unas leyes muy específicas, con propiedades notables, al seleccionar las leyes de la naturaleza. Son ellas las que permiten el surgimiento de eventos no por azar, sino mediante una genuina emergencia de la complejidad en la naturaleza. Una emergencia que requiere leyes especiales, pero va más allá del mero despliegue de sus consecuencias.
Entre las diversas teorías científicas actualmente vigentes, la física cuántica, por un lado, ofrece un marco teórico muy promisorio, pues introduce la aleatoriedad en los estratos más fundamentales de la realidad (Russell 2001). Pero ¿es necesario que la física asuma un indeterminismo ontológico para admitir la posibilidad de una acción divina en la naturaleza? Por otro lado, diversas nociones de la biología contemporánea —como la autoorganización, la indeterminación, la causalidad hacia abajo y la comunicación de la información— también podrían abrir diversas posibilidades a una actuación divina no intervencionista en la historia evolutiva (Russell 1998, de Asúa 2014). Pero incluso aceptando una providencia divina, ¿en qué medida los procesos evolutivos contingentes refieren a un Dios creador y providente?
Ignacio Silva y Alejandro Clausse abordan en el capítulo 16 la primera de estas preguntas. Sostienen que la propuesta de exigir una indeterminación ontológica en la naturaleza para abrir un espacio a la acción de la providencia lleva implícita una comprensión unívoca de la causalidad. Por esta razón, para conciliar nuestro entendimiento de la acción de Dios en el mundo tanto desde la ciencia como desde la teología, sugieren utilizar la vía de la analogía. Los autores además muestran que, dentro de la misma física, también existen formulaciones que destacan el valor del conocimiento por analogía.
La segunda pregunta es analizada por Jorge Aquino e Ignacio Silva en el capítulo 17. La visión metafísica de Tomás de Aquino concibe a Dios obrando constantemente en y a través de los agentes naturales en el universo creado, guiando providencialmente su desarrollo. En cuanto que causa primera, Dios no interfiere con la causalidad de las causas segundas, sino que es la fuente de sus poderes causales, aun de aquellos que obran azarosa y contingentemente. En esta concepción del mundo natural y de su relación con el Creador no se rechaza ni la contingencia ni la aleatoriedad de las posibles mutaciones. Los autores sostienen además que la existencia tanto de leyes de la naturaleza —que permiten su propia organización y diversificación— como de ámbitos de indeterminación y de azar natural, lejos de contrariar las perfecciones divinas, las exaltan aún más, pues permiten reflejar más patentemente el poder de Dios en las creaturas mismas.
La perenne cuestión de la unidad mente-cerebro es otro ámbito con grandes implicaciones teológicas. Tanto la filosofía de la mente como las neurociencias se han visto confrontadas con el antiguo problema del alma. Aunque el uso de los términos es aún un tema bajo disputa, cuando se emplean al mismo tiempo, el término mente suele referir a la conciencia y a las operaciones mentales tomadas en general, mientras que el término alma refiere a un principio de naturaleza no física, implicando la posibilidad de una connotación religiosa. Si bien los debates en la ciencia y en la filosofía tienden comprensiblemente a evitar este último término, la teología no puede rehuir el tema. Surgen así preguntas tales como si la mente humana es una propiedad emergente de sistemas neurales supercomplejos, o también, si es posible hablar de un alma humana en un discurso neurobiológico.
En el último capítulo del libro, Juan José Sanguineti y Marcelo Villar afrontan este problema. Reconocen una variedad complementaria de enfoques epistémicos, y la proponen para abordar la dualidad psíquico/neural. Aunque sostienen que no se puede argumentar la existencia del alma desde la pura biología y que la neurociencia no necesita acudir a la noción de alma para sus explicaciones, justifican también la legitimidad de la afirmación de la existencia de algo no-corpóreo en el hombre, y de su compatibilidad con los conocimientos neurocientíficos. Con respecto a la religiosidad, los autores sostienen que no es posible convencer a los científicos, ni a las personas en general, de la autenticidad de las experiencias espirituales si esas mismas personas no las han vivido. Si bien sería posible evaluar, en algunos casos, ciertos aspectos de la autenticidad de las experiencias místicas y espirituales desde el plano neurobiológico, consideran prácticamente imposible un tratamiento puramente objetivo de ellas.
* * *
Al concluir la preparación de este libro queremos, como editores, expresar nuestra mayor gratitud a los autores de los diversos capítulos, por su amable e incondicional disposición para participar en esta publicación. Su interés, trabajo y esfuerzo hicieron posible que pudiéramos contar con las sugerentes colaboraciones que aquí se presentan. Confiamos en que el lector también las encontrará interesantes y científicamente enriquecedoras. Nuestro agradecimiento se extiende asimismo a la Universidad Austral (Argentina), a la Agencia Nacional de Promoción Científica y Tecnológica (FONCYT) y a la John Templeton Foundation, quienes han alentado y colaborado generosamente con el desarrollo de diversos proyectos de investigación cuyos frutos aquí se muestran.
Buenos Aires, abril de 2016
BIBLIOGRAFÍA
Arp, R. 2007. «Evolution and two popular proposals for the definition of function». Journal for General Philosophy of Science 38(1): 19-30.
Artiga, M. 2011. «Re-organizing organizational accounts of function». Applied Ontology 6: 105-124.
Asúa, M. de 2014. La evolución de la vida en la Tierra. Ciencia, filosofía y religión. Pilar-Rosario: Universidad Austral-Ediciones Logos.
Bennett, M. y P. Hacker. 2003. Philosophical Foundations of Neurosciences. Oxford: Wiley-Blackwell.
Bertalanffy, L. von. 1986. Teoría general de los sistemas. Fundamentos, desarrollo, aplicaciones. México: Fondo de Cultura Económica.
Bertolaso, M. 2009. «The neoplastic process and the problems with the attribution of function». Rivista di Biologia/Biology Forum 102: 245-249.
Bohm, D. 1952a. «A suggested interpretation of the quantum theory in terms of “hidden” variables. I». Physical Review 85(2): 166-179.
— 1952b. «A suggested interpretation of the quantum theory in terms of “hidden” variables. II». Physical Review 85(2): 180-193.
Carroll, W. E. 2008. «Divine agency, contemporary physics, and the autonomy of nature». The Heythrop Journal 49(4): 582-602.
Castagnino, M., R. Laura, y O. Lombardi. 2007. «A general conceptual framework for decoherence in closed and open systems». Philosophy of Science 74(5): 968-980.
Chalmers, D. 2002. Philosophy of Mind. Classical and Contemporary Readings. Oxford: Oxford University Press.
Changeux, J.-P. 1983. L’homme neuronal. París: Fayard.
Changeux, J.-P. y P. Ricoeur. 2001. La naturaleza y la norma: lo que nos hace pensar. México: FCE.
Churchland, P. S. 1968. Neurophilosophy: Toward a Unified Science of Main-Brain. Cambridge, MA: MIT Press.
Craver, C. F. 2001. «Role functions, mechanisms, and hierarchy». Philosophy of Science 68(1): 53-74.
Davidson, D. 1980. Essays on Actions and Events. Oxford: Clarendon Press.
Dennett, D. 1991. Consciousness Explained. Nueva York: Back Bay Books.
Dupré, J. 2010. «It is not possible to reduce biological explanations to explanations in chemistry and/or Physics». En Contemporary Debates in Philosophy of Biology, editado por F. Ayala y R. Arp, 32-47. Oxford: Wiley-Blackwell.
Earman, J. 1986. A Premier on Determinism. Dordrecht: Reidel.
Fischer, J. M., et al. 2007. Four Views on Free Will. Oxford: Blackwell Publishing.
Folguera, G. 2011. «Enfoques y desenfoques de los programas de investigación de la biología evolutiva del desarrollo». Ludus Vitalis XIX(35): 325-331.
Godfrey-Smith, P. y S. Kim. 2008. «Biological information». En The Stanford Encyclopedia of Philosophy, editado por E. N. Zalta.