Navaja de Ockham

De Wikipedia, la enciclopedia libre
(Redirigido desde «Navaja de Occam»)
Saltar a: navegación, búsqueda

La navaja de Ockham (a veces escrito Occam u Ockam), principio de economía o principio de parsimonia (lex parsimoniae), es un principio metodológico y filosófico atribuido al fraile franciscano, filósofo y lógico escolástico Guillermo de Ockham (1280-1349), según el cual:

"en igualdad de condiciones, la explicación más sencilla suele ser la correcta".

Esto implica que, cuando dos teorías en igualdad de condiciones tienen las mismas consecuencias, la teoría más simple tiene más probabilidades de ser correcta que la compleja.[1]

En ciencia, este principio se utiliza como una regla general para guiar a los científicos en el desarrollo de modelos teóricos, más que como un árbitro entre los modelos publicados. En el método científico, la navaja de Ockham no se considera un principio irrefutable, y ciertamente no es un resultado científico. «La explicación más simple y suficiente es la más probable, mas no necesariamente la verdadera», según el principio de Ockham. En ciertas ocasiones, la opción compleja puede ser la correcta. Su sentido es que en condiciones idénticas, sean preferidas las teorías más simples. Otra cuestión diferente serán las evidencias que apoyen la teoría. Así pues, de acuerdo con este principio, una teoría más simple pero de menor evidencia no debería ser preferida a una teoría más compleja pero con mayor prueba.

Qué ha de tenerse en cuenta para medir la simplicidad, sin embargo, es una cuestión ambigua.[1] Quizás la propuesta más conocida sea la que sugirió el mismo Ockham: cuando dos teorías tienen las mismas consecuencias, debe preferirse la teoría que postule la menor cantidad de (tipos de) entidades.[2] Otra manera de medir la simplicidad, sin embargo, podría ser por el número de axiomas de la teoría.[1]

La navaja de Ockham se aplica a casos prácticos y específicos, englobándose dentro de los principios fundamentales de la filosofía de la escuela nominalista que opera sobre conceptos individualizados y casos empíricos.

El principio[editar]

El principio es atribuido al fraile franciscano inglés del siglo XIV Guillermo de Ockham y es fundamental para el reduccionismo metodológico. Este principio ya formaba parte de la filosofía medieval aunque fue Ockham quien lo utilizó de forma filosófica. Sin embargo, no solamente es un principio metodológico sino que, además, tiene características gnoseológicas y ontológicas.

Pluralitas non est ponenda sine necessitate (la pluralidad no se debe postular sin necesidad.)

En su forma más simple, el principio de Ockham indica que las explicaciones nunca deben multiplicar las causas sin necesidad.

Cuando dos o más explicaciones se ofrecen para un fenómeno, la explicación completa más simple es preferible; es decir, no deben multiplicarse las entidades sin necesidad.

Esta regla ha tenido una importancia capital en el desarrollo posterior de la ciencia.

Origen del término[editar]

La denominación de navaja de Ockham apareció en el siglo XVI, y con ella se expresaba que mediante ese principio, Ockham «afeitaba como una navaja las barbas de Platón», ya que de su aplicación se obtenía una notable simplicidad ontológica, por contraposición a la filosofía platónica que «llenaba» su ontología de entidades (además de los entes físicos, Platón admitía los entes matemáticos y las ideas). Desde una perspectiva ontológica, pues, la aplicación de este principio permitió a Ockham eliminar muchas entidades, a las que declaró innecesarias. De esta manera se enfrentó a muchas tesis sustentadas por la escolástica y, en especial, rechazó la existencia de las especies sensibles o inteligibles como intermediarias en el proceso del conocimiento, y rechazó también el principio de individuación, al que calificó de especulación vacía e innecesaria.

El principio en las distintas disciplinas[editar]

En economía[editar]

En economía, el argumento de la navaja de Ockham se utiliza en la teoría microeconómica del comportamiento del consumidor. Al no ser necesaria la utilidad cardinal, sino sólo la ordinal para explicar su comportamiento, se escoge esta última, por ser la explicación más sencilla de las dos.

En lingüística[editar]

En lingüística, el argumento de la navaja de Ockham fue utilizado para revisar la adecuación explicativa (problema de adquisición del lenguaje) del modelo de Aspectos de una teoría de la sintaxis de la gramática generativa de Noam Chomsky. Siguiendo su postulado, la teoría pasó de sostener la adquisición del lenguaje por medio de un gran número de reglas complejas a explicarlo por la existencia de unos pocos principios parametrizables (principios y parámetros, programa minimalista).

En teología[editar]

En teología, Guillermo afirmó que no es necesario postular más entes de los necesarios:

"[...] en teología, no postular más que aquellos que exija el dogma; en filosofía (metafísica), aquellos que la razón necesite".

En biología[editar]

Algunos creacionistas sostienen que la navaja de Ockham puede ser usada para defender la hipótesis del creacionismo frente a la evolución. Después de todo, suponer que un Dios lo haya creado todo es aparentemente más simple que la teoría de la evolución.

Sin embargo, defensores de la teoría de la evolución de Darwin afirman que el sencillo algoritmo evolutivo –la selección natural– se basta por sí solo para explicar la evolución sin necesidad de multiplicar las causas, argumentan que la navaja de Ockham sirve para hacer innecesarios los llamados "ganchos celestiales", es decir, las explicaciones extranaturales de los fenómenos naturales. De este modo, rechazan situar a la entidad más compleja de todas (un Dios omnipotente) en el origen de toda vida en el Universo (o en el origen del propio Universo); al contrario, se busca el principio más simple capaz de generar complejidad, que aunque en un primer momento siguiendo el criterio de Ockham es el que deberíamos preferir para explicar el fenómeno, no por ello inmediatamente comprueba su mayor probabilidad ni su veracidad;[3] tal como se describe en el apartado: Controversia en la parsimonia de la Navaja de Ockham.

En estadística[editar]

El principio de parsimonia tiene aplicaciones de importancia en el análisis exploratorio de modelos de regresión lineal múltiple. De un conjunto de variables explicativas que forman parte del modelo a estudiar, debe seleccionarse la combinación más reducida y simple posible, teniendo en cuenta la varianza residual, la capacidad de predicción y la multicolinealidad.

En música[editar]

Una de las aportaciones musicológicas del libro On Musical Self-Similarity (2011) de Gabriel Pareyón, es el desarrollo de una teoría que opera en el sentido, no de una Navaja, sino de una Anti-Navaja de Ockham (véase este concepto más abajo). El resumen de esta formulación aparece del siguiente modo, donde la necesidad lógica tiene más bien un sentido de coordinación:

La contradicción entre economía y repetición en música es aparente: la música repite lo que es necesario repetir, a fin de crear tensión adecuada entre preferencia y gramática, como coordinación del proceso musical.

On Musical Self-Similarity, 2011:477.

Controversia en la parsimonia de la Navaja de Ockham[editar]

La Navaja de Ockham no implica la negación de la existencia de ningún tipo de entidad, ni siquiera es una recomendación de que la teoría más simple sea la más válida.[4] Su sentido es que a igualdad de condiciones, sean preferidas las teorías más simples. Otra cuestión diferente serán las evidencias que apoyen la teoría.[5] Así pues, de acuerdo con este principio, una teoría más simple pero menos correcta no debería ser preferida a una teoría más compleja pero más correcta.

Sin embargo, para el filósofo Paul Newall, el punto principal que hace que la Navaja de Ockham sea de poca ayuda, si no explícitamente entorpecedora y detrimente, es que las consecuencias de añadir entidades adicionales son imposibles de establecer a priori. Puesto que la ciencia nunca finaliza, siempre estamos en la posición "antes" y nunca llegamos a la posición "después", que según Niels Böhr era el único momento en el que se podría introducir la navaja de Ockham[6] lo cual, obviamente, ya no es de ninguna ayuda para juzgar de antemano una teoría.

Espiral fractal. ¿Qué nos hace pensar que a nuestra escala, el Universo parezca simple y ordenado, en lugar de realmente ser complejo y caótico a otra escala, macroscópica o microscópica?.

Porque, ¿qué nos hace pensar que el Universo es simple y ordenado, en lugar de complejo y caótico? ¿Y si el Universo y la realidad misma tuvieran una estructura fractal?[7] [8] [9] [10] [11] [12]

Preferir una teoría que explique los datos en función del menor número de causas no parece sensato. ¿Existe algún tipo de razón objetiva para pensar que una teoría así tiene más probabilidades de ser cierta que una teoría menos simple? Aún hoy en día, los filósofos de la ciencia no se ponen de acuerdo en darle una respuesta a esta pregunta.[13]

Su forma moderna es la medida de complejidad, de Kolmogorov. No existe una medida simple de simplicidad. Dadas tres explicaciones, no podemos estar seguros de cuál es la más simple. No es posible aplicar las matemáticas para determinar la validez de un juicio. Se vuelve al juicio subjetivo y relativo.

Por ejemplo, la Física clásica es más simple que las teorías posteriores. Matemáticamente, la física clásica es aquella en cuyas ecuaciones no aparece la constante de Planck. Un paradigma actual principal de la física es que las leyes fundamentales de la naturaleza son las leyes de la física cuántica y la teoría clásica es la aplicación de las leyes cuánticas al mundo macroscópico. Aunque en la actualidad esta teoría es más asumida que probada, uno de los campos de investigación más activos es la correspondencia clásica-cuántica. Este campo de la investigación se centra en descubrir cómo las leyes de la física cuántica producen física clásica dependiendo de que la escala sea al nivel microscópico, mesoscópico o macroscópico de la Realidad.

Sin embargo, lo que aduce la Navaja de Ockham es que la Física clásica no se debería preferir a teorías posteriores y más complejas, como la Mecánica cuántica, puesto que se ha demostrado que la Física clásica está equivocada en algunos aspectos. El primer requerimiento para una teoría es que funcione, que sus predicciones sean correctas y que no haya sido falsada. La Navaja de Ockham se utiliza para distinguir entre teorías que se supone que ya han pasado estas pruebas y aquellas que se encuentran igualmente soportadas por las evidencias.[14]

Otro controvertido aspecto de la Navaja de Ockham es que una teoría puede volverse más compleja en lo relativo a su estructura (o Sintaxis), mientras que su Ontología (o Semántica) se va haciendo más simple, o viceversa.[15] Un ejemplo habitual de esto es la Teoría de la Relatividad.

Galileo Galilei criticó duramente el mal uso de la Navaja de Ockham en su Diálogos sobre los dos máximos sistemas del mundo: ptolemáico y copernicano.La Navaja de Ockham viene representada por el diálogo de Simplicio, un mediocre defensor de la física aristótelica, un personaje con el que quizás Galileo estuviera representando al papa Urbano VIII. El punto clave sobre el que ironizó Galileo fue que si realmente se quisiera comenzar desde un número pequeño de entidades, siempre se podrían considerar las letras del abecedario como entidades fundamentales, puesto que con toda certeza se podría construir todo el conocimiento humano a partir de ellas.

Anti-navajas de Ockham[editar]

Visión de un artista de un agujero negro con disco de acreción.

La Navaja de Ockham se ha encontrado con multitud de oposiciones por parte de quienes la han considerado demasiado extrema o imprudente.

El filósofo Walter of Chatton fue contemporáneo de Guillermo de Occam y quien cuestionó la Navaja de Ockham y el uso que Ockham hizo de ella. Como respuesta, aportó su propia anti-navaja:

Si tres cosas no son suficientes para verificar una proposición afirmativa sobre las cosas, una cuarta debe ser añadida, y así sucesivamente.

Otros filósofos que también crearon anti-navajas fueron Leibniz (1646–1716), Immanuel Kant (1724–1804), y Carl Menger (1902-1985). La versión de la anti-navaja de Leibniz tomó su forma en el Principio de plenitud, que establece que:

Todo lo que sea posible que ocurra, ocurrirá.

Leibniz argumentaba que la existencia de el mejor de todos los mundos posibles confirmaría genuinamente cada posibilidad, y postuló en su Teodicea que este mejor de todos los mundos posibles contendría todas las posibilidades, sin que nuestra experiencia finita pudiera cuestionar racionalmente acerca de la perfección de la naturaleza.

Este mismo Principio de plenitud se encuentra presente en el concepto de Multiverso, en la Teoría de los universos múltiples o Universos paralelos del físico norteamericano Hugh Everett, teorías consideradas como científicas. El reciente descubrimiento de la energía oscura,[16] [17] [18] [19] una suerte de quintaesencia[20] que se podría atribuir al movimiento dinámico de un campo escalar,[21] les ha permitido a los físicos Lauris Baum y Paul Frampton,[22] autor éste en 1974 del primer libro[23] sobre teoría de cuerdas, formular la existencia de una nueva entidad — contrariamente a lo que la Navaja de Ockham argumentaría —, la energía fantasma,[24] la cual daría lugar a un Modelo cíclico del universo[25] en el que la entropía del Universo decrecería hasta cero,[26] un modelo ya sugerido por Albert Einstein,[27] que explicaría por qué el valor de la Constante cosmológica es varios órdenes de magnitud inferior[28] al que predice la Teoría del Big Bang, inventada por el sacerdote católico Georges Lemaître,[29] pese a ser la comúnmente consensuada por la comunidad científica. Recientemente, algunos científicos han cuestionado incluso una de las asunciones principales de la Física, el supuesto de que las constantes universales sean realmente constantes[30] [31] [32] [33] [34] y sus implicaciones.[35] En el año 2009 se lanzó el satélite Planck,[36] que podría permitir dilucidar qué teoría es más adecuada.

Para el filósofo David Kellogg Lewis, considerado uno de los filósofos analíticos más importantes del siglo XX y proponente del realismo modal, existe un número infinito de mundos causalmente aislados y el nuestro es tan sólo uno de ellos. Para Lewis, la Navaja de Ockham, aplicada a objetos abstractos como conjuntos, es, o bien dudosa por principio o simplemente falsa.[37]

Kant también sintió la necesidad de moderar los efectos de la Navaja de Ockham, creando así su propia anti-navaja en su Crítica de la razón pura:

La variedad de seres no debería ser neciamente disminuida.

Immanuel Kant, 1781.

Karl Menger encontró a los matemáticos demasiado parsimoniosos en lo que respecta a las variables, de modo que formuló su Law Against Miserliness (Ley contra la tacañería) que tomó estas dos formas:

  • Las entidades no deben ser reducidas hasta el punto de inadecuación.
  • Es vano hacer con menos lo que requiere más.

Incluso Albert Einstein también aportó su propia anti-navaja de Ockham:

"A duras penas se puede negar que el objetivo supremo de toda teoría es convertir a los elementos básicos en simples y tan pocos como sea posible, pero sin tener que rendirse a la adecuada representación de un sólo dato de la experiencia. Simple, pero no más simple.

Albert Einstein, 1934.[39]

Véase también[editar]

Notas y referencias[editar]

  1. a b c Robert Audi, ed., «Ockham's razor» (en inglés), The Cambridge Dictionary of Philosophy (2nd Edition edición), Cambridge University Press 
  2. En sus palabras: entia non sunt multiplicanda praeter necessitatem, es decir: "no deben multiplicarse las entidades innecesariamente".[cita requerida]
  3. García González, Juan A. (2003). Francisco Oropesa, ed. Ockham. España: Editex. ISBN 94-9771-085-1 |isbn= incorrecto (ayuda). 
  4. Skeptic's Dictionary
  5. Usenet Phyics FAQs
  6. Newall, Paul. Ockham’s Razor (2005)
  7. Amanda Gefter. New Scientist, 9 de marzo de 2007. Is the Universe a fractal?.
  8. D F Roscoe. arXiv:astro-ph/0609432v1. Via Aristotle, Leibnitz and Mach to a Fractal D=2 Universe.
  9. J. R. Mureika. J. Cosmol. Astropart. Phys. JCAP05(2007)021. Fractal Holography: a geometric re-interpretation of cosmological large scale structure.
  10. Marcelo B. Ribeiro. Gen.Rel.Grav. 33 (2001) 1699-1730. The Apparent Fractal Conjecture: Scaling Features in Standard Cosmologies.
  11. Reginald T. Cahill, Christopher M. Klinger, Kirsty Kitto. The Physicist 37 (2000) 191-195. Process Physics: Modelling Reality as Self-Organising Information.
  12. Búsqueda en la base de datos PubMed, indexando casi 5000 publicaciones. Investigaciones científicas sobre fractales. Fractals.
  13. Okasha, Samir. Philosophy of Science. A very short introduction. p. 33. Oxford University Press. 2002. ISBN 0-19-280283-6
  14. "En la actualidad, se cree que el principio de parsimonia es un dispositivo heurístico. No se asume que la teoría más simple es la correcta y que la más compleja es falsa. Por experiencia, a menudo las teorías más complejas son incorrectas. Pero hasta que se pruebe lo contrario, la teoría más compleja debe ser puesta en cuarentena, pero no descartada a la pila de los desechos de la historia hasta que se demuestre que sea falsa".The Skeptic's dictionary
  15. "Mientras que estos dos aspectos de la simplicidad se suelen mezclar, es importante tratarlos como distintos. Una de las razones para hacerlo es que habitualmente, las consideraciones sobre parsimonia y elegancia tiran en direcciones diferentes. Postular entidades extra puede permitir que una teoría sea formulada de forma más simple, mientras que reducir la Ontología (semántica) de una teoría puede ser únicamente posible a cambio de pagar el precio de que sintácticamente sea más compleja." Stanford Encyclopedia of Philosophy
  16. P. J. E. Peebles and Bharat Ratra (2003). «The cosmological constant and dark energy». Reviews of Modern Physics 75:  pp. 559–606. http://www.arxiv.org/abs/astro-ph/0207347. 
  17. Saul Perlmutter et al. (The Supernova Cosmology Project) (1999). «Measurements of Omega and Lambda from 42 high redshift supernovae». Astrophysical J. 517:  pp. 565–86. http://www.arxiv.org/abs/astro-ph/9812133. 
  18. Adam Riess (1998). «Observational evidence from supernovae for an accelerating universe and a cosmological constant». Astronomical J. 116:  pp. 1009–38. http://www.arxiv.org/abs/astro-ph/9805201. 
  19. D. N. Spergel et al. (WMAP collaboration) (March 2006). Wilkinson Microwave Anisotropy Probe (WMAP) three year results: implications for cosmology. http://lambda.gsfc.nasa.gov/product/map/current/map_bibliography.cfm. 
  20. Hrvoje, Stefancic. Phys.Rev. D71 (2005) 124036 Dark energy transition between quintessence and phantom regimes.
  21. Ivaylo Zlatev, Limin Wang, Paul J. Steinhardt. Phys.Rev.Lett. 82 (1999) 896-899. Quintessence, Cosmic Coincidence, and the Cosmological Constant.
  22. Lauris Baum, Paul H. Frampton. Phys.Rev.Lett. 98 (2007) 071301. Turnaround in Cyclic Cosmology
  23. Paul H. Frampton (1974). «Dual resonance models». W. A. Benjamin. ISBN 0-8053-2581-6. 
  24. Robert R. Caldwell, Marc Kamionkowski, Nevin N. Weinberg. Phys.Rev.Lett. 91 (2003) 071301. Phantom energy and Cosmic Doomsday
  25. Lauris Baum and Paul H. Frampton. Phys. Rev. Lett. 98, 071301 (2007) Turnaround in Cyclic Cosmology
  26. Lauris Baum, Paul H. Frampton. Phys.Rev.Lett. 98 (2007) 071301. Turnaround in Cyclic Cosmology
  27. Steinhardt, Paul J. Albert Einstein Professor in Science, Princeton University; Autor de El Universo cíclico. No Beginning and No End
  28. Paul J. Steinhardt, Neil Turok. Science 312 (2006) 1180-1182. Why the cosmological constant is small and positive
  29. Lemaître, G. (1931). «The evolution of the universe: discussion». Nature 128:  pp. suppl.: 704. 
  30. Wandelt, Ben. 2Physics.com, July 25, 2007. "Ni siquiera la constancia de las Constantes de la Naturaleza está garantizada". Changing Constants, Dark Energy and the Absorption of 21 cm Radiation
  31. Uzan, Jean-Philippe. Rev.Mod.Phys. 75 (2003) 403. The fundamental constants and their variation: observational status and theoretical motivations.
  32. Duff, M.J. arXiv:hep-th/0208093v3. Comment on time-variation of fundamental constants.
  33. Barrow, John. D. arXiv:astro-ph/9811022v1. Cosmologies with Varying Light-Speed
  34. Reginald T. Cahill. Infinite Energy 10 (2005) 28-37. The Speed of Light and the Einstein Legacy: 1905-2005
  35. John D. Barrow, The Constants of Nature; From Alpha to Omega – The Numbers that Encode the Deepest Secrets of the Universe, Pantheon Books, New York, 2002, ISBN 0-375-42221-8.
  36. Planck. European Space Agency
  37. David Kellogg Lewis. Philosophical Papers. Vol. II. Oxford University Press, 1987. ISBN 0-19-503646-8
  38. Maurer, Armand A., 1962. Medieval Philosophy. New York: Random House. 1984. “Ockham's Razor and Chatton's Anti-Razor.” Mediaeval Studies 46, pp. 463-75.
  39. On the Method of Theoretical Physics Conferencia Herbert Spencer, Oxford (10 de Junio de 1993); también publicada en Philosophy of Science, Vol. 1, No. 2 (Abril 1934), pp. 163-169.