Lógica matemática

De Wikipedia, la enciclopedia libre
(Redirigido desde «Lógica simbólica»)
Saltar a: navegación, búsqueda

La lógica matemática es una parte de la lógica y la matemática, que consiste en el estudio matemático de la lógica, y en la aplicación de dicho estudio a otras áreas de la matemática y de las ciencias. La lógica matemática tiene estrechas conexiones con las ciencias de la computación y la lógica filosófica.

La lógica matemática estudia los sistemas formales en relación con el modo en el que codifican o definen nociones intuitivas de objetos matemáticos como conjuntos, números, demostraciones, y algoritmos, utilizando un lenguaje formal.

La lógica matemática suele dividirse en cuatro subcampos: teoría de modelos, teoría de la demostración, teoría de conjuntos y teoría de la recursión. La investigación en lógica matemática ha jugado un papel fundamental en el estudio de los fundamentos de las matemáticas. Actualmente se usan indiferentemente como sinónimos las expresiones: lógica simbólica (o logística), lógica matemática, lógica teorética y lógica formal.[1]

La lógica matemática no es la «lógica de las matemáticas» sino la «matemática de la lógica». Incluye aquellas partes de la lógica que pueden ser modeladas y estudiadas matemáticamente.

Historia[editar]

Siglo XIX[editar]

Previamente ya se hicieron algunos intentos de tratar las operaciones lógicas formales de una manera simbólica por parte de algunos filósofos matemáticos como Leibniz y Lambert, pero su labor permaneció desconocida y aislada.

A partir de la segunda mitad del siglo XIX, la lógica sería revolucionada profundamente. En 1847, George Boole publicó un breve tratado titulado El análisis matemático de la lógica, y en 1854 otro más importante titulado Las leyes del pensamiento. La idea de Boole fue construir a la lógica como un cálculo en el que los valores de verdad se representan mediante el 0 (falsedad) y el 1 (verdad), y a los que se les aplican operaciones matemáticas como la suma y la multiplicación.

Al mismo tiempo, Augustus De Morgan publica en 1847 su obra Lógica formal, donde introduce las leyes de De Morgan e intenta generalizar la noción de silogismo. Otro importante contribuyente inglés fue John Venn, quien en 1881 publicó su libro Lógica Simbólica, donde introdujo los famosos diagramas de Venn.

Charles Sanders Peirce y Ernst Schröder también hicieron importantes contribuciones.

Sin embargo, la verdadera revolución de la lógica vino de la mano de Gottlob Frege, quien frecuentemente es considerado como el lógico más importante de la historia, junto con Aristóteles. En su trabajo de 1879, la Conceptografía, Frege ofrece por primera vez un sistema completo de lógica de predicados y cálculo proposicional. También desarrolla la idea de un lenguaje formal y define la noción de prueba. Estas ideas constituyeron una base teórica fundamental para el desarrollo de las computadoras y las ciencias de la computación, entre otras cosas. Pese a esto, los contemporáneos de Frege pasaron por alto sus contribuciones, probablemente a causa de la complicada notación que desarrolló el autor. En 1893 y 1903, Frege publica en dos volúmenes Las leyes de la aritmética, donde intenta deducir toda la matemática a partir de la lógica, en lo que se conoce como el proyecto logicista. Su sistema y su aplicación a la teoría de conjuntos, sin embargo, contenía una contradicción (la paradoja de Russell).

Lógica matemática fue el nombre dado por Giuseppe Peano para esta disciplina. En esencia, es la lógica de Aristóteles, pero desde el punto de vista de una nueva notación, más abstracta, tomada del álgebra.

Siglo XX[editar]

El siglo XX sería uno de enormes desarrollos en lógica. A partir del siglo XX, la lógica pasó a estudiarse por su interés intrínseco, y no sólo por sus virtudes como propedéutica, por lo que estudió a niveles mucho más abstractos.

En 1910, Bertrand Russell y Alfred North Whitehead publican Principia mathematica, un trabajo monumental en el que logran gran parte de la matemática a partir de la lógica, evitando caer en las paradojas en las que cayó Frege. Los autores reconocen el mérito de Frege en el prefacio. En contraste con el trabajo de Frege, Principia mathematica tuvo un éxito rotundo, y llegó a considerarse uno de los trabajos de no ficción más importantes e influyentes de todo el siglo XX. Principia mathematica utiliza una notación inspirada en la de Giuseppe Peano, parte de la cual todavía es muy utilizada hoy en día.

En 1912 C. I. Lewis publica Conditionals and the Algebra of Logic, justo después de los Principia Mathematica de Russell y Whitehead. En 1918 publica A Survey of Symbolic Logic en donde propone un nuevo condicional más adecuado para recoger el significado de la expresión "si... entonces" del lenguaje natural. Lewis lo llama implicación estricta. El nuevo condicional requiere, para ser verdadero, una relación más fuerte entre el antecedente y el consecuente que el condicional clásico.

En 1920 David Hilbert propuso de forma explícita un proyecto de investigación (en metamatemática, como se llamó entonces) que acabó siendo conocido como programa de Hilbert. Quería que la matemática fuese formulada sobre unas bases sólidas y completamente lógicas.

El origen de los modelos abstractos de computación se encuadra en los años '30 (antes de que existieran los ordenadores modernos), en el trabajo de los lógicos Alonzo Church, Kurt Gödel, Stephen Kleene, Emil Leon Post, Haskell Curry y Alan Turing. Estos trabajos iniciales han tenido una profunda influencia, tanto en el desarrollo teórico como en abundantes aspectos de la práctica de la computación; previendo incluso la existencia de ordenadores de propósito general, la posibilidad de interpretar programas, la dualidad entre software y hardware, y la representación de lenguajes por estructuras formales basados en reglas de producción.

La deducción natural fue introducida por Gerhard Gentzen en su trabajo Investigaciones sobre la inferencia lógica (Untersuchungen über das logische Schliessen), publicado en 1934-1935.

En los años 40 Alfred Tarski comenzó a desarrollar junto a sus discípulos el álgebra relacional, en la que pueden expresarse tanto la teoría axiomática de conjuntos como la aritmética de Peano. También desarrolló junto a sus discípulos las álgebras cilíndricas, que son a la lógica de primer orden lo que el álgebra booleana a la lógica proposicional. En 1941 publicó en inglés uno de los manuales de lógica más acreditados, Introduction to Logic and to the Methodology of Deductive Sciences.

Noam Chomsky en 1956 propone una clasificación jerárquica de distintos tipos de gramáticas formales que generan lenguajes formales llamada jerarquía de Chomsky.

Si bien a la luz de los sistemas contemporáneos la lógica aristotélica puede parecer equivocada e incompleta, Jan Łukasiewicz mostró que, a pesar de sus grandes dificultades, la lógica aristotélica era consistente, si bien había que interpretarse como lógica de clases, lo cual no es pequeña modificación. Por ello la silogística prácticamente no tiene uso actualmente.

Además de la lógica proposicional y la lógica de predicados, el siglo XX vio el desarrollo de muchos otros sistemas lógicos; entre los que destacan las muchas lógicas modales.

Concepto de lógica matemática[editar]

La lógica matemática estudia los sistemas formales en relación con el modo en el que codifican conceptos intuitivos de objetos matemáticos como conjuntos, números, demostraciones y computación. La lógica estudia las reglas de deducción formales, las capacidades expresivas de los diferentes lenguajes formales y las propiedades metalógicas de los mismos.

En un nivel elemental, la lógica proporciona reglas y técnicas para determinar si es o no válido un argumento dado dentro de un determinado sistema formal. En un nivel avanzado, la lógica matemática se ocupa de la posibilidad de axiomatizar las teorías matemáticas, de clasificar su capacidad expresiva, y desarrollar métodos computacionales útiles en sistemas formales. La teoría de la demostración y la matemática inversa son dos de los razonamientos más recientes de la lógica matemática abstracta. Debe señalarse que la lógica matemática se ocupa de sistemas formales que pueden no ser equivalentes en todos sus aspectos, por lo que la lógica matemática no es método de descubrir verdades del mundo físico real, sino sólo una fuente posible de modelos lógicos aplicables a teorías científicas, muy especialmente a la matemática convencional.

La lógica matemática no se encarga por otra parte del concepto de razonamiento humano general o del proceso creativo de construcción de demostraciones matemáticas mediante argumentos rigurosos pero hechas usando lenguaje informal con algunos signos o diagramas, sino sólo de demostraciones y razonamientos que pueden ser completamente formalizados en todos sus aspectos.

Sistemas lógicos[editar]

La lógica matemática se interesa por tres tipos de aspectos de los sistemas lógicos:

  • La sintaxis de las lenguajes formales, es decir, las reglas de formación de símbolos interpretables construidos a partir de un determinado alfabeto, y las reglas de inferencia. En concreto el conjunto de teoremas deducibles de un conjunto de axiomas.
  • La semántica de los lenguajes formales, es decir, los significados atribuibles a un conjunto de signos, así como el valor de verdad atribuible a algunas de las proposiciones. En general las expresiones de un sistema formal interpretadas en un modelo son ciertas o falsas, por lo que un conjunto de proposiciones que admite un modelo es siempre consistente.
  • Los aspectos metalógicos de los lenguajes formales, como por ejemplo la completitud semántica, la consistencia, la compacidad o la existencia de modelos de cierto tipo, etc.

Los diferentes tipos de sistemas lógicos pueden ser clasificados en:

  • Lógica proposicional (Lógica de orden cero): En ella existe símbolos para variables proposicionales (que pueden ser interpretados informalmente como enunciados que puden ser ciertos o falsos) además de símbolos para diversas conectivas. Estas conectivas permiten formar expresiones complejas a partir de variables proposicionales simples. Un sistema lógico puede incluir diversos tipos de conectivas, entre ellos, la lógica clásica suele hacer uso de los siguientes:
¬ se lee “no”
∧ se lee “y”
∨ se lee “o”
→ se lee “…implica…” o “si,…entonces…,”
↔ se lee “…equivalente con…” o "…si, sólo sí…"
Dentro de la lógica proposicional pueden distinguirse varios tipos, por ejemplo restringiendo las posibilidades de interpretación semántica se obtiene la lógica intuicionista y ampliando la complejidad de las interpretaciones semánticas se obtienen las lógicas modales.
  • Lógica de predicados: Esta no incluye símbolos para variables proposicionales sino que las proposiciones más elementales son predicados atómicos (formados a partir de variables interpretables como objetos singulares, relaciones (entre estas frecuentemente se usan = , <, >, etc), funciones matemáticas. Además símbolos para representar variables, relaciones y funciones este tipo de lógicas incluyen cuantificadores. Dentro de la lógica de predicados se pueden distinguir ciertos tipos:

Teorías axiomáticas[editar]

Una teoría axiomática está formada por un conjunto de proposiciones expresables en un determinado lenguaje formal y todas las proposiciones deducibles de dichas expresiones mediante las reglas de inferencia posibles en dicho sistema lógico.

El objetivo de las teorías axiomáticas es construir sistemas lógicos que representen las características esenciales de ramas enteras de las matemáticas. Si se selecciona un conjunto más amplio o menos amplio de axiomas el conjunto de teoremas deducibles cambian. El interés de la teoría de modelos es que en un modelo en que satisfagan los axiomas de determinada teoría también se satisfacen los teoremas deducibles de dicha teoría. Es decir, si un teorema es deducible en una cierta teoría, entonces ese teorema es universalmente válido en todos los modelos que satisfacen los axiomas. Esto es interesante porque en principio la clase de modelos que satisface una cierta teoría es difícil de conocer, ya que las teorías matemáticas interesantes en general admiten toda clase infinita de modelos no isomorfos, por lo que su clasificación en general resulta difícilmente abordable si no existe un sistema lógico y un conjunto de axiomas que caracterice los diferentes tipos de modelos.

Áreas[editar]

La Mathematics Subject Classification divide la lógica matemática en las siguientes áreas:

En algunos casos hay conjunción de intereses con la Informática teórica, pues muchos pioneros de la informática, como Alan Turing, fueron matemáticos y lógicos. Así, el estudio de la semántica de los lenguajes de programación procede de la teoría de modelos, así como también la verificación de programas, y el caso particular de la técnica del model checking. También el isomorfismo de Churry-Howard entre pruebas y programas se corresponde con la teoría de pruebas, donde la lógica intuicionista y la lógica lineal son especialmente significativas.

Algunos sistemas lógicos como el cálculo lambda, y la lógica combinatoria entre otras han devenido, incluso, auténticos lenguajes de programación, creando nuevos paradigmas como son la programación funcional y la programación lógica.

Tipos de sistemas lógicos[editar]

Lógica proposicional[editar]

La lógica proposicional (o lógica de orden cero) es un lenguaje formal en el que no existen variables ni cuantificación, eso implica que cualquier secuencia de signos que constituya una fórmula bien formada de la lógica proposicional admite una valoración en la proposición es cierta o falsa dependiendo del valor de verdad asignado a las proposiciones que la compongan. En otras palabras en la lógica proposicional cualquier fórmula bien formada define una función proposicional. Por tanto, cualquier sistema lógico basado en la lógica proposicional es decidible y en un número finito de pasos puede determinarse la verdad o falsedad semántica de una proposición. Esto hace que la lógica proposicional sea completa y muy sencilla de caracterizar semánticamente.

Lógica de predicados[editar]

La lógica de predicados (o lógica de primer orden) es un lenguaje formal en el que las sentencias bien formadas son producidas por las reglas enunciadas a continuación.

Vocabulario

Un vocabulario es una tupla: \tau = \langle R_1,R_2,...,R_r,f_1,f_2,...,f_s,c_1,c_2...c_t \rangle que consta de:

  • r símbolos relacionales R_i, cada uno de ellos con un número entero a_i asociado, el cual se conoce como la aridad de R_i
  • s símbolos funcionales f_j, cada uno de aridad b_j
  • t símbolos constantes c_k

Una fórmula de primer orden \varphi en el vocabulario \tau, es una fórmula de primer orden donde los únicos predicados, funciones y constantes empleados son los especificados por \tau.

Lenguajes y estructuras de primer orden[editar]

Un lenguaje de primer orden \mathfrak{L}\, es una colección de distintos símbolos clasificados como sigue:

El símbolo de igualdad =\,; las conectivas \lor\,, \lnot\,; el cuantificador universal \forall\, y el paréntesis (\,, )\,.

  • Un conjunto contable de símbolos de variable \{v_i\}_{i = 0}^\infty\,.
  • Un conjunto de símbolos de constante \{c_\alpha\}_{\alpha \in \Alpha}\,.
  • Un conjunto de símbolos de función \{f_\beta\}_{\beta \in \Beta}\,.
  • Un conjunto de símbolos de relación \{R_\gamma\}_{\gamma \in \Gamma}\,.

Así, para especificar un orden, generalmente sólo hace falta especificar la colección de símbolos constantes, símbolos de función y símbolos relacionales, dado que el primer conjunto de símbolos es estándar. Los paréntesis tienen como único propósito de agrupar símbolos y no forman parte de la estructura de las funciones y relaciones.

Los símbolos carecen de significado por sí solos. Sin embargo, a este lenguaje podemos dotarlo de una semántica apropiada.

Una \mathfrak{L}\,-estructura sobre el lenguaje \mathfrak{L}\,, es una tupla consistente en un conjunto no vacío A\,, el universo del discurso, junto a:

  1. Para cada símbolo constante c\, de \mathfrak{L}\,, tenemos un elemento c^{\mathfrak{A}} \in A\,.
  2. Para cada símbolo de function n\,-aria f\, de \mathfrak{L}\,, una function n\,-aria f^{\mathfrak{A}} : A^n \longrightarrow A\,.
  3. Para cada símbolo de relación n\,-aria R\, de \mathfrak{L}\,, una relación n\,-aria sobre A\,, esto es, un subconjunto R^{\mathfrak{A}} \subseteq A^n\,.

A menudo, usaremos la palabra modelo para denotar esta estructura.

Aspectos metalógicos y algorítimicos[editar]

Metalógica[editar]

Leopold Löwenheim (1915) y Thoralf Skolem (1920) formularon el llamado teorema de Löwenheim-Skolem, que afirma que cualquier sistema axiomático basado en la lógica de primer orden no puede controlar la cardinalidad de la estructuras no finitas que satisfacen los axiomas de dicho sistema. Skolem comprendió que este teorema podría aplicarse para las formalizaciones de primer orden de la teoría de conjuntos, siendo dicha formalización numerable, existiría un modelo numerable para dicha teoría aun cuando la teoría afirma que existen conjuntos no contables. Este resultado contraintuitivo es la conocida paradoja de Skolem.

En su tesis doctoral, Kurt Gödel (1929) demostró el teorema de completitud de Gödel, que establece una correspondencia entre la sintaxis y la semántica de la lógica de primer orden. Gödel usó dicho teorema de completitud para probar el llamado teorema de compacidad, demonstrando la naturaleza fintiaria del operador de consecuencia lógica. Estos resultados ayudaron a establecer a la lógica de primer orden como el tipo de lógica dominante en las matemáticas actual.

En 1931, Gödel publicó On Formally Undecidable Propositions of Principia Mathematica and Related Systems, que demostraba la incompletitud (en un sentido diferente del término) de cualquier sistema axiomático suficientemente expresivo, cuyo sistema de axiomas fuera recursivamente enumerable. Este tipo de resultados, conocidos como teorema de incompletitud de Gödel, implica que los sistemas axiomáticos de primer orden tienen severas limitaciones para fundamentar las matemáticas, y supusieron un duro golpe para el llamado programa de Hilbert para la fundamentación de las matemáticas. Uno de los resultados de Gödel estableció que es imposible que pueda formalizarse la consistencia de la aritmética en una teoría formal en la que se pueda formalizar la propia aritmética. Por otra parte, durante algún tiempo ni Hilbert ni otros de sus colaboradores fueron conscientes de la importancia del trabajo de Gödel para su pretensión de fundamentar las matemáticas mediante el citado "programa de Hilbert".

Teoría de modelos[editar]

La teoría de modelos introducida anteriormente permite atribuir una interpretación semántica a las expresiones purmente formales de los lenguajes formales. Pero además, permiten estudiar en sí mismos los conjuntos de axiomas, su completitud, su consistencia, la independencia de unos de otros y permiten introducir un importante número de cuestiones metalógicas.

Teoría de la computabilidad[editar]

La Teoría de la computabilidad es la parte de la Teoría de la computación que estudia los problemas de decisión que pueden ser resueltos con un algoritmo o equivalentemente con una máquina de Turing.

Teoría de la demostración[editar]

La teoría de la demostración es la rama de la lógica matemática que trata a las demostraciones como objetos matemáticos, facilitando su análisis mediante técnicas matemáticas. Las demostraciones suelen presentarse como estructuras de datos inductivamente definidas que se construyen de acuerdo con los axiomas y reglas de inferencia de los sistemas lógicos. En este sentido, la teoría de la demostración se ocupa de la sintaxis, en contraste con la teoría de modelos, que trata con la semántica. Junto con la teoría de modelos, la teoría de conjuntos axiomática y la teoría de la recursión, la teoría de la demostración es uno de los "cuatro pilares" de los fundamentos de las matemáticas.

Véase también[editar]

Referencias[editar]

  1. Evandro Agazzi, 1986.

Bibliografía adicional[editar]


Enlaces externos[editar]