Ir al contenido

Diferencia entre revisiones de «Lógica matemática»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
m Revertidos los cambios de 189.223.192.199 (disc.) a la última edición de Felipe Schenone
Sin resumen de edición
Línea 1: Línea 1:
La '''lógica matemática''' es una parte de la [[lógica]] y la [[matemática]], que consiste en el estudio matemático de la lógica, y en la aplicación de dicho estudio a otras áreas de la matemática y de las ciencias. La lógica matemática tiene estrechas conexiones con las [[ciencias de la computación]] y la [[Filosofía analítica|lógica filosófica]].
{{Fusionar|Lógica matemática}}
dhj
La '''lógica formal''' es la parte de la [[lógica]] que, a diferencia de la [[lógica informal]], se dedica al estudio de la [[inferencia]] mediante la construcción de [[Lenguaje formal|lenguajes formales]], sistemas deductivos y [[Semántica formal|semánticas formales]]. La idea es que estas construcciones capturen las características esenciales de las inferencias válidas en los [[Lenguaje natural|lenguajes naturales]], pero que al ser estructuras formales y susceptibles de análisis matemático, permiten realizar [[Demostración matemática|demostraciones]] rigurosas sobre ellas.


La lógica matemática estudia los [[Sistema formal|sistemas formales]] en relación con el modo en el que codifican o [[definición (matemática)|definen]] nociones intuitivas de objetos matemáticos como [[conjunto]]s, [[número]]s, [[Demostración matemática|demostraciones]], y [[algoritmo]]s, utilizando un [[lenguaje formal]].
La lógica formal no debe ser confundida con la [[lógica matemática]], antes llamada [[lógica simbólica]], que es una subdisciplina de la lógica formal.


La lógica matemática suele dividirse en cuatro subcampos: [[teoría de modelos]], [[teoría de la demostración]], [[teoría de conjuntos]] y [[Teoría de la computabilidad|teoría de la recursión]]. La investigación en lógica matemática ha jugado un papel fundamental en el estudio de los [[fundamentos de las matemáticas]]. Actualmente se usan indiferentemente como '''sinónimos''' las expresiones: lógica simbólica (o logística), lógica matemática, lógica teorética y lógica formal.<ref>Evandro Agazzi, 1986.</ref>
== Tipos de lógica formal ==
Dentro de la lógica formal clásica podemos distinguir:


La lógica matemática no es la «lógica de las matemáticas» sino la «matemática de la lógica». Incluye aquellas partes de la lógica que pueden ser modeladas y estudiadas matemáticamente.
{| class="wikitable"

|-
== Historia ==
! Lógica de enunciados !! [[Lógica de predicados]] !! [[Lógica de clases]] !! Lógica de relaciones
=== Siglo XIX ===
|-
Previamente ya se hicieron algunos intentos de tratar las operaciones lógicas formales de una manera simbólica por parte de algunos filósofos matemáticos como [[Leibniz]] y [[Johann Heinrich Lambert|Lambert]], pero su labor permaneció desconocida y aislada.
| Estudia la validez de los razonamientos teniendo en cuenta únicamente el valor de verdad (verdadero o falso) de cada enunciado tomando los enunciados en bloque sin analizarlos previamente.|| Analiza la estructura interna de los enunciados atribuyendo una propiedad al sujeto. || Al contrario de la lógica de predicados, esta atribuye individuos y clases a las características. || Incorpora a su lenguaje los elementos, símbolos y reglas que son necesarios para expresar un enunciado.

|}
A partir de la segunda mitad del siglo XIX, la lógica sería revolucionada profundamente. En 1847, [[George Boole]] publicó un breve tratado titulado ''El análisis matemático de la lógica'', y en 1854 otro más importante titulado ''Las leyes del pensamiento''. La idea de Boole fue construir a la lógica como un [[cálculo]] en el que los [[Valor de verdad|valores de verdad]] se representan mediante el 0 (falsedad) y el 1 (verdad), y a los que se les aplican [[Operación matemática|operaciones matemáticas]] como la [[suma]] y la [[multiplicación]].

Al mismo tiempo, [[Augustus De Morgan]] publica en 1847 su obra ''Lógica formal'', donde introduce las [[leyes de De Morgan]] e intenta generalizar la noción de silogismo. Otro importante contribuyente inglés fue [[John Venn]], quien en 1881 publicó su libro ''Lógica Simbólica'', donde introdujo los famosos [[Diagrama de Venn|diagramas de Venn]].

[[Charles Sanders Peirce]] y [[Ernst Schröder]] también hicieron importantes contribuciones.

Sin embargo, la verdadera revolución de la lógica vino de la mano de [[Gottlob Frege]], quien frecuentemente es considerado como el lógico más importante de la historia, junto con Aristóteles. En su trabajo de 1879, la ''Conceptografía'', Frege ofrece por primera vez un sistema completo de [[lógica de predicados]] y [[Cálculo proposicional de Frege|cálculo proposicional]]. También desarrolla la idea de un [[lenguaje formal]] y define la noción de [[Demostración matemática|prueba]]. Estas ideas constituyeron una base teórica fundamental para el desarrollo de las [[computadoras]] y las [[ciencias de la computación]], entre otras cosas. Pese a esto, los contemporáneos de Frege pasaron por alto sus contribuciones, probablemente a causa de la complicada notación que desarrolló el autor. En 1893 y 1903, Frege publica en dos volúmenes ''Las leyes de la aritmética'', donde intenta deducir toda la [[matemática]] a partir de la lógica, en lo que se conoce como el [[Logicismo|proyecto logicista]]. Su sistema y su aplicación a la [[teoría de conjuntos]], sin embargo, contenía una contradicción (la [[paradoja de Russell]]).

''Lógica matemática'' fue el nombre dado por [[Giuseppe Peano]] para esta disciplina. En esencia, es la lógica de [[Aristóteles]], pero desde el punto de vista de una nueva [[Notación matemática|notación]], más abstracta, tomada del [[álgebra]].

=== Siglo XX ===

El siglo XX sería uno de enormes desarrollos en lógica. A partir del siglo XX, la lógica pasó a estudiarse por su interés intrínseco, y no sólo por sus virtudes como [[propedéutica]], por lo que se estudió a niveles mucho más abstractos.

En 1910, [[Bertrand Russell]] y [[Alfred North Whitehead]] publican ''[[Principia mathematica]]'', un trabajo monumental en el que logran gran parte de la matemática a partir de la lógica, evitando caer en las paradojas en las que cayó Frege. Los autores reconocen el mérito de Frege en el prefacio. En contraste con el trabajo de Frege, ''Principia mathematica'' tuvo un éxito rotundo, y llegó a considerarse uno de los trabajos de no ficción más importantes e influyentes de todo el siglo XX. Principia mathematica utiliza una notación inspirada en la de [[Giuseppe Peano]], parte de la cual todavía es muy utilizada hoy en día.

En 1912 [[Clarence Irving Lewis|C. I. Lewis]] publica ''Conditionals and the Algebra of Logic'', justo después de los ''Principia Mathematica'' de Russell y Whitehead. En 1918 publica ''A Survey of Symbolic Logic'' en donde propone un nuevo condicional más adecuado para recoger el significado de la expresión "si... entonces" del lenguaje natural. Lewis lo llama [[implicación estricta]]. El nuevo condicional requiere, para ser verdadero, una relación más fuerte entre el antecedente y el consecuente que el condicional clásico.

En 1920 [[David Hilbert]] propuso de forma explícita un proyecto de investigación (en ''[[metamatemática]]'', como se llamó entonces) que acabó siendo conocido como [[programa de Hilbert]]. Quería que la [[matemática]] fuese formulada sobre unas bases sólidas y completamente lógicas.

El origen de los [[Teoría de la computabilidad|modelos abstractos de computación]] se encuadra en los años '30 (antes de que existieran los ordenadores modernos), en el trabajo de los lógicos [[Alonzo Church]], [[Kurt Gödel]], [[Stephen Kleene]], [[Emil Leon Post]], [[Haskell Curry]] y [[Alan Turing]]. Estos trabajos iniciales han tenido una profunda influencia, tanto en el desarrollo teórico como en abundantes aspectos de la práctica de la computación; previendo incluso la existencia de ordenadores de propósito general, la posibilidad de interpretar programas, la dualidad entre ''[[software]]'' y ''[[hardware]]'', y la representación de lenguajes por estructuras formales basados en reglas de producción.

La [[deducción natural]] fue introducida por [[Gerhard Gentzen]] en su trabajo ''Investigaciones sobre la inferencia lógica (Untersuchungen über das logische Schliessen)'', publicado en 1934-1935.

En los años 40 [[Alfred Tarski]] comenzó a desarrollar junto a sus discípulos el [[álgebra relacional]], en la que pueden expresarse tanto la [[teoría axiomática de conjuntos]] como la [[axiomas de Peano|aritmética de Peano]]. También desarrolló junto a sus discípulos las [[álgebras cilíndricas]], que son a la [[lógica de primer orden]] lo que el [[álgebra booleana]] a la [[lógica proposicional]]. En 1941 publicó en inglés uno de los manuales de lógica más acreditados, ''Introduction to Logic and to the Methodology of Deductive Sciences''.

[[Noam Chomsky]] en 1956 propone una clasificación jerárquica de distintos tipos de [[gramática formal|gramáticas formales]] que generan [[lenguaje formal|lenguajes formales]] llamada [[jerarquía de Chomsky]].

Si bien a la luz de los sistemas contemporáneos la [[lógica aristotélica]] puede parecer equivocada e incompleta, [[Jan Łukasiewicz]] mostró que, a pesar de sus grandes dificultades, la lógica aristotélica era consistente, si bien había que interpretarse como [[lógica de clases]], lo cual no es pequeña modificación. Por ello la silogística prácticamente no tiene uso actualmente.

Además de la lógica proposicional y la lógica de predicados, el siglo XX vio el desarrollo de muchos otros sistemas lógicos; entre los que destacan las muchas [[Lógica modal|lógicas modales]].

==Concepto de lógica matemática==
La lógica matemática estudia los sistemas formales en relación con el modo en el que codifican conceptos intuitivos de objetos matemáticos como conjuntos, números, demostraciones y computación. La lógica estudia las reglas de deducción formales, las capacidades expresivas de los diferentes lenguajes formales y las propiedades [[lógica matemática|metalógicas]] de los mismos.

En un nivel elemental, la lógica proporciona reglas y técnicas para determinar si es o no válido un argumento dado dentro de un determinado sistema formal. En un nivel avanzado, la lógica matemática se ocupa de la posibilidad de axiomatizar las teorías matemáticas, de clasificar su capacidad expresiva, y desarrollar métodos computacionales útiles en sistemas formales. La [[teoría de la demostración]] y la [[matemática inversa]] son dos de los razonamientos más recientes de la lógica matemática abstracta. Debe señalarse que la lógica matemática se ocupa de sistemas formales que pueden no ser equivalentes en todos sus aspectos, por lo que la lógica matemática no es método de descubrir verdades del mundo físico real, sino sólo una fuente posible de modelos lógicos aplicables a teorías científicas, muy especialmente a la matemática convencional.

La lógica matemática no se encarga por otra parte del concepto de razonamiento humano general o del proceso creativo de construcción de demostraciones matemáticas mediante argumentos rigurosos pero hechas usando lenguaje informal con algunos signos o diagramas, sino sólo de demostraciones y razonamientos que pueden ser completamente formalizados en todos sus aspectos.

=== Sistemas lógicos ===
La lógica matemática se interesa por tres tipos de aspectos de los [[sistema lógico|sistemas lógicos]]:
* La '''sintaxis''' de los [[lenguaje formal|lenguajes formales]], es decir, las reglas de formación de símbolos interpretables construidos a partir de un determinado alfabeto, y las reglas de inferencia. En concreto el conjunto de [[teorema]]s deducibles de un [[sistema axiomático|conjunto de axiomas]].
* La '''[[semántica formal|semántica]]''' de los lenguajes formales, es decir, los significados atribuibles a un conjunto de signos, así como el valor de verdad atribuible a algunas de las proposiciones. En general las expresiones de un sistema formal interpretadas en un modelo son ciertas o falsas, por lo que un conjunto de proposiciones que admite un modelo es siempre consistente.
* Los '''aspectos metalógicos''' de los lenguajes formales, como por ejemplo la [[completitud semántica]], la [[consistencia (lógica)|consistencia]], la [[teorema de compacidad|compacidad]] o la [[teoría de modelos|existencia de modelos]] de cierto tipo, entre otros.

Los diferentes tipos de sistemas lógicos pueden ser clasificados en:
* '''[[Lógica proposicional]] (Lógica de orden cero)''': En ella existe símbolos para variables proposicionales (que pueden ser interpretados informalmente como enunciados que pueden ser ciertos o falsos) además de símbolos para diversas [[conectiva lógica|conectivas]]. Estas conectivas permiten formar expresiones complejas a partir de variables proposicionales simples. Un sistema lógico puede incluir diversos tipos de conectivas, entre ellos, la lógica clásica suele hacer uso de los siguientes:
:: ¬ se lee “no”
:: ∧ se lee “y”
:: ∨ se lee “o”
:: → se lee “…implica…” o “si,…entonces…,”
:: ↔ se lee “…equivalente con…” o "…si, sólo sí…"
:Dentro de la lógica proposicional pueden distinguirse varios tipos, por ejemplo restringiendo las posibilidades de interpretación semántica se obtiene la [[lógica intuicionista]] y ampliando la complejidad de las interpretaciones semánticas se obtienen las [[lógica modal|lógicas modales]].
* '''[[Lógica de predicados]]''': Esta no incluye símbolos para variables proposicionales sino que las proposiciones más elementales son predicados atómicos formados a partir de variables interpretables como objetos singulares, [[relación matemática|relaciones]] (entre estas frecuentemente se usan = , <, >, etc.), [[función matemática|funciones matemáticas]]. Además símbolos para representar variables, relaciones y funciones este tipo de lógicas incluyen [[cuantificador]]es. Dentro de la lógica de predicados se pueden distinguir ciertos tipos:
** '''[[Lógica de primer orden]]''' que usualmente es finitaria (sólo se admiten proposiciones formadas mediante un número finito de pasos) aunque también existen [[Lógica infinitaria|lógicas infinitarias]].
** '''[[Lógica de segundo orden]]''' que a su vez pueden ser de diferentes subtipos.

=== Teorías axiomáticas ===
Una [[Teoría (lógica)|teoría axiomática]] está formada por un conjunto de proposiciones expresables en un determinado [[lenguaje formal]] y todas las proposiciones deducibles de dichas expresiones mediante las reglas de inferencia posibles en dicho sistema lógico.

El objetivo de las teorías axiomáticas es construir sistemas lógicos que representen las características esenciales de ramas enteras de las matemáticas. Si se selecciona un conjunto más amplio o menos amplio de axiomas el conjunto de teoremas deducibles cambian. El interés de la [[teoría de modelos]] es que en un modelo en que satisfagan los axiomas de determinada teoría también se satisfacen los teoremas deducibles de dicha teoría. Es decir, si un teorema es deducible en una cierta teoría, entonces ese teorema es universalmente válido en todos los modelos que satisfacen los axiomas. Esto es interesante porque en principio la clase de modelos que satisface una cierta teoría es difícil de conocer, ya que las teorías matemáticas interesantes en general admiten toda clase infinita de modelos no isomorfos, por lo que su clasificación en general resulta difícilmente abordable si no existe un sistema lógico y un conjunto de axiomas que caracterice los diferentes tipos de modelos.

== Áreas ==
La ''[[Mathematics Subject Classification]]'' divide la lógica matemática en las siguientes áreas:
* [[Filosofía de la matemática|Filosófica]] y crítica
* Lógica general (que incluye campos como la [[lógica modal]] y la [[lógica borrosa]])
* [[Teoría de modelos]]
* [[Teoría de la computabilidad]]
* [[Teoría de conjuntos]]
* [[Teoría de la demostración]] y matemática constructiva algebraica
* Modelos no estándar

En algunos casos hay conjunción de intereses con la [[Informática teórica]], pues muchos pioneros de la informática, como [[Alan Turing]], fueron matemáticos y lógicos. Así, el estudio de la [[semántica]] de los [[lenguajes de programación]] procede de la teoría de modelos, así como también la [[verificación de programas]], y el caso particular de la técnica del [[model checking]].
También el [[isomorfismo]] de Churry-Howard entre pruebas y programas se corresponde con la teoría de pruebas, donde la [[lógica intuicionista]] y la [[lógica lineal]] son especialmente significativas.

Algunos sistemas lógicos como el [[cálculo lambda]], y la [[lógica combinatoria]] entre otras han devenido, incluso, auténticos lenguajes de programación, creando nuevos paradigmas como son la [[programación funcional]] y la [[programación lógica]].

== Tipos de sistemas lógicos ==
=== Lógica proposicional ===
{{ap|lógica proposicional}}
La lógica proposicional (o lógica de orden cero) es un lenguaje formal en el que no existen variables ni cuantificación, eso implica que cualquier secuencia de signos que constituya una fórmula bien formada de la lógica proposicional admite una valoración en la proposición es cierta o falsa dependiendo del valor de verdad asignado a las proposiciones que la compongan. En otras palabras en la lógica proposicional cualquier fórmula bien formada define una función proposicional. Por tanto, cualquier sistema lógico basado en la lógica proposicional es decidible y en un número finito de pasos puede determinarse la verdad o falsedad semántica de una proposición. Esto hace que la lógica proposicional sea completa y muy sencilla de caracterizar semánticamente.

=== Lógica de predicados ===
La lógica de predicados (o lógica de primer orden) es un [[lenguaje formal]] en el que las sentencias bien formadas son producidas por las reglas enunciadas a continuación.

; Vocabulario
Un ''vocabulario'' es una [[tupla]]: <math>\tau = \langle R_1,R_2,...,R_r,f_1,f_2,...,f_s,c_1,c_2...c_t \rangle</math> que consta de:
* <math>r</math> '''símbolos relacionales''' <math>R_i</math>, cada uno de ellos con un número entero <math>a_i</math> asociado, el cual se conoce como la [[aridad]] de <math>R_i</math>
* <math>s</math> '''símbolos funcionales''' <math>f_j</math>, cada uno de aridad <math>b_j</math>
* <math>t</math> '''símbolos constantes''' <math>c_k</math>

Una '''fórmula''' de primer orden <math>\varphi</math> en el vocabulario <math>\tau</math>, es una fórmula de primer orden donde los únicos predicados, funciones y constantes empleados son los especificados por <math>\tau</math>.

=== Lenguajes y estructuras de primer orden ===
Un lenguaje de primer orden <math>\mathfrak{L}\,</math> es una colección de distintos símbolos clasificados como sigue:

El '''[[igualdad matemática|símbolo de igualdad]]''' <math>=\,</math>; las '''conectivas''' <math>\lor\,</math>, <math>\lnot\,</math>; el '''cuantificador universal ''' <math>\forall\,</math> y el '''paréntesis''' <math>(\,</math>, <math>)\,</math>.
* Un conjunto contable de '''símbolos de variable''' <math>\{v_i\}_{i = 0}^\infty\,</math>.
* Un conjunto de '''símbolos de constante''' <math>\{c_\alpha\}_{\alpha \in \Alpha}\,</math>.
* Un conjunto de '''símbolos de función''' <math>\{f_\beta\}_{\beta \in \Beta}\,</math>.
* Un conjunto de '''símbolos de relación''' <math>\{R_\gamma\}_{\gamma \in \Gamma}\,</math>.

Así, para especificar un orden, generalmente sólo hace falta especificar la colección de símbolos constantes, símbolos de función y símbolos relacionales, dado que el primer conjunto de símbolos es estándar. Los paréntesis tienen como único propósito de agrupar símbolos y no forman parte de la estructura de las funciones y relaciones.

Los símbolos carecen de significado por sí solos. Sin embargo, a este lenguaje podemos dotarlo de una semántica apropiada.

Una <math>\mathfrak{L}\,</math>-'''estructura''' sobre el lenguaje <math>\mathfrak{L}\,</math>, es una tupla consistente en un conjunto no vacío <math>A\,</math>, el universo del discurso, junto a:

# Para cada símbolo constante <math>c\,</math> de <math>\mathfrak{L}\,</math>, tenemos un elemento <math>c^{\mathfrak{A}} \in A\,</math>.
# Para cada símbolo de function <math>n\,</math>-aria <math>f\,</math> de <math>\mathfrak{L}\,</math>, una function <math>n\,</math>-aria <math>f^{\mathfrak{A}} : A^n \longrightarrow A\,</math>.
# Para cada símbolo de relación <math>n\,</math>-aria <math>R\,</math> de <math>\mathfrak{L}\,</math>, una relación <math>n\,</math>-aria sobre <math>A\,</math>, esto es, un subconjunto <math>R^{\mathfrak{A}} \subseteq A^n\,</math>.

A menudo, usaremos la palabra ''modelo'' para denotar esta estructura.

== Aspectos metalógicos y algorítmicos ==
=== Metalógica ===
{{AP|Metalógica}}
[[Leopold Löwenheim]] ([[#CITEREFL.C3.B6wenheim1915|1915]]) y [[Thoralf Skolem]] ([[#CITEREFSkolem1920|1920]]) formularon el llamado [[teorema de Löwenheim-Skolem]], que afirma que cualquier [[sistema axiomático]] basado en la [[lógica de primer orden]] no puede controlar la cardinalidad de las estructuras no finitas que satisfacen los axiomas de dicho sistema. Skolem comprendió que este teorema podría aplicarse para las formalizaciones de primer orden de la [[teoría de conjuntos]], siendo dicha formalización numerable, existiría un modelo numerable para dicha teoría aun cuando la teoría afirma que existen conjuntos no contables. Este resultado contraintuitivo es la conocida [[paradoja de Skolem]].

En su tesis doctoral, [[Kurt Gödel]] ([[#CITEREFGödel1929|1929]]) demostró el [[teorema de completitud de Gödel]], que establece una correspondencia entre la sintaxis y la semántica de la lógica de primer orden. Gödel usó dicho teorema de completitud para probar el llamado [[teorema de compacidad]], demonstrando la naturaleza fintiaria del operador de consecuencia lógica. Estos resultados ayudaron a establecer a la lógica de primer orden como el tipo de lógica dominante en las matemáticas actual.

En 1931, Gödel publicó ''[[On Formally Undecidable Propositions of Principia Mathematica and Related Systems]]'', que demostraba la incompletitud (en un sentido diferente del término) de cualquier sistema axiomático suficientemente expresivo, cuyo sistema de axiomas fuera recursivamente enumerable. Este tipo de resultados, conocidos como [[teorema de incompletitud de Gödel]], implica que los sistemas axiomáticos de primer orden tienen severas limitaciones para fundamentar las matemáticas, y supusieron un duro golpe para el llamado [[programa de Hilbert]] para la fundamentación de las matemáticas. Uno de los resultados de Gödel estableció que es imposible que pueda formalizarse la consistencia de la aritmética en una teoría formal en la que se pueda formalizar la propia aritmética. Por otra parte, durante algún tiempo ni Hilbert ni otros de sus colaboradores fueron conscientes de la importancia del trabajo de Gödel para su pretensión de fundamentar las matemáticas mediante el citado "programa de Hilbert".
<!--
Gödel's theorem shows that a consistency proof of any sufficiently strong, effective axiom system cannot be obtained in the system itself, if the system is consistent, nor in any weaker system. This leaves open the possibility of consistency proofs that cannot be formalized within the system they consider. Gentzen ([[#CITEREFGentzen1936|1936]]) proved the consistency of arithmetic using a finitistic system together with a principle of [[transfinite induction]]. Gentzen's result introduced the ideas of [[cut elimination]] and [[proof-theoretic ordinal]]s, which became key tools in proof theory. Gödel ([[#CITEREFGödel1958|1958]]) gave a different consistency proof, which reduces the consistency of classical arithmetic to that of intutitionistic arithmetic in higher types.-->

=== Teoría de modelos ===
{{ap|Teoría de modelos}}
La teoría de modelos introducida anteriormente permite atribuir una interpretación semántica a las expresiones purmente formales de los lenguajes formales. Pero además, permiten estudiar en sí mismos los conjuntos de axiomas, su completitud, su consistencia, la independencia de unos de otros y permiten introducir un importante número de cuestiones [[metalógica]]s.

=== Teoría de la computabilidad ===
{{ap|Teoría de la computabilidad|Recursividad}}
La Teoría de la computabilidad es la parte de la [[Teoría de la computación]] que estudia los [[problema de decisión|problemas de decisión]] que pueden ser resueltos con un [[algoritmo]] o equivalentemente con una [[máquina de Turing]].

=== Teoría de la demostración ===
{{ap|Teoría de la demostración}}
La [[teoría de la demostración]] es la rama de la lógica matemática que trata a las [[demostración matemática|demostraciones]] como objetos matemáticos, facilitando su análisis mediante técnicas matemáticas. Las demostraciones suelen presentarse como [[estructura de datos|estructuras de datos]] inductivamente definidas que se construyen de acuerdo con los [[axioma]]s y [[regla de inferencia|reglas de inferencia]] de los sistemas lógicos. En este sentido, la teoría de la demostración se ocupa de la [[sintaxis]], en contraste con la [[teoría de modelos]], que trata con la [[semántica]]. Junto con la [[teoría de modelos]], la [[teoría de conjuntos]] axiomática y la [[teoría de la computabilidad|teoría de la recursión]], la teoría de la demostración es uno de los "cuatro pilares" de los [[fundamentos de las matemáticas]].


== Véase también ==
== Véase también ==
* [[Lógica informal]]
* [[Lógica proposicional]]
* [[Lógica matemática]]
* [[Lógica de primer orden]]
* [[Noción primitiva]]
* [[Función indicatriz]]

== Referencias ==
{{listaref}}
=== Bibliografía adicional ===
* {{cita libro |apellido=Agazzi |nombre=Evandro |año=1986 |título=Lógica simbólica |editorial=Herder |isbn=9788425401305 }}
* {{Citalibro |apellido=Enderton |nombre=Herbert |título=A mathematical introduction to logic |editorial=[[Academic Press]] |ubicación=Boston, MA |edición=2nd |isbn=978-0-12-238452-3 |año=2001}}
* {{Citation
|last1=Hamilton
|first1=A.G.
|title=Logic for Mathematicians
|publisher=Cambridge University Press
|location=Cambridge
|edition=2nd
|isbn=978-0-521-36865-0
|year=1988}}.
*{{Citation
|last1=Ebbinghaus
|first1=H.-D.
|last2=Flum
|first2=J.
|last3=Thomas
|first3=W.
|doi=
|title=Mathematical Logic
|url=http://www.springer.com/mathematics/book/978-0-387-94258-2
|publisher=[[Springer Science+Business Media|Springer]]
|location=[[Nueva York]]
|edition=2nd
|isbn=0-387-94258-0
|year=1994
}}

==Enlaces externos==
{{wikiversidad|Lógica matemática}}


{{ORDENAR:Logica formal}}
{{ORDENAR:Logica matematica}}
[[Categoría:Lógica|Formal]]
[[Categoría:Lógica matemática| ]]

Revisión del 01:24 29 oct 2016

La lógica matemática es una parte de la lógica y la matemática, que consiste en el estudio matemático de la lógica, y en la aplicación de dicho estudio a otras áreas de la matemática y de las ciencias. La lógica matemática tiene estrechas conexiones con las ciencias de la computación y la lógica filosófica. dhj

La lógica matemática estudia los sistemas formales en relación con el modo en el que codifican o definen nociones intuitivas de objetos matemáticos como conjuntos, números, demostraciones, y algoritmos, utilizando un lenguaje formal.

La lógica matemática suele dividirse en cuatro subcampos: teoría de modelos, teoría de la demostración, teoría de conjuntos y teoría de la recursión. La investigación en lógica matemática ha jugado un papel fundamental en el estudio de los fundamentos de las matemáticas. Actualmente se usan indiferentemente como sinónimos las expresiones: lógica simbólica (o logística), lógica matemática, lógica teorética y lógica formal.[1]

La lógica matemática no es la «lógica de las matemáticas» sino la «matemática de la lógica». Incluye aquellas partes de la lógica que pueden ser modeladas y estudiadas matemáticamente.

Historia

Siglo XIX

Previamente ya se hicieron algunos intentos de tratar las operaciones lógicas formales de una manera simbólica por parte de algunos filósofos matemáticos como Leibniz y Lambert, pero su labor permaneció desconocida y aislada.

A partir de la segunda mitad del siglo XIX, la lógica sería revolucionada profundamente. En 1847, George Boole publicó un breve tratado titulado El análisis matemático de la lógica, y en 1854 otro más importante titulado Las leyes del pensamiento. La idea de Boole fue construir a la lógica como un cálculo en el que los valores de verdad se representan mediante el 0 (falsedad) y el 1 (verdad), y a los que se les aplican operaciones matemáticas como la suma y la multiplicación.

Al mismo tiempo, Augustus De Morgan publica en 1847 su obra Lógica formal, donde introduce las leyes de De Morgan e intenta generalizar la noción de silogismo. Otro importante contribuyente inglés fue John Venn, quien en 1881 publicó su libro Lógica Simbólica, donde introdujo los famosos diagramas de Venn.

Charles Sanders Peirce y Ernst Schröder también hicieron importantes contribuciones.

Sin embargo, la verdadera revolución de la lógica vino de la mano de Gottlob Frege, quien frecuentemente es considerado como el lógico más importante de la historia, junto con Aristóteles. En su trabajo de 1879, la Conceptografía, Frege ofrece por primera vez un sistema completo de lógica de predicados y cálculo proposicional. También desarrolla la idea de un lenguaje formal y define la noción de prueba. Estas ideas constituyeron una base teórica fundamental para el desarrollo de las computadoras y las ciencias de la computación, entre otras cosas. Pese a esto, los contemporáneos de Frege pasaron por alto sus contribuciones, probablemente a causa de la complicada notación que desarrolló el autor. En 1893 y 1903, Frege publica en dos volúmenes Las leyes de la aritmética, donde intenta deducir toda la matemática a partir de la lógica, en lo que se conoce como el proyecto logicista. Su sistema y su aplicación a la teoría de conjuntos, sin embargo, contenía una contradicción (la paradoja de Russell).

Lógica matemática fue el nombre dado por Giuseppe Peano para esta disciplina. En esencia, es la lógica de Aristóteles, pero desde el punto de vista de una nueva notación, más abstracta, tomada del álgebra.

Siglo XX

El siglo XX sería uno de enormes desarrollos en lógica. A partir del siglo XX, la lógica pasó a estudiarse por su interés intrínseco, y no sólo por sus virtudes como propedéutica, por lo que se estudió a niveles mucho más abstractos.

En 1910, Bertrand Russell y Alfred North Whitehead publican Principia mathematica, un trabajo monumental en el que logran gran parte de la matemática a partir de la lógica, evitando caer en las paradojas en las que cayó Frege. Los autores reconocen el mérito de Frege en el prefacio. En contraste con el trabajo de Frege, Principia mathematica tuvo un éxito rotundo, y llegó a considerarse uno de los trabajos de no ficción más importantes e influyentes de todo el siglo XX. Principia mathematica utiliza una notación inspirada en la de Giuseppe Peano, parte de la cual todavía es muy utilizada hoy en día.

En 1912 C. I. Lewis publica Conditionals and the Algebra of Logic, justo después de los Principia Mathematica de Russell y Whitehead. En 1918 publica A Survey of Symbolic Logic en donde propone un nuevo condicional más adecuado para recoger el significado de la expresión "si... entonces" del lenguaje natural. Lewis lo llama implicación estricta. El nuevo condicional requiere, para ser verdadero, una relación más fuerte entre el antecedente y el consecuente que el condicional clásico.

En 1920 David Hilbert propuso de forma explícita un proyecto de investigación (en metamatemática, como se llamó entonces) que acabó siendo conocido como programa de Hilbert. Quería que la matemática fuese formulada sobre unas bases sólidas y completamente lógicas.

El origen de los modelos abstractos de computación se encuadra en los años '30 (antes de que existieran los ordenadores modernos), en el trabajo de los lógicos Alonzo Church, Kurt Gödel, Stephen Kleene, Emil Leon Post, Haskell Curry y Alan Turing. Estos trabajos iniciales han tenido una profunda influencia, tanto en el desarrollo teórico como en abundantes aspectos de la práctica de la computación; previendo incluso la existencia de ordenadores de propósito general, la posibilidad de interpretar programas, la dualidad entre software y hardware, y la representación de lenguajes por estructuras formales basados en reglas de producción.

La deducción natural fue introducida por Gerhard Gentzen en su trabajo Investigaciones sobre la inferencia lógica (Untersuchungen über das logische Schliessen), publicado en 1934-1935.

En los años 40 Alfred Tarski comenzó a desarrollar junto a sus discípulos el álgebra relacional, en la que pueden expresarse tanto la teoría axiomática de conjuntos como la aritmética de Peano. También desarrolló junto a sus discípulos las álgebras cilíndricas, que son a la lógica de primer orden lo que el álgebra booleana a la lógica proposicional. En 1941 publicó en inglés uno de los manuales de lógica más acreditados, Introduction to Logic and to the Methodology of Deductive Sciences.

Noam Chomsky en 1956 propone una clasificación jerárquica de distintos tipos de gramáticas formales que generan lenguajes formales llamada jerarquía de Chomsky.

Si bien a la luz de los sistemas contemporáneos la lógica aristotélica puede parecer equivocada e incompleta, Jan Łukasiewicz mostró que, a pesar de sus grandes dificultades, la lógica aristotélica era consistente, si bien había que interpretarse como lógica de clases, lo cual no es pequeña modificación. Por ello la silogística prácticamente no tiene uso actualmente.

Además de la lógica proposicional y la lógica de predicados, el siglo XX vio el desarrollo de muchos otros sistemas lógicos; entre los que destacan las muchas lógicas modales.

Concepto de lógica matemática

La lógica matemática estudia los sistemas formales en relación con el modo en el que codifican conceptos intuitivos de objetos matemáticos como conjuntos, números, demostraciones y computación. La lógica estudia las reglas de deducción formales, las capacidades expresivas de los diferentes lenguajes formales y las propiedades metalógicas de los mismos.

En un nivel elemental, la lógica proporciona reglas y técnicas para determinar si es o no válido un argumento dado dentro de un determinado sistema formal. En un nivel avanzado, la lógica matemática se ocupa de la posibilidad de axiomatizar las teorías matemáticas, de clasificar su capacidad expresiva, y desarrollar métodos computacionales útiles en sistemas formales. La teoría de la demostración y la matemática inversa son dos de los razonamientos más recientes de la lógica matemática abstracta. Debe señalarse que la lógica matemática se ocupa de sistemas formales que pueden no ser equivalentes en todos sus aspectos, por lo que la lógica matemática no es método de descubrir verdades del mundo físico real, sino sólo una fuente posible de modelos lógicos aplicables a teorías científicas, muy especialmente a la matemática convencional.

La lógica matemática no se encarga por otra parte del concepto de razonamiento humano general o del proceso creativo de construcción de demostraciones matemáticas mediante argumentos rigurosos pero hechas usando lenguaje informal con algunos signos o diagramas, sino sólo de demostraciones y razonamientos que pueden ser completamente formalizados en todos sus aspectos.

Sistemas lógicos

La lógica matemática se interesa por tres tipos de aspectos de los sistemas lógicos:

  • La sintaxis de los lenguajes formales, es decir, las reglas de formación de símbolos interpretables construidos a partir de un determinado alfabeto, y las reglas de inferencia. En concreto el conjunto de teoremas deducibles de un conjunto de axiomas.
  • La semántica de los lenguajes formales, es decir, los significados atribuibles a un conjunto de signos, así como el valor de verdad atribuible a algunas de las proposiciones. En general las expresiones de un sistema formal interpretadas en un modelo son ciertas o falsas, por lo que un conjunto de proposiciones que admite un modelo es siempre consistente.
  • Los aspectos metalógicos de los lenguajes formales, como por ejemplo la completitud semántica, la consistencia, la compacidad o la existencia de modelos de cierto tipo, entre otros.

Los diferentes tipos de sistemas lógicos pueden ser clasificados en:

  • Lógica proposicional (Lógica de orden cero): En ella existe símbolos para variables proposicionales (que pueden ser interpretados informalmente como enunciados que pueden ser ciertos o falsos) además de símbolos para diversas conectivas. Estas conectivas permiten formar expresiones complejas a partir de variables proposicionales simples. Un sistema lógico puede incluir diversos tipos de conectivas, entre ellos, la lógica clásica suele hacer uso de los siguientes:
¬ se lee “no”
∧ se lee “y”
∨ se lee “o”
→ se lee “…implica…” o “si,…entonces…,”
↔ se lee “…equivalente con…” o "…si, sólo sí…"
Dentro de la lógica proposicional pueden distinguirse varios tipos, por ejemplo restringiendo las posibilidades de interpretación semántica se obtiene la lógica intuicionista y ampliando la complejidad de las interpretaciones semánticas se obtienen las lógicas modales.
  • Lógica de predicados: Esta no incluye símbolos para variables proposicionales sino que las proposiciones más elementales son predicados atómicos formados a partir de variables interpretables como objetos singulares, relaciones (entre estas frecuentemente se usan = , <, >, etc.), funciones matemáticas. Además símbolos para representar variables, relaciones y funciones este tipo de lógicas incluyen cuantificadores. Dentro de la lógica de predicados se pueden distinguir ciertos tipos:

Teorías axiomáticas

Una teoría axiomática está formada por un conjunto de proposiciones expresables en un determinado lenguaje formal y todas las proposiciones deducibles de dichas expresiones mediante las reglas de inferencia posibles en dicho sistema lógico.

El objetivo de las teorías axiomáticas es construir sistemas lógicos que representen las características esenciales de ramas enteras de las matemáticas. Si se selecciona un conjunto más amplio o menos amplio de axiomas el conjunto de teoremas deducibles cambian. El interés de la teoría de modelos es que en un modelo en que satisfagan los axiomas de determinada teoría también se satisfacen los teoremas deducibles de dicha teoría. Es decir, si un teorema es deducible en una cierta teoría, entonces ese teorema es universalmente válido en todos los modelos que satisfacen los axiomas. Esto es interesante porque en principio la clase de modelos que satisface una cierta teoría es difícil de conocer, ya que las teorías matemáticas interesantes en general admiten toda clase infinita de modelos no isomorfos, por lo que su clasificación en general resulta difícilmente abordable si no existe un sistema lógico y un conjunto de axiomas que caracterice los diferentes tipos de modelos.

Áreas

La Mathematics Subject Classification divide la lógica matemática en las siguientes áreas:

En algunos casos hay conjunción de intereses con la Informática teórica, pues muchos pioneros de la informática, como Alan Turing, fueron matemáticos y lógicos. Así, el estudio de la semántica de los lenguajes de programación procede de la teoría de modelos, así como también la verificación de programas, y el caso particular de la técnica del model checking. También el isomorfismo de Churry-Howard entre pruebas y programas se corresponde con la teoría de pruebas, donde la lógica intuicionista y la lógica lineal son especialmente significativas.

Algunos sistemas lógicos como el cálculo lambda, y la lógica combinatoria entre otras han devenido, incluso, auténticos lenguajes de programación, creando nuevos paradigmas como son la programación funcional y la programación lógica.

Tipos de sistemas lógicos

Lógica proposicional

La lógica proposicional (o lógica de orden cero) es un lenguaje formal en el que no existen variables ni cuantificación, eso implica que cualquier secuencia de signos que constituya una fórmula bien formada de la lógica proposicional admite una valoración en la proposición es cierta o falsa dependiendo del valor de verdad asignado a las proposiciones que la compongan. En otras palabras en la lógica proposicional cualquier fórmula bien formada define una función proposicional. Por tanto, cualquier sistema lógico basado en la lógica proposicional es decidible y en un número finito de pasos puede determinarse la verdad o falsedad semántica de una proposición. Esto hace que la lógica proposicional sea completa y muy sencilla de caracterizar semánticamente.

Lógica de predicados

La lógica de predicados (o lógica de primer orden) es un lenguaje formal en el que las sentencias bien formadas son producidas por las reglas enunciadas a continuación.

Vocabulario

Un vocabulario es una tupla: que consta de:

  • símbolos relacionales , cada uno de ellos con un número entero asociado, el cual se conoce como la aridad de
  • símbolos funcionales , cada uno de aridad
  • símbolos constantes

Una fórmula de primer orden en el vocabulario , es una fórmula de primer orden donde los únicos predicados, funciones y constantes empleados son los especificados por .

Lenguajes y estructuras de primer orden

Un lenguaje de primer orden es una colección de distintos símbolos clasificados como sigue:

El símbolo de igualdad ; las conectivas , ; el cuantificador universal y el paréntesis , .

  • Un conjunto contable de símbolos de variable .
  • Un conjunto de símbolos de constante .
  • Un conjunto de símbolos de función .
  • Un conjunto de símbolos de relación .

Así, para especificar un orden, generalmente sólo hace falta especificar la colección de símbolos constantes, símbolos de función y símbolos relacionales, dado que el primer conjunto de símbolos es estándar. Los paréntesis tienen como único propósito de agrupar símbolos y no forman parte de la estructura de las funciones y relaciones.

Los símbolos carecen de significado por sí solos. Sin embargo, a este lenguaje podemos dotarlo de una semántica apropiada.

Una -estructura sobre el lenguaje , es una tupla consistente en un conjunto no vacío , el universo del discurso, junto a:

  1. Para cada símbolo constante de , tenemos un elemento .
  2. Para cada símbolo de function -aria de , una function -aria .
  3. Para cada símbolo de relación -aria de , una relación -aria sobre , esto es, un subconjunto .

A menudo, usaremos la palabra modelo para denotar esta estructura.

Aspectos metalógicos y algorítmicos

Metalógica

Leopold Löwenheim (1915) y Thoralf Skolem (1920) formularon el llamado teorema de Löwenheim-Skolem, que afirma que cualquier sistema axiomático basado en la lógica de primer orden no puede controlar la cardinalidad de las estructuras no finitas que satisfacen los axiomas de dicho sistema. Skolem comprendió que este teorema podría aplicarse para las formalizaciones de primer orden de la teoría de conjuntos, siendo dicha formalización numerable, existiría un modelo numerable para dicha teoría aun cuando la teoría afirma que existen conjuntos no contables. Este resultado contraintuitivo es la conocida paradoja de Skolem.

En su tesis doctoral, Kurt Gödel (1929) demostró el teorema de completitud de Gödel, que establece una correspondencia entre la sintaxis y la semántica de la lógica de primer orden. Gödel usó dicho teorema de completitud para probar el llamado teorema de compacidad, demonstrando la naturaleza fintiaria del operador de consecuencia lógica. Estos resultados ayudaron a establecer a la lógica de primer orden como el tipo de lógica dominante en las matemáticas actual.

En 1931, Gödel publicó On Formally Undecidable Propositions of Principia Mathematica and Related Systems, que demostraba la incompletitud (en un sentido diferente del término) de cualquier sistema axiomático suficientemente expresivo, cuyo sistema de axiomas fuera recursivamente enumerable. Este tipo de resultados, conocidos como teorema de incompletitud de Gödel, implica que los sistemas axiomáticos de primer orden tienen severas limitaciones para fundamentar las matemáticas, y supusieron un duro golpe para el llamado programa de Hilbert para la fundamentación de las matemáticas. Uno de los resultados de Gödel estableció que es imposible que pueda formalizarse la consistencia de la aritmética en una teoría formal en la que se pueda formalizar la propia aritmética. Por otra parte, durante algún tiempo ni Hilbert ni otros de sus colaboradores fueron conscientes de la importancia del trabajo de Gödel para su pretensión de fundamentar las matemáticas mediante el citado "programa de Hilbert".

Teoría de modelos

La teoría de modelos introducida anteriormente permite atribuir una interpretación semántica a las expresiones purmente formales de los lenguajes formales. Pero además, permiten estudiar en sí mismos los conjuntos de axiomas, su completitud, su consistencia, la independencia de unos de otros y permiten introducir un importante número de cuestiones metalógicas.

Teoría de la computabilidad

La Teoría de la computabilidad es la parte de la Teoría de la computación que estudia los problemas de decisión que pueden ser resueltos con un algoritmo o equivalentemente con una máquina de Turing.

Teoría de la demostración

La teoría de la demostración es la rama de la lógica matemática que trata a las demostraciones como objetos matemáticos, facilitando su análisis mediante técnicas matemáticas. Las demostraciones suelen presentarse como estructuras de datos inductivamente definidas que se construyen de acuerdo con los axiomas y reglas de inferencia de los sistemas lógicos. En este sentido, la teoría de la demostración se ocupa de la sintaxis, en contraste con la teoría de modelos, que trata con la semántica. Junto con la teoría de modelos, la teoría de conjuntos axiomática y la teoría de la recursión, la teoría de la demostración es uno de los "cuatro pilares" de los fundamentos de las matemáticas.

Véase también

Referencias

  1. Evandro Agazzi, 1986.

Bibliografía adicional

Enlaces externos