Etiqueta: Lógica

Lógica cuántica

Lógica cuántica

La computación cuántica es una corriente que se está propagando dentro de las nuevas investigaciones, con el objetivo de hacer que las máquinas puedan resolver en un tiempo menor los problemas. Con este tipo de investigación se logra fusionar dos teorías que están luchando por mantenerse una y sobresalir la otra, la física clásica y la física cuántica, los conceptos de una y otra hicieron nacer primero el concepto de computación normal y ahora con los nuevos conceptos aplicados a la computación de la física cuántica surge la computación cuántica.

Una de las primeras presentaciones de la idea de potencialidad clásica puede ser encontrada en el famoso poema de Parménides con la exposición del principio lógico de no contradicción. Este principio esconde una ontología donde lo actual, lo determinado, se presenta como fundamento de toda forma de pensamiento. El principio de no contradicción evita la posibilidad de pensar aquello que se encuentra indeterminado, todo debe ser en tanto que es, o no es. El espectro se resume, se amputa ante la posibilidad de lo indeterminado. Del mismo modo, en lógica clásica, las proposiciones encuentran su determinación en las tablas de verdad: una proposición resulta entonces verdadera o falsa. El principio de no contradicción esconde detrás de sí el principio de identidad: si A es A, entonces A no puede ser no A.

Este presupuesto se presenta como una intuición incuestionable, sin embargo, existen muchos camia la hora de “elegir”. Una lógica exenta del principio de no contradicción no se encuentra condenada al sinsentido, muy por el contrario, del mismo modo en que la geometría no Euclidiana resulta un sistema en pie de igualdad al de la geometría Euclidiana, las lógicas carentes de éste principio pueden sostener cierto “sentido”. La geometría de Riemann atenta contra el “sentido común”: en ella la idea de que dos paralelas no se cruzan es dejada de lado. Los matemáticos anteriores buscaban una demostración ad absurdum de la imposibilidad de desprenderse del quinto axioma de Euclides; en su lugar Riemann erigió un nuevo sistema en geometría tan consistente como su predecesor. Este sinsentido, que es la geometría de Riemann, hizo posible el desarrollo de la teoría de la relatividad, una de las más bellas teorías creadas por el hombre; del mismo modo, una lógica carente del principio de no contradicción puede abrir las puertas de la mecánica cuántica. El principio de no contradicción hace explicita la negación de aquello que se presenta indeterminado; ha creado al mismo tiempo un sendero “seguro” que ha seguido el pensamiento occidental a través de centurias. Este es el camino de la objetividad. La idea de objeto se sustenta en la estabilidad del ser, en la posibilidad de adjudicar a una entidad una serie de propiedades que la determinan.

El significado de una sentencia elemental en la lógica asociada a la computación cuántica está representado por la cantidad de información cuántica codificada en una colección de qbits, el equivalente cuántico de los bits clásicos o de qmixes. La conjunción y la disyunción de la información contenida en los q-registros tienen características diferentes de sus homónimas no solo en la lógica clásica sino también en la lógica cuántica estándar. La articulación de esas sentencias admite además otros conectivos, como el unario no funcional, que reflejan un comportamiento cuántico genuino asociado al procesamiento de la información en una computadora cuántica, en particular la aparición de estados tipo gato de Schrodinger de los qbits, que no admiten un paralelo ni en la lógica clásica ni en la cuántica ordinaria. Se puede decir que existe una lógica cuántica, pero esa lógica fue inventada mucho antes de la computación cuántica; fue desarrollada con base en la mecánica cuántica, de manera ad-hoc, tratando de capturar su comportamiento. Luego, con el advenimiento de la computación cuántica, se ha tratado intensamente de hacer una correspondencia entre los algoritmos cuánticos y la lógica cuántica, para lo cual se ha ido modificando la lógica a medida que avanzan las investigaciones de manera de adecuarla a los algoritmos.

En física, la lógica cuántica es el conjunto de reglas algebraicas que rigen las operaciones para combinar y los predicados para relacionar proposiciones asociadas a acontecimientos físicos que se observan a escalas atómicas. Ejemplos de tales proposiciones son aquellas relativas al momento lineal o a la posición en el espacio de un electrón. La lógica cuántica puede considerarse como un sistema formal paralelo al cálculo proposicional de la lógica clásica, donde en esta última, las operaciones para combinar proposiciones son las conectivas lógicas y los predicados entre proposiciones son la equivalencia y la implicación. La lógica cuántica fue creada con el propósito de tratar matemáticamente las anomalías relativas a la medición en la mecánica cuántica. Estas anomalías surgen por la medición simultánea de observables complementarios en escalas atómicas.

El concepto de lógica cuántica fue propuesto originalmente por Garrett Birkhoff y John von Neumann en el año 1936. Tal como fue propuesta originalmente, la lógica cuántica se fundamenta en la idea que el reticulado de proyecciones ortogonales en un espacio de Hilbert es la estructura que corresponde en la mecánica cuántica al reticulado de proposiciones en la física clásica. La lógica cuántica puede formularse como una versión modificada de la lógica proposicional. Tiene algunas propiedades que la diferencian de la lógica clásica, la más notable es que la propiedad distributiva, que constituye una propiedad básica en la lógica clásica, ya no es válida en la lógica cuántica.

La tesis que la lógica cuántica es la lógica apropiada para el raciocinio de manera general ha sido trabajada por varios filósofos y físicos. Entre los proponentes de esta tesis se encuentra el filósofo estadounidense Hilary Putnam, la tesis mencionada fue un ingrediente importante en su trabajo titulado “¿Es empírica la lógica?” en el cual analizó el fundamento epistemológico de las leyes de la lógica proposicional. Putnam atribuyó la idea que las anomalías asociadas a la medición cuántica surgen de anomalías en la lógica de la física misma, en conjunción con el investigador David Finkelstein.

La idea que una modificación de las reglas de la lógica sería necesaria para razonar correctamente con proposiciones relativas a eventos subatómicos, había existido en alguna forma con anterioridad al trabajo de Putnam. Ideas parecidas, aunque con menos proyección filosófica habían sido propuestas por el matemático George Mackey en sus estudios en los cuales relacionaba la teoría cuántica y la teoría de representaciones unitarias de grupos. Sin embargo, el punto de vista más prevaleciente entre los especialistas en fundamentos de mecánica cuántica, es que la lógica cuántica no debe considerarse como un sistema de reglas de deducción. Lo que la lógica cuántica proporciona es un formalismo matemático para relacionar diversos elementos de la mecánica cuántica, que son, a saber, filtros físicos para la preparación de estados y los estados mismos.

Las leyes formales de una teoría física están justificadas por un proceso de repetidas observaciones controladas. Esto, desde el punto de vista físico constituye el significado de la naturaleza empírica de estas leyes. La idea de una lógica proposicional con reglas radicalmente diferentes de la lógica booleana no era algo novedoso. De hecho, como ya se ha mencionado, Birkhoff y von Neumann lo habían intentado a partir precisamente de la mecánica cuántica. Putnam y el físico David Finkelstein propusieron que había algo más en esta correspondencia que la mera analogía: Que de hecho existía un sistema lógico cuya semántica estaba dada por un retículo de los operadores de proyección en un espacio de Hilbert. Esta era en realidad la lógica correcta para razonar sobre el mundo microscópico.

Desde esta perspectiva, la lógica clásica era meramente un caso límite de esta nueva lógica. Si así fuera el caso, entonces la lógica booleana “preconcebida” tendría que ser rechazada por evidencia empírica en la misma forma en que la geometría euclidiana fue rechazada sobre la base de los hechos que apoyan la teoría de la relatividad general. Este argumento favorece la concepción de que las reglas de la lógica son empíricas. Dicha lógica llegó a ser conocida como lógica cuántica. Sin embargo, hay algunos filósofos hoy en día que ven esta lógica como un reemplazo de la lógica clásica; Putnam sostiene esta opinión. La lógica cuántica continua siendo utilizada como un formalismo fundacional para la mecánica cuántica, pero en una forma en que los eventos primitivos no son interpretados como frases atómicas sino en términos operacionales como los resultados posibles de las observaciones. Por consiguiente la lógica cuántica proporciona una teoría matemática unificada y consistente de los observables físicos y la medición cuántica.

 

Guillermo Choque Aspiazu
http://www.eldiario.net/
Noviembre 2 de 2009
Lógica computacional

Lógica computacional

El gran filósofo y matemático Gottfried Wilhelm Leibniz fue el primero en afirmar la posible existencia de algo equivalente a una lógica formal completa para describir el razonamiento. Leibniz no estaba satisfecho con la lógica aristotélica y desarrolló sus propias ideas para mejorarla. Estaba convencido de que podría desarrollar un lenguaje para, y un cálculo de, los razonamientos que sería tan importante como el cálculo desarrollado por él mismo y Newton para las derivadas y las integrales. Llamó “lingua characteristica” a este nuevo lenguaje y “calculus ratiocinator” al esperado calculo, con el cual, la mente sería liberada de tener que pensar en las cosas en sí mismas, y aún así todo funcionaría perfectamente.

Leibniz esperaba que estas nuevas ideas expandieran la capacidad de razonamiento mediante la reducción a un cálculo simbólico de mucha de la labor necesaria para descubrir cómo obtener determinada conclusión a partir de unas premisas dadas, y cómo comprobar la corrección de una deducción. Dicho de otro modo, esperaba la existencia de un cálculo análogo al cálculo infinitesimal, pero un cálculo de razonamientos para tratar las deducciones con proposiciones. Pese al sueño de Leibniz, la lógica matemática se iba gestando más lentamente; el desarrollo de las ideas, notación y formalismos adecuados para la obtención de conceptos similares al cálculo diferencial, en cuanto a potencia, para la lógica necesitó varios siglos más. Se puede hacer un símil con la división habitual de periodos históricos, aunque es preciso notar que no coinciden temporalmente con los periodos homónimos de la Historia Universal, y así dividir el desarrollo de la lógica en una Edad Antigua, que se corresponde con la Lógica Tradicional (500 a.C–1847); una Edad Media, con el desarrollo de la Lógica Simbólica (1847–1880); una Edad Moderna, en la que se introduce la Lógica Matemática de manera formal (1880–1960); y una Edad Contemporánea, en la que surge la Lógica Computacional (desde 1960 a la actualidad).

Con el surgimiento cada vez más acelerado de nuevas tendencias y tecnologías informáticas, tales como la programación orientada a objetos, sistemas en paralelo y distribuidos, lenguajes de cuarta generación, bases de datos, multimedia, etc., y por la necesidad impuesta por “la moda” de estar constantemente actualizados, se ha descuidado notablemente, por buena parte de las personas que manejan la actualidad informática, el aspecto teórico y formal de la misma. La Importancia de una teoría formal está sustentada en la capacidad para establecer criterios de veracidad científica, sobre los resultados arrojados por la teoría, basados en la construcción axiomática de la misma, para otorgarle a la teoría el carácter de ser consistente. Este poder de la formalización se proyecta directamente a los objetos y fenómenos que se estudian a la luz de la teoría. El estudio de cualquier fenómeno mediante la formalización, requiere bases teóricas sólidas que soporten las descripciones y comportamientos del objeto de estudio, siendo la formalización una nueva alternativa para el estudio de diferentes fenómenos. De esta forma este curso contribuirá a acercar al estudiante a saber de dónde salen las cosas que él, inclusive, ya está trabajando.

La lógica computacional es una disciplina que estudia la aplicación de la lógica clásica formal para la representación computacional de argumentos, las técnicas de deducción automática y asistida por computadora; sus fundamentos relacionados con validez y completes de sistemas de proposiciones; y las aplicaciones de esas técnicas a las diferentes áreas de las ciencias computacionales en todas las etapas de desarrollo de software, es decir, en la especificación, diseño, construcción y verificación formal de programas. En este objetivo concurre junto con la teoría de la computación y el análisis de algoritmos.

La lógica matemática es un subcampo de la lógica y las matemáticas. Consiste en el estudio matemático de la lógica y en la aplicación de este estudio a otras áreas de las matemáticas. La lógica matemática guarda estrechas conexiones con las ciencias de la computación y la lógica filosófica. La lógica matemática estudia los sistemas formales en relación con el modo en el que codifican conceptos intuitivos de objetos matemáticos como conjuntos, números, demostraciones y computación. Esta lógica suele dividirse en cuatro subcampos: teoría de modelos, teoría de la demostración, teoría de conjuntos y teoría de la recursión. La investigación en lógica matemática ha jugado un papel fundamental en el estudio de los fundamentos de las matemáticas. La lógica matemática fue también llamada lógica simbólica. El primer término todavía se utiliza como sinónimo suyo, pero el segundo se refiere ahora a ciertos aspectos de la teoría de la demostración. La lógica matemática no es la “lógica de las matemáticas” sino la “matemática de la lógica”, incluye aquellas partes de la lógica que pueden ser modeladas y estudiadas matemáticamente.

El nivel menos abstracto dentro de una computadora está constituido por circuitos electrónicos que responden a diferentes señales eléctricas, siguiendo los patrones de la lógica booleana; esto es, compuertas lógicas que devuelven un valor dependiendo de las entradas que se le dan al sistema. Existen ocho compuertas lógicas básicas con las cuales se pueden formar sistemas muy complejos. Todas ellas son representadas mediante un símbolo y una tabla de valores de verdad, que es simplemente un cuadro donde se ubican todas las posibles entradas y los valores que devolvería la compuerta dados dichos valores. Todo sistema computacional, por muy complejo que sea, no está compuesto por más que circuitos electrónicos que únicamente entienden un lenguaje binario. La lógica computacional se encarga de modelar y optimizar tales sistemas a este nivel.

A lo largo de muchos años las computadoras han ido adquiriendo una gran importancia en la vida de los seres humanos, y han surgido nuevos y más complejos lenguajes de programación. Un algoritmo se define como una serie de pasos que deben realizarse, dadas ciertas entradas, para producir un resultado. Los lenguajes de programación pueden ser tan básicos o tan complejos como el “lenguaje ensamblador” en que se le indican las instrucciones a la computadora casi en el lenguaje máquina, que entre otras cosas es el único lenguaje que entiende la computadora, es decir en código binario. De hecho, cualquier programa en lenguaje ensamblador puede ser fácilmente transformado a código binario, siguiendo una serie de reglas.

Pero cuando se habla de la programación de alto nivel, la complejidad se torna en otro sentido. Lo complicado entonces, es estructurar los algoritmos de manera tal, que se puedan lograr cosas bastante complejas y de gran utilidad en la computación. La lógica aquí es muy importante, ya que determina la manera en que se aplicaran los pasos del algoritmo para resolver el problema. Sin la lógica matemática los programas simplemente serían instrucciones aleatorias, donde la computadora podría elegir cuál realizar primero. Lo que es más, instrucciones como las de decisión, en las que se sigue un sub-algoritmo si se cumple dicha instrucción y otro si no se cumple, no tendrían ningún sentido y no podrían ser resueltas sin la ayuda de la lógica. La lógica, entonces, es importante a este nivel de abstracción, ya que sin ella no es posible estructurar un programa o algoritmo que resuelva lo que se espera obtener. De todas formas, es muy importante tener un claro conocimiento de lógica matemática para llegar a crear programas interesantes. Sin este conocimiento, la programación se vuelve una herramienta sumamente complicada, tanto que sería imposible crear las maravillas que existen en el dominio de las computadoras.

Algunos tópicos de interés de la lógica computacional son: (1) Creación de nuevas lógicas y métodos formales. Conforme la Informática ha ido evolucionando, en paralelo ha ido creciendo la necesidad de considerar lógicas no clásicas que permitan modelar distintos aspectos del razonamiento humano o distintas aplicaciones; por ejemplo, el control de procesos involucra modalidades como tiempo, conocimiento y creencia, es hoy una de las líneas de mayor interés y que reclama mayores esfuerzos de investigación. (2) Lenguajes lógicos de programación. En este punto se incluye el estudio de las relaciones entre la lógica y los lenguajes de programación, incluyendo los fundamentos lógico- matemáticos de los lenguajes de programación, como el uso de la lógica como base para definir un lenguaje de programación, o para proporcionar la semántica de los programas, y la lógica como herramienta matemática para expresar características de los programas, como en el paradigma de programación lógica con restricciones. (3) Lógica para el procesamiento de información. En esta área se pueden destacar varias ramas en las que interviene la lógica, por ejemplo el desarrollo de sistemas de conocimiento y bases de datos, los sistemas multiagente, y el procesamiento del lenguaje natural.

 

Guillermo Choque Aspiazu
http://www.eldiario.net/
Septiembre 21 de 2009
Lógica intuicionista

Lógica intuicionista

Las matemáticas difieren de las demás ciencias en que todas sus proposiciones deben ser demostradas. Cuál deba ser el contenido o la extensión de estas demostraciones es discutible, pero todos los matemáticos estarán de acuerdo en decir que el objetivo de la matemática es la demostración. Las únicas vías para cuestionar una demostración son: (1) discutir las presunciones sobre las que se basa o (2) discutir la validez de las inferencias que contiene. Si, después de reflexionar sobre ello, se aceptan las presunciones y las inferencias, se debe aceptar la demostración y afirmar que su conclusión es una verdad matemática: un teorema. La mayoría de las demostraciones matemáticas tienen como presunciones otros teoremas ya demostrados con anterioridad; pero si se insiste en discutir las presunciones, se llegará hasta determinados conceptos que simplemente se aceptan como verdaderos sin otra demostración.

Ello significa que, las matemáticas precisan de unos fundamentos: unas presunciones últimas sobre los que se edifican todas las demostraciones y conceptos matemáticos. El problema es, pues, si puede encontrarse un número reducido de conceptos básicos claros y de principios verdaderos, sobre los que desarrollar de forma sistemática todas las matemáticas. Las matemáticas, históricamente, se encontraban basadas en unas cuantas intuiciones geométricas y numéricas que podían ser imaginadas, pero no podían ser rigurosamente definidas, tales como el proceso de conteo o los postulados de Euclides. Durante el siglo diecinueve, los matemáticos, no sólo fueron exigiendo un mayor rigor en las definiciones, sino que, además, empezaron a desarrollar nuevos sistemas basados en principios que podían llegar a ser muy distintos a las intuiciones aceptadas desde los griegos: geometrías no euclídeas, teoría sobre los números reales, conceptos de cuerpo, anillo, grupo, etc. Paradójicamente, al separarse de estas intuiciones primitivas, los matemáticos se dieron cuenta de que sus nuevas teorías, más abstractas, podían ser aplicadas a un mayor número de campos.

En filosofía de las matemáticas, intuicionismo o neointuicionismo, es una aproximación a las matemáticas a partir de una vista mental constructiva humana. Todo objeto matemático es considerado producto de la mente humana, y, por ende, la existencia de un objeto es equivalente a la posibilidad de su construcción. Esto contrasta con el enfoque clásico, que formula que la existencia de un objeto puede ser demostrada comprobando su falsedad. Para los intuicionistas esto no es válido; la comprobación de la falsedad de un objeto matemático no significa que es posible hallar una prueba constructiva de su existencia. Por consiguiente, el intuicionismo es una variedad del constructivismo matemático, aunque no son el mismo concepto. Para el intuicionismo la validez de un enunciado matemático es equivalente a haber sido probado, pues, ¿qué otro criterio puede ser válido si los objetos son meras construcciones mentales?. Esto significa que un enunciado matemático no tiene el mismo significado para un intuicionista que para un matemático clásico. El intuicionismo también rechaza la abstracción del infinito; no considera asignar a algún conjunto dado entidades infinitas como el campo de los números naturales, o una secuencia arbitraria de números racionales. Esto requiere la reconstrucción de los fundamentos de la teoría de conjuntos y el cálculo como la teoría constructivista de conjuntos y el análisis constructivo respectivamente.

Es aceptado en los espacios científicos que en la lógica clásica las proposiciones pueden tomar solo dos valores de verdad: verdadero y falso. Según C. S. Peirce esta es “la hipótesis más simple”; mucho antes Aristóteles ya había formulado los principios fundamentales de la lógica clásica, el de no contradicción:”nada puede ser y no ser al mismo tiempo, o un enunciado no puede ser a la vez verdadero y falso” y el principio del tercio excluso: “algo es o no es, o todo enunciado es verdadero o es falso.” Sin demeritar en manera alguna los desarrollos portentosos de la lógica y la matemática clásicas, se logra observar que existen muchas situaciones para cuya discusión se requieren valores de verdad adicionales. Los fenómenos cotidianos afectados por la percepción y el comportamiento humanos, como los gustos, la riqueza, el significado de los adjetivos, solo pueden estudiarse con mayor aproximación, si se consideran gradaciones muy complejas. Aún en modelos matemáticos muy utilizados la lógica bivalente conduce a aparentes paradojas. Durante el siglo veinte se han propuesto diversas lógicas con más valores de verdad: la lógica tríadica de Peirce; la lógica intuicionista de Brouwer, capturada de manera parcial por el llamado cálculo proposicional intuicionista cuyos modelos algebraicos son las “algebras de Heyting”; las lógicas de m valores o m-valuadas de Post, que tienen una contraparte algebraica en las llamadas “algebras de Post”; las lógicas multivaluadas o polivalentes introducidas por la escuela polaca de lógica y en especial por Jan Lukasiewicz; y últimamente la lógica difusa de Zadeh consistente en sustituir el conjunto discreto de ceros y unos por el conjunto continuo ubicado en el segmento real.

El intuicionismo encuentra su origen en los trabajos del matemático holandés L. E. J. Brouwer quien ya desde su tesis doctoral, presentada en 1907, intervino en la entonces candente discusión sobre los fundamentos de la matemática. Entre los precursores de las ideas intuicionistas pueden mencionarse a Kronecker, Poincaré, Borel y Weyl; las grandes corrientes filosóficas antagonistas fueron el formalismo propugnado por Hilbert y el logicismo impulsado por Frege, Whitehead y Russell. El principio básico del intuicionismo es la constructibilidad: para el intuicionista los objetos de estudio de la matemática son ciertas intuiciones mentales y las construcciones que pueden hacerse con ellas. La consecuencia inmediata es que la matemática intuicionista solo maneja objetos construidos y solo reconoce las propiedades puestas en ellos por la construcción. En particular, la negación de la imposibilidad de un hecho no es una construcción del mismo luego el principio de doble negación y las demostraciones por reducción al absurdo son inaceptables para el intuicionista. De igual manera, es perfectamente factible que un hecho y su negación sean ambos imposibles de construir luego, en general, en el intuicionismo no vale el principio del tercio excluso. A finales de la década de los años veinte se propuso el problema de formalizar el intuicionismo. Aunque a primera vista eso parezca una tarea contradictoria, lo que se pretendía era construir, dentro de la matemática formalista que ya se estaba imponiendo, una lógica que de alguna manera reflejara los principios intuicionistas.

El intuicionismo asumió como suyas una serie de críticas que emergieron frente al carácter abstracto de las matemáticas. Con Brouwer se estructuró una visión sobre la naturaleza de las matemáticas que había estado presente también entre los matemáticos decimonónicos: Krönecker, Baire, etc. Los intuicionistas se colocaban en un terreno opuesto al axiomatismo y al logicismo. Para los intuicionistas, como en Kant, era necesario recurrir a una intuición, pero esta vez no podía ser espacio-temporal. Éstos decidieron reducirla a una exclusivamente temporal. Para estos es el movimiento que en la mente hace pasar del “uno a dos” lo que determina las matemáticas. Si existe una evidencia, esta se encuentra en la intuición, luego las proposiciones matemáticas se consideran sintéticas a priori. Éstos responden a las paradojas de una manera tajante: se trata de abusos y extralimitaciones de la lógica y el lenguaje. Cuando la lógica y el lenguaje dejan de corresponderse con la verdadera matemática es que se suceden las paradojas.

Mientras que para los logicistas la lógica es elevada a una categoría casi metafísica, para los intuicionistas se trata de un instrumento absolutamente accesorio. No se trata para el intuicionismo de probar la consistencia de la matemática sino de hacer matemática verdadera, apegada a esa intuición introspectiva. Esta matemática así determinada filosóficamente establece un programa práctico centrado en la noción de constructivismo. Es esto lo que en el fondo determina las reglas usadas, a saber: el lenguaje y la lógica. Dependerá de ella también el tratamiento de las nociones infinitas. La verdad y la existencia en matemáticas aparecen fundidas en la construcción. La lógica intuicionista, o lógica constructivista, es el sistema lógico desarrollado por Heyting para proveer una base formal para el proyecto intuicionista de Brouwer. El sistema enfatiza las pruebas, en vez de la verdad, a lo largo de las transformaciones de las proposiciones. La lógica intuicionista rechaza el principio del tercero excluido, pero conserva principio de explosión. Esto se debe a una observación de Brouwer de que si se enfatizan las pruebas en vez de la verdad, entonces en los conjuntos infinitos, el principio del tercero excluido parece fallar.

 

Guillermo Choque Aspiazu
www.eldiario.net
Junio 15 de 2009
Matemática Difusa

Matemática Difusa

El año 1950 el gran filósofo galés Bertrand Russell recibió el Premio Nobel de Literatura. Pero, sin duda, sus aportaciones más importantes e imperecederas son las encuadradas dentro de la filosofía y de la lógica matemática. A principios de siglo Russell se interesó por la vieja paradoja griega del cretense que afirmaba que todos los cretenses mienten. En tal caso, ¿miente el cretense?. Si miente al hacer la afirmación, entonces no está diciendo la verdad, es decir, no miente. Pero si no miente, está diciendo la verdad, es decir, miente. La contradicción del cretense es evidente: su enunciado, simultáneamente, resulta ser cierto y falso. Pero, aunque lo parezca, este ejemplo no es una simple paradoja. Sus derivaciones actuales marcan multitud de procesos industriales, informáticos o económicos. En realidad esta paradoja se relaciona con el mismo corazón de la teoría de conjuntos y de la lógica moderna. El mismo Russell encontró otra paradoja semejante en la teoría matemática de los conjuntos: “El conjunto de todos los conjuntos es, a su vez, otro conjunto, por lo que sería miembro de sí mismo.”

En centro de este problema es la contradicción existente entre la lógica clásica y la lógica difusa. El origen de sus diferencias radica en lo que Aristóteles expuso como ley del tercio excluso. Lo usual en la teoría de conjuntos es que un objeto cualquiera pertenezca a un conjunto o bien no pertenezca a él, sin términos medios posibles. Así, una persona que tiene empleo pertenece al conjunto de los empleados y no pertenece al conjunto de los no empleados. O el número 8 forma parte del conjunto de los números pares, pero en absoluto del de los números impares. Un objeto no puede pertenecer simultáneamente a un conjunto y a su complementario. El funcionamiento de las computadoras está fundamentado en este tipo de lógica. El “razonamiento” de una computadora consiste en tratar con situaciones concretas y precisas que se corresponden a la disyuntiva dicotómica verdadero/falso, a través de un lenguaje binario consistente en series de unos y ceros. Pero al cerebro humano no le basta esta lógica tradicional, sino que utiliza expresiones más inciertas e indeterminadas que incluyen juicios de valor.

La inteligencia artificial pretende construir sistemas capaces de realizar las mismas funciones que caracterizan al pensamiento humano mientras que, por su parte, los sistema expertos son aplicaciones informáticas que adoptan decisiones o resuelven problemas de índole variada utilizando los conocimientos y las reglas analíticas definidas por los expertos en esos campos. Un nexo bastante utilizado entre la inteligencia artificial y los sistemas expertos es la lógica difusa. Mediante la lógica difusa la inteligencia artificial se aplica a las computadoras a fin de transformar el blanco/negro de la lógica clásica hasta los tonos de grises que caracteriza la percepción humana de un mundo que es incierto. La lógica clásica no tenía contestación para la paradoja del cretense, sin embargo para la lógica borrosa sí la hay: el cretense es un 50% veraz y un 50% mentiroso. Algo puede ser simultáneamente una porción de verdadero y la porción complementaria de falso.

Muchos de los científicos que trabajan con la teoría de la incertidumbre afirman de manera contundente que “el mundo es un lugar difuso”. Si se combina el término difuso con “lógica” se consigue una contradicción de ideas. Desgraciadamente, la palabra inglesa “fuzzy” presenta connotaciones bastante negativas. Significa incierto, impreciso, pensamiento errado. Cuando las personas piensan en lógica, es el último en precisión, roca sólida, indiscutible. Ser lógico es quizá el cumplido más alto que se puede otorgar a un científico. Cuando se habla de “lógica”, normalmente se hace referencia a la lógica de Aristóteles descubierta en el año 300 antes de Cristo. La lógica Aristotélica es la base del pensamiento occidental, habiendo sido estudiada y explorada por miles de científicos y filósofos desde sus comienzos. Esta lógica se encuentra fundamentada con base en una idea sencilla, simple pero comprendida por todos: Una proposición es solamente verdadera o falsa. Es una lógica binaria que permite solo dos valores, sin existir una posición o posiciones intermedias entre estos dos extremos absolutos.

La mayoría de los fenómenos que se encuentran a diario son imprecisos, es decir, contienen de manera implícita un cierto grado de incertidumbre en la descripción de su naturaleza. Esta imprecisión puede estar asociada con su forma, posición, momento, color, textura o incluso en la semántica que describe lo que realmente son. En muchos casos el mismo concepto puede tener diferentes grados de imprecisión en diferentes contextos o tiempos. Un día cálido en invierno no es exactamente lo mismo que un día cálido en primavera. La definición exacta de cuando la temperatura va de templada a caliente es imprecisa, no es posible identificar un punto simple de templado, tal que emigrando un simple grado la temperatura del ambiente sea considerada caliente. Este tipo de imprecisión asociado continuamente a los fenómenos, es bastante común en bastantes campos de estudio: informática, ingeniería, sociología, física, biología, psicología, oceanografía, etc.

Se acepta la imprecisión como una consecuencia natural de “la forma de las cosas en el mundo”. La dicotomía entre el rigor y la precisión del modelado matemático en muchos de los campos de la ciencia además de la intrínseca incertidumbre del “mundo real” no es generalmente aceptada por los científicos, filósofos y analistas de negocios. Es posible simplemente una aproximación a estos eventos a través de funciones numéricas y la selección de un resultado, en lugar de hacer un análisis del conocimiento empírico. Sin embargo las personas se encargan de procesar y entender de manera sencilla e implícita la imprecisión de la información, a tal punto que son capaces de formular planes, tomar decisiones y reconocer conceptos compatibles con altos niveles de vaguedad y ambigüedad.

La lógica difusa se encuentra relacionada y fundamentada en la teoría de los “conjuntos difusos”. Según esta teoría, el grado de pertenencia de un elemento a un conjunto viene determinado por una función de pertenencia, que puede tomar todos los valores reales comprendidos en el intervalo [0, 1]. No hay nada impreciso acerca de la lógica difusa, es matemática, natural y simple, fundada en el concepto “todo es cuestión de grados”, lo cual permite manejar información vaga o de difícil especificación, si se quisiera hacer cambiar con esta información el funcionamiento o el estado de un sistema específico. Por consiguiente, es posible con la lógica difusa, gobernar un sistema por medio de reglas de “sentido común” las cuales se refieren a cantidades indefinidas.

Las reglas involucradas en un sistema difuso, puede ser aprendidas con sistemas adaptativos que aprenden al “observar” como operan las personas los dispositivos reales, o estas reglas pueden también ser formuladas por un experto humano, en general la lógica difusa se aplica tanto a sistemas de control como para modelar cualquier sistema continuo de informática, ingeniería, física, biología o economía entre otros. La lógica difusa es entonces definida como un sistema matemático que modela funciones no lineales, que convierte unas entradas en salidas de acuerdo con los planteamientos lógicos que utilizan el razonamiento aproximado. Por consiguientes, la lógica difusa se adapta mejor al mundo real en el que conviven varias personas, e incluso puede comprender y funcionar las expresiones cotidianas del tipo: “hace mucho calor”, “no es muy alto”, “el ritmo del corazón está un poco acelerado”, etc. La clave de esta adaptación al lenguaje, se basa en comprender los cuantificadores o restricciones elásticas del lenguaje. En la teoría de conjuntos difusos se definen también las operaciones de unión, intersección, diferencia, negación o complemento, y otras operaciones sobre conjuntos en los que se basa esta lógica. Para cada conjunto difuso, existe asociada una función de pertenencia para sus elementos, que indican en qué medida el elemento forma parte de ese conjunto difuso.

La matemática difusa tiene una base sólida, que radica en la lógica difusa, y se destaca por la importancia de su aplicación en las diversas disciplinas, de forma tal que permita el cambio de paradigma de algunas teorías subyacentes en la toma de decisiones. Esta toma de decisiones se realiza en tres situaciones: la de certeza, donde reina la matemática convencional; la de riesgo, donde se aplica el cálculo de probabilidades; y por último, la de incertidumbre, en la cual se intenta demostrar la aplicabilidad de la matemática difusa para efectuar un tratamiento de la incertidumbre.

 

Guillermo Choque Aspiazu
http://www.eldiario.net/
Diciembre 15 de 2008
Lógica Trivalente

Lógica Trivalente

La lógica es el estudio de la estructura y de los principios del razonamiento correcto e intenta establecer los principios que garantizan la validez de los argumentos deductivos. Trabaja con proposiciones, las que constituyen descripciones del mundo, afirmaciones o negaciones de sucesos posibles. La lógica clásica establece que una proposición solamente puede tomar una y sólo una de dos alternativas: es totalmente verdadera o es totalmente falsa. Esta idea se formaliza mediante dos principios fundamentales: (1) Principio del tercero excluido. Que menciona, toda proposición es verdadera o falsa y no cabe otra posibilidad. (2) Principio de no contradicción. Que establece, ninguna proposición es verdadera o falsa simultáneamente. La lógica clásica es bivalente: si/no, verdadero/falso, blanco/negro, citadino/campesino. Esta lógica, profundamente arraigada en la cultura occidental, permitió el desarrollo de la ciencia y la tecnología en procura de la conquista del mundo natural. Sin embargo, una serie de paradojas e “insatisfacciones” teóricas estuvieron siempre presentes.

El sistema de la lógica “clásica” es un sistema regido por la ley de la bivalencia, según la cual toda oración enunciativa o proposición, siguiendo a Aristóteles, es o bien verdadera o bien falsa. Ello quiere decir desde la abstracción del cálculo formal, que el conjunto de los valores consta ni más ni menos que de dos elementos. La lógica polivalente hace referencia a sistemas formales con más de dos valores, de ahí que reciba este nombre de lógica no-clásica o lógica no-aristotélica, guiados, sin duda quienes le aplican este último calificativo, por el famoso pasaje de De Interpretatione, si bien tal denominación no es correcta, dado que fue precisamente Aristóteles en la obra mencionada el primero que puso en tela de juicio la ley de la bivalencia por lo que se refiere a cierto tipo de proposiciones, cuales son las que se refieren a futuros contingentes como es si “mañana habrá una guerra civil”, para seguir el ejemplo de Aristóteles.

Es discutible si existen indicios de lógica trivalente en Aristóteles, futuros contingentes, o en Guillermo de Ockham, conocimiento distinto o conocimiento confuso, pero el hecho cierto es que la primera lógica trivalente fue desarrollada por Vasilev en 1909 eliminando el principio del tercio excluso de la lógica aristotélica. No obstante se reconoce como primer creador de la lógica trivalente a Luckasiewicz, quien en 1920 propuso tres valores de verdad para las proposiciones: verdadero, falso e indeterminado. La confección de las tablas de verdad de los conectores, aparte de ser más extensa, debía definirse con precisión, sobre todo por lo que respecta a las intersecciones con el indeterminado, en el que caben varias soluciones, todas ellas razonables. El propio Lukasiewicz y Tarski elaboran lógicas infinitovalentes con posterioridad. En este contexto la lógica difusa no ha podido ser plenamente axiomatizada hasta que no se ha contado con el concepto de conjunto difuso. La idea es simple: para cualquier elemento de un conjunto, su condición de pertenencia está dada por una función m(x). Cuando m(x) toma sólo dos valores, 1 (pertenece) y 0 (no pertenece), entonces se está ante un conjunto ordinario; cuando m(x) puede tomar cualquier valor dentro del intervalo discreto [0,1], entonces se está ante un conjunto difuso.

Lukasiewicz, como resultado de una meditación sobre el “Peri Hermeneias” de Aristóteles, describió un sistema en que las proposiciones, además de verdaderas o falsas, podrían ser indeterminadas; en términos técnicos construyó una lógica trivalente en vez de bivalente. Autores como Post escribieron sobre lógicas de muchos valores de verdad, es decir, polivalentes. Otros lógicos experimentaron con sistemas que no incluían el concepto de negación. Con todo esto se modifica el mismo concepto de axioma. En el caso de Principia Mathematica, los axiomas no son lo que es mejor conocido que las conclusiones. Las relaciones matemáticas, por ejemplo, 3+5=8, son mucho más obvias que la definición de número o las proposiciones acerca de conjuntos. Asimismo el principio de no contradicción es más evidente que el llamado principio de suma, aunque formalmente el principio de no-contradicción no es axiomático, sino derivado en Principia Mathematica. El axioma se ha convertido en un medio de economía intelectual. Se hace una especie de juego lógico en el que se pretende obtener el mayor número de conclusiones posibles del menor número de principios posibles.

La lógica aristotélica, al operar sobre la base de que toda proposición es o bien verdadera o bien falsa, distingue sólo dos tipos de valores lógicos: la verdad y la falsedad. Si se simboliza la verdad, la falsedad, la identidad y la implicación, se puede deducir todas las leyes de la lógica aristotélica a partir de los siguientes principios y definiciones: (1) Los principios de identidad de la falsedad, de identidad de la verdad y de no identidad de la verdad y la falsedad. (2) Los principios de la implicación. (3) Las definiciones de negación, adición y multiplicación. En estas definiciones, todas las variables pueden tomar sólo dos valores: 0 y 1. Todas las leyes lógicas, expresadas por medio de variables, se pueden verificar sustituyendo las letras por 0 y 1.

La lógica trivalente es un sistema de lógica no aristotélica, puesto que opera sobre la base de que, además de proposiciones verdaderas y falsas, hay también proposiciones que no son ni verdaderas ni falsas, y, por tanto, de que existe un tercer valor lógico. Este tercer valor lógico se puede interpretar como la “posibilidad” y se puede simbolizar por ½. Si se quiere formular un sistema de lógica trivalente, se ha de añadir, los principios relativos a 0 y 1, principios relativos a ½. Esto puede hacerse de varias maneras; el sistema adoptado por Lukasiewicz en el estado de sus investigaciones, desviándose lo menos posible de la lógica “bivalente” es el siguiente: (1) Principios de identidad (2) Principios de implicación.

Los principios antes especificados relativos a 0 y 1, y las definiciones de negación, adición y multiplicación siguen siendo los mismos en lógica trivalente, con la única diferencia de que las variables pueden tomar tres valores: 0, 1, y ½. Las leyes de la lógica trivalente difieren en parte de las de la lógica bivalente. Algunas de las leyes de la lógica aristotélica son sólo “posibles” en lógica trivalente: por ejemplo, el principio del silogismo en la formulación ordinaria, el principio de contradicción, el principio de tercio excluso, etc. Algunas de las leyes de la lógica bivalente son falsas en lógica trivalente, entre ellas la ley del complemento, esto explica el hecho de que en lógica trivalente no haya antinomias.

En lógica, los valores de verdad son aquellos valores posibles que pueden asignarse a las proposiciones. La lógica clásica, en tanto que va referida al discurso apofántico, es bivalente al admitir únicamente dos valores de verdad: verdadero (1) o falso (0). No obstante, existen otras lógicas, las llamadas lógicas no clásicas o divergentes, que admiten más valores de verdad. Por ejemplo, la lógica trivalente de Lukasiewicz utiliza tres valores: verdadero (1), falso (0) e incierto (½).

Lukasiewicz concibió la idea de recurrir a un sistema de lógica trivalente como medio para resolver el problema aristotélico de los futuros contingentes. El cálculo de proposiciones ordinario es bivalente y admite implícitamente la ley según la cual toda proposición o bien es verdadera o bien es falsa. Ahora bien, según Lukasiewicz, esta ley, la más fundamental de la lógica no parece completamente evidente. La proposición “Estaré en Santa Cruz a mediodía del 10 de enero del año próximo” no puede ser ahora ni verdadera ni falsa; debe, pues, poseer un valor distinto de “1” y “0”, este valor puede designarse por “½” y representa “lo posible”. En 1938 S. C. Kleene presenta un nuevo sistema de lógica trivalente en el marco de la teoría de las funciones recursivas. Construye sus tablas de verdad en términos de una aplicación matemática.

La lógica trivalente tiene sobre todo importancia teórica como medio para construir un sistema de lógica no aristotélica. Si este nuevo sistema de lógica tiene o no importancia práctica es algo que sólo podrá determinarse cuando se examinen en detalle fenómenos lógicos, y en especial los fenómenos lógicos que se dan en las ciencias deductivas, y cuando las consecuencias de la filosofía indeterminista, que es el sustrato metafísico de la nueva lógica, se comparen con los datos empíricos.

Guillermo Choque Aspiazu
www.eldiario.net
Febrero 18 de 2008

Translate »