Etiqueta: Logica Difusa

Información imperfecta

Información imperfecta

La información cotidiana con la que se trabaja está afectada de ciertas imperfecciones. El ser humano funciona habitual y sorprendentemente bien con ellas. Sin embargo, estas imperfecciones plantean dificultades de uso computacional. Según Francisco Crespo, en su tesis de doctorado del año 2003 titulada “Un modelo paramétrico matemático difuso para la estimación del esfuerzo de desarrollo del software”, la información perfecta es aquella que no contiene imperfecciones tales como la imprecisión, la vaguedad, la ambigüedad, la aleatoriedad o la incertidumbre. Sin embargo, en la realidad se trabaja con diferentes tipos de imperfección en la información, que provienen de distintos orígenes. Por ejemplo, la aleatoriedad es una fuente de imperfección en la información que se ha estudiado extensamente en el campo de la “Teoría de la Probabilidad”. Por otro lado, el lenguaje natural utiliza la vaguedad en la comunicación como una de sus características más habituales. En el contexto de los sistemas de información, en muchas ocasiones se utiliza el término incertidumbre para hacer referencia a varios de esos tipos de imperfección en la información o en los datos. En la introducción realizada en el libro escrito por Klir y Wierman, el año 1998 titulado “Información basada en incertidumbre”, la palabra incertidumbre se utiliza como término general que hace referencia a diferentes deficiencias en la información: La información, que pertenece al modelo dentro del cual se está conceptualizando la situación, puede ser incompleta, imprecisa, fragmentada, no completamente fiable, vaga, contradictoria o deficiente de alguna otra forma. En general, estas diversas deficiencias en la información pueden derivar en diferentes tipos de incertidumbre.

Por otro lado, según el Diccionario de la Real Academia de la Lengua Española, el término incertidumbre se define como la “falta de certidumbre o certeza”, remitiendo al término certeza, que cuenta con dos acepciones: “Conocimiento seguro y claro de algo” y “firme adhesión de la mente a algo, sin temor de errar”. Los términos seguridad y claridad hacen referencia a dos tipos fundamentales de imperfección en la información, no necesariamente excluyentes: La incertidumbre es la imperfección resultante de la duda o inseguridad de la adecuación a la realidad de una determinada proposición o información. Por ejemplo, si no se está seguro de la edad de un estudiante, pero se sabe que es joven, y se afirma que “el estudiante tiene 21 años”, la proposición es precisa pero incierta. Este tipo de imperfección se encuentra en la persona, o el agente o sistema, que duda sobre la realidad. La imprecisión es la imperfección sobre el contenido mismo de la proposición. En la situación anterior, si se afirma “el estudiante es joven”, la proposición es imprecisa pero no incierta. Este tipo de imperfección está contenido en la propia información.

Según el investigador Villar, en la tesis de grado del año 1997 titulada “Aplicación de la teoría de conjuntos borrosos al diagnóstico de procesos industriales”, en la mayor parte de las ocasiones en las que se llevan a cabo procesos de toma de decisiones en el mundo real, la información de que se dispone es de algún modo imperfecta al no poder ser expresada de una manera precisa, cierta, completa y consistente. Así, la imperfección en la información debe ser entendida en su sentido más amplio en donde la imprecisión, la vaguedad, la incertidumbre y la erroneidad son los aspectos más significativos que la caracterizan. La imprecisión se presenta por la ausencia de especificidad en la información. Se puede tener total certeza sobre la veracidad de la afirmación, pero resulta ser totalmente imprecisa y por lo tanto poco específica. Por el contrario, cuanto más precisa es una información, menor es la veracidad de la misma y mayor su concreción. La presencia de parecidos parciales genera la existencia de grados de verdad parciales que dan lugar a la vaguedad en los conceptos. Usualmente la vaguedad aparece en afirmaciones de uso común en el lenguaje hablado, tanto en la vida cotidiana como en ambientes más técnicos o científicos, considerados generalmente más precisos.

La incertidumbre concierne al estado de conocimiento acerca de la certeza de un suceso. Así, la certeza puede ser verdadera o falsa, pero el conocimiento puede no permitir decidir entre la veracidad o falsedad del suceso. Existen varias formas usualmente frecuentes de expresar la incertidumbre en el lenguaje hablado. Una muy habitual es considerar probabilidades, generalmente subjetivas, o considerar posibilidades. En todas ellas hay diferencias semánticas importantes que dan lugar a distintas formas de entender la incertidumbre. Por otro lado, no debe confundirse la incertidumbre de una información con los grados de verdad parciales. La erroneidad o incoherencia en la información se da cuando ésta es incompatible con el conocimiento disponible. Para evitar una confusión terminológica, se utiliza el término imperfección en sentido general, y para discutir aspectos específicos, que afecten sólo a un tipo determinado, se hace referencia explícita a la clasificación del investigador Smets, en el artículo escrito el año 1997 titulado “Información imperfecta: Imprecisión-incertidumbre”, según la cual, los diferentes modelos de información “imperfecta” se pueden categorizar en tres grupos, dependiendo de la fuente de la imperfección: (1) Imprecisión. En este caso existe falta de exactitud en la información, que puede o no contener un error, de modo que se tienen dos subgrupos: (a) Imprecisión con error. Si hay un error con respecto a la realidad, se tiene imprecisión combinada con error, que puede variar desde una pequeña inexactitud, hasta información completamente incorrecta e incluso carente de sentido. (b) Imprecisión sin error. Hay casos en los cuales la información es vaga, pero no errónea. En otros casos, la información es incompleta, aunque no errónea. (2) Inconsistencia. Cuando se combina varias fuentes de información, se puede dar el caso de información inconsistente, cuando las afirmaciones entran en conflicto o son incoherentes. (3) Incertidumbre. La incertidumbre hace referencia al estado de conocimiento del individuo sobre la relación entre una información y la realidad.

Algunas de las medidas que cuantifican la información imperfecta, conocidas como técnicas de representación de la información imperfecta, son las siguientes: (1) La medida difusa de Sugeno. El año 1977 el profesor Sugeno, en el artículo titulado “Medidas difusas e integrales difusas: una guía”, estableció los axiomas fundamentales que cualquier medida de incertidumbre e imprecisión debían satisfacer. (2) Teoría de la probabilidad. La teoría de la probabilidad es una de las herramientas de modelado de la incertidumbre más antiguas en donde han dejado huella científicos de gran talla como Kolmogorov, Galileo, Fermat, Pascal, Bernoulli, Laplace, Gauss, Bayes, entre muchos otros. Se la considera la técnica de modelado de la incertidumbre con mayor uso en campos tan diversos como la investigación de operaciones, la economía, las finanzas, las comunicaciones, etc. (3) Modelos de cotas de probabilidad. En ocasiones, no es sencillo cuantificar la incertidumbre de manera precisa usando una única medida de probabilidad, y es necesario considerar un conjunto de medidas de probabilidad admisibles para el modelado de la incertidumbre, tal como se describe entre otros en el libro escrito el año 1981 por Walley, titulado “Razonamiento estadístico con probabilidades imprecisas”. En esta situación pueden definirse cotas de probabilidad superior e inferior para cada evento. (4) Conjuntos difusos y la teoría de la posibilidad. La teoría de conjuntos difusos, introducida por Lofti A. Zadeh en su publicación del año 1965 titulada “Conjuntos difusos”, marcó un hito en el modelado de la información imperfecta y sirvió para incluir a la teoría de conjuntos tradicional como un caso particular de la teoría de conjuntos difusos. La teoría de la posibilidad es una aplicación importante de la teoría de conjuntos difusos que fue introducida por Zadeh el año 1978, en el artículo titulado “Conjuntos difusos como una base para una teoría de posibilidades”, que permite modelar la imprecisión y la incertidumbre en la información en un mismo marco teórico.

Las técnicas de información imperfecta que complementan las presentadas en el párrafo anterior son: (5) La teoría de la evidencia. Desde que fue introducida por Dempster y Shaffer, en el artículo del año 1967 titulado “Probabilidades superior e inferior inducidas por una asignación de varios valores”, complementado con el libro del año 1976 titulado “Teoría de la evidencia”, dos de los objetivos principales que ha tenido la teoría de la evidencia concerniendo al modelado y cuantificación de la credibilidad atribuida a los eventos han sido, por un lado, establecer una representación formal de la imperfección de la información y, por otro, permitir que la información proveniente de diferentes fuentes pueda ser combinada para generar esquemas de inferencia que puedan ayudar a la toma de decisiones con algún grado de certeza. (6) Factores de certeza. Los factores de certeza fueron originariamente utilizados en el sistema experto MYCIN, reportado en detalle en el libro “Sistemas expertos basados en reglas: Experimentos MYCIN para el Proyecto de Programación Heurística de Stanford”, y han sido muy utilizados posteriormente debido a su simplicidad. Los autores de MYCIN decidieron no utilizar las técnicas proporcionadas por la teoría de probabilidad debido a que los siguientes son inconvenientes típicos de la teoría de la probabilidad: (a) Los expertos no consiguen expresar sus procesos de razonamiento en términos probabilísticos coherentes. (b) La probabilidad requiere de grandes cantidades de datos y muchas aproximaciones y suposiciones. Así, los creadores de MYCIN desarrollaron una nueva técnica, cuya base es la teoría lógica de la probabilidad, en donde la probabilidad es el grado de confirmación de una hipótesis con respecto a la observación de la evidencia.

Referencias Bibliográficas

  • Buchanan, B.G. and Shortliffe, E.H. (1984) Rule-Based Expert Systems: The MYCIN Experiments for the Stanford Heuristic Programming Project. Addison-Wesley, Reading, MA.
  • Crespo Yáñez, F.J. (2003) Un Modelo Paramétrico Matemático Difuso para la Estimación del Esfuerzo de Desarrollo del Software. Tesis de doctorado de la Universidad de Álcala. España.
  • Dempster, A.P. (1967) Upper and Lower Probabilities Induced by a Multivalued Mapping. Ann. Math. Statistics, vol. 38, pp. 325-339.
  • Klir, G. and Wierman, M. (1998) Uncertainty-Based Information. Elements of Generalized Information Theory. Springer-Verlag.
  • Shaffer, G. (1976) A Mathematical Theory of Evidence. Princeton: Princeton University Press.
  • Smets, P. (1997) Imperfect information: Imprecision-uncertainty. In Uncertainty Management in Information Systems. From Needs to Solutions, pages 225–254. Kluwer Academic Publishers.
  • Sugeno, M. (1977) Fuzzy Measures and Fuzzy Integrals: a survey, in Fuzzy Automata and Decision Processes. North Holland, Amsterdam: M.M. Gupta, G.N. Saridis and B.R. Gaines, pp. 89-102.
  • Villar, J. (1997) Aplicación de la teoría de conjuntos borrosos al diagnóstico de procesos industriales, en Departamento de Electrónica y Automática. Madrid: Tesis doctoral Universidad Pontificia de Comillas.
  • Walley, P. (1981) Statistical Reasoning with Imprecise Probabilities. London: Chapman and Hall.
  • Zadeh L. A. (1965) Fuzzy Sets. Information and Control, vol. 8, pp. 338-353.
  • Zadeh L. A. (1978) Fuzzy Sets as a Basis for a Theory of Possibility. Fuzzy Sets and Systems, vol. 1, pp. 3-28.
Guillermo Choque Aspiazu
http://www.eldiario.net/
Mayo 21 de 2012
Planificación difusa de la producción

Planificación difusa de la producción

La precisión requerida en modelos y productos de ingeniería se traduce en que la producción y el desarrollo requieren altos costos y largos tiempos. Según el investigador Matta, en el artículo publicado el año 2005 sobre “diseño de sistemas de manufactura avanzados”, una mayor precisión implica un mayor costo. Al considerarse la utilización de la lógica difusa para un determinado problema, un ingeniero o científico debería reflexionar sobre la necesidad de aprovechar la tolerancia de la imprecisión dado que la alta precisión conlleva altos costos y, en algunas ocasiones, intratabilidad en los problemas. Por su parte el investigador Ross menciona que, en el libro publicado el año 2004 acerca de “aplicaciones de la lógica difusa con ingeniería”, mientras los sistemas difusos son mostrados como aproximaciones universales de funciones algebraicas, este no es el atributo que los hace valiosos para la comprensión de nuevos o sofisticados problemas. Por el contrario, el principal beneficio de la teoría de conjuntos difusos es la aproximación al comportamiento de sistemas donde las funciones analíticas o relaciones numéricas no existen. Por lo tanto, los conjuntos difusos tienen un alto potencial para entender muchos sistemas que carecen de formulaciones analíticas.

Los sistemas complejos pueden ser sistemas que no han sido analizados, pueden ser sistemas relacionados con la condición humana tales como los sistemas biológicos o médicos, o pueden ser sociales, económicos o sistemas políticos, en los cuales la gran variedad de variables de entrada y salidas podrían no ser siempre capturadas analíticamente o controladas en algún sentido convencional. Además, las relaciones entre las causas y efectos de estos sistemas generalmente no son entendidas, pero generalmente sí pueden ser observadas.

Según los investigadores Klir y Yuan, en el libro publicado el año 1995 sobre “conjuntos difusos y lógica difusa”, la lógica difusa ha sido largamente estudiada en los últimos años; el modelado de sistemas complejos con bastante precisión, es una de las ventajas que ofrece la lógica difusa, esta incorpora vaguedad e imparcialidad en la representación y resolución de los modelos. El estudio del arte que se realiza está enfocado a la aplicabilidad de la lógica difusa sobre problemas en la planificación de la producción. Según los investigadores Narasimhan y sus colegas, en el libro escrito el año 1996 sobre “planeación de la producción y control de inventarios”, desarrollar una planificación de la producción conlleva a la especificación paralela de los niveles de producción, inventario y capacidad sobre un horizonte de planificación determinado con el propósito de disminuir los costos totales producidos por el plan de producción.

Respecto a la lógica difusa y sus aplicaciones referidas a la cadena de suministro, Torabi menciona, en su tesis de grado elaborada el año 2007 sobre “programación posibilística interactiva”, que el objetivo vital de la gestión de la cadena de suministro es el control de flujo de materiales entre proveedores, industrias, almacenes y usuarios de forma eficaz y al menor costo. El trabajo elaborado por Torabi fue orientado a la creación de un modelo que integra los distintos niveles de la cadena de suministros considerando múltiples proveedores, un fabricante y diversos centros de distribución; tomando en cuenta que la demanda del mercado, costo/periodo y niveles de capacidad son variables imprecisas; esta incertidumbre en la propuesta académica se manejo utilizando números difusos triangulares para representar la vaguedad en cada parámetro. En el trabajo mencionado se consideraron dos objetivos significativos y contrarios para el modelo de gestión de la cadena de suministros: Minimizar el costo total de la logística y maximizar los costos totales de la compra.

En relación con la teoría de los conjuntos difusos aplicada a modelos de cantidad económica de pedido, Kaj-Mikael Björk escribe en el año 2008 un artículo relacionado con “una solución analítica al problema de la cuantificación económica difusa”, en el cual menciona que la cantidad económica de pedido busca encontrar la cantidad de pedido que minimice el costo total del inventario de la compañía. Un modelo de cantidad económica de pedido simple parte de una situación en que tanto la demanda como los tiempos de suministros y los costos unitarios se conocen con certeza; los modelos de cantidad económica de pedido se basan en una política de revisión continua del inventario y se asume que este puede ser supervisado en cualquier instante en el tiempo. Björk plantea un modelo para la determinación de la cantidad económica de pedido utilizando Backorder o pedidos diferidos; en dicho modelo la demanda y los Leed Times son parámetros difusos; dichas incertidumbres se manejan con números triangulares difusos; una aplicación concreta que inspiró a Björk para realizar esta investigación se encuentra en la penalización que existe en las cadenas de suministro de papel fino en los países nórdicos. Los propósitos del trabajo hecho por el investigador son tres: demostrar que el modelo de cantidad económica de pedido con Backorder, demanda y Leed Times difusos es convexo; resolver el problema de optimización; y por último, la solución de este nuevo enfoque se compara con trabajos anteriores mediante un ejemplo aplicado a la industria de la producción de papel fino en los países nórdicos.

Por otra parte, la planeación agregada de la producción, establece la mejor manera de satisfacer la demanda prevista a un mediano plazo, a menudo de tres a dieciocho meses, mediante la determinación de horas extraordinarias, capacidad de producción, niveles de inventario, cantidad de mano de obra, la subcontratación, niveles de pedidos retrasados, y otras variables controlables. Respecto a la teoría de los conjuntos difusos y sus aplicaciones referidas a la planeación agregada de la producción, el artículo que desarrolla Wang el año 2004, sobre “la aplicación de la programación lineal posibilística a la planeación agregada de la producción”, presenta un novedoso e interactivo modelo de programación lineal probabilística para solucionar un problema de planeación agregada multi-producto con incertidumbre en la demanda prevista, gastos de funcionamiento y capacidad; la propuesta del investigador es tratar de minimizar los costos totales relacionados con los niveles de inventario, mano de obra, horas extras, subcontratación, retrasos de pedidos, equipo y capacidad de almacenaje; el desarrollo del articulo se centra en determinar un modelo de planeación agregada de la producción que satisfaga la demanda prevista ajustando la cantidad de horas extras, la capacidad de producción, los niveles de inventario, la cantidad de mano de obra, la subcontratación, los niveles de pedidos diferidos y otras variables controlables. El planteamiento utiliza un modelo de costo total de la planificación agregada de la producción como la función objetivo. Los costos totales se establecieron como la suma de los costos de producción más los costos de los cambios en los niveles de mano de obra durante el horizonte de planificación; el modelo propuesto está sujeto a restricciones de manejo de inventario, capacidad de producción, restricciones en la capacidad de la máquina y el espacio de almacenamiento.

La planificación de requerimientos de materiales es una técnica computarizada de gestión stocks y de programación de la producción que, partiendo del programa maestro de producción, deduce la cantidad requerida de las diferentes materias primas y componentes necesarios en cada periodo de tiempo del horizonte de planeación. En relación con la teoría de los conjuntos difusos y sus aplicaciones referidas a la planificación de requerimientos de materiales, los investigadores Mula, Poler y García a través de su artículo escrito el año 2005, demuestran la utilidad e importancia del modelado de planificación de requerimientos de materiales con restricciones flexibles; la principal contribución de los investigadores fue en el terreno de la investigación y aplicación práctica de un modelo de programación flexible, acompañada de experimentos con datos reales. La metodología que siguieron al elaborar este artículo fue la siguiente: primero proponen un modelo de programación matemática, llamado MRPDet para la planificación de la producción con restricciones de capacidad en un sistema de planificación de requerimientos de materiales, este sigue una estructura determinística; seguidamente se amplía en tres modelos de programación difusa para la planificación de la producción con restricciones difusas; luego de esto se evalúa el comportamiento de los modelos propuestos, utilizando datos reales proporcionados por un fabricante de asientos para automóviles. Es de importancia aclarar que el objetivo de los investigadores al diseñar los modelos de lógica difusa para la planificación de la producción, no es sustituir a los modelos deterministas, sino por el contrario, proporcionar una sólida y eficaz alternativa para la aplicación en entornos con condiciones de incertidumbre en los que el uso de modelos deterministas no es muy realista.

Finalmente las soluciones de planificación de recursos de la empresa tratan de llevar a cabo la racionalización y la integración entre procesos operativos y flujo de información dentro de la empresa, con el objetivo de obtener sinergias entre los recursos que forman parte de la misma. En relación con la teoría de los conjuntos difusos aplicada la planificación de recursos de la empresa, Sánchez en su artículo publicado en 2009 sobre “un modelo difuso para evaluar la idoneidad de la instalación de un sistema de planificación de recursos empresariales”, afirma la importancia de una planificación de recursos empresariales en las organizaciones para integrar adecuadamente la información de los diferentes departamentos de la organización, teniendo presente que la planificación de recursos empresariales no es igual de efectiva en todas las empresas porque depende de las características propias de cada organización. El objetivo de estos autores fue presentar un modelo de evaluación difusa que gestione los diferentes parámetros de una empresa para tomar una decisión acerca de si es conveniente instalar un sistema de planificación de recursos empresariales

Referencias Bibliográficas

  • Björk, Kaj-Mikael (2008) An analytical solution to a fuzzy economic order quantity problem. Department of Technology, Akademi University, Joukahaisenkatu 3-5A, FI-20520, Turku, Finland.
  • Klir G.J y Yuan B. (1995) Fuzzy Sets end Fuzzy Logic, Theory and Applications. Vol. 1, New Jersey: Prentice Hall PTR 1995, pp. 390- 417.
  • Matta A. (2005) Design of advanced manufacturing systems. Vol 1, Netherlands, Springer, pp. 1- 13.
  • Mula, Josefa; Poler, Raúl y García, José P. (2005) Evaluación de Sistemas para la Planificación y Control de la Producción pp. 19-34. Disponible en línea: http://www.scielo.cl/scielo.php?script=sci_arttext&pid=S0718-07642006000100004&lng=es&nrm=iso [Acceso: Diciembre 2012]
  • Narasimhan, Seetharama L., McLeavey Dennis W. y Billington M. (1996). Planeación de la producción y control de inventarios. 2 ed. México: Prentice Hall. 716 p.
  • Ross T. (2004) Fuzzy logic with engineering applications. John Wiley and Sons, New York.
  • Sanchez P.J. (2009) A fuzzy model to evaluate the suitability of installing an enterprise resource planning system. Dept. of Computer Science, University of Jaén, Spain.
  • Torabi S. (2007) An interactive possibilistic programming approach for multiple objective supply chain master planning. Department of Industrial Engineering, Faculty of Engineering, University of Tehran, Tehran, Iran.
  • Wang Reay-Chen (2005) Applying possibilistic linear programming to aggregate production planning. Department of Industrial Management, Tung Nan Institute of Technology, 152 Pei Shen Rd., Sec. 3, Taipei 222, Taiwán.
Guillermo Choque Aspiazu
http://www.eldiario.net/
Febrero 13 de 2012
Sistemas difusos

Sistemas difusos

Desde su aparición en la década de los años 1960 hasta esta primera década del siglo veintiuno, las aplicaciones de la lógica difusa se han ido consolidando, paulatinamente al comienzo, y con un desbordado crecimiento en los últimos años. Se encuentran en soluciones a problemas de control industrial, en predicción de series de tiempo, como metodologías de archivo y búsqueda de bases de datos, en investigación operativa, en estrategias de mantenimiento predictivo y en otros campos más. Las principales razones para tal proliferación de aplicaciones quizás sean la sencillez conceptual de los sistemas basados en lógica difusa, su facilidad para adaptarse a casos particulares con pocas variaciones de parámetros, su habilidad para combinar en forma unificada expresiones lingüísticas con datos numéricos, y el no requerir de algoritmos muy sofisticados para su implementación.

La lógica difusa surge condicionada por una serie de acontecimientos significativos, entre los que se pueden destacar: (1) La crítica de Lukasiewicz (1920) respecto a que las proposiciones contingentes de futuro pueden tomar no sólo dos valores de verdad como consideraba Aristóteles en “De interpretatione”. La proposición “mañana se realizará un golpe de Estado” no es cierta ni falsa, lo cual implicaría una predeterminación, sino que abre el camino a la lógica ternaria o trivalente, añadiendo un tercer valor: la indeterminación. (2) El principio de incertidumbre de Heisenberg (1927). En física no se puede saber de manera simultánea la posición y el impulso de una partícula. Bart Kosko simplifica y explica este principio a partir de la siguiente proposición: “O velocidad o posición”. (3) El redescubrimiento de algunas paradojas griegas por B. Russell: (3a) El mentiroso de Creta. En cierta ocasión, este reconocido mentiroso afirma públicamente: “todos los cretenses son mentirosos”. (3b) El montón de arena de Zenón. Este filósofo se plantea en qué momento se deja de tener un montón de arena cuando se va quitando una a una, cada una de las minúsculas partículas de piedra que lo componen. (3c) El barbero de Russell. Según cuenta el filósofo, su barbero afirmaba que: “afeito a todos los que no se afeitan a sí mismos, y sólo a ellos”. Pero, ¿quién afeitaba, entonces, al barbero?. (3d) El “conjunto de todos los conjuntos que no son elementos de sí mismo” de Russell. A partir de su definición se plantea la paradójica pregunta de si dicho conjunto pertenece o no a sí mismo. (4) La lógica polivalente o multivalente: El mismo Lukasiewicz y Tarski (1930) generalizaron su lógica trivalente a toda una gama ordenada de valores indeterminados entre lo verdadero (1) y lo falso (0).

Motivado por Zadeh y validado por Mamdani, el uso de los sistemas difusos han sido aplicados en una gran variedad de áreas tales como el control automático, el procesamiento digital de señales, las comunicaciones, los sistemas expertos, la medicina, etc. Sin embargo, las aplicaciones más significativas de los sistemas difusos se han concentrado específicamente en el área del control automático. Esencialmente un sistema difuso, es una estructura basada en conocimiento definida a través de un conjunto de reglas difusas del tipo “si-entonces”, las cuales, contienen una cuantificación lógica difusa de la descripción lingüística del experto de cómo realizar un control adecuado.

El sistema difuso utiliza conjuntos difusos, definidos por la base de reglas difusa, para cuantificar la información en la base de reglas y que el mecanismo de inferencia opera sobre estos conjuntos difusos para producir nuevos conjuntos difusos, por tanto, es necesario especificar como el sistema convertirá las entradas numéricas en conjuntos difusos, un procedimiento llamado codificación difusa, tales que ellos puedan ser utilizados por el sistema difuso. De igual forma, el proceso llamado decodificación difusa describe la correspondencia de un espacio de acciones de control difuso en acciones de control no difuso.

La lógica difusa se adapta mejor al mundo real, e incluso puede comprender y funcionar con expresiones lingüísticas, expresadas en lenguaje natural, del tipo “hace mucho calor”, “no es muy alto”, “el ritmo del corazón está un poco acelerado”, etc. La clave de esta adaptación al lenguaje, se basa en comprender los cuantificadores del lenguaje, en los ejemplos mencionados “mucho”, “muy” y “un poco”. En la teoría de conjuntos difusos se definen también las operaciones de unión, intersección, diferencia, negación o complemento, y otras operaciones sobre conjuntos, en los que se basa esta lógica. Para cada conjunto difuso, existe asociada una función de pertenencia para sus elementos, que indican en qué medida el elemento forma parte de ese conjunto difuso. Las formas de las funciones de pertenencia más típicas, por su asociación con el modelo de Gauss son: triangular y trapezoidal.

La lógica difusa en términos operativos se basa en reglas heurísticas de la forma Si (antecedente) Entonces (consecuente), donde el antecedente y el consecuente son también conjuntos difusos, ya sea puros o resultado de operar con ellos. Sirvan como ejemplos de regla heurística para esta lógica: (1) Si hace muchísima calor Entonces disminuye drásticamente la temperatura. (2) Si voy a llegar un poco tarde Entonces aumento levemente la velocidad. Los métodos de inferencia para esta base de reglas deben ser simples, veloces y eficaces. Los resultados de dichos métodos constituyen un área final, fruto de un conjunto de áreas solapadas entre sí, donde cada área es resultado de una regla de inferencia. Para escoger una salida concreta a partir de tanta premisa difusa, el método más usado es el del centroide, en el que la salida final será el centro de gravedad del área total resultante. Las reglas de las que dispone el motor de inferencia de un sistema difuso pueden ser formuladas por expertos, o bien aprendidas por el propio sistema.

La estructura de un sistema difuso está constituida por tres bloques principales: el de transformación de los valores numéricos en valores de lógica difusa; el motor de inferencia que emplea las reglas; y el bloque de conversión de los valores de la lógica difusa en valores numéricos. En un sistema basado en lógica difusa se transforman los datos o valores numéricos de la entrada al dominio de las reglas intuitivas y lingüísticas de la lógica difusa para realizar el tratamiento de los mismos y después convertir los resultados en valores numéricos para darles la representación tradicional, puede decirse que un sistema basado en lógica difusa actúa como lo haría una persona que tuviera que reaccionar ante términos tan imprecisos como “caluroso” o “rápido”.

Las etapas principales de los sistemas difusos son: el procedimiento de “codificación difusa” o fusificación y el procedimiento de “decodificación difusa”, también conocido como defusificación. (1) La codificación difusa consiste en la traducción de valores del mundo real al ambiente difuso mediante el uso de funciones de pertenencia. Por ejemplo, si se tiene un paciente con fiebre, es posible plantearse a partir de qué temperatura empieza a tener fiebre. En este contexto es más realista plantear un modelo en el que la situación de fiebre no se restringe sólo a dos valores, hay fiebre o no hay fiebre, sino que se tiene todo un rango de temperaturas posible. Por consiguiente, la primera etapa de tratamiento de un problema para la lógica difusa consiste en modelar cada una de las entradas del sistema con curvas que proporcionen los grados de pertenencia a los diferentes estados identificados anteriormente. Después de realizar la codificación difusa de las variables de entrada y de salida, es necesario establecer reglas que relacionen las entradas con las salidas. Para operar con los conjuntos difusos es necesario definir las operaciones elementales entre ellos. Esto implica definir el modo de calcular las funciones de pertenencia a estos tres conjuntos, intersección o mínimo, unión o máximo y complemento. (2) Después de calcular las reglas difusas y evaluar las variables difusas se necesita trasladar estos valores nuevamente hacia el mundo real. El método más popular de decodificación difusa es el cálculo del centro de gravedad ó centroide, el cual retorna el centro del área bajo la curva.

Los sistemas difusos han demostrado su habilidad para resolver diferentes tipos de problemas tales como control, modelado o clasificación. Asimismo, han sido empleados en un amplio rango de aplicaciones, por ejemplo, procesamiento de señales e imágenes, evaluación de riesgos, recuperación de información, procesos industriales, etc. En muchos de los casos, la clave del éxito era la incorporación del conocimiento experto humano. Sin embargo, muchas de las investigaciones realizadas en el campo durante los años 1990 no contienen capacidad de aprendizaje y adaptación. En la última década, ha existido un gran interés en incluir capacidad de aprendizaje a los sistemas difusos. Esto se ha logrado por medio del desarrollo de técnicas híbridas que incluyen los sistemas difusos junto con técnicas complementarias como lo son las redes neuronales, los algoritmos evolutivos o los métodos probabilísticos.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Noviembre 29 de 2010
Agrupamiento difuso

Agrupamiento difuso

La lógica difusa ha demostrado ser de gran utilidad para representar el comportamiento o dinámica de los sistemas mediante reglas difusas del tipo “Si-Entonces”. Los primeros sistemas basados en reglas difusas se basaban en la información suministrada por expertos; sin embargo, para el caso de sistemas complejos las reglas así construidas no permitían una simulación aceptable del sistema. La búsqueda de sistemas difusos que aproximen de manera aceptable la dinámica de sistemas complejos ha conllevado al desarrollo de investigación en técnicas de extracción de reglas difusas a partir de datos de entrada y salida; es decir, al desarrollo de técnicas de identificación difusa. Sin embargo, estas técnicas de identificación deben generar modelos difusos que cumplan con dos características fundamentales: una acertada precisión, lo cual se puede determinar mediante una métrica del error; y una buena interpretabilidad para que el sistema difuso resultante se asemeje a la forma como el ser humano toma decisiones. La interpretabilidad requiere de, al menos, un número no muy alto de reglas, preferiblemente no mayor a nueve; no solapamiento de más de dos funciones de pertenencia.

Una de las tareas frecuentes en el área de reconocimiento de patrones, estadística aplicada y minería de datos, consiste en aplicar algoritmos de agrupamiento en el tratamiento de datos, con el fin de obtener características relevantes o reconocer patrones. En general, por patrones se designa alguna representación abstracta de un conjunto de datos. Desde un punto de vista abstracto, el problema del análisis de agrupamiento se define frecuentemente como el de encontrar “grupos naturales”. El agrupamiento es el proceso de asignar un ítem, un individuo, un objeto, o una observación a su lugar propio, es decir, al lugar natural que debe ocupar. En un sentido más concreto, el objetivo es reunir un conjunto de objetos en clases tales que el grado de “asociación natural” para cada individuo es alto con los miembros de su misma clase y bajo con los miembros de las otras clases. Lo esencial del análisis de agrupamiento se enfoca entonces a cómo asignar un significado a los términos “grupos naturales” y “asociación natural”, donde “natural” usualmente se refiere a estructuras homogéneas y “bien separadas”.

Los métodos de agrupamiento poseen en su gran mayoría la limitación de utilizar objetos evaluados en un momento determinado del tiempo. Se supone que no se agregan nuevas variables a las que ya definen o caracterizan un individuo u objeto, dado que el ingreso de éstas puede mejorar el poder de separación entre dos clases. Ahora, en general, ocurre que estos algoritmos no pueden agregar nuevas evaluaciones, actualizaciones o el ingreso de nuevos individuos, para generar nuevamente las clases o “grupos naturales” utilizando las clases ya construidas. Se tiene que para la gran mayoría de los algoritmos de agrupamiento, una vez realizada la tarea de agrupar los individuos u objetos, no son capaces de agregar o actualizar los objetos para generar una nueva estructura de clases a partir de la estructura ya conocida, luego se tiene que los algoritmos de agrupamiento no permiten regenerar el agrupamiento a lo largo de distintos momentos o períodos de tiempo donde se produzcan actualizaciones o se incorporen nuevos objetos.

De lo anterior, se entiende que un algoritmo de agrupamiento tiene carácter estático por el hecho que sólo puede aplicarse sobre objetos evaluados para un momento determinado del tiempo, sin incorporar de alguna forma en su estructura algorítmica las actualizaciones o el ingreso de nuevos objetos. En contraste, un algoritmo de agrupamiento, es dinámico si es capaz de agregar actualizaciones o ingresos de nuevos objetos para redefinir los “grupos naturales” o clases, usando como entrada la información conocida, que incluye como solución básica, reutilizar la estructura conocida de clases. La importancia de desarrollar algoritmos de agrupamiento de carácter dinámico, proviene del hecho que éstos tienen la capacidad para enfrentar situaciones derivadas de actualizaciones o agregación de nuevos objetos, y segundo que pueden reutilizar las estructuras de clases y la información conocida en el pasado.

El agrupamiento difuso, también llamado “Clustering”, es una metodología, que permite la partición del universo de discurso en diferentes grupos; el propósito de este agrupamiento es identificar los “grupos naturales” de datos a lo largo de un historial de datos, donde este grupo de datos debe representar fielmente el comportamiento del sistema. Desde un punto de vista formal, la tarea de un procedimiento de agrupar es asignar los individuos u objetos de un conjunto de elementos a varios subconjuntos, denominados clases o grupos. Cada uno de esos subconjuntos es representado por un prototipo y se calcula para el caso de agrupamiento con lógica difusa el grado de pertenencia del objeto al grupo. La partición del conjunto inicial debe cumplir las siguientes propiedades: (a) Los individuos u objetos similares deben ser incluidos en clases o grupos similares, esta propiedad se denomina homogeneidad. (b) Individuos u objetos diferentes deben ser separados en clases o grupos diferentes, esta propiedad se denomina heterogeneidad. Entre los métodos para agrupar se encuentra los métodos clásicos de la estadística, como el método c-medias o jerarquizados, y otros desarrollados en las áreas de la inteligencia artificial, como las redes neuronales, el aprendizaje de máquina, y los métodos de agrupamiento difuso.

Los algoritmos de agrupamiento difuso representan la técnica más adecuada para la obtención de modelos difusos, siendo los métodos de c-medias difusas y de Gustafson- Kessel los más empleados. Se han realizado diversas variaciones a estos algoritmos de agrupamiento. Los investigadores Nauck y Kruse proponen técnicas de agrupamiento neurodifusas; Espinosa y Vandewalle presentan una metodología para extraer reglas a partir de los datos en un marco de integridad lingüística incluyendo algoritmos de fusión para agrupar conjuntos cuyos valores modales estén a una distancia muy cercana. Sala introduce una novedosa técnica basada en el error de inferencia para aproximar funciones empleando partición suma con conjuntos triangulares; Diez y sus coloegas proponen variaciones a los algoritmos de agrupamiento para mejorar la interpretabilidad y descubrir estructuras afines locales en los modelos difusos obtenidos. Paiva y Dourado presentan un modelo generado por medio del entrenamiento de una red neuronal difusa implementado en dos fases: en la primera fase, se obtiene la estructura del modelo empleando un algoritmo de agrupamiento substractivo, lo cual permite extraer las reglas a partir de datos de entrada y salida; en la segunda fase se realiza la sintonización de los parámetros del modelo mediante una red neuronal que emplea el algoritmo de retropropagación. Guillaume y Charnomordic proponen una estrategia para generar particiones difusas interpretables a partir de los datos mediante una metodología, que denominan partición jerárquica difusa, en la que, en vez de incorporar datos en cada iteración, agrega conjuntos difusos. También presentan un algoritmo de fusión de los conjuntos difusos basado en métricas adecuadas que garanticen la interpretabilidad semántica. Joo y Lee proponen un aproximador universal para cualquier función continua en un conjunto compacto empleando un sistema difuso jerárquico en el que las salidas de las capas previas no se usan en las partes del antecedente de la reglas difusas sino en las partes del consecuente.

Cuando los datos de entrada-salida están disponibles a priori, el agrupamiento difuso es una técnica que puede ser utilizada para la identificación de la estructura. Por una parte se propone un planteamiento intuitivo para la generación de reglas difusas, el cual está basado en el agrupamiento de datos de entrada salida; ésta es una idea simple y aplicable especialmente para sistemas con un gran número de variables de entrada. Por otra parte, se considera que la esencia del método para la identificación de la estructura está en el agrupamiento y la proyección. En ambos planteamientos, el espacio de salida es particionado utilizando un algoritmo de agrupamiento difuso, partición que puede ser siempre considerada como un espacio de una dimensión en el modelo difuso. Luego las particiones o grupos son proyectados dentro del espacio de cada una de las variables de entrada. La partición de salida y su correspondiente partición de entrada son las consecuencias y antecedentes de las reglas difusas respectivamente.

Una de las aplicaciones de agrupamiento es el reconocimiento de patrones, que identifica características concretas o abstractas de un conjunto de individuos u objetos. Para ser clasificados, los individuos u objetos necesitan que existan clases y que estas sean identificadas. Cuando no se conoce a priori las clases, se pueden obtener mediante la ejecución de un algoritmo de agrupamiento. El número de patrones es determinado en referencia a la aplicación particular. Por ejemplo, considérese el problema de reconocer las letras del alfabeto, que define un problema de 26 clases. En otros problemas, por ejemplo el caso de segmentación de clientes de un banco, el número exacto de clases puede no ser conocido inicialmente, y puede ser determinado desde la observación de muchos datos para obtener patrones representativos. Entonces cuando se tiene explicito el número de clases se utiliza algoritmos de agrupamiento, como el algoritmo c-medias por ejemplo. Si se desconoce el número de clases es necesario descubrir dicha cantidad antes de proceder al agrupamiento, esto es conocido como el problema de clases válidas.

 

Guillermo Choque Aspiazu
http://www.eldiario.net/
Agosto 30 de 2010

Sistemas neurodifusos

Sistemas neurodifusos

Durante los últimos treinta a cuarenta años las investigaciones en redes neuronales y en sistemas difusos han sido independientes debido en gran parte a los diferentes orígenes y motivaciones de ambos paradigmas. Hoy es ampliamente conocido que la lógica difusa ofrece un marco muy poderoso para el razonamiento aproximado que intenta modelar el proceso de razonamiento humano en un nivel cognoscitivo. Los sistemas difusos adquieren el conocimiento gracias al dominio del experto el cual es codificado dentro del algoritmo en términos de un conjunto de reglas difusas “si-entonces”. Los sistemas difusos emplean este enfoque basado en reglas e interpolan el razonamiento para responder a entradas nuevas. En contraste, las redes neuronales ofrecen una arquitectura altamente estructurada, con capacidades de aprendizaje y generalización, que intenta imitar el mecanismo neurológico del cerebro. Una red neuronal almacena conocimiento de una manera distribuida dentro de sus pesos, los cuales han sido determinados por medio del entrenamiento, para el aprendizaje, con muestras conocidas. La habilidad de generalización para entradas nuevas está basada en la estructura algebraica inherente de la red neuronal. También se ha demostrado que ambas tecnologías combinadas tienen capacidades elevadas de aproximación universal.

El avance de los sistemas de inteligencia computacional y la búsqueda de soluciones cada vez más completas para los problemas que pueden ser resueltos por estos métodos, han llevado a la unión de técnicas de “computación blanda” haciendo que las debilidades de unos sistemas se compensen con las bondades de otros. Esta última, resulta ser una fuerte motivación para realizar la unión de las técnicas de redes neuronales artificiales y lógica difusa. Recientemente se ha producido un interés considerable en la integración de las redes neuronales y la lógica difusa. Las dos tecnologías pueden ser vistas como complementarias y como consecuencia, el enfoque combinado proporciona un marco de razonamiento aproximado poderoso que tiene capacidades de aprendizaje y generalización. La tecnología combinada también cubre algunas de las desventajas de los enfoques individuales como por ejemplo la transparencia de la red neuronal y la capacidad de aprendizaje limitada de los sistemas difusos.

Dentro de las numerosas metodologías de modelado existentes en las áreas de la estadística y el aprendizaje automático, los sistemas neurodifusos presentan grandes ventajas frente a otras alternativas, al combinar las capacidades aproximativas no lineales de las redes neuronales, junto con las propiedades interpretativas de los modelos difusos. Componen una metodología que proporciona una manera simple de obtener una conclusión a partir de información de entrada imprecisa. El diseño y optimización de estos modelos, en el que los expertos pueden intervenir, resulta en un conjunto de reglas a partir de un repertorio de mediciones disponibles, que facilita el análisis y utilización de dichos modelos para un estudio más claro y en profundidad del fenómeno físico que se está modelando.

Redefiniendo las motivaciones para crear los sistemas híbridos neurodifusos, se pueden mencionar como las más relevantes las siguientes: (1) Los problemas a resolver con estas técnicas inteligentes tienen generalmente una componente de datos empíricos y otra de conocimiento previo, que con los sistemas neurodifusos pueden ser explotados a cabalidad mezclando los métodos cuantitativos y cualitativos de las redes neuronales y la lógica difusa respectivamente. (2) La expresión de conocimiento como una base de reglas lingüísticas, enriquecida o surgida con o a través de datos cuantitativos, es una forma adecuada para hacer realimentación al usuario humano de la forma como el sistema realiza las tareas. (3) Habiendo encontrado que la representación del conocimiento como un sistema difuso se acerca a la forma de razonamiento humano, es natural intentar adicionar a estos sistemas capacidades de aprendizaje, de forma que se emule mejor tal comportamiento o que se mejoren los resultados obtenidos con el uso de solamente el sistema difuso.

En los últimos años se presentaron varios sistemas neurodifusos exitosos reportados por diferentes corrientes de investigación científica. En general estos son sistemas con una estructura fija que interpretan un sistema difuso en términos de una red neuronal tal que cada paso en el proceso es equivalente a por lo menos una capa de la red neuronal. Así, la mayoría de estas arquitecturas tienen al menos una capa correspondiente a la codificación difusa, intersección, implicación y decodificación difusa. Estas arquitecturas difieren de una red neuronal convencional en términos de la uniformidad tanto de los nodos de procesamiento como de la estrategia de la interconexión con el resultado que con frecuencia se requieren algoritmos de entrenamiento modificados. Sin embargo, estas arquitecturas no proporcionan un procedimiento sistemático para determinar el número de reglas del sistema de inferencia difuso. Hay arquitecturas que fijan el número de reglas antes de realizar el entrenamiento de la red mientras que otras fijan los conjuntos difusos de la parte “si” de las reglas, lo que establece un límite para el número de reglas.

Por lo tanto, determinar el número de reglas a utilizar representa un serio problema para los sistemas neurodifusos. Algunos sistemas neurodifusos consideran al número de reglas como un parámetro de diseño más, el cual puede ser determinado utilizando un algoritmo de agrupamiento de datos y los datos de entrada-salida del sistema a modelar. Estas técnicas de agrupamiento proporcionan el planteamiento para encontrar prototipos que caracterizan un conjunto de datos. Estos prototipos son entonces utilizados como reglas difusas en un sistema neurodifuso. Los métodos de agrupamiento desarrollados funcionan bastante bien, sin embargo, procesan los datos fuera de línea por lo que la estructura temporal de los mismos es ignorada, lo que representa un problema cuando se quiere modelar o controlar un sistema en tiempo real. Por lo tanto, resulta interesante desarrollar técnicas de agrupamiento que procesen los datos en línea para modelar sistemas mediante redes neuronales difusas en tiempo real.

Las razones para usar una taxonomía de los sistemas neurodifusos es que muchas de las aproximaciones neurodifusas implementadas hasta hoy, pueden ser enmarcadas dentro de estas divisiones propuestas que se basan en las diferentes combinaciones de las redes neuronales artificiales y los sistemas difusos: (1) Modelos concurrentes. Cuando la red neuronal y el sistema difuso trabajan juntos pero sin interactuar el uno en el otro, es decir, ninguno determina las características del otro. (2) Modelos cooperativos. Cuando la red neuronal se usa para determinar los parámetros de funcionamiento del sistema difuso. En estos modelos, se distinguen dos fases, la de entrenamiento y la de funcionamiento. En la primera, la red neuronal interactúa con el sistema difuso determinando los parámetros del mismo, mientras en la segunda, la red neuronal desaparece dejando sólo el sistema difuso. (3) Modelos híbridos. En esta aproximación, los sistemas difusos y de redes neuronales, trabajan juntos en una arquitectura homogénea que puede ser interpretada como una red neuronal con parámetros difusos o como un sistema difuso con parámetros o funcionamiento distribuidos.

La estructura neurodifusa permite el uso de métodos cualitativos y cuantitativos en la construcción de modelos, en la etapa de aprendizaje, en la de funcionamiento y en la realimentación de conocimiento al usuario, permitiendo así, que todo el conocimiento se encuentre disponible. Los métodos cuantitativos que se observan en el aprendizaje que los sistemas neurodifusos pueden realizarse a partir de datos del ambiente y en su forma matemática de funcionamiento, mientras los métodos cualitativos se reflejan en el sentido lingüístico que tiene la base de conocimiento de los sistemas difusos y que genera una interacción bilateral sistema-ser humano, permitiendo la introducción de conocimiento previo al sistema y la realimentación del estado final del modelo en forma de reglas expresadas lingüísticamente desde el sistema al ser humano. Las otras ventajas, son las conocidas ya ampliamente y que vienen heredadas de los sistemas difusos y de las redes neuronales, tales como interpretación lingüística, introducción de conocimiento previo, auto-aprendizaje, generalización, interpolación, etc.

Sin embargo los sistemas neurodifusos cuentan también con algunas limitaciones: (1) Curso de la dimensionalidad. Los sistemas difusos presentan el problema del crecimiento exponencial del tamaño del modelo respecto al número de variables que poseen, haciendo poco práctico su uso para sistemas de más de cuatro dimensiones. (2) Calidad de los datos. Existen problemas asociados con la cantidad, distribución y ruido en y de los datos. Si los datos están mal distribuidos, el aprendizaje puede no ser muy bueno, presentando especialmente problemas de generalización y de interpolación si faltan muchos datos en cierta región. Este inconveniente es herencia de los sistemas neuronales y puede ser superado interpolando los datos, haciendo un tratamiento previo o buscando una representación adecuada de los mismos. (3) Conocimiento previo. En los sistemas neurodifusos es deseable tener el conocimiento previo y confiable de un experto en el sistema, pues de otro modo, se debe realizar un modelado por “fuerza bruta” exclusivamente a través de los datos numéricos empíricos y existirán problemas al no haber descripción cualitativa del sistema, a menos que se apliquen técnicas de minería de datos a la base de conocimiento del sistema neurodifuso.

 

Guillermo Choque Aspiazu
http://www.eldiario.net/
Mayo 31 de 2010

Base de datos difusa

Base de datos difusa

La información es uno de los factores que más peso específico tiene en el desarrollo de un país, por este motivo, cualquier sociedad que pretenda crecer debe estar al tanto de las técnicas que van surgiendo en el almacenamiento, transmisión y análisis de la información. Históricamente las bases de datos han sido las herramientas diseñadas para llevar a cabo las tareas de almacenamiento y para proporcionar algunos de los mecanismos necesarios para el análisis de la información. El objetivo de una base de datos es el de almacenar la información de manera adecuada, permitir su modificación de manera segura y facilitar el proceso de recuperación de aquella información que en un momento dado resulte necesaria, todo ello en un formato adecuado a las necesidades de los usuarios. La evolución de las bases de datos comenzó con el uso, de forma elemental, de archivos secuenciales. Con el tiempo se fueron creando aplicaciones para estos archivos y fueron surgiendo diversos problemas, como son la eficiencia en la recuperación de información, la redundancia, la seguridad, etc. De esta manera nacieron los primeros “sistemas gestores de bases de datos”, como programas encargados de gestionar el almacenamiento y recuperación de la información, teniendo en cuenta los aspectos y problemas que esto plantea.

Una de las características del lenguaje natural, que hace difícil su utilización en sistemas computacionales es su imprecisión. Por ejemplo conceptos como pequeño o grande, tienen significados diferentes de acuerdo al contexto en el que se estén utilizando, e incluso dentro del mismo contexto, pueden significar cosas diferentes para diferentes individuos. La teoría de los conjuntos difusos desarrollada por el investigador Lofti A. Zadeh, provee una poderosa herramienta para la representación y manejo de la imprecisión por lo que actualmente está siendo utilizada en varios campos para el diseño de sistemas basados en reglas difusas. La teoría de conjuntos difusos, extiende la teoría clásica de conjuntos al permitir que el grado de pertenencia de un objeto a un conjunto sea representada como un número real entre cero y uno en vez del concepto clásico en el que solo se tiene la posibilidad de pertenecer a un conjunto o no pertenecer al mismo; en otras palabras, el grado de pertenencia a un conjunto en la teoría clásica tiene solo dos valores posibles: cero y uno.

Los modelos tradicionales de base de datos que aparecen en la literatura, sólo son capaces de manejar y representar datos ideales, y suponen que la información en ellas almacenada es exacta, correcta y está bien definida. Sin embargo, en el mundo real existe una gran cantidad y variedad de datos cuya naturaleza no permite que sean formulados de forma precisa. Esto significa que la información que se posee sobre un atributo, existe o no existe, pero no se permite ningún grado de incertidumbre o de imprecisión respecto de la misma, es decir, no se puede representar ni tratar informaciones del tipo “Eddy es más o menos flaco”. Tampoco se contempla la obtención de información en términos imprecisos a partir de la que se encuentra en la base de datos almacenada en forma precisa; así, por ejemplo, no se ofrecen mecanismos para obtener, de un atributo que almacene información sobre las características físicas de una población, aquellos individuos que sean “flacos”.

En el sentido más amplio, un sistema basado en reglas difusas es un sistema basado en reglas donde la lógica difusa es utilizada como una herramienta para representar diferentes formas de conocimiento acerca del problema a resolver, así como para modelar las interacciones y relaciones que existen entre sus variables. Debido a estas propiedades, los sistemas basados en reglas difusas han sido aplicados de forma exitosa en varios dominios en los que la información vaga o imprecisa emerge en diferentes formas. Actualmente, el modelo relacional no permite el procesamiento de consultas del tipo “Encontrar a todos los gerentes cuyo sueldo no sea muy alto” dado que ni el cálculo ni el álgebra relacional, que establecen el resultado de cualquier consulta como una nueva relación, tienen la capacidad de permitir consultas de una manera difusa.

En Francia, a principios de los años 1980, surge uno de los primeros estudios matemáticos sobre el tratamiento de la información difusa, es decir, la información que encierra alguna imprecisión o incertidumbre en una base de datos relacional. Estos fueron realizados, simultáneamente, por los investigadores Dubois y Prade, en dos tesis doctorales, a partir de los trabajos sobre la incertidumbre de Lofti Zadeh, específicamente, la teoría de la posibilidad, que tiene sus raíces en otras dos investigaciones de Zadeh: la teoría de conjuntos difusos y la lógica difusa. Sin embargo, no es hasta el año 1984, que la tesis doctoral de Testemale, propone un modelo de datos difusos, para la implementación de una base de datos relacional difusa. En los últimos años, algunos investigadores han lidiado con el problema de extender el modelo relacional para permitirle admitir algunas imprecisiones; esto conduce a sistemas de bases de datos que encajan en el campo de la inteligencia artificial, ya que permiten el manejo de información con una terminología que es muy similar a la del lenguaje natural. Una solución que aparece recurrentemente en los trabajos de investigación actuales en esta área es la fusión de los sistemas gestores de bases de datos relacionales con la lógica difusa, lo que da lugar a lo que se conoce como sistemas gestores de bases de datos difusas. El término “bases de datos difusas” designa al área de investigación que trata sobre la aplicación de los conjuntos difusos y la lógica difusa en bases de datos. Esta área busca compensar la deficiencia de los sistemas de bases de datos clásicos en representar y manipular data imperfecta y consultas flexibles o graduales. A este problema se le conoce como el problema de rigidez de las bases de datos convencionales, así que los sistemas de bases de datos que tratan de resolver este problema se califican como “flexibles”.

El problema de la implementación de los sistemas gestores de bases de datos difusas ha sido tratado en dos vertientes principales: (1) Iniciar con un sistema gestor de bases de datos relacionales con información precisa y desarrollar una sintaxis que permita formular consultas imprecisas, lo cual da origen a extensiones de consultas estructuradas, como consultas estructuradas difusas, con capacidades de manejar la imprecisión. (2) Construir un gestor de bases de datos relacionales difusas, prototipo que implemente un modelo concreto de base de datos relacional difusa en el que la información imprecisa pueda ser almacenada. Dentro de esta vertiente existen dos grandes ramas: Los modelos a través de unificación por relaciones de similitud y los modelos relacionales basados en distribuciones de probabilidades.

Los elementos relacionados con el manejo de información difusa pueden tener representaciones diferentes. Por ejemplo, una distribución normalizada de probabilidades puede ser representada por diferentes tipos de funciones: trapezoidal, triangular, intervalar, etc. Lo más usual, es que se usen funciones de tipo trapezoidal. Lo mismo puede decirse de la forma en la que se modelan los operadores relacionales difusos así como los demás elementos difusos que aparezcan en el sistema. El criterio empleado para seleccionar la forma de representación de los múltiples elementos difusos del sistema gestor de base de datos, puede afectar de manera determinante la funcionalidad y desempeño de la base de datos, por lo que debería ser uno de los puntos centrales en los que el experto ajuste la arquitectura del sistema gestor de base de datos difusa al problema específico a tratar mediante el mismo. Puede decirse entonces que este criterio de selección y ajuste constituye un paso entre la formulación de una base de datos relacional difusa y la implementación de un sistema basado en la misma.

La información que se puede manejar en una base de datos difusa puede dividirse en dos tipos principales: (1) Datos precisos. Manejados usualmente mediante la representación provista por la base de datos relacional huésped. (2) Datos imprecisos. Los modelos usualmente consideran dos tipos de representación para los datos imprecisos además de la información desconocida o indeterminada que se maneja mediante los tipos desconocido, indefinido y nulo. El primer tipo de datos imprecisos se define sobre dominios ordenados, que contiene distribuciones de probabilidad definidas en dominios continuos o discretos, pero ordenados. Los datos con analogías sobre dominios discretos se construyen sobre dominios discretos en los que existen definidas relaciones de proximidad entre sus valores. En este caso se debe almacenar la representación de los datos además de la representación de las relaciones de proximidad definidas para los valores en el dominio. El tipo de dato indefinido surge cuando un atributo toma el valor no definido, esto refleja el hecho de que ningún valor de su dominio es permitido. Por ejemplo: el número de teléfono de alguien que no tiene teléfono. El tipo de dato desconocido expresa la ignorancia sobre el valor que el atributo toma, sin embargo expresa también que puede tomar uno de los valores del dominio. Por ejemplo la fecha de nacimiento de alguien, se la desconoce pero tiene que tener alguna. El tipo de dato nulo expresa ignorancia total, en definitiva no se sabe nada sobre dicho dato.

 

Guillermo Choque Aspiazu
http://www.eldiario.net/
Marzo 1 de 2010
Sistema difuso dinámico

Sistema difuso dinámico

La teoría de conjuntos difusos fue concebida teóricamente a mediados de la década de los años 1960 por el profesor Lotfi A. Zadeh, que a la sazón trabajaba en la Universidad de Berkeley, California. La primera publicación aparecida sobre este tema data precisamente de 1965, en la revista “Information and Control”. La motivación principal que indujo al Prof. Zadeh a proponer esta teoría fue la necesidad de contar con una herramienta capaz de tratar analíticamente cierto tipo de incertidumbre que, por sus características, no puede manejarse correctamente en el marco de la teoría de probabilidades. A esta categoría pertenecen por ejemplo todas aquellas situaciones en las que los distintos parámetros se describen utilizando expresiones lingüísticas. En estos casos, todo el arsenal de técnicas matemáticas tradicionales poco puede hacer para razonar en base a estas expresiones, cosa que contrasta fuertemente con la facilidad con que los seres humanos las utilizan para evaluaciones y toma de decisiones complejas, en ambientes a menudo hostiles. En resumen, la teoría de conjuntos difusos, tal como fue concebida y posteriormente desarrollada, pretende ser el entorno adecuado para realizar razonamientos exitosos en condiciones de incertidumbre parecidas a las que afrontan los seres humanos.

Un sistema dinámico tradicional es un sistema complejo que presenta un cambio o evolución de su estado en un tiempo, el comportamiento en dicho estado se puede caracterizar determinando los límites del sistema, los elementos y sus relaciones; de esta forma se puede elaborar modelos que buscan representar la estructura del mismo sistema. Al definir los límites del sistema se hace, en primer lugar, una selección de aquellos componentes que contribuyan a generar los modos de comportamiento, y luego se determina el espacio donde se llevará a cabo el estudio, omitiendo toda clase de aspectos irrelevantes. En cuanto a la elaboración de los modelos, los elementos y sus relaciones, se debe tener en cuenta lo siguiente: (1) Un sistema está formado por un conjunto de elementos en interacción. (2) El comportamiento del sistema se puede mostrar a través de diagramas causales. (3) Hay varios tipos de variables, por una parte las variables exógenas, que son aquellas que afectan al sistema sin que éste las provoque y, por otra, las variables endógenas, aquellas que afectan al sistema pero sí éste las provoca.

En el ámbito de la ingeniería, el núcleo de cualquier solución difusa actual es un sistema lógico difuso, encargado de obtener las salidas a partir de las entradas en un proceso de tres etapas: codificación difusa, inferencia y decodificación difusa. Hasta la fecha, la totalidad de sistemas difusos efectúan sus razonamientos basándose solamente en los valores actuales de las entradas. Ello ha dado como resultado que los sistemas de inferencia difusa sean, desde el punto de vista matemático, sistemas no lineales algebraicos. Este hecho contrasta fuertemente con el entorno en que dichos sistemas suelen emplearse. En efecto, la mayoría de aplicaciones se construyen y utilizan en entornos dinámicos, los cuales son capaces de presentar comportamientos mucho más complejos que los sistemas estáticos. Cabe entonces preguntarse si el uso de sistemas difusos dinámicos, es decir, aquellos en que sus salidas dependan no sólo de los valores presentes de las entradas sino también de los pasados, aportaría mejoras respecto a las soluciones difusas actuales.

Los sistemas difusos dinámicos fueron propuestos originalmente por Chang y Zadeh en el año 1972, con el objetivo inicial de construir con ellos una teoría de control difuso. La formulación utilizada se basaba en la codificación difusa de las ecuaciones de estado de los sistemas dinámicos tradicionales discretos, permitiendo que los valores de la entrada, el estado y la salida pudiesen ser difusos. Al igual que en un sistema dinámico tradicional el nuevo estado se expresa como una función del antiguo. Esta formulación daba lugar a sistemas dinámicos no lineales, cuyo análisis y diseño planteaban numerosos problemas. La principal cuestión a resolver era el desarrollo de métodos no heurísticos que fuesen capaces de predecir la dinámica del sistema controlado o bien aspectos importantes de la misma, como la estabilidad, controlabilidad o la posible aparición de ciclos límite.

Basándose en el modelo de Chang y Zadeh, el investigador Tong estudia posteriormente el comportamiento asintótico de los sistemas de control difusos y el problema del control, es decir, si mediante el uso de un sistema difuso adecuado se puede obtener la relación entrada-salida deseable para un sistema de control. Su análisis muestra que bajo ciertas condiciones se puede resolver la versión difusa del clásico problema de la retroacción de las variables de estado. La solución pasa por resolver una ecuación relacional difusa, problema cuya utilidad ya había sido destacada anteriormente por Elie Sánchez. Cumani muestra más tarde refinamientos al método de Tong reformulando la noción de sistema difuso desde un punto de vista de la teoría de las posibilidades.

El problema de la estabilidad de los sistemas difusos dinámicos es tratado por varios autores, usando puntos de vista distintos. Así, Kickert y Mamdani, en el año 1978, hacen uso de la función descriptiva para evaluar la estabilidad. Braae y Rutherford, el año 1979, proponen el uso de las trayectorias en un plano de fase lingüístico para analizar y mejorar la estabilidad intercambiando las reglas de control. De Glas estudia el mismo problema aplicando una generalización del teorema de Lyapunov. Kiszka y sus colaboradores, ya en el año 1985, partiendo de la idea intuitiva de que un sistema dinámico es estable si su energía total almacenada decrece de forma monótona hasta un cierto equilibrio, definen los conceptos de energía de un conjunto difuso y energía de una relación difusa, construyendo a partir de ellos su método para determinar la estabilidad. A todos estos métodos, Chen y Tsao el año 1989, objetan que el uso de la composición max-min, que es no lineal, no permite obtener el comportamiento del sistema a largo plazo. Según ellos, cuando un sistema dinámico se describe de forma recursiva, como sucede en la representación de estado, la acumulación de composiciones max-min hace virtualmente imposible la observación de la dinámica del sistema porque deforma excesivamente la distribución inicial de funciones de pertenencia. En su trabajo proponen un método totalmente distinto para describir el comportamiento dinámico de los sistemas difusos. El método utilizado se basa en la correspondencia celda a celda propuesto en el año 1980 por el investigador Hsu, y consiste básicamente en discretizar el espacio de fase dividiéndolo reticularmente en celdas contiguas, y asignar a cada punto de una celda la dinámica correspondiente al punto central. Así se dividen las celdas en tres categorías: celdas pertenecientes a movimientos periódicos, celdas pertenecientes al dominio de atracción de un movimiento periódico y celdas inestables. De esta forma queda caracterizada de forma somera la evolución de la dinámica partiendo de un estado determinado.

En otro orden de cosas, Patrick Grim en el año 1993, muestra que los sistemas difusos retroalimentados pueden presentar fenómenos propios de la dinámica no lineal, tal como sucede con el caos. Para ello, calcula el grado de verdad de expresiones paradójicas desde un punto de vista clásico, como: “Esta afirmación es falsa”. Si bien Grim no trabaja explícitamente con sistemas difusos dinámicos en el sentido de Chang y Zadeh, la dinámica aparece de forma implícita debido al proceso de discretización y retroalimentación.

Sin embargo, a pesar del indudable valor teórico de todas estas aportaciones, ninguna de ellas ha propiciado la aparición de aplicaciones fundamentadas en este tipo de sistemas difusos dinámicos. En opinión de los investigadores del área, ello se debe a los siguientes motivos: (1) La relación entrada-salida de estos sistemas se describe con base en una relación difusa, y no con base en un conjunto de reglas “si-entonces”. Si bien se muestra que estas dos formulaciones son equivalentes, lo cierto es que puede ser difícil, sino imposible, establecer el conjunto de reglas que permitan encontrar el nuevo estado a partir del antiguo, dado que en la mayoría de ocasiones la información que se tiene sobre el proceso es incompleta. A lo sumo se llega a expresar de forma lingüística la relación entre entrada y salida, y no se dispone de elementos para determinar parámetros esenciales del sistema, como por ejemplo el número de estados que debe poseer. (2) Aunque se llegaran a determinar completamente las ecuaciones de estado difuso que describen al sistema, cada nuevo estado debe determinarse recursivamente en función de los anteriores, dado que no ha sido posible determinar una solución analítica del mismo en forma de expresión cerrada. Ello conlleva a que las únicas implementaciones posibles del método son forzosamente discretas.

 

Guillermo Choque Aspiazu
http://www.eldiario.net/
Diciembre 21 de 2009

Teoría de posibilidades

Teoría de posibilidades

La lógica difusa es un campo relativamente nuevo en su desarrollo y aplicación. Fue inicialmente definida por el matemático azerbayano Lotfi Ali Asker Zadeh el año 1972, como una “extensión” de la lógica de conjuntos discretos. En suma, la lógica difusa es una herramienta que permite el control de sistemas muy complejos, de los que no puede extraerse un modelo matemático. Su estructura es muy cercana a la forma en la que un ser humano procesa la información, ya que permite crear distinciones en los sistemas, como “muy caliente” o “frío”, que son entendidos por el sistema y generan una respuesta en el controlador usado. Entiéndase el controlador como aquella estructura en la que se encuentra inscrito el sistema difuso. La lógica difusa, entonces, permite una aproximación de los sistemas al razonamiento humano, y permite el manejo de incertidumbre en las decisiones tomadas por el sistema. La teoría de conjuntos difusos provee un marco de referencia matemático para representar y tratar la incertidumbre en el sentido de vaguedad, imprecisión, falta de información y verdad parcial.

La estructura de un sistema difuso está constituida por tres bloques principales: el de transformación de los valores numéricos en valores de lógica difusa; la máquina de inferencia que emplea las reglas; y el bloque de conversión de los valores de la lógica difusa en valores numéricos. En un sistema basado en lógica difusa se transforman los datos o valores numéricos de la entrada al dominio de las reglas intuitivas y lingüísticas de la lógica difusa para realizar el tratamiento de los mismos y después convertir los resultados en valores numéricos para darles la representación tradicional. En resumen, puede decirse que un sistema basado en lógica difusa actúa como lo haría una persona que tuviera que reaccionar ante términos tan imprecisos como “caluroso” o “rápido”. Si al sistema se le incluye una regla que diga “Si la temperatura es calurosa se ha de acelerar el ventilador”, se estará aplicando el principio de “acción-reacción” y el sistema funciona sin regirse por conceptos matemáticos precisos.

Un conjunto difuso se define como una función dentro del universo de discurso que define todos los grados de pertenencia de un elemento a dicho conjunto difuso. “Un conjunto difuso en un universo del discurso está caracterizado por una función de pertenencia, que toma valores del intervalo cero y uno. Un conjunto difuso en el universo del discurso puede ser representado como un grupo de pares ordenados de un elemento genérico y su grado de pertenencia a dicha función.” Para entender mejor el concepto matemático de conjunto difuso, se debe entender primero el concepto de “Posibilidad” desde el punto de vista matemático.

Los conceptos de probabilidad, posibilidad, prospecto, propensión, fortuito, casual, aleatorio, estocástico y azar forman un grupo de nociones de azar semánticamente ligadas que es parte del marco conceptual contemporáneo y por medio del cual se captura intelectualmente y se trata de entender, ciertos comportamientos peculiares que exhiben algunos sistemas físicos que estudian teorías científicas, tales como la mecánica cuántica. El concepto de probabilidad es un miembro destacado en ese grupo de conceptos de azar porque cuenta con una teoría matemática de él, la cual permite expresar de manera numérica, dentro del marco de una teoría científica, el comportamiento azaroso de los sistemas físicos. El concepto cualitativo de posibilidad está relacionado con el concepto cuantitativo de probabilidad, el cual está caracterizado formalmente por la teoría matemática de la probabilidad, de tal manera que, al menos en algunos casos, se puede representar al primero en referencia al segundo, para justificar la aseveración de que una expresión como “la probabilidad del suceso singular e” significa “el grado de posibilidad del suceso singular e”, en el contexto de una teoría física con estructura probabilista.

La teoría de probabilidades, conocida especialmente por jugadores, tan solo describe objetivamente la frecuencia con la que se puede obtener un resultado. En 1978 Zadeh desarrolló a partir de la lógica difusa, una teoría de las posibilidades. Esta teoría, dicho rápidamente, en vez de utilizar un único número como la probabilidad para describir una incertidumbre con información precisa, utiliza dos números, la medida de la posibilidad y la medida de la necesidad, o certeza, para describir las posibilidades de que ocurra un evento del que se tiene información incompleta. Existen dos números entre cero y uno para describir los grados de posibilidad de que ocurra algo y la certeza de que no ocurra.

Didier Dubois, completa la teoría de las posibilidades, criticando la teoría de juegos o teoría de la decisión matemática, presentando la teoría de las posibilidades en una teoría alternativa para la toma de decisiones cualitativa. La teoría de las posibilidades, representa exactamente como los jugadores utilizan, algo objetivo como son las probabilidades de un juego, para tomar decisiones subjetivas, sobre la posibilidad de una ocurrencia, según la información que disponen para obtener una ventaja o utilidad. Contar cartas en el juego blackjack es una aplicación de la teoría de las posibilidades. Reconocer los casos imposibles y arriesgar sobre la probabilidad restante proporciona una expectativa de realización del suceso, según la serie de cartas observada.

En cualquier experimento aleatorio, como son los juegos de azar, siempre hay incertidumbre sobre si un suceso específico ocurrirá o no. Como medida de la oportunidad o probabilidad con la que se puede esperar que un suceso ocurra es conveniente asignar un número entre cero y uno. Si se está completamente seguro de que el suceso ocurrirá se dice que su probabilidad es del cien por ciento o uno, pero si no se está seguro de que el suceso no ocurrirá se dice que su probabilidad es de cero. La probabilidad permite el acercamiento a los sucesos y su correspondiente estudio, ponderando su ocurrencia, mediante métodos para tales ponderaciones. Algunos de esos métodos conducen a descubrir que algunos sucesos tienen una mayor o menor probabilidad de ocurrir que la ponderación que se asignaría de acuerdo al sentido común. Los sentidos de las personas, la información previa que se posee, las creencias o posturas, las inclinaciones, son algunos de los factores que intervienen para no hacer ponderaciones reales y sistemáticas. La teoría de la probabilidad por tanto, permite estudiar los eventos de una manera sistemática y más cercana a la realidad, proporcionando información precisa y fiable, y por consiguiente, más útil para la toma de decisiones.

Respecto a la interrogante relacionada con que si todos los sucesos posibles, posibilidades, son probables, la respuesta es que no todo lo posible es probable. De manera que, habiendo eliminado todo aquello que es imposible, se hace lo mismo con lo probable, quedando solamente las posibilidades improbables, que constituyen el campo de lo desconocido. La idea clave que adelantaba Zadeh, era la necesidad de una diferenciación entre la probabilidad y la posibilidad, suponiendo que esta última estaba basada en la lógica difusa. Así, la posibilidad puede verse como una medida de la facilidad de logro o grado de compatibilidad, mientras que la probabilidad tiene que ver con el azar y el comportamiento aleatorio. Desde la publicación del trabajo del profesor Zadeh, la teoría de la posibilidad se ha desarrollado en varias direcciones y se han encontrado muchas aplicaciones, especialmente en el campo de los sistemas basados en el conocimiento y con soporte para la toma de decisiones. Entre las muchas contribuciones al desarrollo de la teoría de la posibilidad, merece mención especial el trabajo de los investigadores D. Dubois y H. Prade en Francia. Las diversas contribuciones fundamentales para el avance de la lógica difusa y la teoría de la posibilidad realizadas por estos investigadores, han suscitado y siguen suscitando un impacto profundo y amplio.

Conviene hacer notar que había, y aún hay, alguna controversia relativa a la conexión entre la teoría de la probabilidad, por un lado, y la lógica difusa y la teoría de la posibilidad, por otro. Dentro de la comunidad probabilística, hay todavía investigadores que afirman que no hay nada que pueda hacerse con la lógica difusa y la teoría de la posibilidad, que no hubiera podido hacerse tan bien o incluso mejor usando métodos basados en la probabilidad. Tales afirmaciones reflejan una falta de familiaridad con la lógica difusa y un mal entendimiento de lo que ésta puede ofrecer. Quizá con el paso del tiempo, los escépticos de la comunidad probabilística se darán cuenta de que la teoría de la probabilidad y de la posibilidad son complementarias y no adversarias, y que la teoría de la probabilidad necesita infundirse de conceptos difusos para reforzar su eficacia en el tratamiento de los problemas del mundo real.

 

Guillermo Choque Aspiazu
www.eldiario.net
Marzo 16 de 2009
Sistemas expertos difusos

Sistemas expertos difusos

La inteligencia artificial comenzó como resultado de la investigación en psicología cognitiva y lógica matemática. Se ha enfocado sobre la explicación del trabajo mental y la construcción de algoritmos de solución a problemas de propósito general. Punto de vista que favorece la abstracción y la generalidad. La inteligencia artificial es una combinación de la ciencia de las computadoras, la biología, la fisiología y la filosofía, tan general y amplio como eso, es que reúne varios campos, todos los cuales tienen en común la creación de máquinas que puedan “pensar”. La idea de construir una máquina que pueda ejecutar tareas percibidas como requerimientos de inteligencia humana es un atractivo. Las tareas que han sido estudiadas desde este punto de vista incluyen juegos, traducción de idiomas, comprensión de idiomas, diagnóstico de fallas, robótica, y principalmente el suministro de asesoría experta en diversos temas. Es así como los sistemas de administración de base de datos cada vez más sofisticados, la estructura de datos y el desarrollo de algoritmos de inserción, borrado y localización de datos, así como el intento de crear máquinas capaces de realizar tareas que son pensadas como típicas del ámbito de la inteligencia humana, acuñaron el término inteligencia artificial el año 1956.

Durante años de actividad, la inteligencia artificial estuvo dedicada a las investigaciones teóricas y al desarrollo de experimentos a través de programas que demostraran “actitudes inteligentes”, con estos programas se pretendía que la máquina jugara ajedrez, demostrara teoremas matemáticos, y otros. En los ya pasados años 1970 surgió un nuevo paradigma en la inteligencia artificial, los denominados “sistemas expertos”, cuya función consistía en desarrollar trabajos similares a los que desarrollaría un especialista en un área determinada, la idea no radicaba en sustituir a los expertos, sino que estos sistemas sirvieran de apoyo a los especialistas en un “dominio” de aplicación específico y ampliamente especializado.

Los sistemas expertos constituyen de manera esencial sistemas de computación basados en conocimientos cuyos componentes representan un enfoque cualitativo de la programación. Muchas personas pueden creer que un sistema experto es un sistema compuesto por subsistemas y a su vez estos por otros subsistemas hasta llegar a los programas, y que los sistemas expertos se miden por la cantidad de programas que contienen. Sin embargo la cantidad no es lo que prima en los sistemas expertos, si no la calidad del mismo, esta cualidad está dada por la separación de las reglas que describen el problema, del programa de control que es quien selecciona las reglas adecuadas. Se puede decir que un sistema experto está compuesto por una base de conocimiento, una base de hechos y una máquina de inferencias. Por otra parte estos sistemas no se miden por la cantidad de instrucciones o programas sino por la cantidad de reglas que hay contenida en su base de conocimiento. La principal diferencia entre un sistema experto tradicional con un sistema experto difuso es que el primero se encuentra basado en reglas de producción con lógica clásica y el segundo en reglas de producción con lógica difusa, bajo el supuesto que la mayoría de los ingenieros del conocimiento utiliza un formalismo de representación de conocimiento conocido como reglas de producción.

Para el desarrollo de un sistema experto difuso primero es necesario abordar un área de interés, dentro de esta área se selecciona a los expertos, que son los especialistas capaces de resolver los problemas en dicha área. Por ejemplo el área de interés de la prospección petrolera son precisamente los proyectos de inversión petrolera y un especialista podría ser un ingeniero petrolero. Ahora bien, casi siempre estos especialistas, son expertos en un dominio específico y es sobre este dominio, donde poseen su mayor experiencia. Una vez seleccionado al experto o a los expertos y que estos estén de acuerdo en proporcionar sus conocimientos, comienza a jugar su papel el “ingeniero del conocimiento”, que es el encargado de extraer los conocimientos al experto y diseñar una representación adecuada, ya sea en forma de reglas u otro tipo de representación, conformando así la base de conocimientos del sistema experto.

Por su parte la lógica difusa es una innovación tecnológica que usa métodos como la codificación difusa, reglas difusas y la decodificación difusa para permitir que el comportamiento deseado de un sistema sea descrito usando el lenguaje natural cotidiano. Sus aplicaciones van desde bienes de electrónica de consumo y aplicaciones caseras hasta procesos de ingeniería y automatización industrial. Dichas aplicaciones no se logran con el uso del modelado matemático convencional, sino con lógica difusa y su lenguaje de cómputo coloquial. La lógica difusa es una lógica aproximada al razonamiento de los seres humanos. Una disciplina matemática teórica que reacciona a los constantes cambios de las variables, reta a la lógica tradicional en que no está restringida a los valores de cómputo binarios como el cero y el uno. En cambio, permite las verdades parciales y el manejo de múltiples valores. Esta disciplina se encuentra adelantada en problemas que no pueden ser fácilmente representados por que su modelo matemático no está disponible o se encuentra incompleto. El lenguaje natural usado en el control difuso permite a los ingenieros del software incorporar la naturaleza ambigua y aproximada de la lógica humana a la computadora. El uso del modelado lingüístico, en lugar del matemático, mejora grandemente la transparencia del sistema y el potencial de modificación. Permite ciclos de desarrollo rápidos, programación sencilla y control cuasi exacto.

La lógica se reconoce como la más precisa de todas las ciencias y disciplinas teóricas. Muchas de las ciencias modernas y matemáticas se basan en sus principios de precisión. Despistan las ventajas de su exactitud, la lógica booleana clásica tiene un serio problema: no puede reproducir los patrones del pensamiento humano. Esto es porque los patrones del pensamiento humano son principalmente intuitivos. En ambos, pensamiento y lingüística humanos, las referencias a conceptos definidos vagamente son frecuentes. Un ejemplo de esto es el conjunto de gente alta, un concepto que puede ser fácilmente entendido esconde el problema del establecimiento de qué altura puede ser una persona ser considerada alta. En la lógica tradicional, la idea de “persona alta” debe ser correlacionada con una altura exacta. Sin una frontera límite sería imposible establecer si una premisa es verdadera o falsa. Si, por ejemplo, 1.90m se establece como el límite, entonces sería irracional que una persona con una altura de 1.95m sea considerada como alta y otra persona de 1.85m no lo sea. En este caso la mente humana podría pensar acerca de la fuerza y la debilidad de la relación entre un dato ejemplo y el establecimiento del límite. En lógica difusa, esto se denomina grado de pertenencia.

El hombre ha estado tratando de duplicar el pensamiento humano desde la invención de la computadora. Los sistemas expertos, el más antiguo de los campos de la investigación de la inteligencia artificial, prometen conseguirlo. Aunque en ciertas aplicaciones los sistemas expertos pueden crear patrones similares, están lejos de haber dominado la tarea. Las reglas de producción son la base de la representación del conocimiento en los sistemas expertos convencionales. En estos sistemas regidos por reglas, el comportamiento del sistema esta típicamente definido usando tres clases de términos hablados. Estas palabras describen cantidades técnicas, conjunciones y causalidades. Las reglas de producción convencionales, sin embargo, están limitadas porque no reflejan el significado oculto de las palabras específicas. Esto se refiere al hecho de que en la lingüística humana, la misma palabra puede tener varias connotaciones. Para que las reglas de producción modelen adecuadamente los patrones del pensamiento humano, ellas deben incluir esta característica. Las reglas de producción convencionales tienen otra desventaja: una precondición de validez debe ser claramente definida. Esta definición tajante no existe habitualmente en el pensamiento humano.

Los sistemas de lógica difusa son también regidos por reglas, pero ellas usan diferentes conceptos para representar a los elementos lingüísticos. Las cantidades técnicas son representadas por variables lingüísticas, esto permite a las expresiones ser más o menos verdad en uno o incluso varios conjuntos. Las reglas lingüísticas son formadas usando operadores que representan conjunciones y disyunciones lingüísticas. Finalmente, los cómputos de las mismas reglas, representadas por una causalidad lingüística, son ejecutados. Este paso es llamado inferencia difusa y en los sistemas expertos difusos su proceso se encarga a la máquina de inferencia. Como un mecanismo de complemento, los métodos de codificación difusa y decodificación difusa encadenan el sistema experto completo al proceso.

 

Guillermo Choque Aspiazu
www.eldiario.net
Marzo 2 de 2009
Matemática Difusa

Matemática Difusa

El año 1950 el gran filósofo galés Bertrand Russell recibió el Premio Nobel de Literatura. Pero, sin duda, sus aportaciones más importantes e imperecederas son las encuadradas dentro de la filosofía y de la lógica matemática. A principios de siglo Russell se interesó por la vieja paradoja griega del cretense que afirmaba que todos los cretenses mienten. En tal caso, ¿miente el cretense?. Si miente al hacer la afirmación, entonces no está diciendo la verdad, es decir, no miente. Pero si no miente, está diciendo la verdad, es decir, miente. La contradicción del cretense es evidente: su enunciado, simultáneamente, resulta ser cierto y falso. Pero, aunque lo parezca, este ejemplo no es una simple paradoja. Sus derivaciones actuales marcan multitud de procesos industriales, informáticos o económicos. En realidad esta paradoja se relaciona con el mismo corazón de la teoría de conjuntos y de la lógica moderna. El mismo Russell encontró otra paradoja semejante en la teoría matemática de los conjuntos: “El conjunto de todos los conjuntos es, a su vez, otro conjunto, por lo que sería miembro de sí mismo.”

En centro de este problema es la contradicción existente entre la lógica clásica y la lógica difusa. El origen de sus diferencias radica en lo que Aristóteles expuso como ley del tercio excluso. Lo usual en la teoría de conjuntos es que un objeto cualquiera pertenezca a un conjunto o bien no pertenezca a él, sin términos medios posibles. Así, una persona que tiene empleo pertenece al conjunto de los empleados y no pertenece al conjunto de los no empleados. O el número 8 forma parte del conjunto de los números pares, pero en absoluto del de los números impares. Un objeto no puede pertenecer simultáneamente a un conjunto y a su complementario. El funcionamiento de las computadoras está fundamentado en este tipo de lógica. El “razonamiento” de una computadora consiste en tratar con situaciones concretas y precisas que se corresponden a la disyuntiva dicotómica verdadero/falso, a través de un lenguaje binario consistente en series de unos y ceros. Pero al cerebro humano no le basta esta lógica tradicional, sino que utiliza expresiones más inciertas e indeterminadas que incluyen juicios de valor.

La inteligencia artificial pretende construir sistemas capaces de realizar las mismas funciones que caracterizan al pensamiento humano mientras que, por su parte, los sistema expertos son aplicaciones informáticas que adoptan decisiones o resuelven problemas de índole variada utilizando los conocimientos y las reglas analíticas definidas por los expertos en esos campos. Un nexo bastante utilizado entre la inteligencia artificial y los sistemas expertos es la lógica difusa. Mediante la lógica difusa la inteligencia artificial se aplica a las computadoras a fin de transformar el blanco/negro de la lógica clásica hasta los tonos de grises que caracteriza la percepción humana de un mundo que es incierto. La lógica clásica no tenía contestación para la paradoja del cretense, sin embargo para la lógica borrosa sí la hay: el cretense es un 50% veraz y un 50% mentiroso. Algo puede ser simultáneamente una porción de verdadero y la porción complementaria de falso.

Muchos de los científicos que trabajan con la teoría de la incertidumbre afirman de manera contundente que “el mundo es un lugar difuso”. Si se combina el término difuso con “lógica” se consigue una contradicción de ideas. Desgraciadamente, la palabra inglesa “fuzzy” presenta connotaciones bastante negativas. Significa incierto, impreciso, pensamiento errado. Cuando las personas piensan en lógica, es el último en precisión, roca sólida, indiscutible. Ser lógico es quizá el cumplido más alto que se puede otorgar a un científico. Cuando se habla de “lógica”, normalmente se hace referencia a la lógica de Aristóteles descubierta en el año 300 antes de Cristo. La lógica Aristotélica es la base del pensamiento occidental, habiendo sido estudiada y explorada por miles de científicos y filósofos desde sus comienzos. Esta lógica se encuentra fundamentada con base en una idea sencilla, simple pero comprendida por todos: Una proposición es solamente verdadera o falsa. Es una lógica binaria que permite solo dos valores, sin existir una posición o posiciones intermedias entre estos dos extremos absolutos.

La mayoría de los fenómenos que se encuentran a diario son imprecisos, es decir, contienen de manera implícita un cierto grado de incertidumbre en la descripción de su naturaleza. Esta imprecisión puede estar asociada con su forma, posición, momento, color, textura o incluso en la semántica que describe lo que realmente son. En muchos casos el mismo concepto puede tener diferentes grados de imprecisión en diferentes contextos o tiempos. Un día cálido en invierno no es exactamente lo mismo que un día cálido en primavera. La definición exacta de cuando la temperatura va de templada a caliente es imprecisa, no es posible identificar un punto simple de templado, tal que emigrando un simple grado la temperatura del ambiente sea considerada caliente. Este tipo de imprecisión asociado continuamente a los fenómenos, es bastante común en bastantes campos de estudio: informática, ingeniería, sociología, física, biología, psicología, oceanografía, etc.

Se acepta la imprecisión como una consecuencia natural de “la forma de las cosas en el mundo”. La dicotomía entre el rigor y la precisión del modelado matemático en muchos de los campos de la ciencia además de la intrínseca incertidumbre del “mundo real” no es generalmente aceptada por los científicos, filósofos y analistas de negocios. Es posible simplemente una aproximación a estos eventos a través de funciones numéricas y la selección de un resultado, en lugar de hacer un análisis del conocimiento empírico. Sin embargo las personas se encargan de procesar y entender de manera sencilla e implícita la imprecisión de la información, a tal punto que son capaces de formular planes, tomar decisiones y reconocer conceptos compatibles con altos niveles de vaguedad y ambigüedad.

La lógica difusa se encuentra relacionada y fundamentada en la teoría de los “conjuntos difusos”. Según esta teoría, el grado de pertenencia de un elemento a un conjunto viene determinado por una función de pertenencia, que puede tomar todos los valores reales comprendidos en el intervalo [0, 1]. No hay nada impreciso acerca de la lógica difusa, es matemática, natural y simple, fundada en el concepto “todo es cuestión de grados”, lo cual permite manejar información vaga o de difícil especificación, si se quisiera hacer cambiar con esta información el funcionamiento o el estado de un sistema específico. Por consiguiente, es posible con la lógica difusa, gobernar un sistema por medio de reglas de “sentido común” las cuales se refieren a cantidades indefinidas.

Las reglas involucradas en un sistema difuso, puede ser aprendidas con sistemas adaptativos que aprenden al “observar” como operan las personas los dispositivos reales, o estas reglas pueden también ser formuladas por un experto humano, en general la lógica difusa se aplica tanto a sistemas de control como para modelar cualquier sistema continuo de informática, ingeniería, física, biología o economía entre otros. La lógica difusa es entonces definida como un sistema matemático que modela funciones no lineales, que convierte unas entradas en salidas de acuerdo con los planteamientos lógicos que utilizan el razonamiento aproximado. Por consiguientes, la lógica difusa se adapta mejor al mundo real en el que conviven varias personas, e incluso puede comprender y funcionar las expresiones cotidianas del tipo: “hace mucho calor”, “no es muy alto”, “el ritmo del corazón está un poco acelerado”, etc. La clave de esta adaptación al lenguaje, se basa en comprender los cuantificadores o restricciones elásticas del lenguaje. En la teoría de conjuntos difusos se definen también las operaciones de unión, intersección, diferencia, negación o complemento, y otras operaciones sobre conjuntos en los que se basa esta lógica. Para cada conjunto difuso, existe asociada una función de pertenencia para sus elementos, que indican en qué medida el elemento forma parte de ese conjunto difuso.

La matemática difusa tiene una base sólida, que radica en la lógica difusa, y se destaca por la importancia de su aplicación en las diversas disciplinas, de forma tal que permita el cambio de paradigma de algunas teorías subyacentes en la toma de decisiones. Esta toma de decisiones se realiza en tres situaciones: la de certeza, donde reina la matemática convencional; la de riesgo, donde se aplica el cálculo de probabilidades; y por último, la de incertidumbre, en la cual se intenta demostrar la aplicabilidad de la matemática difusa para efectuar un tratamiento de la incertidumbre.

 

Guillermo Choque Aspiazu
http://www.eldiario.net/
Diciembre 15 de 2008
Translate »