Etiqueta: incertidumbre

Estadística e incertidumbre (segunda parte)

Estadística e incertidumbre (segunda parte)

Según Zadeh, en el artículo publicado el año 1999 titulado “Nacimiento y evolución de la lógica difusa, la computación suave y la computación con palabras: Un punto de vista personal”, la teoría de la lógica difusa ha constituido toda una revolución en el campo de las matemáticas. Se han formalizado nuevas disciplinas como la teoría de control difuso, las probabilidades y la estadística difusa, la optimización difusa, por sólo mencionar algunas. El cúmulo de aplicaciones también ha crecido de manera notable en los últimos años y sigue en ascenso.

La investigadora María Gil, en el artículo escrito el año 1993 titulado “Análisis y tratamiento estadístico de elementos difusos en experimentos aleatorios”, menciona que los problemas estadísticos se ocupan en su mayoría de la realización de inferencias o de la toma de decisiones acerca de una población, sobre la base de la información proporcionada por algún experimento aleatorio asociado a dicha población y, ocasionalmente, de alguna otra información complementaria. Llegar a una decisión o inferencia estadística que se encuentre respaldada por una incertidumbre absoluta sobre todos los factores de interés del problema, es un lujo frecuentemente inalcanzable. Los tipos y las fuentes de incertidumbre posibles son variados y no pueden clasificarse en una única categoría. De este modo, algunos de los tipos más comunes de incertidumbre son lo aleatorio y lo difuso, y las fuentes de incertidumbre más usuales son los errores experimentales, la falta de información, la imprecisión en la transmisión de datos, el sesgo personal y la vaguedad, entre otras. De acuerdo con la naturaleza de la incertidumbre pueden distinguirse diferentes modelos. Un modelo de incertidumbre consiste habitualmente en una clase de funciones, medidas o distribuciones, y en un sistema lógico de operadores dentro de esa clase. Los modelos de incertidumbre a los que se hace referencia son el estadístico probabilístico y el difuso. Sin duda alguna, la aproximación de la incertidumbre con mayor desarrollo y consolidación es la basada en la teoría de la probabilidad, cuyos elementos básicos son los espacios probabilísticos y sus componentes; en particular, los sucesos observables, las operaciones entre ellos y la asignación de probabilidades a esos sucesos. Esta aproximación constituye la herramienta matemática más idónea para tratar los problemas que encierran aleatoriedad, entendida esta última como la incertidumbre asociada a la “ocurrencia” de resultados, valores o clases bien definidos.

Gil citando a Zadeh menciona que para los problemas en los que algunos elementos presentan características difusas o incertidumbre asociada a la “definición” o significado de resultados, valores o clases que no están bien definidos, la teoría de conjuntos difusos ha proporcionado desde su creación un marco matemático en el que el modelado y tratamiento de ese nuevo tipo de incertidumbre pueden llevarse a cabo de forma adecuada. Los elementos básicos del modelo vienen dados en este caso por los subconjuntos difusos, sus funciones de pertenencia y las operaciones entre esos subconjuntos. Desde la introducción de la teoría de conjuntos difusos, se han dedicado diversos trabajos al análisis de su conexión con la teoría de la probabilidad desde posiciones distintas y con propósitos diferentes. Entre ellos cabe destacar los que examinan las vinculaciones de los subconjuntos difusos con conceptos probabilísticos, en concreto, la consideración de los primeros como casos especiales de términos aleatorios, y los que establecen y manejan conceptos que combinan nociones de las dos teorías. Para caracterizar un experimento aleatorio es necesario identificar todos los resultados experimentales, definir todos los sucesos de interés asociados al experimento y asignar probabilidades a esos sucesos, y en su caso, a los valores de los parámetros poblacionales.

Gil, continua mencionando que en ese sentido, a veces surgen limitaciones importantes a la hora de asignar probabilidades exactas, de manera que se ajusten mejor a la información disponible ciertas proposiciones imprecisas mediante las cuales se indica que un conjunto de resultados experimentales o de valores paramétricos, es “bastante probable” o “muy poco probable” o “más o menos probable”. Por otra parte, en el proceso de cuantificación de la variable puede asociarse a algún resultado experimental un valor impreciso, como “un número muy pequeño”, “un número elevado”, u otros; de forma análoga, aun cuando la cuantificación anterior fuera numérica el observador puede transmitir el valor de la variable aleatoria de manera imprecisa.

 

Guillermo Choque Aspiazu
www.eldiario.net
23 de Febrero de 2015

Estadística e incertidumbrte (primera parte)

Estadística e incertidumbrte (primera parte)

La inteligencia artificial y la estadística constituyen áreas de la ciencia que se han desarrollado de manera independientemente, sin embargo, cuentan con muchos problemas que abordan en común. Según Triola, en el libro publicado el año 2009 bajo el titulo “Estadística”, el término estadística se deriva de la palabra latina status, que significa “estado”. Los primeros usos de la estadística implicaron la recopilación de datos y la elaboración de gráficas, para describir diversos aspectos de un estado o de un país. En el año 1662 John Graunt publicó información estadística acerca de los nacimientos y los decesos. Al trabajo de Graunt siguieron estudios de tasas de mortalidad y de enfermedad, tamaño de poblaciones, ingresos y tasas de desempleo. Los hogares, gobiernos y empresas se apoyan mucho en datos estadísticos para dirigir sus acciones. Por ejemplo, se reúnen datos de manera cuidadosa y con regularidad para establecer las tasas de desempleo, las tasas de inflación, los índices del consumidor y las tasas de nacimientos y muertes; en tanto que los líderes empresariales utilizan los datos resultantes para tomar decisiones que afectan futuras contrataciones, los niveles de producción y la expansión hacia nuevos mercados.

Los investigadores Sánchez y Valdés en relación al caso de la estadística como ciencia, en el libro publicado el año 2003 con el título “Kolmogorov. El zar del azar”, mencionan que aunque muchos historiadores la sitúan en los trabajos de Jacob Bernoulli, la estadística moderna tendría su desarrollo en el siglo veinte, los trabajos de Karl Pearson y Ronald Fisher, que sientan las bases de la inferencia junto al estudio teórico propiciado por probabilistas como Kolmogorov o Markov que ligado al boom informático permitirán el nacimiento de la mayoría de las técnicas modernas: La inferencia, el diseño de experimentos, la fiabilidad, el control de calidad, el análisis multivariante, la teoría de juegos, la investigación operativa o la minería de datos. Podría decirse que el siglo veinte ha sido el siglo de la estadística. La panorámica de la estadística como ciencia es muy distinta a su situación en el campo educativo, pues hoy nadie discute su gran importancia, ya no como rama del conocimiento científico sino su interrelación con otras ciencias, tales como la medicina, biología, ingeniería, economía y otras, donde se usa como parte del método de investigación científica y desde donde se desarrollaron muchos métodos estadísticos.

Téllez, en la tesis doctoral escrita el año 2012 titulada “Desarrollo de Sistemas Difusos Tipo 2 Paramétricos”, menciona que el mundo real es incierto, el constante cambio, el incesante caos y la aterradora duda pueden llevar a las personas a tomar decisiones equivocadas. La vida es un sistema colmado de muchas de estas percepciones subjetivas. En todos los sistemas físicos, también se encuentran estas percepciones y los investigadores intentan convertir a las personas en inmunes a ellas utilizando herramientas que permitan predecir, planear, modelar y reaccionar a cualquiera de ellas oportunamente. En la predicción de fenómenos naturales tales como las tormentas, huracanes, heladas, por ejemplo, las variables físicas y los modelos matemáticos muchas veces no son suficientes para determinar un estado climático específico, debido a que existe mucha información del fenómeno que se desconoce. Ese desconocimiento provoca en las personas incertidumbre. La incertidumbre se encuentra en todos los aspectos de la vida, desde la percepción de la naturaleza hasta la vida social del ser humano, tal como la comunicación humana. De esta manera es como las personas se han valido de los sistemas computacionales para reducir o eliminar esa incertidumbre.

El considerado padre de la lógica difusa Lotfi Zadeh, en el artículo escrito el año 1965 con el título “Conjuntos difusos”, menciona que, los sistemas lógico difusos fueron creados para cuantificar la incertidumbre, ambigüedades e imprecisiones que caracterizan a las palabras o expresiones lingüísticas que utilizan a diario las personas para comunicarse. Para esto, Zadeh propuso una teoría de conjuntos que fuera capaz de representar expresiones lingüísticas y las relaciones entre ellas y de esta manera la llamó lógica difusa. En su obra, Zadeh presenta una teoría de conjuntos difusos caracterizado por formas convexas llamadas “funciones de pertenencia”, con las que se puede cuantificar una idea en relación a una expresión lingüística, intrínsecamente incierta, lo cual puede llevarse a varios niveles de entropía. Dependiendo el nivel de entropía se caracteriza el tipo de sistema y los conjuntos que lo componen, se tienen una representación y procesamiento específico. Posteriormente, Zadeh, en el artículo escrito el año 1975 titulado “El concepto de una variable lingüística y su aplicación al razonamiento aproximado”, sentó las bases para que la “computación con palabras”, tuviera cabida en los sistemas computacionales al usar la lógica difusa como una herramienta para cuantificar y clasificar las palabras. El centro de su investigación fue modelar las palabras mediante sistemas difusos debido a que las palabras pueden significar cosas diferentes para personas diferentes, lo cual puede generar incertidumbre en un sistema computacional. La relación que existe entre la computación con palabras y la estadística difusa es una de sus principales contribuciones.

 

Guillermo Choque Aspiazu
www.eldiario.net
16 de Febrero de 2015

Translate »