Etiqueta: Agentes de software

Agentes conversacionales (segunda parte)

Agentes conversacionales (segunda parte)

En la tesis de maestría de Cobos, escrita el año 2013 con el título “Integración de un chatbot como habilidad de un robot social con gestor de diálogos”, se menciona que cada agente, tiene sus propias características, pero las que diferencian a los agentes conversacionales son las siguientes: (1) Autonomía. Un agente es completamente autónomo si es capaz de actuar basándose en su experiencia. El agente es capaz de adaptarse aunque el entorno cambie severamente, puede brindar diferentes formatos de respuesta, dependiendo del tipo de usuario, del tipo de pregunta realizada, etc. (2) Sociabilidad. Este atributo permite a un agente comunicarse con otros agentes o incluso con otras entidades, la cual sería la característica diferenciadora de los chatbots. (3) Racionalidad. El agente siempre realiza lo correcto a partir de los datos que percibe del entorno, sabe formular respuestas, analiza la frase introducida, son capaces de generar la respuesta más apropiada (4) Reactividad. Un agente actúa como resultado de cambios en su entorno. En este caso, un agente percibe el entorno y esos cambios dirigen el comportamiento del agente. Pueden proporcionar respuestas de diversa naturaleza. Es decir, no tienen que limitarse a brindar frases como respuestas. Pueden proporcionar enlaces dentro de la Web o incluso recursos electrónicos como respuesta. (5) Pro-actividad. Un agente es pro-activo cuando es capaz de controlar sus propios objetivos a pesar de cambios en el entorno. Pueden ser programados para comprender el contexto de la conversación y situar la pregunta en el mismo. (6) Adaptabilidad. Está relacionada con el aprendizaje que un agente es capaz de realizar y si puede cambiar su comportamiento basándose en ese aprendizaje. Se encuentra en fase de desarrollo, pero ya con avances prometedores. (7) Movilidad. Es la capacidad de un agente de trasladarse a través de una red telemática. (8) Veracidad. Es la suposición de que un agente no comunica información falsa a propósito. (9) Personalidad. Cada agente es único y depende del programador las características que quiera darle como emociones, comportamiento no verbal, entre otros.

En palabras de Navarro, en el artículo publicado el año 1997 titulado “Eliza, poder computacional y razonamiento humano”, los proyectos de investigación referentes a sistemas programados para comunicarse a través del lenguaje natural de tipo charla son los realizados por Joseph Weizenbaum, quien diseñó un agente inteligente, a través de un software que llamó Eliza, que simulaba a un experto en psicología. Este “chatbot” fue muy novedoso en su tiempo, ya que simuló de manera real a un psicólogo logrando hacer creer a las personas que estaban hablando con un ser humano, sin embargo, su diseñador estaba consciente de que no era un sistema inteligente en su totalidad ya que repetía palabras en una misma conversación. Este agente inteligente es la plataforma de la tecnología de los chatbots y la gran mayoría de las investigaciones tomaron como base a Eliza. Weizenbaum, durante el desarrollo de su programa capaz de comunicarse en lenguaje natural, de manera escrita en idioma inglés, identificó la dificultad y complejidad de que su software no podía almacenar en un solo sitio las palabras y con ellas emular una conversación de diferentes temas en un mismo diálogo, para esto en lugar de tener los datos en un sola base de conocimiento, dividió este almacén en módulos, esto le permitió al “chatbot” cambiar arbitrariamente de temas. Según Wallace, en el artículo publicado el año 2004 titulado “A.L.I.C.E. Entidad computacional lingüística artificial en Internet”, un proyecto que mejora el tratamiento de palabras y el funcionamiento de Eliza fue Alice, derivado del término original “Entidad computacional lingüística artificial en Internet”. La Fundación Alice, en el artículo publicado el año 2006 con el título “AIML: Lenguaje de Marcado de la Inteligencia Artificial”, menciona que Alice es un “chatbot” multigalardonado cuya estructura y cerebro es de “código abierto” además de ser un sistema derivado de la experiencia de Weizenbaum con Eliza, con la diferencia de que Alice cuenta con una serie de mejoras en cuanto a su funcionamiento y principalmente al tratamiento de las palabras. Shah, en la tesis doctoral publicada el año 2005 con el título “A.L.I.C.E. una entidad computacional artificial en tierra digital”, indica que las técnicas a partir de las cuales Alice realiza las conversaciones, consisten en el reconocimiento de patrones en el texto, análisis de la semántica de las frases, la gramática y la ortografía. Todo esto permite a Alice identificar el significado de una palabra de acuerdo al contexto.

Los agentes conversacionales se caracterizan por su habilidad para comunicarse con los usuarios en lenguaje natural con el objetivo de realizar una tarea específica. Debido a que el medio de comunicación principal de los agentes conversacionales es el habla y no el texto, también son conocidos como sistemas de diálogo hablado. Este tipo de sistemas se han implementado con éxito en distintos ámbitos, como puede ser la asistencia técnica, tanto vía Web como telefónica y la realización de tareas complejas en dominios concretos, por ejemplo la consulta de horarios y reserva de vuelos o trenes, reportado en el artículo de Bohus y sus colegas publicado el año 2007 con el título “Olympus: Una estructura de código abierto para la investigación de interfaces en lenguaje conversacional hablado”, o el control de elementos del entorno doméstico, reportado en el artículo de Quesada y sus colegas publicado el año 2001 con el título “Administración del dialogo en un ambiente hombre maquina: Componentes lingüísticos sobre una arquitectura de agente”. Estos sistemas de gestión del diálogo permiten al usuario completar una determinada tarea de forma secuencial. Este tipo de conversación resulta ciertamente incómoda para un gran número de usuarios debido a que las conversaciones naturales entre seres humanos no se desarrollan de una forma lineal y determinista. Por lo tanto, para lograr una mayor sensación de naturalidad y disminuir el rechazo del usuario, es necesario que el sistema pueda manejar cambios inesperados de contexto y tener capacidad para lograr diversos objetivos de forma asíncrona, tal como se indica en el artículo de Hung y sus colegas publicado el año 2009 con el título “Hacia una capa de administración del dialogo basado en contexto para sistemas expertos”.

 

Guillermo Choque Aspiazu
www.eldiario.net
21 de Septiembre de 2015

Agentes de inteligencia ambiental (segunda parte)

Agentes de inteligencia ambiental (segunda parte)

El argumento central de este artículo es el uso de agentes y sistemas multiagente. Según Bajo y sus colegas, en el artículo publicado el año 2006 titulado “SMas: Centro comercial de sistemas multiagente”, los sistemas multiagente han sido aplicados con éxito en diversos desarrollos basados en la inteligencia ambiental, en áreas como la educación, la cultura, el ocio y entretenimiento, la medicina, la robótica, etc. Grill e Ibrahim, en el artículo publicado el año 2005 titulado “Interacción de agentes en espacios de inteligencia ambiental”, mencionan que los agentes poseen características tales como autonomía, razonamiento, reactividad, habilidades sociales, pro-actividad y movilidad, entre otras. Estas características hacen que resulten adecuados para ser utilizados en la construcción de sistemas basados en el paradigma de la inteligencia ambiental

Sashima, Izumi y Kurumatani, en el artículo publicado el año 2004 titulado “Consorts: Arquitectura multiagente para la coordinación de servicios en computación ubicua”, describen un sistema multiagente para entornos de inteligencia ambiental denominado Consorts. La arquitectura de dicho sistema se encuentra compuesta por un agente personal, en cada dispositivo del usuario, el cual se comunica con otros dispositivos, con un agente de razonamiento espacio-temporal y con un agente de servicios. El agente de servicios administra los servicios web. Mediante una base de datos espacial y una ontología, se manipula la información de localización. Como escenarios de aplicación en el mundo real, se describen hogares inteligentes y espacios de eventos tales como conferencias, exposiciones, conciertos o fiestas. Captura la posición del cliente a través de los sensores de la red y el razonador espacio-temporal gestiona las distancias. Cuando se satisface una relación geométrica, el agente razonador advierte al agente de servicios, y éste envía un mensaje al usuario proveyendo los servicios adecuadamente. El principal problema que se detecta es que los servicios se ofertan ignorando cualquier tipo de preferencia del cliente.

En el artículo “Inteligencia ambiental, de la asistencia personal a las mega ciudades inteligentes”, publicado el año 2007 por Berger y sus colegas, se describen diferentes escenarios de ambientes inteligentes: Una guía personal de la ciudad, un hogar inteligente, el cuidado de la salud e infraestructuras de mega ciudades. Se propone la “Arquitectura de referencia a la inteligencia ambiental”, la cual es una arquitectura de múltiples capas, en donde cada capa depende de los servicios que proveen las capas inferiores, y no tiene conocimiento sobre las capas superiores. Asimismo, se realiza una distinción de diferentes modelos: Modelo del problema, modelo de situación y modelo del mundo. Dentro de la arquitectura se menciona que un sistema multiagente sería una herramienta relevante dadas las condiciones de coordinación necesarias en los sistemas distribuidos. Se muestra como instanciar dicha arquitectura en diferentes escenarios. Dentro de las capas de esta arquitectura se distinguen dos en especial. La primera encargada del razonamiento y actos, comportamiento basado en reglas, planificación, optimización lineal, eventos y enrutamiento, y la segunda, de la percepción y comprensión, razonamiento, control de las estructuras de descripción de recursos. En ambos casos se trabaja directamente con el uso de ontologías.

El articulo “Arquitectura de agente abierta: Una estructura para la construcción de sistemas distribuidos de software”, publicado el año 1995 por Martin y sus colegas, es una estructura para la construcción de sistemas multiagente. Dicha arquitectura está compuesta por los siguientes agentes: (1) Agente facilitador. Es una especie de agente Servidor encargado de la coordinación en la comunicación y cooperación entre agentes. (2) Agentes de aplicación. Son los agentes encargados de proporcionar servicios independientes del dominio tecnológico o dependientes del usuario y contexto. A su vez, cada agente de aplicación puede trabajar con una biblioteca específica a los fines de otorgar un servicio en particular. (3) Meta agentes. Son aquellos cuyo rol es asistir al agente facilitador en su tarea de coordinar las actividades de los otros agentes. Son los encargados de proporcionar soporte a dicho proceso mediante el conocimiento o razonamiento sobre un dominio u aplicación específica. (4) El agente interfaz de usuario. Juega un rol bastante importante, se implementa como una colección de micro-agentes, cada uno de los cuales monitorean una modalidad de entrada de datos diferentes, y realizan la interpretación de esos datos. (5) Otros agentes. Todo otro agente que se encuentre dentro del sistema, es considerado un agente cliente. Que tras una invocación, se conecta al agente facilitador, el cual es conocido como facilitador padre.

Resulta un tanto complicado intentar innovar sobre las numerosas arquitecturas multiagente existentes, sin embargo un desafío interesante para los científicos del área es la adaptación de las arquitecturas existentes a las necesidades del problema que se aborda. La arquitectura multiagente, propuesta por Fuentes, en el artículo publicado el año 2007 titulado “Estructura multiagente BDI genérica y de contexto consciente con la metodología GAIA”, es la que se adapta a cualquier dominio con características contextuales predominantes. Son tres los tipos de agentes involucrados: (1) Agente Cliente. Tiene como objetivos la negociación con agentes proveedores, la recomendación de servicios a otros agentes clientes, confiar en agentes clientes y manipular y mejorar su perfil interno, de acuerdo con los servicios recibidos. (2) Agente Proveedor. La funcionalidad de este tipo de agente es establecer diálogos con los agentes clientes, realizando tratos con ellos a fin de brindarles servicios de acuerdo a sus preferencias y perfil de usuario. La información contextual se distribuye entre los proveedores. (3) Agente Central. Es el encargado de detectar, registrar y quitar del registro a los usuarios del sistema, mejorando los perfiles de usuario, filtrando y notificando a los proveedores que tienen cerca a un potencial cliente.

 

Guillermo Choque Aspiazu
www.eldiario.net
03 de Agosto de 2015

Agentes en inteligencia ambiental (primera parte)

Agentes en inteligencia ambiental (primera parte)

En la memoria escrita el año 2014 para optar al grado de doctor, presentada por el investigador Fernández con el título “Arquitectura de pizarras distribuidas para sistemas de inteligencia ambiental”, se menciona que la información en un sistema de inteligencia ambiental es de naturaleza diversa. Los datos sin procesar de los sensores se agregan y filtran para crear información abstracta, que puede ser procesada por componentes que observan sus cambios para decidir qué acciones tomar. Este proceso involucra las siguientes tareas: Encontrar las fuentes de información disponibles y sus tipos, reunir los datos proporcionados por estas fuentes, facilitar la fusión de los fragmentos de información, y actualizar la representación de este contexto para que sea utilizada por diferentes aplicaciones. Los sistemas de inteligencia ambiental deben adaptarse a estas condiciones cambiantes para ser capaces de proporcionar sus servicios, siendo tan poco intrusivos como sea posible. También hay requisitos de rendimiento que el sistema debe cumplir para proporcionar respuestas en tiempo real a los estímulos del entorno. Los mecanismos de control oportunista, a través de agentes inteligentes, abordan estos aspectos monitorizando el contexto, y suspendiendo o resolviendo objetivos cuando las condiciones apropiadas se cumplen.

En palabras de Russell y Norvig, en el libro publicado el año 1996 con el título “Inteligencia artificial: Un enfoque moderno”, un agente es una entidad de software que puede actuar por sí mismo con el fin de alcanzar unos objetivos que se ha fijado inicialmente y además está caracterizado por una o varias cualidades tales como capacidad de razonamiento o inteligencia, percepción de su entorno y actuación con base a ciertas circunstancias, de manera reactiva. También, tiene la capacidad de actuar en forma proactiva, es decir, actúa sin necesidad de darle una orden y la habilidad de desplazarse de un lugar a otro. Según Wooldridge y Jennings, en el artículo publicado el año 1995 titulado “Agentes inteligentes: Teoría y práctica”, un agente es un sistema computacional que está ubicado en algún ambiente, y está capacitado de acciones autónomas en este ambiente para cumplir sus objetivos planteados. La primera definición general de agente, citada en la tesis doctoral de Pérez, escrita el año 2000 con el título “Sahara: Arquitectura de seguridad integral para sistemas de agentes móviles basados en Java”, fue la proporcionada por G.W. Lecky-Thompson, la cual menciona lo siguiente: “Un agente es una pieza de software que ejecuta una tarea dada usando información obtenida de su entorno para actuar de forma apropiada para completar la tarea exitosamente. El software debe ser capaz de adaptarse a sí mismo en base a los cambios que ocurren en su entorno, para que un cambio en circunstancias le permita aún obtener el resultado deseado”.

Según Horfan, en el artículo publicado el año 2005 titulado “Sistema de seguridad en redes locales utilizando sistemas multiagente distribuidos, las principales características de un sistema multiagente son: (1) Organización. Se encuentra relacionada con la estructura de las componentes funcionales del sistema, sus características, sus responsabilidades, sus necesidades y de la forma como realizan sus comunicaciones. (2) Comunicación. Es el medio por el cual los agentes comparten conocimiento y se sincronizan para llevar a cabo sus tareas conjuntamente. (3) Coordinación. Es una propiedad de un sistema de agentes que realizan alguna actividad en un ambiente compartido, esta característica se describe en detalle en el libro de Weiss, publicado el año 1999 con el título “Sistemas multiagente”. (4) Cooperación. Se refiere a la forma como los agentes trabajan conjuntamente para lograr un objetivo global, la cual depende de la configuración organizacional del sistema. (5) Control. Se encarga de estimar el tiempo para la solución de una tarea, evaluar si se ha generado una solución para una subtarea, escoger entre varias subtareas a realizar basados en su importancia y determinar el contexto que debe ser utilizado por un agente para la solución de una subtarea.

Por su parte O’Hare y sus colegas, en el artículo publicado el año 2004 con el título “Agentes inteligentes agiles”, mencionan que la inteligencia ambiental consiste en la creación de espacios donde los usuarios interactúan de forma natural y sin esfuerzo con los diferentes sistemas, gracias a que las tecnologías de computación y comunicación se vuelven invisibles para el usuario, al estar siempre presentes e integradas en los objetos cotidianos del mismo. Esta visión ha despertado un creciente interés por utilizar las tecnologías de la computación en la construcción de sistemas que soporten las actividades de la vida diaria de forma más eficiente. De esta forma, dentro de estos espacios se abarcan cualidades, como el reconocimiento y la acomodación de los diversos componentes que los constituyen, la personalización y la adaptabilidad del sistema, el entendimiento del estado en determinada situación, la colaboración y la cooperación entre componentes del sistema y las características autónomas como auto-administración y auto-reparación. Aarts y Marzano, en el libro publicado el año 2003 titulado “El nuevo diario: Opiniones sobre inteligencia ambiental”, mencionan que las cinco características principales de la inteligencia ambiental son: (1) Embebida. Muchos dispositivos conectados en red son integrados en el ambiente. (2) Sensible al contexto. Los dispositivos pueden reconocer a las personas y la situación de su contexto en un momento determinado. (3) Personalizada. Los dispositivos pueden adaptarse a las necesidades de las personas. (4) Adaptativa. Estos dispositivos pueden cambiar en respuesta a las personas y a su ambiente. (5) Anticipativa. Los dispositivos pueden anticipar los deseos sin una mediación consciente. Así, los entornos inteligentes, denominados también entornos de inteligencia ambiental, pueden implementarse en escenarios domésticos, espacios móviles, entornos públicos y espacios privados reducidos.

 

Guillermo Choque Aspiazu
www.eldiario.net
27 de Julio de 2015

Mecanismos de cooperación entre agentes

Mecanismos de cooperación entre agentes

González de Rivera hacia el año 2011, en la tesis doctoral titulada “Mecanismos de cooperación en robots como agentes móviles”, menciona que la inteligencia artificial se caracteriza por ser un área de trabajo especialmente interdisciplinario, en la que se pueden distinguir dos grandes campos de trabajo. El primero de ellos está involucrado en la creación de los elementos hardware necesarios para estar frente a un “entorno inteligente”, tales como sistemas de comunicación, sistemas biométricos, sistemas de localización, etc. El segundo de ellos se encarga del desarrollo de los algoritmos y aplicaciones de software necesarias para dar funcionalidad al hardware anteriormente mencionado. Esta amplia interdisciplinaridad, necesaria para crear sistemas que ayuden a realizar las tareas diarias a los usuarios, acarrea graves problemas a la hora de desarrollarlos. Por un lado los equipos de investigación no suelen estar especializados en todas las áreas de conocimiento necesarias, lo que hace que las investigaciones acaben en meros algoritmos funcionando sobre un simulador, en hardware poco fiable o, en el peor de los casos, solamente en meras especulaciones. Por otra parte, si el equipo se decide por realizar el trabajo completo para el desarrollo del sistema, se enfrenta a muchos problemas en múltiples campos, lo que supone una gran infraestructura y tiempo de desarrollo.

Un agente se puede concebir como una entidad computacional, especialmente ubicada en un entorno y que es capaz de mostrar un comportamiento flexible, con varias reacciones posibles ante una misma situación e interacción con otros agentes, y autónomo, con la capacidad de tomar la iniciativa sin estímulo previo. Debido a la gran cantidad de definiciones diferentes encontradas, a continuación se muestra una lista de las características más habituales que aparecen en la bibliografía, la misma se encuentra basada en el artículo escrito por Wooldridge y Jennings el año 1995, titulado “Agentes inteligentes: Teoría y práctica”, los agentes son entidades que relacionan percepciones de su entorno con acciones en su entorno, es decir, son reactivos. Son objetos computacionales con un grado variable de autonomía: (1) Los agentes toman iniciativas, es decir, no actúan simplemente en respuesta a su entorno sino que pueden actuar en base a unos objetivos propios. (2) Interactúan y se comunican mediante un lenguaje de comunicación que incorpora actos de habla como informar, preguntar, prometer y requerir. (3) Son racionales, es decir, actúan de “forma correcta”, lo cual se interpreta como que el estado mental del agente es coherente con su comportamiento. Estas características de los agentes pueden sugerir diferentes modelos, de mayor o menor complejidad. Por ejemplo, en informática, la idea de agente como un proceso software que se ejecuta de forma concurrente, que tiene una noción de estado y es capaz de comunicarse con otros agentes por paso de mensajes, es algo que se considera como un resultado natural del desarrollo del paradigma de programación concurrente orientada a objeto. Esta noción de agente es la que también se usa en la denominada “ingeniería de software basada en agentes”, cuyos productos, llamados “agentes de software” o “softbots”, son agentes que interaccionan con un entorno software mediante comandos que usan para obtener información o cambiar el estado del entorno.

Por otra parte la misma inteligencia artificial se ha inspirado en el estudio de los colectivos animales, tratando de extraer los comportamientos presentes en dichas sociedades para trasladarlos al entorno artificial. Zamora, en la tesis doctoral publicada el año 1997 con el título “Aprendizaje y estabilización de comportamientos altruistas en sociedades de agentes autónomos”, menciona que el fruto de este flujo de conocimientos, desde la observación de las sociedades biológicas hacia la robótica inteligente, en la última década ha surgido un nuevo campo de investigación denominado sistemas multiagente. En suma, se trata de la creación de equipos de trabajo formados por colecciones de agentes autónomos. Además de las propiedades inherentes a dichos agentes, de las interacciones entre ellos emergen nuevas propiedades. Estas son fundamentalmente: (1) Mayor robustez del sistema. Dada la redundancia intrínseca del sistema, el mal funcionamiento de alguno de los agentes no paraliza el cumplimiento final de la tarea sino que provoca una degradación gradual del rendimiento. (2) Emergencia de nuevos comportamientos. Al igual que la interacción de los diversos comportamientos individuales dentro de un agente provocan la emergencia de funcionalidades nuevas, las interacciones entre agentes provocan la aparición de comportamientos sociales más complejos. Mataric en el año 1994, en la tesis doctoral titulada “Interacción y comportamiento inteligente”, proporciona una interesante colección de este tipo de comportamientos colectivos emergentes. (3) Incremento en el rendimiento del sistema. El rendimiento del sistema se incrementa a través de las siguientes estrategias: (3.1) La inclusión de estrategias de cooperación entre agentes abre el camino a incrementos en el rendimiento global del sistema. (3.2) Las estrategias de especialización pueden incrementar el rendimiento del colectivo a través de una mejor distribución de los recursos en distintas subtareas. (3.3) El funcionamiento paralelo de los sistemas multiagente incrementa también el rendimiento del sistema. (4) Nuevas competencias. La posibilidad de realizar trabajos de tipo cooperativo amplia el espectro de tareas que pueden realizar los agentes. Muchas tareas son inherentemente distribuidas, en el espacio o en el tiempo o en sus partes, siendo por tanto necesario resolverlas de forma cooperativa.

 

Guillermo Choque Aspiazu
www.eldiario.net
16 de Marzo de 2015

Agentes inteligentes en educación (segunda parte)

Agentes inteligentes en educación (segunda parte)

En la tesis doctoral escrita por el investigador Celorrio, publicada el año 2010 con el título “Una arquitectura distribuida basada en agentes software para el desarrollo y el soporte de espacios de aprendizaje ubicuos”, menciona que son diversas las aportaciones en la literatura que usan los agentes dentro del campo de la educación, algunas enfocando más la parte de la teoría pedagógica y otras resaltando más la parte técnica. Desde un punto de vista más pedagógico, el investigador Jafari, en el artículo escrito el año 2002 con el título “Conceptualizando agentes inteligentes para la enseñanza aprendizaje”, proporciona un enfoque generalista en el que podría considerarse a los agentes como elementos integrados dentro del aprendizaje y la enseñanza, aportando ejemplos de agentes que podrían ayudar a los profesores y estudiantes como un ‘Agente Profesor Asistente’, que asista al profesor en las tareas pedagógicas y agregue información sobre el progreso de los alumnos, un “Agente Tutor”, capaz de encontrar y recomendar contenidos al alumno, y un “Agente Secretario”, que ayude con las tareas burocráticas. De un modo similar, Gregg, en el artículo escrito el año 2007 con el título “Agentes para la educación virtual”, habla de un hipotético entorno de enseñanza virtual en el cual un conjunto de agentes son utilizados para conseguir un aprendizaje adaptado y personalizado. Entre los agentes que introduce el autor, todo siempre desde una perspectiva teórica, se encuentran distintos agentes para seleccionar y personalizar la distribución de contenidos en función del alumno, junto con un “Agente de colaboración” capaz de ponerle en contacto mediante chat con otros alumnos. Los investigadores Gascueña y Fernández, en el artículo escrito el año 2005 con el título “Sistema tutorial inteligente para el proceso de enseñanza-aprendizaje virtual”, mencionan que desde un punto de vista más tecnológico, varias investigaciones utilizan la tecnología de agentes para aportar nuevas formas de implementar sistemas educativos ya existentes. Un ejemplo es el uso de los sistemas multi-agente para implementar “Sistemas de tutor inteligentes”.

Los sistemas tutores inteligentes comenzaron a desarrollarse en los años 1980, con la idea de impartir el conocimiento usando alguna forma de inteligencia para asistir y guiar al estudiante en su proceso de aprendizaje. Se buscó emular el comportamiento de un tutor humano, es decir a través de un sistema que pudiera adaptarse al comportamiento del estudiante, identificando la forma en que el mismo resuelve un problema a fin de brindarle ayudas cognitivas cuando lo requiera. Según Wolf, en la disertación realizada el año 1984 de su tesis doctoral titulada “Planificación dependiente de contexto en un tutor automático” define los sistemas tutores inteligentes como: “Sistemas que modelan la enseñanza, el aprendizaje, la comunicación y el dominio del conocimiento del especialista y el entendimiento del estudiante sobre ese dominio”.

Por otro lado, varios sistemas se alinean más en consonancia con elementos como son los agentes y el uso del contexto en dispositivos móviles. El investigador Kinshuk, en el artículo escrito el año 2004 con el título “Mejora de los ambientes de aprendizaje móvil mediante la aplicación de tecnología de agentes móviles”, aboga por el uso de agentes móviles, que puedan moverse entre los dispositivos clientes y el servidor, para dar soporte a entornos de aprendizaje móvil. Esmahi & Badidi, en el artículo escrito el año 2004 con el título “Estructura de trabajo basada en agentes para el aprendizaje móvil adaptativo”, presentan una arquitectura que cuenta con repositorios de perfiles de usuarios, perfiles de dispositivos y de contenidos educativos y que son empleados por diversos agentes móviles para ofrecer a los estudiantes contenidos personalizados. Los investigadores Ko, Hur, & Kim, en el artículo escrito el año 2005 con el título “Sistema de aprendizaje móvil personalizado utilizando sistemas multiagente”, presentan un sistema basado en agentes que pretende ser empleado para el aprendizaje del idioma inglés utilizando dispositivos móviles. En el artículo escrito el año 2008 con el título “Desarrollo generalizado de ambientes de aprendizaje”, por Graf y sus colegas, se discute acerca de una infraestructura de agentes para desarrollar actividades basadas en problemas al interior de entornos con dispositivos móviles. Sin embargo, se ofrecen pocos detalles acerca del escenario pedagógico de aplicación y los detalles técnicos del sistema, al comentarse que está en fase de implementación. De la misma forma, Nino y sus colegas, en el artículo escrito el año 2007 con el título “Modelo sensible al contexto en un entorno de aprendizaje ubicuo”, presenta GlobalEdu como una arquitectura adaptada al contexto para el aprendizaje ubicuo, pero tanto su modelo de contexto como la arquitectura de agentes se comentan muy superficialmente en la literatura que hay sobre ella. Esto desgraciadamente es bastante común en la mayoría de las propuestas de desarrollo de sistemas basados en agentes, las cuales muchas veces no llegan a implementarse o se quedan sólo en prototipos bastante básicos. Uno de los principales retos a los que se enfrenta la investigación en este campo es el modelado de los agentes pedagógicos, junto con su funcionalidad y estructura interna, apareciendo todos estos elementos muy vagamente descritos en la literatura en general de los sistemas basados en agentes para la educación y en concreto de los sistemas basados en agentes para el aprendizaje móvil.

 

Guillermo Choque Aspiazu
www.eldiario.net
09 de Febrero de 2015

Agentes inteligentes en educación (primera parte)

Agentes inteligentes en educación (primera parte)

Responder a la pregunta de qué es un agente resulta una tarea bastante difícil, ya que la literatura proporciona diferentes definiciones, que hacen que lo que para algunos sea un agente, para otros no tenga la suficiente entidad para ser llamado así. Los investigadores Russell y Norvig, en el libro publicado el año 1996 con el título “Inteligencia Artificial: Un enfoque moderno”, utilizan el concepto de agente como nexo de unión para todo los temas, mostrando como dotar de contenidos y funcionalidad a un agente, partiendo de los temas clásicos de la inteligencia artificial como la representación del conocimiento, la ciencia cognitiva y el razonamiento. De hecho el libro es presentado con el subtitulo de “libro del agente inteligente”. La definición que Russell y Norvig proporcionan de agente, es la de aquel ente que percibe su ambiente mediante sensores y que responde o actúa en dicho ambiente mediante efectores. La definición de agente inteligente o racional es obviamente, más restrictiva. Un agente inteligente es aquel que toma sus decisiones de actuación para favorecer lo máximo posible su medida de rendimiento. Es decir que el agente toma decisiones que le permitan desempeñar lo mejor posible sus objetivos. Esta definición es vista como simplista por otros autores, que interpretan que un agente es algo más complejo.

En muchos casos se confía no en una definición sino más bien en un conjunto de características que debe cumplir un determinado ente para ser considerado como agente. Los investigadores Woodridge y Jennings, en el libro publicado el año 1995 con el título “Teorías de agente, arquitecturas y lenguajes: Un estudio”, definen un agente como un sistema informático hardware o más frecuentemente software, que posee las siguientes propiedades: (1) Autonomía. Los agentes actúan sin la intervención directa de humanos u otros agentes y tienen algún tipo de control sobre sus acciones y estado interno. (2) Habilidad social. Los agentes interactúan con otros agentes, e incluso con humanos, por medio de algún tipo de lenguaje de comunicación de agentes. (3) Reactividad. Un agente percibe su entorno y responde de forma apropiada en un tiempo razonable a los cambios que ocurren en él. (4) Pro-actividad. Los agentes no actúan simplemente en respuesta a su entorno, sino que también deben exhibir un comportamiento dirigido por objetivos tomando la iniciativa.

Franklin y Graesser, en el artículo escrito el año 1996 titulado “¿Es un agente o simplemente un programa?”, mencionan que no existe un consenso general sobre en qué medida estas habilidades han de estar presentes dentro del agente, y que, dependiendo del tipo de aproximación utilizado para diseñar e implementar el agente, algunas características estarán más presentes que otras. Si bien es cierto que habitualmente estos son los elementos que comúnmente se consideran aceptados para suponer a un agente como “inteligente”, otras habilidades complementarias son las siguientes: (1) Personalidad. Un agente puede mostrar cualidades que muestran un carácter propio. (2) Adaptabilidad. Un agente puede aprender basándose en la experiencia y modificar su comportamiento futuro en base a ello. (3) Movilidad. Un agente puede migrar, transportando su comportamiento y estado interno, del dispositivo o nodo en el que reside a otro. En palabras de Lange & Oshima, en el artículo escrito el año 1999 titulado “Siete buenas razones para los agentes móviles”, un agente que posee esta última habilidad recibe el nombre de agente móvil y aunque éstos muestran atractivas ventajas son también cuestionados debido a los problemas de seguridad que presentan y a que dichas ventajas pueden conseguirse mediante otros medios. Cabe destacar que un agente móvil no tiene nada que ver con el tipo de dispositivo en el que reside. Es decir, que un agente no es móvil por residir en una PDA o en un teléfono móvil, sino por su capacidad de migrar entre dispositivos, sean éstos móviles o no.

Desde un punto de vista clásico de la inteligencia artificial, el investigador Newell, en el artículo publicado el año 1982 con el título “El nivel del conocimiento”, menciona que un agente puede verse como un sistema que en vez de trabajar dentro del nivel simbólico, es capaz de trabajar en el nivel de conocimiento. Los componentes dentro del nivel de conocimiento se caracterizan por tener un grado de abstracción mayor y se dividen en objetivos y acciones. De esta forma, un agente está compuesto por un conjunto de acciones que es capaz de realizar y un conjunto de objetivos que le es necesario satisfacer. El medio dentro del nivel de conocimiento es, como apunta Newell, obviamente el conocimiento. Finalmente, la principal ley de comportamiento que gobierna al agente es el denominado “principio de racionalidad”. Este principio establece que las acciones de un agente son seleccionadas para satisfacer los objetivos de dicho agente. Una característica importante es que el agente normalmente no dispone información total de lo que pasa a su alrededor, sino que dispone de conocimiento parcial del mundo, de forma similar a lo que le ocurre a cualquier persona. Con el fin de cumplir con el “principio de racionalidad”, el agente es capaz de utilizar el conocimiento que tiene sobre sí mismo y el entorno que le rodea para seleccionar las acciones más apropiadas.

 

Guillermo Choque Aspiazu
www.eldiario.net
02 de Febrero de 2015

Control domótico con agentes (segunda parte)

Control domótico con agentes (segunda parte)

En el artículo titulado “Viviendo en un ambiente inteligente”, escrito el año 2004 por los autores Cook y Youngblood, se menciona que en general, se puede definir un entorno inteligente como aquél capaz de adquirir y aplicar conocimientos acerca de sus habitantes y lo que les rodea con el fin de adaptarse a ellos y cumplir ciertos objetivos de confort y eficiencia. Dichos objetivos, en general, se encuentran orientados a adaptar las condiciones del entorno a las preferencias del usuario y a reducir el esfuerzo realizado por el usuario en la realización de sus tareas cotidianas. Para alcanzar estos objetivos, un sistema domótico se apoya en un conjunto de dispositivos que permiten obtener información sobre el entorno, los denominados sensores, y un conjunto de dispositivos que permiten alterar las condiciones de dicho entorno, los actuadores. El sistema evaluará los datos recogidos por los sensores y, con base en los objetivos previamente establecidos, empleará los actuadores para tratar de cambiar las condiciones del entorno del usuario.

Por su parte en el libro titulado “Inteligencia Artificial: Un Enfoque Moderno”, publicado el año 1996 por Russell y Norvig, se menciona que un agente es una entidad de software que puede actuar por sí mismo con el fin de alcanzar unos objetivos que se ha fijado inicialmente y además está caracterizado por una o varias cualidades tales como capacidad de razonamiento, percepción de su entorno y actuación con base a ciertas circunstancias, lo que configura la definición clásica que menciona “Agente es todo aquello que puede percibir su entorno mediante sensores y responder o actuar en el ambiente por medio de actuadores”. También, tiene la capacidad de actuar en forma proactiva, es decir, actúa sin necesidad de darle una orden y la habilidad de desplazarse de un lugar a otro, entre otras características. Wooldridge, Jennings y Kinny, en el libro publicado el año 1995 con el título “Metodología para el análisis y diseño orientado a agentes”, complementan mencionando que un agente es un sistema de computadora que está ubicado en algún ambiente, y está capacitado de acciones autónomas en este ambiente para cumplir sus objetivos planteados. La primera definición de agente más general dada por G.W. Lecky-Thompson es: “Un agente es una pieza de software que ejecuta una tarea dada usando información obtenida de su entorno para actuar de forma apropiada para completar la tarea exitosamente. El software debe ser capaz de adaptarse a sí mismo en base a los cambios que ocurren en su entorno, para que un cambio en circunstancias le permita aún obtener el resultado deseado”, definición que se menciona en la tesis doctoral de Pérez, publicada el año 2000 con el titulo “Sahara: Arquitectura de seguridad integral para sistemas de agentes móviles basados en Java”.

Marsá y sus colegas, en el artículo publicado el año 2004 con el título “Arquitectura para un sistema domótico basado en agentes”, presentan un modelo de vivienda inteligente que se apoya en el empleo de una serie de dispositivos distribuidos por todo el entorno. En función de las posibilidades de autonomía e inteligencia que ofrecen, condicionadas principalmente por su capacidad para incluir agentes, se puede dividir estos dispositivos en cuatro grupos bien diferenciados: (1) Sistema Central, que en el diseño particular se encuentra enlazado con la pasarela residencial, mencionado por Valtchev y Frankov, en el artículo publicado el año 2002 con el título “Arquitectura de servicio de puerta de enlace para una vivienda inteligente”. Contiene la plataforma que da soporte a los diferentes agentes que coexisten en la vivienda. Incluye los agentes de propósito general y de sistema, es decir, todos aquellos agentes que actúan a nivel global en la vivienda, sin estar asociados a un dispositivo sensor o actuador específico o a una localización concreta dentro de la vivienda. En general, el sistema central contiene los agentes de más alto nivel dentro de la vivienda, así como aquellos agentes que gobiernen dispositivos sin inteligencia, esto es, dispositivos domóticos que no tengan suficiente capacidad de proceso para incluir sus propios agentes. Si bien la fiabilidad del sistema central es crucial para el buen funcionamiento de los diferentes agentes distribuidos por la vivienda, cada uno de ellos dispone de un “modo seguro” de funcionamiento, que le permite ofrecer una funcionalidad adecuada aun en caso de pérdida de comunicación con el sistema central. (2) Dispositivos Personales. Cada usuario dispone de un dispositivo móvil y fácilmente portable, que contiene los agentes necesarios para identificar al usuario ante el sistema, localizarlo dentro del mismo y servirle los interfaces adecuados para los servicios a los que tenga acceso cuando sea necesario. Asimismo, cada dispositivo personal contiene la copia más actualizada de las preferencias del usuario. (3) Dispositivos con Agentes. Constituyen sensores y actuadores con cierto grado de autonomía, en general soportada a través de una máquina virtual Java empotrada. (4) Dispositivos sin Agentes. Sensores y actuadores sin autonomía ni inteligencia, gobernados por agentes que residen en el sistema central. Los dispositivos sin agentes dependen directamente del sistema central, con el que están enlazados mediante tecnología de bus estándar.

 

Guillermo Choque Aspiazu
www.eldiario.net
08 de Agosto de 2016

Control domótico con agentes (primera parte)

Control domótico con agentes (primera parte)

En la tesis de grado de Baldeón y Congacha, escrita el año 2014 con el titulo “Estudio y diseño de un sistema domótico aplicado en el edificio de laboratorios para la Facultad de Mecánica”, se menciona que al hacer referencia a domótica se hace referencia a un sistema inteligente que permite la integración de la tecnología en actividades dentro de hogares o edificios, con la finalidad de prestar diferentes servicios dentro de los mismos, como pueden ser seguridad, confort, comunicación, gestión energética, etc. El término domótica deriva de la unión de las palabras domus, que viene del latín casa, y del griego automática, que funciona por sí sola. Una edificación administrada por un sistema inteligente como se menciona, integra elementos o dispositivos mediante una red para automatizar servicios, los cuales pueden modificar sus estados de acuerdo a la variación de ciertas condiciones producidas en el entorno. En el “Manual de domótica”, publicado por Huidobro el año 2010, se indica que en sí, la domótica es aplicable a cualquier tipo de vivienda o edificio, ésta nueva tendencia contribuye a aumentar la calidad de vida de las personas, hace que una edificación sea más funcional y uno de los aspectos más relevantes es que se puede personalizar de acuerdo a los requerimientos de las personas. Un aspecto a tomar muy en cuenta en un edificio inteligente es su flexibilidad a posibles cambios en el futuro y se hace referencia a cambios que tienen que ver con su mantenimiento, reparación, actualización de equipos o adición de servicios, incluso por cambios de la distribución interna de su mobiliario.

En el proyecto de grado de los investigadores Moya y Angulo, publicado el año 2011 con el título “Diseño e implementación de una aplicación domótica en un hogar tipo mediante el uso de la tecnología Lonworks”, se menciona que la domótica como parte de las nuevas tecnologías de la información siempre buscará la intercomunicación de todos los equipos asociados a una red de control, por lo cual sus principales características son: (1) Integración. Es de vital importancia la capacidad de un sistema para que este sea integrable de manera íntegra, esto quiere decir que no puede existir problemas en las comunicaciones entre distintos equipos de diferentes fabricantes, claro está, siempre y cuando estos funcionen bajo los mismos protocolos de comunicación. (2) Interrelación. Se pueden conectar sobre la misma red a distintos tipos de dispositivos, equipos y sistemas, como por ejemplo, utilizar un mismo sensor de movimiento para los sistemas de iluminación y de seguridad contra intrusos. Sin esta característica los sistemas domóticos simplemente tendrían costos demasiado elevados además de no hablarse de la integración del sistema. (3) Facilidad de manipulación. Los sistemas domóticos serán manipulados en alrededor del noventa y cinco por ciento por personas que carecen de conocimientos en el área de la electrónica o la programación, por lo cual deberán ser completamente amigables y simples de utilizar. El usuario debe estar en la capacidad de que con pocos clics de un ratón, o unos simples botones en una consola, se puedan dominar la totalidad de los sistemas instalados en la vivienda. (4) Control a distancia. El usuario está en la capacidad de mantener el control y monitoreo de su vivienda las veinticuatro horas del día y desde cualquier lugar tal cual los estuviera realizando de manera local, por ello es necesario que se aproveche otras tecnologías como el celular y el Internet para conseguir este fin. (5) Fiabilidad. El sistema domótico funciona, con ayuda de sistemas de alimentación ininterrumpida, manejo inteligente de la energía, baterías de gran capacidad, y otros, todo el tiempo y ante cualquier falla del sistema eléctrico externo. Por otra parte se debe garantizar, en el diseño de la red, que esta no vaya a colapsar por exceso de tráfico o cualquier otro motivo similar. (6) Actualización y escalamiento. La red de control, y los equipos utilizados tienen la característica de que se puede modificar su software en el momento deseado sin realizar prácticamente ninguna intervención en el hardware de los mismos. Esto da la ventaja de modificar, mejorar o simplemente actualizar los distintos programas que controlan la vivienda sin realizar alteración alguna en el sistema físico domótico. Es importante mencionar que aunque no todos los estándares domóticos permiten tan fácilmente la escalabilidad, sí se debe procurar que exista dicha capacidad; la cual permite el aumento de la capacidad física del sistema sin que esto involucre mayores cambios en la red instalada. (7) Ahorro energético. Quizá esta es una de las características que más llama la atención de los sectores interesados en la domótica, ya que factores como la contaminación a nivel mundial, la escasez de fuentes de energía, el calentamiento global y la conciencia desarrollada en los últimos años por la humanidad en general sobre el cuidado del mundo ha hecho que poco a poco y en todas las áreas de las ciencias se busque encontrar métodos y tecnologías que hagan las mismas funciones con un consumo menor de energía que sus pares actuales. Navares, en el artículo publicado el año 2008 con el título “Inmótica y eficiencia energética: Gestión en tiempo real de las aplicaciones”, menciona que en edificaciones en las que se realiza gestión energética se ha llegado a comprobar la existencia de hasta más del cincuenta por ciento de ahorro de energía cuanto existe una automatización de alto nivel; esta cifra es más notoria en regiones en las que se utilizan sistemas de climatización, ya que estos son los responsables de alrededor del setenta y cinco por ciento del gasto energético, frente a un veinte por ciento que representa la iluminación y un cinco por ciento entre otros rubros.

 

Guillermo Choque Aspiazu
www.eldiario.net
01 de Agosto de 2016

Meta-razonamiento en agentes (segunda parte)

Meta-razonamiento en agentes (segunda parte)

En la tesis doctoral de Welicki, publicada el año 2006 con el título “Meta-especificación y catalogación de patrones de software con lenguajes de dominio específico y modelos de objetos adaptativos”, se menciona que para la mayoría de los científicos computacionales “meta” significa “acerca de” y se refiere a un nivel superior de abstracción. A modo de ejemplo se puede citar el caso de los metadatos que son “datos acerca de los datos”, otros elementos que ilustran este concepto son: Una meta-sintaxis es una sintaxis que especifica una sintaxis, un metalenguaje es un lenguaje utilizado para discutir lenguajes, metadatos son datos acerca de los datos y el meta-razonamiento se refiere al razonamiento acerca del razonamiento. En muchos casos, cuando los informáticos resuelven un problema tienden a “ir al nivel meta”. Generalmente, esto significa resolver el problema en forma más general, a un mayor nivel de abstracción, lo cual implica una solución más flexible y con mayores capacidades de adaptación a cambios en su entorno. Pero estos beneficios no son gratuitos, este tipo de soluciones tiene un mayor grado de complejidad y penalidades de rendimiento. Es por esto que el paso a un nivel meta debe ser correctamente analizado, sin dejar de tener en cuenta la relación costo-beneficio y la necesidad de negocio que se desea cubrir.

Russell, en el artículo publicado el año 1998 con el título “Meta-razonamiento”, el meta-razonamiento es cualquier proceso interesado en la operación de otro proceso computacional dentro de la misma entidad. Este término está relacionado con una distinción conceptual entre deliberación en nivel de objeto sobre entidades externas y deliberación meta-nivel sobre entidades internas. Dicho de otro modo, utilizando la nomenclatura de Raja y Lesser, descrita el artículo publicado el año 2001 con el título “Control de meta-nivel de tiempo real en sistemas multiagente”, un agente puede realizar dos tipos de decisiones: (1) Las decisiones de meta o macro-nivel gestionadas por el controlador de meta-nivel. (2) Las decisiones de planificación o micro-nivel gestionadas por el controlador de nivel de dominio. El controlador de meta-nivel se debe diseñar para tomar decisiones rápidas y baratas sobre cuántos recursos se deberán gastar en acciones de dominio y cuantos en acciones de control. Las decisiones de control iniciales se clasifican en: (1) Decisiones de Coordinación. Las cuales dictan si se coordina o no con otros agentes y cuanto esfuerzo se debe gastar en coordinación. (2) Decisiones del Planificador. Dictan si se invoca o no al planificador del nivel de dominio y cuanto esfuerzo debe ser gastado por el planificador. (3) Decisiones de Slack. Prescribirán cuanto tiempo libre o slack deberá ser incluido en una planificación para tratar con eventos inesperados.

La tesis doctoral de Carrascosa, publicada el año 2004 con el título “Meta-razonamiento en agentes con restricciones temporales críticas” realiza el análisis respectivo mencionando que las razones para incorporar la capacidad de meta-razonamiento dentro de un agente inteligente son: (1) Permitir al agente controlar sus deliberaciones al nivel de objeto, decidiendo cuales realizar y cuando parar de deliberar y actuar. (2) Permitir al agente generar comportamientos computacionales y físicos, tales como planificar para obtener información, que requiere razonamiento introspectivo o reflexivo. (3) Permitir al agente recuperarse de errores en sus deliberaciones en nivel de objeto. Se debe tener en cuenta que, tal y como se comenta en el artículo de Raja y Lesser, un agente no está ejecutándose de forma racional si en el momento en el que ha calculado una acción ya no es aplicable. Así, un agente deberá planificar o coordinar tan sólo cuando la mejora esperada supere el costo esperado. Si se gastan recursos en cantidades significativas para realizar esta meta-decisión, entonces las meta-meta-decisiones sobre si se deben gastar esos recursos deberán ser hechas en el contexto de la ganancia global de la utilidad del sistema. Para hacer esto, un agente tendrá que conocer el efecto de todas las combinaciones de acciones antes de tiempo, lo cual es intratable para cualquier problema de tamaño razonable. El problema de cómo aproximar este ideal de secuenciamiento de actividades de dominio y control sin consumir demasiados recursos en el proceso, es el problema de control de meta-nivel para un agente racional de recursos limitados.

De esta manera, y siguiendo también lo expuesto por Raja y Lesser, las actividades del agente pueden ser clasificadas en general en tres categorías: Actividades de dominio, actividades de control y actividades de control de meta-nivel. Las actividades de dominio son acciones primitivas ejecutables que logran las diversas tareas de alto nivel. Las actividades de control son de dos tipos, actividades de planificación que eligen los objetivos de alto nivel, establecen restricciones sobre cómo lograr dichos objetivos y secuencian las actividades del nivel de dominio; y actividades de coordinación que facilitan la cooperación con otros agentes con tal de lograr los objetivos de alto nivel. Las actividades de control de meta-nivel optimizan la ejecución del agente distribuyendo en los momentos adecuados las cantidades de procesador apropiadas y otros recursos a las actividades de control y de dominio.

Teniendo en cuenta que el modelo de meta-razonamiento busca el equilibrio entre realizar alguna computación atómica y ejecutar una acción real que afectará a su entorno, tal como señalan Russell y Wefald en el capítulo de libro publicado el año 1989 con el título “Principios de meta-razonamiento”; cuando se evalúa una computación tiene en cuenta sus dos efectos en la utilidad: Hace que pase el tiempo, y por lo tanto puede incurrir en un costo de oportunidad. Específicamente, esta computación causará que el agente posponga la ejecución de la siguiente acción real por al menos la duración de un paso computacional. Una computación tendrá algún efecto sobre las acciones reales elegidas por el agente. Hay dos posibles resultados de una computación. El más simple es que puede cambiar la que el agente cree que es la mejor acción. El segundo y más difícil de analizar es cuando la computación no causa realmente un cambio en la elección de la acción, sino que añade alguna información al estado del agente. Esa información adicional, en cambio, causará que computaciones posteriores cambien la elección de la acción. Esto es llamado utilidad indirecta de la computación realizada.

 

Guillermo Choque Aspiazu
https://www.eldiario.net
06 de Febrero de 2017

Meta-razonamiento en agentes (primera Parte)

Meta-razonamiento en agentes (primera Parte)

En el artículo de Fulladoza y sus colegas, publicado el año 2012 con el título “Agentes inteligentes con razonamiento dirigido por factores emocionales”, se menciona que una parte significativa de las arquitecturas de agentes con habilidades cognitivas tienen en común que, para estas, un agente está básicamente definido por un conjunto de metas, un conjunto de creencias, y un conjunto de reglas de razonamiento. Su modelo de funcionamiento se basa en la selección de metas según algún criterio y la búsqueda de reglas de razonamiento que “expliquen” cómo conseguir estas meta. Las reglas brindan información acerca de las condiciones que deben cumplirse para la verificación de la meta. Cada una de estas condiciones constituye una sub-meta que debe ser verificada a su vez mediante el cumplimiento de ciertas otras condiciones, algunas de ellas de manera satisfactoria mediante la realización de una acción. De esta forma, el modo en que un agente razona, y en consecuencia se comporta, es descubierto mediante la búsqueda descendente a través de una jerarquía de reglas tendientes a la satisfacción de una meta de orden superior.

En la tesis de maestría en educación de Carmona y Jaramillo, publicada el año 2010 con el título “El razonamiento en el desarrollo del pensamiento lógico a través de una unidad didáctica basada en el enfoque de resolución de problemas”, se indica que desde la literatura psicológica y pedagógica, el concepto de procedimiento lógico del pensamiento es entendido como aquellos procedimientos más generales, que se utilizan en cualquier contenido concreto del pensamiento, que se asocian a las operaciones lógicas del pensamiento y que se rigen por reglas y leyes de la lógica, desprendiéndose así la amplitud de su aplicación. Según Talizina, en la Conferencia impartida en la Universidad Central de Las Villas, el año 1987 con el título “Procedimientos iníciales del pensamiento lógico”, el hombre se vale de procedimientos para actuar; algunos son procedimientos específicos, como el procedimiento de resolución de ecuaciones matemáticas; otros son procedimientos generales, válidos en cualquier campo del conocimiento, pues garantiza la corrección del pensar, tales como los procedimientos lógicos del pensamiento, que representan los elementos constituyentes del pensamiento lógico. De esta manera, la estructura del pensamiento, desde el punto de vista de su corrección es a lo que se denomina formas lógicas del pensamiento, dentro de las cuales, en palabras de Campistrous señaladas en el artículo publicado el año 1993 con el título “Lógica y procedimientos lógicos del aprendizaje”, se pueden distinguir tres formas fundamentales: (1) Concepto. Reflejo en la conciencia del hombre de la esencia de los objetos o clases de objetos, de los nexos esenciales sometidos a ley de los fenómenos de la realidad objetiva. (2) Juicios. Un juicio es el pensamiento en el que se afirma o niega algo. (3) Razonamiento. Es la forma de pensamiento mediante la cual se obtienen nuevos juicios a partir de otros ya conocidos.

En la tesis de grado de Barrientos y sus colegas, publicado el año 2010 con el título “El razonamiento desde la enseñanza de conceptos matemáticos utilizando las TIC”, se indica que el razonamiento se apoya en habilidades del pensamiento, algunas se ejecutan en forma secuencial y otras simultáneamente. A mayor complejidad en los procesos, mayor número de habilidades involucradas, lo que sugiere que algunas habilidades acogen implícitamente la acción de otras subordinadas. Para hacer una aproximación a un modelado y medición del razonamiento se agrupa los patrones observables de estas habilidades en “momentos de razonamiento”, estos momentos son los siguientes: (1) Momento Perceptivo. Quien percibe, realiza una lectura de la situación, la advierte, la observa, toma los datos que se le enuncian, reconoce cualidades, cantidades, formas, símbolos, posiciones y preguntas. (2) Momento de Enfoque. Quien se enfoca comprende qué es lo que se busca. Identifica, clasifica, separa las partes del todo, establece diferencias y patrones; codifica la información nueva y la agrupa según sus características; selecciona, discrimina, formula, compara y ordena. (3) Momento Conceptual. Conceptualiza quien encuentra las características esenciales para generalizar y estructurar los objetos nuevos con los existentes; de este modo, es posible recorrer reordenando recurrentemente la representación mental: sintetizando, categorizando y sistematizando los objetos en relación con sus funciones y los flujos de información. (4) Momento Crítico. Este es el momento del análisis y la acción, quién se encuentra en esta fase operativa, utiliza su criterio para planificar su aprendizaje, el proceso de solución de un problema o la resolución de un ejercicio, eligiendo metodologías inductivas, deductivas, por analogías, o combinadas; tomando decisiones, siguiendo estrategias, utilizando la información que conoce, regulando los procesos, vinculando causas y efectos, entendiendo el porqué y desarrollando el cómo. (5) Momento Meta. Es el momento de la retroalimentación y la comunicación de resultados. Quien llega a este nivel está en condiciones de explicar las metodologías involucradas en su proceso de equilibrio cognitivo; utiliza la lógica y los argumentos para justificar sus avances y soluciones, evalúa su proceso, reconoce los espacios y tiempos de los errores, efectuando las correcciones necesarias hasta obtener resultados satisfactorios. (6) Momento Creativo. Este momento ocurre simultáneamente en cualquier etapa del proceso y se evidencia cuando el individuo es sensible a detalles inconexos y realiza combinaciones no convencionales en su estructura conceptual que desestructuran el problema reordenándolo mediante asociaciones antes no relacionadas que dan origen a soluciones alternativas. Ahora bien, dada la importante función de los conceptos en el proceso del razonamiento evidenciada en el momento conceptual y también por ser estos unos de los ejes centrales del proceso de enseñanza y aprendizaje.

 

Guillermo Choque Aspiazu
https://www.eldiario.net
30 de Enero de 2017

Translate »