Etiqueta: Inteligencia Artificial

Inteligencia Artificial: perspectivas y realizaciones

Inteligencia Artificial: perspectivas y realizaciones

Durante mucho tiempo he conocido de cerca muchas personas que incrédulas contemplaban   como la inteligencia artificial comenzaba a crecer apoderándose de los principales titulares en seminarios, conferencias, encuentros profesionales y congresos sobre ciencias de la computación en muchos lugares del orbe.

La incredulidad, manifiesta en juicios de valor mezquinos, consideraba a esta rama multidisciplinaria como un hijo no deseado; el tiempo en su devenir ha mostrado la utilidad de la inteligencia artificial en la solución de problemas recurrentes con nuevos enfoques y paradigmas que hacen interesante su aplicación al interior de la fascinante ciencia de las computadoras.

La Inteligencia Artificial, o IA en términos cortos, es una combinación de la ciencia de las computadoras, la psicología y la filosofía. La IA cubre un espectro amplio, consistente en campos de estudio diferentes, estos van desde la visión por computadora hasta las redes neuronales y los sistemas expertos. El elemento que los campos de la IA tienen en común es la creación  o  simulación de maquinas que puedan “pensar”.

Para clasificar las maquinas como pensantes, es necesario definir inteligencia. El problema que aparenta ser simple es uno de los más complejos del área, en el entendido que la inteligencia  puede representar, por ejemplo, la solución adecuada de problemas complejos o a establecer generalizaciones y relaciones entre objetos. ¿Qué se podría decir acerca de la percepción y la comprensión? ¿Dónde podrá situarse las formas de adquisición del conocimiento? y, si el pensar es un acto natural concomitante con la naturaleza ¿Cuáles son las herramientas que se necesitan para simular un comportamiento natural del pensar humano?

Estos cuestionamientos son centrales en la concepción de este texto resumen de la inteligencia artificial. Una primera versión vio la luz en el anterior siglo, específicamente en el año 1998, cuando fue presentado como texto de lectura preliminar para la materia del mismo nombre en la Universidad Mayor de San Andrés. A inicios del siglo, y con el advenimiento acelerado de las tecnologías web, se publicó el texto en el sitio web de la UMSA. Aún es posible obtener una descarga gratuita del contenido en este sitio: www.umsanet.edu.bo\docentes \gchoque\M420texto.htm.

Cargador Cargando...
Logotipo de EAD ¿Tarda demasiado?

Recargar Recargar el documento
| Abrir Abrir en una nueva pestaña

Descargar [1.52 MB]

Agentes inteligentes en educación (segunda parte)

Agentes inteligentes en educación (segunda parte)

En la tesis doctoral escrita por el investigador Celorrio, publicada el año 2010 con el título “Una arquitectura distribuida basada en agentes software para el desarrollo y el soporte de espacios de aprendizaje ubicuos”, menciona que son diversas las aportaciones en la literatura que usan los agentes dentro del campo de la educación, algunas enfocando más la parte de la teoría pedagógica y otras resaltando más la parte técnica. Desde un punto de vista más pedagógico, el investigador Jafari, en el artículo escrito el año 2002 con el título “Conceptualizando agentes inteligentes para la enseñanza aprendizaje”, proporciona un enfoque generalista en el que podría considerarse a los agentes como elementos integrados dentro del aprendizaje y la enseñanza, aportando ejemplos de agentes que podrían ayudar a los profesores y estudiantes como un ‘Agente Profesor Asistente’, que asista al profesor en las tareas pedagógicas y agregue información sobre el progreso de los alumnos, un “Agente Tutor”, capaz de encontrar y recomendar contenidos al alumno, y un “Agente Secretario”, que ayude con las tareas burocráticas. De un modo similar, Gregg, en el artículo escrito el año 2007 con el título “Agentes para la educación virtual”, habla de un hipotético entorno de enseñanza virtual en el cual un conjunto de agentes son utilizados para conseguir un aprendizaje adaptado y personalizado. Entre los agentes que introduce el autor, todo siempre desde una perspectiva teórica, se encuentran distintos agentes para seleccionar y personalizar la distribución de contenidos en función del alumno, junto con un “Agente de colaboración” capaz de ponerle en contacto mediante chat con otros alumnos. Los investigadores Gascueña y Fernández, en el artículo escrito el año 2005 con el título “Sistema tutorial inteligente para el proceso de enseñanza-aprendizaje virtual”, mencionan que desde un punto de vista más tecnológico, varias investigaciones utilizan la tecnología de agentes para aportar nuevas formas de implementar sistemas educativos ya existentes. Un ejemplo es el uso de los sistemas multi-agente para implementar “Sistemas de tutor inteligentes”.

Los sistemas tutores inteligentes comenzaron a desarrollarse en los años 1980, con la idea de impartir el conocimiento usando alguna forma de inteligencia para asistir y guiar al estudiante en su proceso de aprendizaje. Se buscó emular el comportamiento de un tutor humano, es decir a través de un sistema que pudiera adaptarse al comportamiento del estudiante, identificando la forma en que el mismo resuelve un problema a fin de brindarle ayudas cognitivas cuando lo requiera. Según Wolf, en la disertación realizada el año 1984 de su tesis doctoral titulada “Planificación dependiente de contexto en un tutor automático” define los sistemas tutores inteligentes como: “Sistemas que modelan la enseñanza, el aprendizaje, la comunicación y el dominio del conocimiento del especialista y el entendimiento del estudiante sobre ese dominio”.

Por otro lado, varios sistemas se alinean más en consonancia con elementos como son los agentes y el uso del contexto en dispositivos móviles. El investigador Kinshuk, en el artículo escrito el año 2004 con el título “Mejora de los ambientes de aprendizaje móvil mediante la aplicación de tecnología de agentes móviles”, aboga por el uso de agentes móviles, que puedan moverse entre los dispositivos clientes y el servidor, para dar soporte a entornos de aprendizaje móvil. Esmahi & Badidi, en el artículo escrito el año 2004 con el título “Estructura de trabajo basada en agentes para el aprendizaje móvil adaptativo”, presentan una arquitectura que cuenta con repositorios de perfiles de usuarios, perfiles de dispositivos y de contenidos educativos y que son empleados por diversos agentes móviles para ofrecer a los estudiantes contenidos personalizados. Los investigadores Ko, Hur, & Kim, en el artículo escrito el año 2005 con el título “Sistema de aprendizaje móvil personalizado utilizando sistemas multiagente”, presentan un sistema basado en agentes que pretende ser empleado para el aprendizaje del idioma inglés utilizando dispositivos móviles. En el artículo escrito el año 2008 con el título “Desarrollo generalizado de ambientes de aprendizaje”, por Graf y sus colegas, se discute acerca de una infraestructura de agentes para desarrollar actividades basadas en problemas al interior de entornos con dispositivos móviles. Sin embargo, se ofrecen pocos detalles acerca del escenario pedagógico de aplicación y los detalles técnicos del sistema, al comentarse que está en fase de implementación. De la misma forma, Nino y sus colegas, en el artículo escrito el año 2007 con el título “Modelo sensible al contexto en un entorno de aprendizaje ubicuo”, presenta GlobalEdu como una arquitectura adaptada al contexto para el aprendizaje ubicuo, pero tanto su modelo de contexto como la arquitectura de agentes se comentan muy superficialmente en la literatura que hay sobre ella. Esto desgraciadamente es bastante común en la mayoría de las propuestas de desarrollo de sistemas basados en agentes, las cuales muchas veces no llegan a implementarse o se quedan sólo en prototipos bastante básicos. Uno de los principales retos a los que se enfrenta la investigación en este campo es el modelado de los agentes pedagógicos, junto con su funcionalidad y estructura interna, apareciendo todos estos elementos muy vagamente descritos en la literatura en general de los sistemas basados en agentes para la educación y en concreto de los sistemas basados en agentes para el aprendizaje móvil.

 

Guillermo Choque Aspiazu
www.eldiario.net
09 de Febrero de 2015

Agentes inteligentes en educación (primera parte)

Agentes inteligentes en educación (primera parte)

Responder a la pregunta de qué es un agente resulta una tarea bastante difícil, ya que la literatura proporciona diferentes definiciones, que hacen que lo que para algunos sea un agente, para otros no tenga la suficiente entidad para ser llamado así. Los investigadores Russell y Norvig, en el libro publicado el año 1996 con el título “Inteligencia Artificial: Un enfoque moderno”, utilizan el concepto de agente como nexo de unión para todo los temas, mostrando como dotar de contenidos y funcionalidad a un agente, partiendo de los temas clásicos de la inteligencia artificial como la representación del conocimiento, la ciencia cognitiva y el razonamiento. De hecho el libro es presentado con el subtitulo de “libro del agente inteligente”. La definición que Russell y Norvig proporcionan de agente, es la de aquel ente que percibe su ambiente mediante sensores y que responde o actúa en dicho ambiente mediante efectores. La definición de agente inteligente o racional es obviamente, más restrictiva. Un agente inteligente es aquel que toma sus decisiones de actuación para favorecer lo máximo posible su medida de rendimiento. Es decir que el agente toma decisiones que le permitan desempeñar lo mejor posible sus objetivos. Esta definición es vista como simplista por otros autores, que interpretan que un agente es algo más complejo.

En muchos casos se confía no en una definición sino más bien en un conjunto de características que debe cumplir un determinado ente para ser considerado como agente. Los investigadores Woodridge y Jennings, en el libro publicado el año 1995 con el título “Teorías de agente, arquitecturas y lenguajes: Un estudio”, definen un agente como un sistema informático hardware o más frecuentemente software, que posee las siguientes propiedades: (1) Autonomía. Los agentes actúan sin la intervención directa de humanos u otros agentes y tienen algún tipo de control sobre sus acciones y estado interno. (2) Habilidad social. Los agentes interactúan con otros agentes, e incluso con humanos, por medio de algún tipo de lenguaje de comunicación de agentes. (3) Reactividad. Un agente percibe su entorno y responde de forma apropiada en un tiempo razonable a los cambios que ocurren en él. (4) Pro-actividad. Los agentes no actúan simplemente en respuesta a su entorno, sino que también deben exhibir un comportamiento dirigido por objetivos tomando la iniciativa.

Franklin y Graesser, en el artículo escrito el año 1996 titulado “¿Es un agente o simplemente un programa?”, mencionan que no existe un consenso general sobre en qué medida estas habilidades han de estar presentes dentro del agente, y que, dependiendo del tipo de aproximación utilizado para diseñar e implementar el agente, algunas características estarán más presentes que otras. Si bien es cierto que habitualmente estos son los elementos que comúnmente se consideran aceptados para suponer a un agente como “inteligente”, otras habilidades complementarias son las siguientes: (1) Personalidad. Un agente puede mostrar cualidades que muestran un carácter propio. (2) Adaptabilidad. Un agente puede aprender basándose en la experiencia y modificar su comportamiento futuro en base a ello. (3) Movilidad. Un agente puede migrar, transportando su comportamiento y estado interno, del dispositivo o nodo en el que reside a otro. En palabras de Lange & Oshima, en el artículo escrito el año 1999 titulado “Siete buenas razones para los agentes móviles”, un agente que posee esta última habilidad recibe el nombre de agente móvil y aunque éstos muestran atractivas ventajas son también cuestionados debido a los problemas de seguridad que presentan y a que dichas ventajas pueden conseguirse mediante otros medios. Cabe destacar que un agente móvil no tiene nada que ver con el tipo de dispositivo en el que reside. Es decir, que un agente no es móvil por residir en una PDA o en un teléfono móvil, sino por su capacidad de migrar entre dispositivos, sean éstos móviles o no.

Desde un punto de vista clásico de la inteligencia artificial, el investigador Newell, en el artículo publicado el año 1982 con el título “El nivel del conocimiento”, menciona que un agente puede verse como un sistema que en vez de trabajar dentro del nivel simbólico, es capaz de trabajar en el nivel de conocimiento. Los componentes dentro del nivel de conocimiento se caracterizan por tener un grado de abstracción mayor y se dividen en objetivos y acciones. De esta forma, un agente está compuesto por un conjunto de acciones que es capaz de realizar y un conjunto de objetivos que le es necesario satisfacer. El medio dentro del nivel de conocimiento es, como apunta Newell, obviamente el conocimiento. Finalmente, la principal ley de comportamiento que gobierna al agente es el denominado “principio de racionalidad”. Este principio establece que las acciones de un agente son seleccionadas para satisfacer los objetivos de dicho agente. Una característica importante es que el agente normalmente no dispone información total de lo que pasa a su alrededor, sino que dispone de conocimiento parcial del mundo, de forma similar a lo que le ocurre a cualquier persona. Con el fin de cumplir con el “principio de racionalidad”, el agente es capaz de utilizar el conocimiento que tiene sobre sí mismo y el entorno que le rodea para seleccionar las acciones más apropiadas.

 

Guillermo Choque Aspiazu
www.eldiario.net
02 de Febrero de 2015

Recorrido a través de la Programación Genética

Recorrido a través de la Programación Genética

En este artículo se realiza un recorrido a través de los conceptos iniciales de la programación genética, se utiliza la noción de los árboles de análisis para presentar la manera de discretizar los problemas en su paso hacia su solución mediante paradigmas computacionales, se emplean los estudios relativos al lenguaje LISP en analogía con los árboles de análisis, útiles necesarios para la comprensión de la manera en la que se enfoca el desarrollo de soluciones en la programación genética.

Cargador Cargando...
Logotipo de EAD ¿Tarda demasiado?

Recargar Recargar el documento
| Abrir Abrir en una nueva pestaña

Descargar [2.66 MB]

Inteligencia Artificial

Inteligencia Artificial

La inteligencia artificial es una rama de la ciencia de las computadoras que estudia los requerimientos computacionales para tareas tales como la percepción, el razonamiento y el aprendizaje, y desarrolla sistemas para ejecutar dichas tareas. El año 2006 se cumplen cincuenta años de la Conferencia de Dartmount. Pero a pesar del tiempo transcurrido, el problema de encontrar las minuciosas descripciones del cerebro y de la mente, supuestos elementos asociados a la inteligencia, que fue mencionado en la propuesta de 1955 sigue tan vigente hoy, como ayer, a pesar del variado abanico de ciencias que la abordan y estudian. En esta propuesta se consideran las bases conceptuales de la inteligencia artificial, la prueba de Turing para verificar el grado de inteligencia de una máquina, el impacto de aplicaciones contemporáneas de la inteligencia artificial y los factores principales por los cuales este campo fértil de la ciencia de las computadoras es actualmente un icono en la investigación teórica y aplicada.

Cargador Cargando...
Logotipo de EAD ¿Tarda demasiado?

Recargar Recargar el documento
| Abrir Abrir en una nueva pestaña

Descargar [2.49 MB]

Bases de la Vida Artificial

Bases de la Vida Artificial

La vida artificial es una de las ramas de la ciencia de la complejidad que con énfasis se presta a resolver problemas no convencionales con un nuevo tipo de visión que se extracta de la fusión de lo computacional con lo biológico. La historia de la vida artificial tiene su inicio en septiembre de 1987, cuando se lleva a cabo el primer encuentro en el Laboratorio de Los Álamos patrocinado por el Centro de Estudios No-Lineales del Instituto de Santa Fe y la compañía de computadoras Apple. La vida artificial se ocupa de la investigación y el desarrollo de modelos de sistemas vivos, modelos matemáticos para analizar el origen de la vida, autómatas que se reproducen de manera propia, programas computacionales que utilizan los mecanismos de la evolución darwiniana para producir ecosistemas coadaptados, simulaciones del crecimiento de plantas artificiales y muchas otras cosas involucradas en este dominio.

 

Cargador Cargando...
Logotipo de EAD ¿Tarda demasiado?

Recargar Recargar el documento
| Abrir Abrir en una nueva pestaña

Descargar [41.21 KB]

Redes Neuronales y Algoritmos Genéticos

Redes Neuronales y Algoritmos Genéticos

Uno de los problemas grandes con los que tropieza el diseño de las redes neuronales es la asignación de los pesos iniciales para los procesos de aprendizaje de la red neuronal, esta tarea normalmente se encarga a un experto del dominio, quien es el encargado de asignar de manera aproximada estos valores. En este trabajo se propone la revisión de los paradigmas de las redes neuronales y los algoritmos genéticos, con la perspectiva de lograr que la característica evolucionaría de los algoritmos genéticos para que puedan colaborar al ajuste adecuado y casi automático de las pesos iniciales de las redes neuronales.

Cargador Cargando...
Logotipo de EAD ¿Tarda demasiado?

Recargar Recargar el documento
| Abrir Abrir en una nueva pestaña

Descargar [47.44 KB]

Inteligencia Emocional

Inteligencia Emocional

Las emociones comienzan a jugar un rol importante en aspectos esenciales de la vida del ser humano, comprender la inteligencia emocional como objetivo para lograr un equilibrio armónico entre cabeza y corazón parece ser el principio de un área grande de estudio e investigación. El presente trabajo menciona las bases de la inteligencia emocional e indica los fundamentos del nuevo lenguaje del corazón para el desarrollo integral del ser humano.

Cargador Cargando...
Logotipo de EAD ¿Tarda demasiado?

Recargar Recargar el documento
| Abrir Abrir en una nueva pestaña

Descargar [29.37 KB]

Inteligencia artificial emergente

Inteligencia artificial emergente

De manera inicial y para entender el concepto de inteligencia artificial, y de cómo fue surgiendo esta ciencia, Steven Johnson señala, en el libro escrito el año 2004 titulado “Sistemas Emergentes: O qué tienen en común hormigas, neuronas, ciudades y software”, cómo diferentes sistemas, las colonias de hormigas, las ciudades y hasta el cerebro humano, tienen un comportamiento complejo que surge a partir del comportamiento individual de los componentes del sistema, siguiendo reglas simples, y la interacción existente entre ellos. Es decir, se observa un comportamiento ascendente. El descubrimiento de la inteligencia colectiva y la conducta ascendente ha sido fundamental para el desarrollo de las nuevas tecnologías de la información y el surgimiento de la inteligencia artificial. Pasada la primera década del siglo veintiuno, las investigaciones sobre inteligencia artificial van tomando mayor relevancia, y muchas de sus aplicaciones forman parte de la vida cotidiana de las personas. Las fábricas están llenas de robots que reemplazan el trabajo humano, los nuevos dispositivos electrónicos tienen inmersa una especie de inteligencia que hace que se adapten a las preferencias de las personas, entre tantas otras. Principalmente en Europa y Norte América, son numerosos los prototipos y experimentos que se realizan frecuentemente con el objetivo que este comportamiento emergente e inteligente asista al ser humano en sus actividades diarias, mejorando su calidad de vida.

La inteligencia artificial surgió en el año 1956 y se puede definir de muchas formas, una como otra cualquiera es que la inteligencia artificial es la rama de la computación y de la robótica que permite que las máquinas realicen tareas, de manera que si fueran realizadas por humanos, serían calificadas de operaciones o decisiones inteligentes. Según Víctor Méndez, en la tesis de grado escrita el año 2007 de titulo “técnicas de inteligencia artificial emergente aplicadas al servicio de replicación de datos de arquitecturas grid”, una de las dificultades de la inteligencia artificial clásica en los estudios cognitivos, es que aportan más conocimiento de los mecanismos del cerebro, que de los principios subyacentes al problema concreto. Enfrentando esta limitación y a partir de la inteligencia artificial, nace la “computación evolutiva”, basada en la mutación genética al azar y la reproducción, de un conjunto de seres virtuales. La computación evolutiva es parte de lo que se viene a denominar como “vida artificial”, mientras que la inteligencia artificial estudia la inteligencia para solucionar problemas, la vida artificial estudia el comportamiento de seres, también para solucionar problemas. En el caso de la computación evolutiva, el modelo se basa en las leyes de la evolución de las especies. Posteriormente apareció la inteligencia artificial emergente, como otra rama de la vida artificial. En este caso se prescinde de la información genética de los seres, centrándose en alguna faceta social concreta, que pudiera tener similitud con los problemas, como por ejemplo la búsqueda de comida. La principal ventaja de la inteligencia artificial emergente frente a la computación evolutiva, es que permite una mejor adaptación al problema específico, ya que no es necesaria la traducción entre el código genético y el dominio del problema. Dicho de otra forma la computación evolutiva permite definir las operaciones emergentes en términos directos de las especificaciones del problema.

En las distintas aproximaciones al problema de la localización y selección de réplicas se puede observar una tendencia a simplificar el uso de las arquitecturas utilizadas. Era el caso de los árboles planos en estructura de anillo o del mecanismo entre-pares del servicio de localización de réplicas basado en tablas hash distribuidas entre pares. El límite teórico a esta tendencia es la necesidad de mantener un servicio de localización y selección determinístico, con una interfaz explicita, más o menos consistente, de acceso al espacio de localización de nombres global. La inteligencia emergente puede cubrir estas necesidades heurísticas. Ello hace plantear un mecanismo que aporte una información local del espacio de localización y un modelo de selección no determinístico, es decir que no necesite una interfaz explícita de acceso al espacio de localización; que por contra funcione a partir de estadísticas de acceso genéricas y catálogos de ficheros locales que mediante cierta heurística pueda llegar a conformar una interfaz implícita del espacio de localización de archivos.

Siguiendo el enfoque de Méndez, en una revisión del estado del arte hasta el año 2007 las dos técnicas más relevantes del campo de la inteligencia artificial emergente constituyen: (1) Optimización por enjambre de partículas, con investigaciones relevantes realizadas por Shi y Eberhart, en el artículo publicado el año 1998 relacionado con “un optimizador de enjambre de partículas modificado”, además del mini tutorial publicado el año 2002 por los investigadores Eberhart y Kennedy. (2) Optimización por colonias de hormigas, con el trabajo destacado realizado por los investigadores Dorigo, Maniezzo y Colorni, en el reporte técnico titulado “Sistema de hormigas: Un proceso de optimización auto catalítico”. Ambas técnicas con probada eficacia en numerosos campos de la ciencia de la computación.

La optimización por enjambre de partículas es una técnica incluida en la computación evolutiva y fue desarrollada por los investigadores Eberhart y Kennedy el año 1995. Es una herramienta de optimización basada en poblaciones, similar a los algoritmos genéticos, y en concreto más parecida a modelos de poblaciones de hormigas que se comentaran en el siguiente punto. Está inspirada en el comportamiento social de las abejas, o en los movimientos de las bandadas de pájaros, para aplicarse en problemas de optimización. La optimización por enjambre de partículas presenta distintos parámetros a ajustar que le hacen más flexible que los algoritmos genéticos, con aplicaciones en optimización funcional, entrenamiento de redes neuronales, sistemas de control difusos u otras áreas donde los algoritmos genéticos pueden ser aplicados.

El algoritmo de la optimización por enjambre de partículas es bastante sencillo: Un enjambre de partículas realiza una búsqueda aleatoria de la solución en un espacio de muchas dimensiones. Sólo hay una solución en el espacio de búsqueda en cada momento. Cada partícula no sabe dónde está la solución, pero conoce a qué distancia se encuentra de ella en cada iteración. Las partículas conocen a qué distancia están el resto de partículas. La estrategia es seguir a la partícula que se encuentre más cerca de la solución. Una vez inicializado el enjambre de partículas, busca el óptimo mediante actualizaciones de las iteraciones. La diferencia principal con los algoritmos genéticos, donde las iteraciones tomaban la forma de generaciones, es que no existen operadores evolutivos como la mutación o el apareamiento. En la optimización por enjambre de partículas las soluciones potenciales, llamadas partículas, se mueven a lo largo del espacio del problema guiadas por su propia trayectoria y por la posición de las partículas óptimas actuales.

Respecto a la optimización por colonias de hormigas, los sistemas basados en el comportamiento de las hormigas fueron propuestos por el grupo de los investigadores Dorigo, Maniezzo y Colorni a principios de los años 1990 y algo después ampliamente formalizados como algoritmos de optimización. Suponen una aproximación multi-agente a complejos problemas de optimización combinatoria como son el problema del agente viajero y el problema de asignación cuadrática. Los algoritmos de hormigas están inspirados en la observación de hormigueros. Las hormigas son insectos sociales, esto es, insectos que viven en colonias y cuyo comportamiento está destinado a la supervivencia de la colonia como un todo, más que aquel comportamiento que atañe sólo a una hormiga. Como se veía con la optimización por enjambre de partículas y las abejas, los insectos sociales han captado la atención de muchos científicos debido al alto grado de estructuración que pueden alcanzar sus colonias, con base en unas sencillas pautas de comportamiento individual. En concreto y al igual que ocurría con las abejas, resulta especialmente interesante cómo encuentran las rutas más cortas entre la comida y el hormiguero.

Mientras buscan o regresan con comida, las hormigas depositan en el suelo una sustancia llamada feromona, formando vías de feromonas que otras siguen. Las hormigas pueden oler estas feromonas y cuando eligen su camino tienden a elegir en términos probabilísticos las rutas marcadas con concentraciones de feromonas más altas. Estas vías permiten a las hormigas encontrar fácilmente el camino de vuelta al hormiguero. Así mismo permite a otras hormigas encontrar las fuentes de comida más cercanas. Por otro lado la concentración de feromonas va perdiendo intensidad conforme discurre el tiempo. Además, cuando la concentración alcanza un umbral de saturación produce el efecto contrario a la hora de la elección probabilística en la búsqueda de comida. Las hormigas que retornan con comida no se ven afectadas por el umbral de saturación, pero las que van en búsqueda sí que lo hacen, esto es una respuesta al hecho probable de que ya no se encuentre m´as comida en una vía de feromonas sobre-explotada.

Referencias Bibliográficas

  • Dorigo M., V. Maniezzo, and A. Colorni (1991) The ant system: An autocatalytic optimizing process. Technical report no. 91-016 revised. Technical report, Politecnico di Milano, 1991.
  • Eberhart and Kennedy (2002) Particle swarm optimization: mini tutorial, 2002.
  • Johnson Steven (2004) Sistemas Emergentes: O qué tienen en común hormigas, neuronas, ciudades y software. Ediciones Turner/Fondo de Cultura Económica. Madrid, 2004.
  • Méndez Muñoz Víctor (2007) Técnicas de inteligencia artificial emergente aplicadas al servicio de replicación de datos de arquitecturas grid. Tesis de doctorado de la Escuela politécnica superior de la Universidad Carlos III de Madrid.
  • Shi R.C., Y. Eberhart. (1998) A modified particle swarm optimizer. In Proceedings of the IEEE International Conference on Evolutionary Computation, pages 69–73. IEEE Press. Piscataway, NY.
Guillermo Choque Aspiazu
Artículo no publicado por El Diario
Sistemas de recomendación

Sistemas de recomendación

Antes de la llegada de Internet un consumidor de cualquier tipo de producto tenía un acceso limitado a la información relacionada tanto con el producto en si como con otras posibles opciones. La publicidad se convertía así en prácticamente la única forma de dar a conocer un producto, y el problema del usuario era como conseguir una información veraz. En el caso de productos culturales como la música, la radio o las revistas especializadas actuaban como únicos difusores de lo nuevo. Ahora la situación se ha invertido totalmente. De la escasez de información se ha pasado a la saturación. De disponer de algunas estanterías con discos compactos y videos en el centro comercial más cercano se ha pasado a tener acceso a una cantidad inagotable de creaciones culturales en tiendas online o en redes persona a persona. Ahora el problema se ha tornado en como separar lo que se quiere de lo que no se quiere encontrar. Una aproximación para intentar ofrecer a cada persona lo que busca es mediante el análisis del contenido. Para ello se hace una representación del contenido de cada elemento del conjunto y se compara con una representación del contenido que el usuario está buscando. Este filtrado basado en contenido es efectivo principalmente para encontrar documentos textuales en función de unos criterios de búsqueda. Sin embargo es más difícil parametrizar de forma automática contenidos multimedia. Aquí es donde están comenzando a jugar un papel importante los sistemas de recomendación. La idea que subyace tras ellos es encontrar usuarios con gustos similares a los de otro determinado y recomendar a éste cosas que desconoce pero que gustan a aquellos con los que se tiene similitud. Es decir, un sistema de recomendación es un amigo virtual cuyos gustos son una mezcla de los gustos de miembros de la comunidad de usuarios con gustos similares a los de uno mismo.

Según el investigador P. Resnick y sus colegas, en el artículo escrito el año 1995 relacionado con “GroupLens: Una arquitectura abierta para el filtrado colaborativo de noticias en la red”, a principios de la década de los años 1990 empezaron a surgir dentro de los servicios de grupos de noticias, los servicios de filtrado de noticias que permitían a su comunidad de usuarios acceder exclusivamente a aquellas noticias que potencialmente podían ser de su interés. No obstante, el primer sistema de recomendación que apareció fue el llamado “Tapestry”, desarrollado por XeroX PARC. Tapestry es un sistema que permite almacenar el conocimiento de los usuarios sobre los artículos o noticias que éstos han leído y posteriormente es utilizado por otros usuarios que aún no han leído el artículo o noticia, para establecer si la información del documento es relevante o no. En un principio este tipo de sistemas fue adoptado con el nombre de filtro colaborativo dado que permite que los usuarios creen filtros a través de sus ítems de interés, en el caso de Tapestry artículos o noticias, y colaborativo pues los usuarios añaden las anotaciones con las opiniones sobre los documentos. Las opiniones añadidas pueden ser utilizadas para las búsquedas de otros usuarios. Los investigadores Resnick y Varian, en el artículo publicado el año 1997 sobre “sistemas de recomendación”, proponen llamar a este tipo de sistemas con el nombre de “sistemas de recomendación”, dado que por esa fecha estos sistemas no sólo se limitaban al filtro de información y habían aparecido nuevos sistemas en el que no se utilizaban las opiniones de otros usuarios.

En un comienzo los sistemas de recomendación eran conocidos tan sólo como filtros colaborativos y los primeros trabajos datan de principios de los años 1990. El termino fue acuñado el año 1992 para un sistema de filtrado de correo electrónico no automatizado. En 1994 se desarrollo el primer taller en Berkeley donde se vio la utilidad en diversas áreas de los primeros algoritmos simples de este tipo. También se identificaron algunas cuestiones importantes para el desarrollo de estos algoritmos: Escalabilidad, viabilidad económica, puntuaciones implícitas y explicitas. Uno de los grupos de investigación pioneros en el desarrollo del filtrado colaborativo fue el proyecto GroupLens de la universidad de Minnesota que aún permanece muy activo y que ha proporcionado una gran parte de la base algorítmica de muchos sistemas de recomendación. Fueron los primeros en introducir el filtro colaborativo automático usando un algoritmo de búsqueda de vecinos para proporcionar predicciones en los grupos de noticias de USENET. De este grupo de investigación partió también la iniciativa empresarial NetPerceptions, despejando gran parte de las dudas acerca de la viabilidad económica de estos proyectos. En la actualidad es un campo que se encuentra muy activo y genera un gran número de publicaciones y congresos todos los años. Y es que el filtrado colaborativo es un aspecto de gran importancia dentro de las redes sociales y la pequeña revolución que ha supuesto la llamada “Web 2.0”.

A lo largo de los años la definición de los sistemas de recomendación ha ido evolucionando y siempre ha ido ligada con el avance de las nuevas técnicas o ideas que iban surgiendo en la literatura de los sistemas de recomendación. Así pues, como se ha mencionado en párrafos precedentes, a partir del año 1997 empieza a aparecer un cambio significativo en la forma de denominar estos sistemas, pasando de ser llamados “sistemas de filtrado colaborativo” a “sistemas de recomendación”. Ya en el año 2004 las definiciones contemplan los sistemas de recomendación mixtos. Por otro lado, cabe destacar que en los últimos años, los sistemas de recomendación han sido ampliamente utilizados en el ámbito del comercio electrónico, aspecto que queda plasmado en la definición dada por Kim y sus colegas, en el artículo escrito el año 2005 titulado “desarrollo de un sistema de recomendación basado en patrones navegacionales y de conducta en sitios de comercio electrónico”, que menciona: “Un sistema de recomendación es una solución típica de software utilizada en el comercio electrónico para servicios personalizados. Ayuda a los consumidores a encontrar los productos que ellos quisieran comprar a través de recomendaciones basadas en sus preferencias, y es utilizado de manera parcial en sitios de comercio electrónico que ofrecen millones de productos a la venta.”

Según afirma Burke, en el artículo publicado el año 2002 sobre “Sistemas de recomendación híbridos: Estudios y experimentos”, los sistemas de recomendación se distinguen por dos criterios fundamentales: Por un lado se encuentran aquellos que producen recomendaciones individualizadas en forma de salida y, por otro, aquellos que tienen el efecto de guiar al usuario de forma personalizada para los intereses de éste dentro de un dominio con grandes cantidades de ítems posibles a elegir. Teniendo esto en cuenta, se puede afirmar que los sistemas de recomendación son un tipo específico de filtro de información cuyo objetivo es mostrar ítems al usuario que le sean relevantes o de interés. Se entiende por filtro de información un sistema que elimina información inadecuada o no deseada de un flujo de información de forma automática o semiautomática para ser presentada a los usuarios.

Según los investigadores Belkin y Croft, en el artículo publicado el año 1992 titulado “filtrado de información y recuperación de información ¿dos lados de una misma moneda?, un aspecto relacionado con los sistemas de recomendación es la “recuperación de información” o “búsqueda de información”. Ambos conceptos se asemejan en el hecho de que intentan proporcionar información relevante al usuario pero se distinguen por las siguientes singularidades: (1) Frecuencia de uso. Los sistemas de búsqueda son enfocados por uso concreto y puntual del usuario mientras que los sistemas de recomendación están diseñados para un uso prolongado y de forma repetitiva. (2) Representación de las necesidades de información. En sistemas de búsqueda la información requerida se expresa en forma de pregunta o consulta, mientras que en los sistemas de recomendación la información es descrita en los perfiles del usuario. (3) Objetivo. Los sistemas de búsqueda seleccionan los ítems de la base de datos que coinciden con la consulta, mientras que los sistemas de recomendación eliminan la información irrelevante de flujos de entrada de información o reúnen información relevante de diferentes repositorios de acuerdo al perfil del usuario. (4) Base de datos. Los sistemas de búsqueda trabajan con bases de datos relativamente estáticas mientras que los sistemas de recomendación trabajan con información dinámica. (5) Tipo de usuarios. En los sistemas de búsqueda no se tiene porque tener información sobre los usuarios que lo utilizan mientras que en los sistemas de recomendación se necesita saber o tener información sobre los usuarios. (6) Ámbito social. Los sistemas de recomendación están interesados en aspectos sociales de modelado y privacidad del usuario mientras que los sistemas de búsqueda no. (7) Acción: El proceso de filtrado o recomendación se relaciona con la acción de “eliminar” información, mientras que el proceso de búsqueda se relaciona con la acción de “encontrar” información.

Algunos ejemplos actuales de uso, de los sistemas de recomendación, son: (1) Recomendaciones en tiendas on-line. Partiendo de un producto se recomiendan otros productos que han interesado a los usuarios que compraron dicho producto. La web pionera en este tipo de recomendaciones fue Amazon.com. (2) Filtrado de noticias. Se construye un perfil que almacena las noticias que un usuario consulta. (3) Recomendaciones musicales, de libros, de películas. En los últimos años han surgido decenas de aplicaciones Web de este tipo entre las que destacan “last.fm” y “MyStrands”, esta ´ultima de origen español. En estos servicios, cada vez que un usuario escucha una canción se envía su información a la base de datos del sistema, el cual las utiliza para generar recomendaciones, pero las funcionalidades que ofrecen crecen constantemente. Por ejemplo last.fm ofrece radios personalizadas para cada usuario en función de las recomendaciones que reciba y MyStrands organiza fiestas en las que la música se elije automáticamente de forma colaborativa en función de los gustos de los asistentes. El modelo de negocio de estas empresas, es además de la publicidad, el de acuerdos con tiendas on-line para enlazar directamente las recomendaciones con su servicio de venta. También el de proporcionar a las compañías discográficas, en este caso, análisis de tendencias musicales, de nuevos artistas, y otras funcionalidades. (4) Búsqueda de personas afines en comunidades. En aplicaciones Web como “meneame.net” se tienen en cuenta las noticias que cada usuario ha votado para generar una lista de vecinos con similares intereses.

Referencias Bibliográficas

  • Allen, R.B. (1990) User models: theory, method, and practice, International Journal of Man-Machine Studies, vol. 32, 1990, págs. 511-543.
  • Belkin, N.J. y Croft, W.B. (1992) Information filtering and information retrieval: two sides of the same coin?, 1992.
  • Burke, R. (2002) Hybrid recommender systems: Survey and experiments, User Modeling and User-Adapted Interaction, vol. 12, 2002, págs. 331-370.
  • Goldberg, D.; Nichols, D.; Oki, B.M. y Terry D. (1992) Using collaborative filtering to weave an information tapestry, 1992.
  • Housman, E.M. y Kaskela, E.D. (1970) State of the art in selective dissemination of information, IEEE Transactions on Engineering Writing and Speech, vol. 13, 1970, págs. 78-83.
  • Kim, Y.S.; Yum, B.J.; Song, J. y Kim S.M. (2005) Development of a recommender system based on navigational and behavioral patterns of customers in e-commerce sites, Expert Systems with Applications, vol. 28, 2005, págs. 381-393.
  • Resnick, P. y Varian H.R. (1997) Recommender systems, Communications of the ACM, vol. 40, 1997, pág. 57.
  • Resnick, P.; Iacovou, N.; Suchak, M.; Bergstrom, P. y Riedl, J. (1995) GroupLens: An open architecture for collaborative filtering of netnews.
Guillermo Choque Aspiazu
http://www.eldiario.net
Abril 23 de 2012 – Primera parte
Abril 30 de 2012 – Segunda parte
Translate »