Categoría: Articulos en prensa escrita

Máquina virtual (segunda parte)

Máquina virtual (segunda parte)

Según Carrillo, en la investigación realizada el año 2014 con el título “Máquinas virtuales”, una máquina virtual es un software que emula a una computadora dentro de otra y puede ejecutar programas como si fuese una computadora real. Una característica esencial de las máquinas virtuales es que los procesos que ejecutan están limitados por los recursos y abstracciones proporcionados por ellas. Estos procesos no pueden escaparse de esta “computadora virtual”. En este sentido, uno de los usos domésticos más extendidos de las máquinas virtuales es ejecutar sistemas operativos para “probarlos”. De esta forma se puede ejecutar un sistema operativo que necesita ser probado, por ejemplo GNU/Linux, desde un sistema operativo habitual, Windows por ejemplo, sin necesidad de instalarlo directamente en la computadora y sin temor a que se desconfigure el sistema operativo primario. La máquina virtual es un software que emula a una computadora y puede ejecutar programas como si fuese una computadora real. Este software en un principio fue definido como “un duplicado eficiente y aislado de una máquina física”. En la monografía realizada por Andrade, publicada el año 2010 con el título “Creación de una maquina virtual”, se menciona que la acepción del término incluye a máquinas virtuales que no tienen ninguna equivalencia directa con ningún hardware real. “Una característica esencial de las máquinas virtuales es que los procesos que ejecutan están limitados por los recursos y abstracciones proporcionados por ellas. Estos procesos no pueden escaparse de la computadora o máquina virtual”.

Carrillo, en la investigación referenciada, menciona que las máquinas virtuales se pueden clasificar en dos grandes categorías según su funcionalidad y su grado de equivalencia a una verdadera máquina: (1) Máquinas virtuales del sistema. También llamadas máquinas virtuales de hardware, permiten a la máquina física subyacente multiplicarse entre varias máquinas virtuales, cada una ejecutando su propio sistema operativo. A la capa de Software que permite la virtualización se la llama monitor de máquina virtual o hypervisor. Un monitor de máquina virtual puede ejecutarse o bien directamente sobre el hardware o bien sobre un sistema operativo. (2) Máquinas virtuales de proceso. A veces llamada “máquina virtual de aplicación”, se ejecuta como un proceso normal dentro de un sistema operativo y soporta un solo proceso. La máquina se inicia automáticamente cuando se lanza el proceso que se desea ejecutar y se detiene para cuando éste finaliza. Su objetivo es el de proporcionar un entorno de ejecución independiente de la plataforma de hardware y del sistema operativo, que oculte los detalles de la plataforma subyacente y permita que un programa se ejecute siempre de la misma forma sobre cualquier plataforma.

Respecto a las aplicaciones de las máquinas virtuales de sistema, el investigador Carrillo argumenta que varios sistemas operativos distintos pueden coexistir sobre la misma computadora, en sólido aislamiento el uno del otro, por ejemplo para probar un sistema operativo nuevo sin necesidad de instalarlo de manera directa. La máquina virtual puede proporcionar una arquitectura de instrucciones que sea algo distinta de la verdadera máquina. Es decir, se puede simular hardware. Varias máquinas virtuales, cada una con su propio sistema operativo llamado sistema operativo “invitado”, pueden ser utilizadas para consolidar servidores. Esto permite que servicios que normalmente se tenían que ejecutar en computadoras distintas para evitar interferencias, se puedan ejecutar en la misma máquina de manera completamente aislada y compartiendo los recursos de una única computadora. La consolidación de servidores a menudo contribuye a reducir el costo total de las instalaciones necesarias para mantener los servicios, dado que permiten ahorrar costos en el uso del hardware. La virtualización es una excelente opción, ya que las máquinas actuales: Laptops, desktops, servidores y otros, en la mayoría de los casos están siendo “subutilizados” en términos de la gran capacidad de disco duro, memoria, etc., llegando a un uso de entre un treinta a un sesenta por ciento de su capacidad. Al virtualizar, la necesidad de nuevas máquinas en una ya existente permite un ahorro considerable de los costos asociados, entre los cuales se cuentan: Energía, soporte, mantenimiento, espacio físico, etc.

Andrade, en la monografía citada anteriormente, menciona que los principales programas para crear una máquina virtual son: (1) VirtualBox. Es un programa desarrollado por Oracle y es totalmente gratis. Es multi-plataforma, siendo compatible con Windows, MAC OS X, Solaris y Linux. Además, viene con un sin número de características que facilitan la creación y el mantenimiento de una máquina virtual. Las descripciones y los parámetros de las máquinas virtuales se almacenan en archivos XML que permite la potabilidad e intercambio de archivos entre el “anfitrión” y el “invitado”. (2) Parallels. Aunque es bien conocido por su versión de MAC OS X, Parallels también ejecuta procesos de virtualización en Windows y Linux. Este programa tiene un buen rendimiento gracias a un enlace directo, es decir está optimizado para ejecutarse en procesadores Intel y AMD. (3) VMware. Viene en dos opciones: VM Player y VMware Workstation. VMware Player es la versión gratuita para usuarios casuales que no necesitan opciones avanzadas. En el caso de VMware Workstation, esta incluye todas las características de VMware Player como fácil creación de máquinas virtuales, optimización de hardware e impresión sin necesidad de instalar controladores. Además añade otras funciones como la habilidad de clonar máquinas virtuales. (4) QEMU. Es una poderosa herramienta de virtualización para Linux desarrollada bajo el sistema “Maquina virtual basada en el núcleo”.

Es de código abierto”. Lo que distingue a QEMU de los demás, es su habilidad para ser ejecutada en “anfitriones” sin privilegios administrativos. Lo cual lo convierte en el candidato perfecto para instalar sistemas operativos virtuales en memorias tipo flash. (5) Microsoft Virtual PC. Creado por Microsoft y solo sirve para emular sus sistemas, Windows 7, Windows Vista, Windows XP, entre otros.

 

Guillermo Choque Aspiazu
www.eldiario.net
29 de Diciembre de 2014

Cultura móvil (segunda parte)

Cultura móvil (segunda parte)

Goggin, en el libro publicado el año 2006 con el título “La cultura del teléfono celular: La tecnología móvil en la vida cotidiana”, propone un enfoque basado en el “circuito de la cultura”, proveniente de los estudios culturales. Du Gay y sus colegas, en el libro escrito el año 1997 titulado “Estudios culturales: La historia del Walkman Sony”, menciona que la cultura no es meramente expresión o reflexión de otros procesos, la cultura es ahora considerada como constitutiva del mundo social, tanto de los procesos económicos como de los procesos políticos. La tarea de comprender la cultura es, por tanto, un compromiso necesario para la comprensión de las prácticas y los procesos sociales. La producción social de sentido, por lo tanto, es una condición necesaria para el funcionamiento de todas las prácticas sociales y las condiciones culturales de las prácticas sociales deben formar parte de la explicación sociológica de cómo funcionan. La descripción y el análisis de la cultura, por lo tanto, es cada vez más importante para la producción de conocimiento sociológico.

Una de las características del circuito de la cultura es aproximarse desde la articulación. Du Gay y sus colegas, en el libro citado anteriormente, sugieren que en el estudio de un texto o artefacto cultural, hay que identificar cinco grandes procesos interrelacionados: Representación; Identidad; Producción; Consumo y Regulación. En conjunto, estos cinco puntos completan una especie de circuito, a través del cual, cualquier análisis de un objeto cultural debe pasar para que sea estudiado adecuadamente. Así, por ejemplo el walkman Sony no sólo es parte de la cultura de las personas, sino que posee su propio distintivo cultural. Es cultural porque se asocia con determinados tipos de personas, con ciertos lugares, porque se le ha dado o ha adquirido un perfil social o un perfil de identidad; de hecho, la imagen del walkman se ha convertido en una especie de metáfora que significa o representa un distintivo sello moderno, de la cultura tecnológica o del modo de vida. Sony Walkman es una pista para el estudio de la cultura moderna en general.

Este marco permite la articulación de los significados de los objetos, la gente utiliza objetos materiales, tales como ropa, relojes, automóviles y otros, junto con lo que dicen y con lo que hacen, según determinados proyectos de identidades que se reconocen entre sí, es decir, que están implícitos en el discurso. Du Gay y sus colegas, en el libro citado, mencionan que representación e identidad, es la práctica de construcción de significados a través del uso de los signos y del idioma, principalmente a través del lenguaje, frecuentemente empleado por la publicidad, para recoger los significados que el producto ha acumulado y tratar de construir una identificación entre los consumidores y los significados. Al respecto, el investigador Hall, en el libro publicado el año 1996 titulado “Interrogante de la identidad cultural”, menciona que se da a las cosas sentido por la forma en que representan a las personas.

Según Antonio Ariño, en la ponencia publicada el año 2010 con el título “¿Qué está cambiando en las prácticas culturales?”, un enfoque sistemático supondría abordar al menos cinco aspectos del cambio, que son en realidad cinco dimensiones de la cultura: El lenguaje, la práctica, el contenido, la organización y las formas de capital. En la primera década del siglo veintiuno, en particular, se ha conocido la instauración de la hegemonía del régimen de comunicación audiovisual-digital en la vida cotidiana y en la globalización de los flujos de significado, mediante la permanente y ubicua conectividad. Este fenómeno, compuesto por conectividad, movilidad y globalización de los flujos de signos, afecta y afectará de forma decisiva a todos los aspectos de la vida social y a la organización y producción del significado. Según Aghaei y sus colegas, en el artículo publicado el año 2012 titulado “Evolución del WWW: De la Web 1.0 a la Web 4.0”, se observa un gran incremento de usuarios de la Web 2.0, pero en realidad en la acelerada evolución de la Web, los cambios más grandes recién se experimentaran de una manera bastante radical en las nuevas etapas de desarrollo de la red de redes, conocidas como Web semántica o Web 3.0 y Web ubicua o Web 4.0. En su primera etapa la Web conectaba datos, información y documentos; en la segunda, la Web social, está conectando personas que crean comunidades, foros y blogs, gracias a las aplicaciones de redes sociales propias de la Web 2.0 como los foros y las Wiki. La Web semántica es un conector que localiza contenidos, mediante máquinas de búsqueda que utilizan algoritmos personalizados y documentos enriquecidos de metadatos y ontologías. La Web 4.0 se supone que tendrá la capacidad de conectar todo con todo, gracias a la intervención de agentes inteligentes virtuales, que se encargaran de simular las complejas operaciones que ocurren en la mente de las personas.

Ariño, en la ponencia citada, continua mencionando que la hegemonía del lenguaje digital supone un desafío y socavamiento de muchos mitos sobre los que se ha asentado el concepto de cultura, por ejemplo, la centralidad de la comunicación letrada y del libro, además de la transformación de las pautas de acceso a los bienes y servicios culturales, a través de la movilidad, o la distinción entre producción y consumo. Al mismo tiempo, produce: Desdiferenciación de espacios y campos, tales como información, entretenimiento, comunicación; nuevas realidades y objetos como las redes, comunidades virtuales e hipertextos, y, por encima de todo, la meta-cultura. Se denomina meta-cultura a la resultante de un proceso de creciente integración, propiciado por Internet, de todas las formas culturales, pasadas y presentes, que ahora se encuentran, real o potencialmente, accesibles al individuo mediante conexión en cada pantalla. Al hablar de integración no se hace referencia a la creación de una estructura interrelacionada en el sentido que la primera antropología dio al concepto de cultura como sistema integrado o totalidad de sentido, ni tampoco a la idea imperante durante el auge del nacionalismo estatal de que a un Estado le correspondía una sociedad y una cultura nacional, sino a un fenómeno infinitamente más extenso pero también más difuso e inconexo, menos unificado; más informal, pero no menos real, derivado de que el medio virtual es el espacio de la realidad, de toda la realidad, ya que es un hiperespacio constituido por la confluencia de los diversos medios. Tal vez la nueva metáfora denominada “Computación en la nube” constituye una certera aproximación simbólica a esa realidad de la que aquí se habla.

 

Guillermo Choque Aspiazu
www.eldiario.net
08 de Diciembre de 2014

Cultura móvil (primera parte)

Cultura móvil (primera parte)

El concepto de cultura trae consigo una gran variedad de definiciones. Según el diccionario de la Real Academia Española de la Lengua: Cultura es un “Conjunto de modos de vida y costumbres, conocimientos y grado de desarrollo artístico, científico, industrial, en una época, grupo social, etc.” Esta conceptualización se complementa con lo que menciona el gran antropólogo Claude Levi-Strauss, en el libro publicado el año 1958 titulado “Antropología estructural”: “Un sistema de signos producidos por la actividad simbólica de la mente humana, es un mensaje que puede ser decodificado tanto en sus contenidos, como en sus reglas. El mensaje de la cultura habla de la concepción del grupo social que la crea, habla de sus relaciones internas y externas”.

En palabras de Tylor, en el artículo publicado el año 1871 titulado “La ciencia de la cultura”, menciona que la cultura es un todo complejo que incluye el conocimiento, las creencias, el arte, la moral, el derecho, las costumbres, y cualesquiera otros hábitos y capacidades adquiridos por el hombre. La situación de la cultura en las diversas sociedades de la especie humana, en la medida en que puede ser investigada según principios generales, es un objeto apto para el estudio de las leyes del pensamiento y la acción del hombre. La investigadora White, en el artículo escrito el año 1992 titulado “La energía y la evolución de la cultura”, complementa la idea anterior mencionando que la cultura es el producto de las relaciones históricas entre un grupo humano y su medioambiente; la cultura está determinada por la forma en la que el grupo humano aprovecha su entorno. Steward, en el artículo publicado el año 1992 titulado “El concepto y el método de la ecología cultural” menciona que la cultura sigue un proceso de evolución multilineal, es decir, no todas las culturas pasan de un estado salvaje, a la barbarie y de ahí a la civilización; para el cierre Harris, en el libro publicado el año 1979 titulado “El materialismo cultural”, menciona que la evolución cultural y la configuración de las sociedades depende básicamente de condiciones materiales, tecnológicas y de infraestructura.

La Conferencia Mundial sobre las Políticas Culturales, auspiciada por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura realizada en la Ciudad de México el año 1982, en la Declaración de México sobre las Políticas Culturales, menciona que la cultura proporciona al hombre la capacidad de reflexionar sobre sí mismo. Es ella la que hace de las persona seres específicamente humanos, racionales, críticos y éticamente comprometidos. A través de ella se discierne los valores y se efectúa opciones. A través de ella el hombre se expresa, toma conciencia de sí mismo, se reconoce como un proyecto inacabado, pone en cuestión sus propias realizaciones, busca incansablemente nuevas significaciones, y crea obras que lo trascienden. Por su parte Geertz, en el libro publicado el año 1973 titulado “La interpretación de las culturas”, menciona que la cultura es la red de significados generados por el hombre, los numerosos sistemas de prácticas compartidas, heredados y adaptados por cada generación, que permiten una comunicación de significados dentro del sistema. Hall, en el libro publicado en año 1980 titulado “Codificación/decodificación”, complementa diciendo que la cultura es el proceso mediante el cual el significado se produce, distribuye, consume, mercantilizada, y sin cesar es reproducido y renegociado en la sociedad. Cuadra, en el artículo publicado el año 2006 titulado “La Biblioteca de Babel. Memoria y Tecnología”, es enfático al señalar que: Cuando se hace referencia a la cultura, se entiende que se trata de un régimen de significación acotado por dos límites que lo determinan. De una parte el orden tecno-económico que instituye las modalidades de producción, circulación y recepción de los bienes simbólicos, una cierta economía cultural. Un segundo límite lo constituyen los modos de significación, esto es, las modalidades concretas que adquiere la relación con la materialidad de los signos como dispositivos retencionales.

Los investigadores Grant y Kiesler, en el artículo publicado el año 2001 titulado “Borrando las fronteras: Los teléfonos celulares, la movilidad y la línea entre el trabajo y la vida personal”, mencionan que para definir la “cultura móvil” existen aproximaciones que la conceptualizan como un “conjunto de prácticas, discursos, relaciones, significados, normas, intercambios y rituales asociados a las comunicaciones móviles”; Según Lasén, en el artículo escrito el año 2006 titulado “Lo social como movilidad: usos y presencia de teléfonos móviles”, la cultura móvil es la mediación de subjetividades e identidades a través de la telefonía móvil. Goggin, en el libro publicado el año 2006 con el título “La cultura del teléfono celular: La tecnología móvil en la vida cotidiana”, complementa mencionando que la cultura móvil es una esfera cultural, desde su historia, producción, diseño, consumo y representación, y por su carácter local, nacional, regional e internacional, y por su profunda implicación en la convergencia de los medios contemporáneos – como la fotografía digital, los blogs móviles, Internet móvil y la televisión en el móvil”.

Por consiguiente la cultura móvil, puede definirse como un conjunto compartido de prácticas, normas, valores y símbolos. En palabras de Katz, en el artículo publicado el año 2005 titulado “Comunicaciones móviles y la transformación de la vida cotidiana: La siguiente fase de la investigación sobre los móviles”, los teléfonos móviles están permitiendo a las personas no solo crear su propia micro-cultura, sino que además están cambiando las normas y valores culturales, demostrando la capacidad de modificar y reapropiarse de la tecnología para su propio uso. El teléfono móvil, al permitir aislar a las personas y a sus interacciones privadas, de la cultura que les rodea, fomentan una especie de “jardín vallado” de micro-culturas que son complejas, pero exclusivas. En el artículo escrito el año 2004 por Zheng titulado “La investigación de la cultura de la información”, se señala que la cultura móvil existe y se expande en la era de la información basándose en la tecnología de telecomunicaciones para expresar la voz, las palabras y las imágenes, provocando una profunda influencia en la vida de los ciudadanos.

 

Guillermo Choque Aspiazu
www.eldiario.net
01 de Diciembre de 2014

Armazón de trabajo para aplicaciones web

Armazón de trabajo para aplicaciones web

En palabras de Mendoza, en la tesis de maestría escrita el año 2011 con el título “Definición de un framework para aplicaciones Web con navegación sensible a concerns”, el estado de las aplicaciones Web existentes, es el de servicios enfocados a ofrecer mejores soluciones al usuario final, brindando un ambiente similar al de las aplicaciones comunes de escritorio. Para esto es casi obligado el uso de técnicas tales como: Hojas de estilo, lenguajes de marcado válidos semánticamente, menor refrescamiento de pantalla, mayor intervención de programación del lado del cliente, vínculos limpios con significado semántico, entre otras; técnicas que resultan en aplicaciones más dinámicas e intuitivas para el usuario. Todo esto en contraste con el estado de la Web inicial, en la que el usuario se encontraba en un entorno estático, con páginas en lenguaje de marcado de hipertexto, sin programación del lado del servidor, que sufrían pocas actualizaciones y no tenían interacción con el usuario. Hace algunos años la construcción de sitios Web era exclusiva para desarrolladores con conocimientos de programación o de diseño, y el producto obtenido no siempre satisfacía las necesidades del cliente o del usuario final. Esto cambió radicalmente al entrar a escena los gestores de contenidos, que permiten la edificación rápida de un sitio Web, así como la actualización de sus contenidos de manera dinámica obteniendo la información desde una o varias bases de datos. La principal ventaja de estos sistemas, es que es posible que una persona realice todo el desarrollo sin necesidad de poseer conocimientos técnicos, y de una manera relativamente sencilla. En los últimos tiempos estos sistemas han evolucionado hacia wikis y redes sociales, donde los contenidos se actualizan de forma colaborativa por varios usuarios dentro de una comunidad y cuyo éxito ha transformado la manera en que se usaba Internet.

En el desarrollo tradicional de un sistema de información es indispensable la normalización de datos; según Martínez y sus colegas, en el artículo publicado el año 2010 con el título “Diseño de Framework Web para el Desarrollo Dinámico de Aplicaciones”, no importa cómo se manipule la información de una empresa u organización lo ideal es que esté estructurada de un modo conocido para manejarla, almacenarla, recuperarla. Para este proceso se definen modelos de datos con una determinada estructura, que habitualmente se convierte en tablas de una base de datos. Anteriormente, la única información estructurada en un sistema era la referente a “los datos”. El problema subsecuente a este es que un sistema es mucho más que datos, pues se encuentra compuesto de código fuente, bibliotecas, archivos de configuración, y otros. Todo este código generado y su orden mismo dependían directamente de los encargados de desarrollar el sistema y, desde la existencia de los primeros compiladores hasta la aparición de los primeros generadores de código comercial u orientado a “usuarios finales”, la generación de código era exclusividad de programas compiladores especializados.

Ante esta situación problemática surgen los llamados “Frameworks” o “Armazones de trabajo”, con el propósito de normalizar y estructurar el código del sistema, facilitando un esquema, un patrón, un esqueleto, para el desarrollo y la implementación de aplicaciones. Según Larman, en el libro publicado el año 2003 titulado “UML y Patrones. Una introducción al análisis y diseño orientado a objetos y al proceso unificado”, el uso de armazones de trabajo para cualquier tipo de desarrollo reduce el tiempo de elaboración e implementación y ayuda a hacer una tarea mantenible y escalable, según las características del mismo.

Según Cavaness, en el libro escrito el año 2004 titulado “Programación de Jakarta Struts”, un armazón de trabajo se compone de varias clases o componentes reutilizables, cada uno de los cuales puede proporcionar una abstracción de algún concepto en particular. El armazón de trabajo define cómo estas abstracciones trabajan juntas para resolver un problema específico de software. Por su parte Bennett, en el artículo publicado el año 2009 titulado “¿Que es un framework Web y por que quisiera uno?, define a un armazón de trabajo para aplicaciones Web, como un conjunto organizado de bibliotecas y componentes personalizables e intercambiables que permite acelerar el proceso de desarrollo, reutilizando el código existente y además promoviendo buenas prácticas de ingeniería del software, tal es el caso del uso de los patrones de diseño. No existe una clasificación estándar y formal que se aplique a estas tecnologías, se habla de los orientados a la interfaz de usuario como el caso de Java Server Faces y por otra parte los orientados a la parte de control de eventos como Struts, pero es posible diferenciarlos con base en una serie de puntos comparativos.

Martínez y sus colegas, en el artículo citado anteriormente, mencionan que un armazón de trabajo agrega funcionalidad extendida a un lenguaje de programación, automatiza muchos de los patrones de programación para orientarlos a un determinado propósito, proporcionando una estructura al código, mejorándolo y haciéndolo más entendible y sostenible, y permite separar en capas la aplicación. En general, divide la aplicación en tres capas: (1) La lógica de presentación que administra las interacciones entre el usuario y el software. (2) La lógica de datos que permite el acceso a un agente de almacenamiento persistente u otros. (3) La lógica de dominio o de negocio, que manipula los modelos de datos de acuerdo a los comandos recibidos desde la presentación. Los armazones de trabajo Web pretenden facilitar el desarrollo de aplicaciones Web: Sitios Web, páginas Web, portales, intranets, etc. Actualmente, PHP es conocido por su simplicidad y es ampliamente utilizado en este campo del desarrollo de software Web. También es común el uso de otros lenguajes de “scripting” o interpretados como Perl, ASP ó JSP que permiten mayor facilidad de uso y flexibilidad para el rápido desarrollo de aplicaciones, pero al mismo tiempo tienden a producir código de difícil sostenimiento y poco eficiente. En este ámbito, los patrones de diseño más utilizados son aquellos que se centran en separar la presentación de la lógica.

 

Guillermo Choque Aspiazu
www.eldiario.net
10 de Noviembre de 2014

Realidad aumentada (segunda parte)

Realidad aumentada (segunda parte)

Según López, en la tesis de maestría mencionada anteriormente, para realizar esta labor es necesaria la realización de cuatro tareas fundamentales: (1) Captura de la escena, (2) identificación de la escena, (3) realidad más aumento y (4) visualización de la escena. Sin embargo se hace mención a que al interior del campo de investigación de la realidad aumentada se sugiere la inclusión de una tarea denominada “interacción”, debido a que esta es una tarea de gran importancia ya que crea la relación directa entre el sistema y el usuario. A continuación se describen cada una de estas tareas de manera específica.

En relación con el punto (1) de captura de la escena, se menciona que existen diversos mecanismos y sistemas para realizar captura de escenas en realidad aumentada para su posterior procesamiento, dentro de los cuales se pueden encontrar: (a) Dispositivos de video. En este conjunto se encuentran las cámaras de video y dispositivos móviles, siempre y cuando tengan una cámara. (b) Dispositivos de visualización. Estos dispositivos acostumbran a trabajar en tiempo real, haciéndolos no sólo más costosos en presupuesto sino también en complejidad. Para el punto (2) identificar el escenario, los investigadores Bimber y Rakar, en el artículo escrito el año 2005 titulado “Realidad aumentada espacial, mezcla de mundos reales y virtuales”, menciona que el proceso consiste en averiguar qué escenario físico real es el que el usuario quiere que se aumente con información digital. López, en la tesis citada, menciona que este proceso puede llevarse a cabo, básicamente, de dos maneras: Utilizando marcadores o sin utilizarlos: (a) Reconocimiento por marcadores: En palabras de Cawood y Fiala, en el libro escrito el año 2008 titulado “Realidad aumentada: Una guía práctica”, en los sistemas de realidad aumentada, un marcador es un objeto cuya imagen es conocida por el sistema. Dichos sistemas son reconocidos por utilizar marcadores fiduciales que se obtienen mediante una cámara y técnicas de visión por computadora. Las maneras en que el sistema conoce el marcador se pueden agrupar en tres conjuntos, mediante su geometría, su color o mediante ambas características. Dentro de los sistemas de detección de marcas se pueden destacar: ARToolKit, ARTag, StudierStube, OsgART, etc. Estos sistemas se encuentran compuestos por una serie de bibliotecas que recogen las técnicas de visión necesarias para realizar el posicionamiento del objeto. (b) Reconocimiento sin marcadores. De la misma forma, es posible identificar la escena mediante reconocimiento de imágenes o mediante la estimación de la posición. También es posible encontrar sistemas que realicen una combinación de ambas en función de la situación. Dentro de los tipos de sistemas más utilizados se puede encontrar los sistemas que registran rasgos naturales, los cuales funcionan de manera similar a los sistemas basados en marcadores, realizando el análisis de la imagen e identificando puntos en una secuencia de imágenes. Entre las aplicaciones que permiten este tipo de reconocimiento se destaca BazAR, compuesto por bibliotecas que permiten el cálculo de la orientación del punto de vista de la cámara a partir de la identificación de rasgos naturales.

Continuando con la descripción de las tareas fundamentales de la realidad aumentada el punto (3) referido a la mezcla de la realidad con el aumento, se dice que una vez descrito el proceso de identificación de escenarios, el siguiente asunto que tiene lugar en los sistemas de realidad aumentada es el sobreponer la información digital que se quiere ampliar sobre la escena real capturada, para esto se necesita las denominadas bibliotecas de aumento, las cuales constituyen el software adecuado para sobreponer a la imagen real la información aumentada deseada. Según la forma de rastreo, estas bibliotecas se clasifican en dos tipos: Las bibliotecas de seguimiento de marcadores fiduciales y las bibliotecas de seguimiento de gestos corporales. Para el reconocimiento de marcadores fiduciales existen diversas bibliotecas disponibles al público. Una de las bibliotecas más conocidas es ARToolKit, que puede considerarse como una biblioteca de realidad aumentada, la misma fue desarrollada por Hirokazu Kato del Instituto Nara de Ciencia y Tecnología en el año 1999. Dicha biblioteca permite la detección de unos marcadores específicos y realiza las tareas de superposición de imágenes. ARToolKit realiza el seguimiento de la cámara en tiempo real, asegurando que los objetos virtuales siempre aparezcan superpuestos sobre los marcadores de seguimiento. ARToolkit también tiene una serie de limitaciones que surgen en los sistemas basados en visión por computadora. De esta biblioteca se derivan diversas versiones que mantienen el mismo principio, entre las más relevantes se pueden mencionar a las siguientes: ARToolKitPlus, FLARToolKit, osgART como una combinación de ARToolKit y OpenSceneGraph, ARTag como alternativa a ARToolkit, además de NyARToolkit. Por otra parte, para el reconocimiento de gestos corporales, es posible encontrar bibliotecas como BazAR, la cual es una biblioteca de visión por computadora basada en la detección y correspondencia de rasgos naturales puntuales. BazAR está compuesto por dos módulos: (a) Garfeild, este módulo proporciona las herramientas para detectar puntos clave o rasgos puntuales, y establecer su correspondencia respecto de una serie de puntos almacenados y (b) Starter, que contiene las estructuras básicas y las herramientas matemáticas.

Finalmente en el punto (4), según Zhou y sus colegas, en el artículo publicado el año 2008 titulado “Tendencias en la realidad aumentada: Seguimiento, interacción y visualización”, la interacción con los sistemas de realidad aumentada especifica como los usuarios manipulan los contenidos virtuales de la realidad aumentada. Portalés, en la tesis doctoral publicada el año 2008 con el título “Entornos multimedia de realidad aumentada en el campo del arte”, define la interacción como una propiedad inherente de cualquier entorno interactivo multimedia que incluye actividades y respuestas físicas, sensoriales y mentales El usuario puede interactuar con un sistema realidad aumentada mediante los tipos e interfaces mencionados anteriormente, sin embargo aún no se han tenido en cuenta factores humanos y de comportamiento que determinan la forma más intuitiva de uso de una interfaz.

 

Guillermo Choque Aspiazu
www.eldiario.net
20 de Octubre de 2014

Realidad aumentada (primera parte)

Realidad aumentada (primera parte)

Hasta hace pocos años la opción de disponer de información digital añadida sobre cualquier objeto sin alterar su entorno era prácticamente imposible. López, en el proyecto fin de máster en sistemas inteligentes publicado el año 2010 con el título “Análisis y desarrollo de sistemas de realidad aumentada”, menciona que hacia la primera década del siglo veintiuno ya es posible ver casi cualquier tipo de información digital sobre el objeto que sea. Esto se debe a la realidad aumentada, una tecnología a disposición de cualquier persona que permite superponer sobre un escenario real cualquier tipo de contenido digital, sea de la índole que sea, visual, auditivo, etc. A pesar de que en el año 1966, Ivan Sutherland inventó el primer casco de visualización, descrito en el artículo titulado “Casco de visualización tridimensional”, no ha sido prácticamente hasta el siglo veintiuno cuando esta área de investigación ha empezado a coger fuerza y relevancia. Esto se debe a que los esfuerzos del siglo pasado estaban más centrados en la realidad virtual, que se diferencia de la realidad aumentada en que todo lo que el usuario observa es una simulación de la realidad. La especial relevancia que tiene la realidad aumentada no proviene de su naturaleza novedosa, ya que esta tecnología ya venía siendo utilizada en las cabinas de los aviones durante el siglo pasado. Lo que ha producido que haya aumentado su importancia ha sido su apertura a la vida cotidiana de las personas.

Según Azuma, en el artículo publicado el año 1997 titulado “Manual de realidad aumentada”, la realidad aumentada es un término que se asocia al resultado del uso de tecnologías que superponen imágenes generadas por computadora sobre ambientes físicos pertenecientes al mundo real, que el usuario puede percibir de manera natural. Billinghurst y sus colegas, en el artículo publicado el año 1999 con el título “Una aplicación de realidad mixta en tres dimensiones”, este proceso se lleva a cabo en tiempo real, permitiendo a los usuarios interactuar con contenidos digitales a través del manejo de objetos reales o bien, tener una experiencia meramente visual al complementar el mundo real mediante objetos virtuales en un entorno de realidad mixto, creando la sensación de que el ambiente ha sido aumentado. Azuma, en el artículo mencionado, explica que al igual que la realidad aumentada, la realidad virtual es capaz de dar la impresión al usuario de que se encuentra en un ambiente diferente al que está acostumbrado, sin embargo, en el caso de la realidad virtual, dicho entorno es cien por ciento sintético, es decir todos los objetos son virtuales. Mientras el usuario se encuentre en dicho ambiente, no es capaz de ver el mundo real sino sólo el entorno virtual que lo rodea, generalmente desde una perspectiva en primera persona. Si el usuario es proyectado en el ambiente desde una perspectiva en tercera persona, también será mostrado como un objeto virtual. Billinghurst y sus colegas, en el artículo citado, complementan mencionando que otra diferencia destacable es que la realidad virtual se auxilia de aditamentos generalmente de tipo visuales, tales como lentes, aunque también puede emplear otros medios para que la simulación parezca más real, ya sean audífonos, interfaces hápticos o inclusive trajes sensoriales, mientras que la realidad aumentada tiene la opción de utilizar o no dichos aditamentos. Además, cuando se realiza el proceso inverso al de la realidad aumentada, es decir, utilizar tecnologías para superponer imágenes del mundo real sobre entornos cien por ciento virtuales, se estará refiriendo a ello como virtualidad aumentada. Finalmente, una mezcla entre la realidad, la realidad aumentada, la realidad virtual y la virtualidad aumentada puede ser denominada realidad mixta.

En palabras de los investigadores Barfield y Caudell, expresadas en el libro publicado el año 2001 con el título “Fundamentos de informática usable y realidad aumentada”, la realidad aumentada es el término que se usa para definir una visión directa o indirecta de un entorno físico del mundo real, cuyos elementos se combinan con elementos virtuales para la creación de una realidad mixta a tiempo real. Esta es la principal diferencia con la realidad virtual, puesto que no sustituye la realidad física, sino que sobreimprime los datos informáticos al mundo real. Existen definiciones comúnmente utilizadas para definir a esta tecnología. La primera fue propuesta por Milgram y Kishino el año 1994, la cual es explicada por López en la tesis de maestría escrita el año 2009 titulada “Análisis y Desarrollo de sistemas de realidad aumentada”, en la cual la realidad aumentada es descrita como un continuo que abarca desde el entorno real a un entorno virtual puro. La realidad aumentada permite al usuario ver el mundo real con objetos virtuales superpuestos o mezclados con el mundo real. De esta manera, la realidad aumentada es un complemento de la realidad, en lugar de sustituirla completamente, y mantiene tres características esenciales: (1) Combina elementos reales y virtuales. (2) Es interactiva en tiempo real. (3) Está registrada en tres dimensiones.

 

Guillermo Choque Aspiazu
www.eldiario.net
13 de Octubre de 2014

Agentes virtuales autonomos (primera parte)

Agentes virtuales autonomos (primera parte)

Los investigadores Brenner, Zarnekow y Witting, en el libro publicado el año 1998 con el título “Agentes de software inteligentes”, exponen que un agente de software inteligente es un programa que puede realizar tareas específicas para un usuario y posee un grado de inteligencia suficiente para ejecutar parte de sus tareas de forma autónoma y para interactuar con su entorno de forma útil. En este mismo contexto los expertos Russell y Norvig, en el libro publicado el año 1996 titulado “Inteligencia Artificial: un enfoque moderno”, mencionan que un agente es cualquier entidad que percibe su entorno a través de sensores y actúa sobre ese entorno mediante efectores. Asimismo definen que un agente es racional cuando realiza la mejor acción posible a partir de los datos percibidos.

Por su parte Wooldridge y Jennings, en el artículo publicado el año 1995 titulado “Agentes inteligentes: Teoría y práctica”, mencionan que un agente viene caracterizado por una serie de calificativos, los cuales denotan ciertas propiedades a cumplir por el agente. Esto lleva a plantear otra definición bastante aceptada de agente donde se emplean calificativos que, según, los autores se consideran básicos. Esta definición considera a un agente como un sistema de computación capaz de actuar de forma autónoma y flexible en un determinado entorno, entendiendo por flexible que sea social, reactivo o pro-activo. Estos calificativos son definidos de la siguiente manera: (1) Autonomía. Entendida como la capacidad de actuar sin la intervención directa de una persona o de otro agente. Un agente debe controlar sus propias acciones y estado interno. Una vez que el usuario activa el agente indicando algún objetivo de alto nivel, éste actúa independientemente, seleccionando estrategias y monitoreando el progreso en busca de la meta. Si falla con una estrategia, usará otra, pero sin intervención humana o con la mínima indispensable. (2) Habilidad Social. Un agente debe ser comunicativo. Debe tener habilidad para interactuar con otros agentes o incluso con alguna persona, para solicitar información o bien para exponer los resultados obtenidos de la ejecución de las tareas agendadas. La naturaleza de la comunicación dependerá del tipo de agente con quien se comunique, en ambos casos se deberá establecer un protocolo común de intercambio de información entre ambas partes. Los agentes deben poseer algún tipo de interface para comunicarse con sus usuarios. Dicha interface puede establecerse simplemente mediante el envío de mensajes. (3) Reactividad. Se refiere al hecho de que un agente debe actuar a manera de sensor para observar el estado del ambiente dentro del cual se encuentra inmerso y actuar, respondiendo de manera adecuada a cambios producidos en el mismo. Los efectos producidos pueden modificar el estado de su entorno. (4) Pro-actividad. Un agente no solo debe actuar por cambios detectados en el medioambiente, sino que, además, debe trabajar en función de los objetivos para los cual fue diseñado y las tareas que le fueron delegadas en cada momento. Un agente busca permanentemente satisfacer su agenda interna.

En palabras de Lozano y Calderón, en el artículo escrito el año 2006 titulado “Entornos virtuales 3D clásicos e inteligentes: hacia un marco de simulación para aplicaciones gráficas interactivas”, se menciona que los entornos virtuales inteligentes, en tres dimensiones, son aquellos en los cuales se pone énfasis en incrementar las capacidades de comportamiento e interactivas de los entornos virtuales en tres dimensiones, lo cual se consigue mediante la incorporación de sistemas de inteligencia artificial, tales como los agentes, que interactúan con el sistema gráfico. Sin embargo existe una gran dificultad en la implementación de comportamientos complejos al interior de un entorno, debido en particular a la poca disponibilidad de herramientas que permitan controlar de forma sencilla la interacción asíncrona que pudiera ocurrir entre los objetos y los elementos del entorno. Existen diferentes maneras de incrementar las capacidades interactivas de un entorno virtual en tres dimensione: Representar de forma explícita el conocimiento, mejorar la interactividad del entorno virtual y, brindar alternativas de simulación de los fenómenos físicos.

 

Guillermo Choque Aspiazu
www.eldiario.net
29 de Septiembre de 2014

Heurísiticas para la solución de problemas (segunda parte)

Heurísiticas para la solución de problemas (segunda parte)

os factores que pueden hacer interesante la utilización de algoritmos heurísticos para la resolución de un problema responden a diversas circunstancias, algunas de estas circunstancias son anotadas por Díaz y sus colegas, en el libro publicado el año 1996 titulado “Optimización heurística y redes neuronales en dirección de operaciones e ingeniería”, como las siguientes: (1) Cuando no existe un método exacto de resolución. Ofrecer entonces una solución aceptablemente buena resulta de interés, frente a no presentar ninguna alternativa. (2) En el momento que es innecesaria la solución más favorable. Existen casos en que no se justifica el costo en tiempo y dinero para hallar una solución óptima que, por otra parte, no representará un beneficio importante con respecto a otra que sea simplemente satisfactoria. (3) Cuando los datos son poco fiables, o bien si el modelo ha simplificado fuertemente la realidad. En estas situaciones carece de interés la búsqueda de una solución exacta, dado que de por sí ésta no será más que una aproximación. (4) Cuando limitaciones de tiempo, memoria, espacio para almacenamiento de datos, etc., obligan al empleo de procedimientos de respuesta rápida, aún a costa de la precisión. (5) Como paso intermedio en la aplicación de otro método. A veces se usan soluciones heurísticas como punto de partida de algoritmos exactos.

Yepes Piqueras, en la tesis doctoral anotada, menciona que una ventaja importante que presentan las heurísticas, respecto a las técnicas que buscan soluciones exactas, es que, por lo general, brindan una mayor flexibilidad en el manejo de las características del problema. Además, pueden ofrecer más de una solución, lo cual amplía las posibilidades de elección, sobre todo cuando existen factores que no han sido incorporados al esquema teórico, pero que también deben considerarse. El investigador Ho, en el artículo publicado el año 1994 titulado “Heurísticas: Reglas del sentido común y la proposición 80/20”, atribuye el éxito de las heurísticas a la aplicación de la regla ochenta-veinte, el ochenta por ciento de la riqueza la posee el veinte por ciento de la población, unos pocos proveedores son responsables de la mayoría de los problemas de la calidad y de los retrasos en las entregas, etc. La distribución desigual ha sido propuesta como un Principio Universal: “Pocos vitales y muchos triviales”, propuesta descrita en el libro de Juran, publicada el año 1951 con el título “Manual de control de calidad”. De este modo, las heurísticas evalúan normalmente un número reducido de opciones que permiten la exploración de las soluciones más interesantes.

Díaz y sus colegas, en el libro citado anteriormente, mencionan que las técnicas heurísticas se pueden agrupar de diversas formas: Métodos constructivos, de descomposición, de reducción, de manipulación del modelo y de búsqueda local. (1) Heurísticas de construcción de soluciones factibles. Los métodos constructivos se basan en añadir paulatinamente componentes individuales a la solución, hasta que se obtiene una opción viable. Uno de los más populares lo constituyen los algoritmos voraces “greedy”, que construyen paso a paso la solución buscando el máximo beneficio en cada etapa. (2) Heurísticas de descomposición. Basándose en el principio de “divide y vencerás”, fragmenta el problema en otros más pequeños de forma que al resolverlos todos se obtenga una solución para el problema global. En algunos casos los problemas se resuelven en cascada, es decir, el resultado de unos son datos de los siguientes, mientras que en otras situaciones los subproblemas se consideran independientes entre sí. (3) Heurísticas de reducción. Estos métodos simplifican el problema tratando distinguir alguna característica que presumiblemente deba poseer la solución óptima. (4) Heurísticas de manipulación del modelo. Se trata de simplificar el esquema teórico para encontrar los valores de las variables de decisión con mayor facilidad, deduciendo, a partir de ella, la solución del problema original. Como posibles estrategias se puede ampliar o reducir el espacio de las opciones. (5) Heurísticas de búsqueda local. Los métodos clásicos de mejora iterativa o de búsqueda local constituyen una clase de heurísticas que se basan en la exploración del entorno asociado al “vecindario” de una solución. Este ámbito está formado por las opciones generadas por una alteración de la solución actual. Mediante estos movimientos se pasa iterativamente de una solución a otra mientras no se cumpla un determinado criterio de terminación. Un procedimiento de búsqueda local queda completamente determinado al especificar un movimiento y el criterio de selección de una solución dentro del entorno.

 

Guillermo Choque Aspiazu
www.eldiario.net
22 de Septiembre de 2014

Heurísiticas para la solución de problemas

Heurísiticas para la solución de problemas

La inteligencia, en el criterio de Sánchez descrito en el artículo publicado el año 2002 titulado “Los sistemas inteligentes de transporte”, entendida como algo privativo de los seres humanos y que comprende aspectos tales como razonar, descubrir significados, generalizar o aprender de experiencias pasadas, da paso a un sentido anglosajón, más mecanicista, cuando con dicho calificativo se designa la incorporación a un sistema o a un elemento de componentes informáticos, de equipos de control y de comunicaciones, que proporcionan un cierto nivel de conocimiento a objetos inanimados, a través de medios de captación, de transmisión y de procesamiento de datos que pueden conducir a sistemas expertos e inteligencia artificial. Fayyard y sus colegas, en el libro publicado el año 1996 titulado “Avances en descubrimiento del conocimiento y minería de datos”, complementan mencionando que los sistemas inteligentes constituyen procedimientos capaces de encontrar patrones y descubrir relaciones entre grandes conjuntos de datos. Las redes neuronales, la lógica difusa, los algoritmos evolutivos, la búsqueda tabú, la cristalización simulada son algunas técnicas que han probado ya su eficacia en la explotación de datos, en el descubrimiento de conocimiento y en la solución de problemas combinatorios difíciles en diferentes campos técnicos y científicos.

En palabras de Marino y Rodríguez, en el artículo publicado el año 2009 con el título “Un estudio exploratorio sobre heurísticas en estudiantes de un curso de matemática de nivel pre-universitario”, en general hay acuerdo en considerar que la formación del sujeto debería ser flexible como para que éste sea capaz de enfrentarse a tareas nuevas, que sean desafiantes y más cercanas al tipo de actividad profesional que eventualmente tendrá que desarrollar. Uno de los referentes en la línea de resolución de problemas, que se menciona en muchas obras como el principal referente, ha sido George Polya, con el libro escrito el año 1945 titulado “Como plantear y resolver problemas”, en el que propone un modelo para el proceso de resolución de problemas y una sistematización interesante de las fases y las heurísticas útiles en dicho proceso; constituyó el primer trabajo en establecer una relación entre la resolución de problemas y la heurística con la enseñanza. El modelo planteado por Polya establece que las fases en el proceso de resolución de problemas son: Comprender el problema, concebir un plan, ejecutar el plan y examinar la respuesta obtenida. En esta corriente la noción de problema es de central importancia. Por ello la mayoría de los investigadores que trabajan en esta línea han dedicado esfuerzo a precisar cómo la conciben. Entre las diversas definiciones algunas tienden a caracterizar a los problemas por oposición a los ejercicios rutinarios.

Según Telfar, en el libro publicado el año 1994 titulado “Heurísticas generales aplicables para la optimización global”, las heurísticas constituyen métodos sencillos que proporcionan soluciones satisfactorias a un problema dado mediante algoritmos específicos con procedimientos tales como los métodos constructivos, de mejora local o combinación de ambos. Estas técnicas explotan las características propias de un problema para buscar soluciones satisfactorias. Telfar denomina a las heurísticas como “algoritmos a medida”, no siendo aprovechables para un problema diferente al que fue diseñado. En palabras de Yepes Piqueras, en la tesis doctoral escrita el año 2002 titulada “Optimización heurística económica aplicada a las redes de transporte del tipo VRPTW”, dada la dificultad práctica para resolver importantes problemas combinatorios, comenzaron a proliferar algoritmos que proporcionaban soluciones factibles que, aunque no optimizaban la función objetivo, se acercaban al valor óptimo en un tiempo de cálculo razonable, ofreciendo soluciones de gran interés práctico. Estos métodos, diseñados específicamente en cada caso, y que ofrecen opciones satisfactorias, resolviendo los problemas complejos con una rapidez adecuada, han abundado en la literatura científica en las últimas cuatro décadas. Este tipo de algoritmos de aproximación se denominan heurísticas. Consisten en un conjunto bien definido de pasos que identifican con un esfuerzo de cálculo razonable una solución satisfactoria para un problema determinado. Zanakis y Evans, en el artículo escrito el año 1981 titulado “Optimización heurística: Por qué, cómo y cuándo usarla”, definen la heurística como “procedimientos simples, a menudo basados en el sentido común, que se supone ofrecerán una buena solución, aunque no necesariamente la óptima, a problemas difíciles, de una manera bastante fácil y rápida”.

 

Guillermo Choque Aspiazu
www.eldiario.net
15 de septiembre de 2014

Internet de las cosas (segunda parte)

Internet de las cosas (segunda parte)

La Empresa SRI, en el documento descrito, menciona que algunas de las tendencias más populares al interior del Internet de las cosas son: (1) Los teléfonos móviles como “ventanas de las cosas cotidianas”. Los dispositivos móviles como teléfonos y PDAs pueden mostrar información acerca de los objetos etiquetados con códigos de barras y etiquetas RFID, gracias a la incorporación de lectores y cámaras. Estos dispositivos pueden conectarse con los servidores vía Internet u otros protocolos para identificar: Personas, lugares y objetos. Así, un teléfono podría mostrar detalles sobre un producto identificado: Atributos, origen, precio, garantía, opiniones, su manual de usuario, dónde comprarlo, cómo reciclar, etc. (2) Los teléfonos móviles como “los mandos a distancia del entorno”. Entre los usos comunes de los teléfonos móviles en países como Japón ya se encuentran tareas como la realización de pagos y el uso como mandos a distancia para equipos multimedia. Los teléfonos pueden convertirse también en un medio para controlar cualquier dispositivo cercano o lejano como pueden ser cerraduras, sistemas de seguridad, luces, etc. (3) La monitorización continua y la medición. A través de sensores resulta posible identificar, almacenar información y monitorizar características de personas u objetos. Esta monitorización hace posible automatizar labores de supervisión, gestión e inventariado, etc. Algunos productos alimenticios llevan chips que contienen información acerca de su identidad, elaboración, lugares en que ha sido almacenado incluso sensores de frescura. Estos chips pueden ser leídos automáticamente por dispositivos a los que les transmiten su información útil, lo que facilita enormemente las labores de transporte, gestión e inventariado. (4) Localización de las cosas. La capacidad de localización en lugares cerrados y otros avances tecnológicos como la miniaturización prometen aumentar la variedad de objetos que pueden informar de su localización, incluyendo: Llaves, billeteras, gafas, joyas, y herramientas. Esta evolución de la capacidad de localizar objetos podría conducir a cambios en los paradigmas de presentación y almacenamiento.

Carabelea y Boissier, en el artículo publicado el año 2003 titulado “Plataformas multiagente sobre dispositivos pequeños: Sueño o realidad?” complementan el documento de análisis sobre Internet de las cosas de la Empresa SRI, señalando que las tendencias más populares son: (5) Pronósticos para el mantenimiento de vehículos y maquinaria. El continuo seguimiento permite establecer un nuevo paradigma en el mantenimiento de vehículos y maquinaria industrial. En lugar de llevar a cabo el mantenimiento en los intervalos especificados, las organizaciones pueden realizar el mantenimiento cuando sea necesario. Los sensores pueden advertir a los técnicos cuando hay que realizar alguna revisión y, a su vez, micrófonos incorporados cerca de los puntos clave de las máquinas pueden detectar sonidos que indican un desgaste excesivo. Los sensores de lecturas pueden combinarse con los registros de servicios, creando bases de datos de predicción de mantenimiento; y a partir de estos datos deducir algoritmos que podrían prever problemas de fiabilidad y reducir el costo de mantenimiento. Por lo tanto, vehículos, generadores eléctricos, equipo industrial, y demás tipos de maquinaria serán pronto candidatos a formar parte del Internet de las cosas. (6) Servicios de salud y asistencia. Sensores que monitorizan la actividad de los pacientes, incluso cuando estos se encuentran fuera del hospital. Los sensores en camas, suelos y cañerías pueden ser de gran ayuda para cuidar a las personas. La universidad de Virginia desarrolla el proyecto AlarmNet, consistente en la interconexión de redes con algunos objetos cotidianos como camas y suelos. Un sensor de presión en una cama detecta la frecuencia cardíaca, la respiración y el movimiento de la persona. Sensores en el suelo pueden detectar cuando una persona se cae y comunicárselo al hospital. (7) Control de elementos. En cualquier momento se podría acceder a los servicios ofrecidos por los objetos conectados a la red. Por ejemplo, desde el supermercado se podría preguntar al frigorífico inteligente que está conectado a la red si queda existencias de un determinado producto. (8) Automatizar el control de entornos abiertos con una gran incertidumbre. La comunicación directa entre objetos puede servir para reducir los efectos de problemas inesperados. Por ejemplo, si un coche detectase que ha sufrido un accidente podría comunicárselo a las señales de tráfico cercanas, haciendo que éstas se auto regulen, reduciendo la velocidad permitida y advirtiendo a los conductores cercanos del peligro.

 

Guillermo Choque Aspiazu
www.eldiario.net
08 de Septiembre de 2014

Translate »