Etiqueta: BIG DATA

Nanotecnología y big data (segunda parte)

Nanotecnología y big data (segunda parte)

En el informe de Stokes, publicado el año 2014 con el título “Nanotecnología y Big data: ¿La siguiente revolución industrial?”, se menciona que un grupo de expertos dirigido por el profesor Sir Mark Welland, Director del Centro de Nanociencia de la Universidad de Cambridge, fue organizado y financiado por la Fundación Lloyd en el mes de octubre del año 2013. Se consideraron las implicaciones potenciales de la nanotecnología en la seguridad y el rendimiento de los activos de ingeniería y la infraestructura en la que se basa la sociedad moderna. El panel incluyó a académicos de alto nivel de las instituciones líderes en el mundo: Universidad de Cambridge, Universidad Heriot-Watt y Southampton y el Laboratorio de Seguridad y Salud en el Reino Unido; Universidad Yale en los Estados Unidos; Universidad Nacional de Singapur y Universidad Münster de Alemania.

Entre otras cosas, los expertos analizaron las posibles implicaciones de la nanotecnología en la seguridad y el rendimiento de los activos de ingeniería, así como en la infraestructura en la que se basa la sociedad moderna. El informe, presentado el año 2014 indica que la nanotecnología tendrá un gran impacto en casi todos los sectores, incluyendo la energía, el transporte, la fabricación, la medicina, la informática y las telecomunicaciones. En este sentido, el mencionado informe identifica cinco áreas fundamentales de impacto: (1) Nanopartículas. El informe pone de relieve la necesidad de investigar el desarrollo de nuevos métodos que permitan evaluar la seguridad y garantizar la calidad y la trazabilidad de las nanopartículas en la cadena de suministro. (2) Materiales artificiales inteligentes. El informe prevé el desarrollo de nuevos materiales artificiales y novedosas técnicas de fabricación. El uso de materiales más ligeros y resistentes con propiedades diseñadas específicamente podría dar lugar, por ejemplo, a embarcaciones pegadas entre sí con compuestos ligeros. Paralelamente, los avances en el campo de la impresión en tres dimensiones permitirán la impresión de metales. (3) Almacenamiento de energía. El desarrollo de pequeñas baterías compactas con capacidad de almacenamiento masivo junto con la capacidad de captar energía del entorno podría dar lugar a nuevos sistemas de transporte o electrodomésticos que dispongan de energía para toda su vida útil en el momento de la compra. (4) Miniaturización de sensores. La incorporación de nanosensores en materiales estructurales como el hormigón proporcionará información continua en tiempo real sobre factores de desempeño estructural, como la corrosión o las tensiones. Esta tecnología mejorará también la robótica y los vehículos no tripulados en el sector del transporte. (5) Grandes repositorios de datos o Big data. Se producirá un aumento masivo de los datos recopilados como consecuencia de la colocación de sensores en todas partes. Esto tendrá importantes implicaciones a la hora de garantizar la calidad, seguridad y trazabilidad.

En la tesis de maestría de Manso, publicada el año 2015 con el título “Análisis de Modelos de Negocios Basados en Big Data para Operadores Móviles”, se menciona que el término general que se utiliza para describir la tendencia creciente de datos donde el volumen, variedad, velocidad y veracidad excede a la capacidad de los métodos tradicionales es conocido como Big data. Este fenómeno se caracteriza por cuatro uves: (1) Volumen. Más información de lo que es económicamente factible almacenar, terabytes a petabytes de datos. (2) Variedad. Datos en múltiples formatos tales cómo estructurado, semi-estructurado, no estructurado y de tipo texto, imágenes, videos, audio, interactividad, etc. (3) Velocidad. Análisis en tiempo casi real de flujo de datos para permitir la toma de decisiones en fracciones de segundos. (4) Veracidad. Gestión de la fiabilidad y la previsibilidad de la incertidumbre intrínseca de los datos. Big data es uno de los temas más candentes en la actualidad y su crecimiento se prevé que sea exponencial. ¿Cómo afectará esto a la sociedad? Y, lo más importante ¿puede ayudar los datos a mejorar la vida de las personas? Este boom puede traducirse en mejoras en la gestión de diferentes aspectos de la sociedad, desde las catástrofes del planeta, la salud, la agricultura, la productividad, el medio ambiente, la educación o el gobierno abierto, entre otros. La clave está en encontrar la vía, mediante un uso responsable, para hacer uso de estas grandes cantidades de datos para el beneficio de la sociedad.

Según el informe de Stokes, en los últimos años se le ha dado mucha importancia a la nanotecnología en los medios de comunicación y, más recientemente, han salido a la palestra conceptos como el Internet de las cosas o el ya mencionado Big data. Sin embargo, hace más de treinta años que se investiga en nanotecnología, se han invertido, y se siguen invirtiendo todavía, miles de millones de dólares en investigación en este campo y la gran revolución prometida sigue sin llegar a hacerse realidad. No hay duda de que la nanotecnología seguirá avanzando y conducirá al desarrollo de nuevos productos sorprendentes; y probablemente dará lugar a la tan anunciada revolución en un futuro próximo. Por el momento, hay dos factores fundamentales que lo impiden: (1) Las dificultades para llevar los avances del laboratorio al mercado: Este es uno de los grandes problemas de la nanotecnología actualmente, la dificultad a la hora de escalar la producción lograda en el laboratorio para lograr una producción a escala comercial. Un buen ejemplo es el del grafeno, el nanomaterial del que tanto se ha hablado y que se dice que podría revolucionar la electrónica reemplazando al silicio. Sin embargo, por el momento, la producción de grafeno de alta calidad no es posible, incluso en pequeñas cantidades, por lo que todavía no es viable comercialmente. (2) Las preocupaciones relacionadas con la salud y la seguridad: Es necesario abordar estos temas desde el punto de vista ambiental, médico y legislativo y encontrar una solución que garantice realmente que la nanotecnología no entraña ningún perjuicio para los seres vivos y el medioambiente antes de permitir la salida masiva de nanomateriales al mundo. La nanotecnología está todavía en una etapa conceptual. No obstante, hay que tener en cuenta también que la industria todavía no ha invertido de forma masiva en este campo.

 

Guillermo Choque Aspiazu
www.eldiario.net
31 de Octubre de 2016

Nanotecnología y big data (primera parte)

Nanotecnología y big data (primera parte)

En la monografía de Briones y sus colegas, publicada el año 2009 con el título “Nanociencia y nanotecnología: Entre la ciencia ficción del presente y la tecnología del futuro”, se menciona que muchas definiciones circulan por la Web para nanociencia y nanotecnología y, como todo lo que aparece en Internet, deben de ser interpretadas con cautela. Hay quien dice que nanociencia es la ciencia de lo infinitamente pequeño. Esto no es estrictamente cierto, ya que esta definición responde mejor, por ejemplo, al tipo de estudios de los que se ocupa la física de altas energías, que trabaja con protones, neutrones o incluso los constituyentes de éstos: Los quarks. Otras personas piensan que la nanotecnología trata de reducir el tamaño de los objetos hasta límites insospechados. Esto tampoco es completamente acertado, ya que la nanotecnología necesita técnicas de fabricación diferentes, basadas en otros conceptos. Por otra parte, a veces se asocia la palabra nanotecnología con la construcción de dispositivos y robots como los que se tiene en el mundo pero de dimensiones bastante pequeñas. Esto, también es un error. Los problemas que presenta la definición de estos términos están relacionados con el hecho de que ni la nanociencia ni la nanotecnología nacieron como disciplinas cerradas, sino que ambas son campos del conocimiento que se han ido construyendo paralelamente a la aparición de nuevos descubrimientos y que, de hecho, no se sabe aun hacia donde evolucionarán.

De manera general, se podría definir nanotecnología como la fabricación de materiales, estructuras, dispositivos y sistemas funcionales a través del control y ensamblado de la materia a la escala del nanómetro, de cero coma uno a cien nanómetros, del átomo hasta por debajo de la célula, así como la aplicación de nuevos conceptos y propiedades, de diferentes ramas de la ciencia, que surgen como consecuencia de esa escala tan reducida. La nanotecnología, de manera obvia, se encarga de manejar grandes volúmenes de datos en equipos computacionales en escala manométrica. Pero como se podrían encarar tareas tan importantes, al interior de la nanotecnología, como son el manejo de las nanopartículas, los nanomateriales artificiales inteligentes, el almacenamiento de energía o la miniaturización de sensores para tareas tan importantes como son las asociadas al manejo del control difuso o el control domótico de la infraestructura de inteligencia ambiental, que permita a las personas “vivir bien”, mas allá de la simple retorica.

En el artículo de Puyol, publicado el año 2014 con el título “Una aproximación a Big data”, cada día en el mundo se generan más de dos punto cinco exabytes de datos, esto equivale a un millón de de terabytes. La generación de datos no solo crece, explota. El crecimiento exponencial es tan grande, que el noventa por ciento de los datos guardados en la actualidad, han sido creados en los dos últimos años. Cada segundo sensores, tabletas, teléfonos y sistemas inteligentes generan cantidades de datos que crecen exponencialmente. Actualmente, la mayoría de los datos almacenados por las nuevas tecnologías no tienen más de dos años. Muchos de estos datos no se procesan porque los sistemas tradicionales de computación no son capaces de procesarlos y muchas empresas no tienen una solución unificada para recogerlos y analizarlos.

Según datos hechos públicos por el Instituto Global McKinsey, en el documento publicado el año 2011 con el título “El despertar de la India urbana: La construcción de ciudades inclusivas”, el noventa por ciento de los datos que existen en el planeta se ha generado en los últimos dos años y durante el año 2011 se rozaron los dos zetabytes, equivalente a más de dos mil millones de terabytes de información en todo el mundo. Este ritmo de generación de datos ha desbordado a los programas informáticos utilizados habitualmente para capturar, gestionar y procesar información. Se requiere de nuevos programas de software y herramientas de hardware para su procesamiento.

En el artículo de Barranco, publicado el año 2012 con el título “¿Qué es Big data?”, se indica que en términos generales el Big data puede ser considerado como a la tendencia en el avance de la tecnología que ha abierto las puertas hacia un nuevo enfoque de entendimiento y toma de decisiones, la cual es utilizada para describir enormes cantidades de datos: Estructurados, no estructurados y semi estructurados, que tomaría demasiado tiempo y sería muy costoso cargarlos a un base de datos relacional para su análisis. De tal manera que, el concepto de Big data aplica para toda aquella información que no puede ser procesada o analizada utilizando procesos o herramientas tradicionales. Sin embargo, Big data no se refiere a alguna cantidad en específico, ya que es usualmente utilizado cuando se habla en términos de petabytes y exabytes de datos. Entonces cabe preguntarse ¿Cuánto es demasiada información de manera que sea elegible para ser procesada y analizada utilizando Big Data?, esto debe ser analizado en términos de bytes: Un gigabyte es equivalente a mil millones de bytes; un terabyte equivale a un millón de bytes; un petabyte equivale a un millón de gigabytes; un exabyte es equivalente a mil millones de gigabytes. Además del gran volumen de información, existe en una gran variedad de datos que pueden ser representados de diversas maneras en todo el mundo, por ejemplo de dispositivos móviles, audio, video, sistemas de posicionamiento global, incontables sensores digitales en equipos industriales, automóviles, medidores eléctricos, veletas, anemómetros, etc., los cuales pueden medir y comunicar el posicionamiento, movimiento, vibración, temperatura, humedad y hasta los cambios químicos que sufre el aire, de tal forma que las aplicaciones que analizan estos datos requieren que la velocidad de respuesta sea lo demasiado rápida para lograr obtener la información correcta en el momento preciso. Estas son las características principales de una oportunidad para Big data.

 

Guillermo Choque Aspiazu
www.eldiario.net
24 de Octubre de 2016

Gobierno electrónico y Big Data (segunda parte)

Gobierno electrónico y Big Data (segunda parte)

Costales y Amoroso, en el artículo publicado el año 2016 con el título “Big data y el gobierno electrónico en Cuba”, mencionan que uno de los principales elementos que ha traído como consecuencia el surgimiento y la aplicación del big data, es la transformación de los gobiernos, los cuales han estado condicionados a cambiar la manera de presentarse ante el imparable desarrollo mundial. Los organismos gubernamentales han sido capaces y oportunos al identificar un cúmulo de oportunidades en los datos espaciales como herramienta, y en su condicionada integración con la estrategia de datos abiertos. Newman, en la conferencia presentada el año 2012 con el título “Negocios abiertos: Aprender a sacar provecho de los datos”, menciona que, “si bien el big data hace que las organizaciones sean más inteligentes, los datos abiertos son aquellos que conseguirán que realmente se obtengan más beneficios en el entorno altamente competitivo en el que se encuentran las personas”, si dicha teoría es aplicada en el desarrollo de las funciones de los gobiernos, se puede afirmar que la estrategia de datos abiertos será la clave de éxito de los Estados para identificar las principales demandas del ciudadano en un mundo cada vez más interconectado.

Según Laney, en el artículo publicado el año 2001 con el título “Gestión de datos 3D: Control del volumen de datos, la velocidad y la variedad”, es necesario que el hombre como ser social se sienta parte de las transformaciones de la sociedad; cuanto mayor es el grado de apertura de los datos, mayor es el tamaño y la diversidad de la comunidad que accede a ello, aunque para lograr una participación de verdadero valor del ciudadano dentro de este proceso de cambio social es necesario lograr la trasparencia de la información ofrecida por parte del gobierno. La apertura de los datos al público es el principal elemento para que el ciudadano se formule interrogantes y criterios de carácter innovador y trasformador; con la liberación de los datos por parte del gobierno, el ciudadano no solo es un sujeto trasformado por las leyes, sino que pasa a ser a su vez sujeto transformador.

Costales y Amoroso, en el artículo citado en párrafos precedentes, continúan mencionando que la notoriedad e impacto del proceso de toma decisiones a través del big data depende en gran medida del factor liberación de los datos, por tanto es preciso que los gobiernos desarrollen una eficiente política de apertura de los mismos teniendo como cimiento ante todo la trasparencia de la información, como segundo aspecto deben propiciar la colaboración entre los organismos y con el propio ciudadano, sin dejar de mencionar el eje central que es la incorporación de la tecnología como canal de comunicación; el Estado debe centrarse en promover la participación de los ciudadanos en los procesos de toma de decisiones y diseño de políticas públicas; puesto que de ello florecerán cambios futuros entorno al bienestar social, y por ende para el mejoramiento de los servicios ofrecidos por los organismos que regentan la administración pública. La principal fuente de retroalimentación, para sentar las bases de una aplicación del análisis de la gran cantidad de datos generados por el entorno, se encuentra en establecer una fuerte colaboración entre los organismos de administración pública y los ciudadanos, con el principal objetivo de ayudar a definir una guía política siempre orientada a lograr la eficiencia y la agilidad de los procesos burocráticos; es fundamental ubicar el factor tecnológico como punto medio entre ambas partes con la finalidad de agilizar la gestión de la documentación, la información y los datos generados por cualquiera de las partes, así como viabilizar los flujos de información, el acceso y el intercambio continuo.

En el libro titulado “Gobierno o electrónico o fuera del gobierno”, publicado el año 2014 por los autores Barrenechea y Jenkins, se menciona que los datos en poder de los organismos gubernamentales constituyen un activo bastante importante. Cuando el big data se desbloquea, tiene el potencial para mejorar el desempeño del sector público en la administración, la salud, la ciencia y la investigación, el transporte, la infraestructura, la educación, la seguridad, y las ciencias sociales. Beneficios que ya se están realizando mediante la aplicación de modelos de predicción a los ensayos clínicos, análisis avanzados para probar la eficacia de los tratamientos del paciente, y el análisis de la vigilancia de la salud pública para detectar el brote de las enfermedades, como se ilustra en la siguiente historia sobre la “Red Global de Inteligencia de Salud Pública”. Con las soluciones de gobierno electrónico, organizaciones como la red global de inteligencia de salud pública, tienen una ganancia en capacidades de vanguardia, incluyendo la búsqueda progresiva, análisis semántico y navegación, además de la categorización, todos ellos diseñados para ser sujetos a procesos de minería, de donde se extrae y se presenta el verdadero valor del big data. El gobierno electrónico ayuda a las agencias a encontrar el conocimiento oculto encerrado al interior de los grandes volúmenes de datos. Las soluciones de administración electrónica se pueden utilizar para capturar, combinar y transformar los datos a través de silos de información en formatos que pueden ser analizados para una penetración más profunda del negocio. El primer paso para extraer valor de los datos es la gestión de los datos. Las soluciones de administración electrónica integran datos sobre una plataforma común donde se puede fijar, acceder, intercambiar y archivar las mismas.

Amoroso, en el artículo publicado el año 2015 con el título “Infoética, Ciberespacio y Derecho”, menciona que el éxito de todos estos factores depende además de dos elementos muy importantes: El acceso y publicación de la información como punto número uno, y de la presentación de los datos a los usuarios finales, es decir, a los ciudadanos. En este sentido el diseño de los sistemas informáticos es fundamental porque es la piedra angular para asegurar desde el código una realización real de la apertura de datos y consiguientemente el big data.

 

Guillermo Choque Aspiazu
https://www.eldiario.net
13 de Junio de 2016

Gobierno electrónico y Big Data (primera parte)

Gobierno electrónico y Big Data (primera parte)

Debido al gran avance tecnológico que se ha experimentado a lo largo de los últimos años, concretamente en el mundo de las tecnologías de la información y la comunicación, gran parte de las empresas públicas y privadas vienen desarrollando importantes esfuerzos en adaptarse a diferentes desafíos. Merino y Cejudo, en el libro publicado el año 2010 con el título “Problemas, decisiones y soluciones: Enfoques de política pública”, mencionan que los gobiernos se encuentran implementando iniciativas de gobierno electrónico, de gobierno abierto y acceso a la información pública basándose no sólo en los datos y la tecnología, sino también en principios de transparencia, participación, colaboración y empoderamiento ciudadano. Un desafío que por cuenta propia, ha cobrado gran importancia a lo largo de los últimos años, consiste en cómo manejar, administrar, almacenar, buscar y analizar grandes volúmenes de datos, relacionados con el que hacer de la administración pública. Con el término “big data” se hace referencia al gran desafío que tienen los gobiernos, que consiste en el tratamiento y análisis de grandes repositorios de datos.

Concha y Naser, en el documento publicado por Naciones Unidas el año 2011 con el título “El gobierno electrónico en la gestión pública”, mencionan que el gobierno electrónico es la transformación de todo el gobierno como un cambio de paradigma en la gestión gubernamental, es un concepto de gestión que fusiona la utilización intensiva de las tecnologías de la información y comunicación, con modalidades de gestión, planificación y administración, como una nueva forma de gobierno. Bajo este punto de vista, el gobierno electrónico basa y fundamenta su aplicación en la administración pública, teniendo como objetivo contribuir al uso de las tecnologías de la información y comunicación para mejorar los servicios e información ofrecida a los ciudadanos y organizaciones, mejorar y simplificar los procesos de soporte institucional y facilitar la creación de canales que permitan aumentar la transparencia y la participación ciudadana. El presente documento intenta dar una aproximación a los elementos que componen el gobierno electrónico, elevar la importancia y el rol que cumple el adecuado manejo de la información dentro de la administración pública, suponiendo que un gobierno electrónico enmarcado en la planificación estratégica de cada institución y de la mano con las estrategias digitales y la modernización de cada Estado, puede llegar a ser la herramienta más eficiente y eficaz para entregar servicios rápidos y transparentes a los ciudadanos. En el informe de la Unión Internacional de Telecomunicaciones, que es el organismo especializado en telecomunicaciones de la Organización de las Naciones Unidas, publicado en Ginebra el 30 de noviembre de 2015 con el título “Medición de la Sociedad de la Información”, se indica que tres mil doscientas millones de personas están en línea, lo que representa el cuarenta y tres por ciento de la población mundial, en tanto que el número de suscripciones al servicio móvil celular asciende a casi siete mil cien millones en todo el mundo, y más del noventa y cinco por ciento de la población mundial puede recibir una señal móvil celular. En el Informe se señala también que los ciento sesenta y siete países contemplados en el índice de desarrollo de las tecnologías de la información y comunicación, mejoraron sus valores entre los años 2010 y 2015, lo que significa que los niveles de acceso a las tecnologías de la información y la comunicación, la utilización de esas tecnologías y los conocimientos en la materia siguen mejorando en todo el mundo.

Baturone y Amago, en el Diccionario LID de Innovación publicado el año 2010, definen big data como: “Anglicismo que hace referencia al conjunto de datos cuyo tamaño excede la capacidad de los programas informáticos utilizados habitualmente para capturar, gestionar y procesar información”. La diferencia es que los datos que ahora intentan explotar no son ya solamente numéricos. En la misma entrada del diccionario, se explica que “el tratamiento y gestión de enormes cantidades de datos en texto, procedentes de múltiples fuentes, como las redes sociales, tales como Facebook o Twitter, y las tecnologías de las comunicaciones, son de vital importancia en el contexto de la inteligencia competitiva, lo que ha fomentado el auge de tecnologías y servicios de big data. Además, los servicios de inteligencia y seguridad centran su interés en el proceso de estos datos y en el desarrollo de tecnologías que permitan su transformación en conocimiento”.

En esta misma línea se manifiesta Mario Tascón, en el artículo publicado el año 2013 con el título “Big Data: Pasado, presente y futuro”, quien señala “Big data es, sin la menor duda, uno de los campos más importantes de trabajo para los profesionales de las tecnologías de la información y comunicación. No hay área ni sector que no esté afectado por las implicaciones que este concepto está incorporando; cambian algunas herramientas, se modifican estrategias de análisis y patrones de medida. Tradicionalmente, los principales conceptos agrupados que han definido este nombre han sido las denominadas 3V: Volumen, variabilidad y velocidad. Big data es todo aquello que tiene que ver con grandes volúmenes de información que se mueven o analizan a una alta velocidad y que pueden presentar una compleja variabilidad en cuanto a la estructura de su composición. Debería añadirse una cuarta uve, la visualización, ya que no solo forma también parte de ello, sino que muchas de las imágenes que traen a la memoria el trabajo con tiene big data que ver con estas nuevas formas de visualizar estos datos.

 

Guillermo Choque Aspiazu
https://www.eldiario.net
06 de Junio de 2016

Big Data (primera parte)

Big Data (primera parte)

En la tesis de maestría de Ramos, publicada el año 2015 con el título “Big Data en sectores asegurador y financiero”, se menciona que el progreso de las tecnologías de la información provoca la generación de una gran cantidad de datos a nivel global, de hecho el volumen de los datos generados diariamente es tan grande que las bases de datos actuales se están quedando obsoletas, debido a que, los datos crecen más rápido que la capacidad de las bases de datos para almacenar dicha información. Si las empresas, tanto públicas como privadas, no aprenden a tratar y administrar este tipo de flujo de información dejarán de ser competitivas en los próximos años. Con el tratamiento de estos datos, las empresas podrían tener una visión global del cliente, utilizando datos de fuentes internas. Datos que ya poseen y no están analizados y de fuentes externas, como redes sociales, aplicaciones móviles y datos de geolocalización entre otros. El objetivo principal de este tratamiento y cruce de datos es reducir riesgos. Esto se logra prediciendo el comportamiento y las necesidades del cliente. Gracias a esta ventaja, las empresas podrían desde aplicar microsegmentación con alta precisión a detectar posibilidades de propensión a la fuga del cliente, adelantarse a sus necesidades, conociendo que necesita el cliente antes de que este lo sepa; hasta detectar, identificar y evitar el fraude. En el mercado, se observa hechos y fenómenos que afectan a otros sectores donde se empieza a aprovechar este flujo de datos. Por ejemplo, utilizando Big Data para analizar y cruzar los datos generados por sus usuarios empresas como Amazon que, cruzando datos de compras de sus clientes, han logrado algoritmos de recomendación con los que proveen de ofertas a clientes que han comprado un artículo y se anticipan a sus necesidades posteriores.

La primera vez que se empleó el término Big Data fue el año 1997 en un artículo de dos investigadores de la NASA David Ellsworth y Michael Cox, titulado “Aplicación controlada por la demanda de paginación para la visualización fuera del núcleo”, los cuales indicaban que el ritmo de crecimiento de los datos empezaba a ser un problema para los sistemas informáticos de los que se disponía. Posteriormente, en el año 2001, Douglas Laney publicó un artículo titulado “Gestión de datos 3D: Control del volumen de datos, la velocidad y la variedad”. Este artículo definía lo que actualmente se conoce como las tres V que definen Big Data: Volumen, velocidad y variedad. Asimismo, Big Data no deja de ser un anglicismo que indica datos masivos y que se refiere a la utilización de sistemas informáticos para la acumulación y tratamiento de grandes cantidades de datos y de cómo se revisan y manipulan para identificar distintos tipos de patrones.

Ramos, en la tesis citada, menciona que no obstante y si se pretende entender que significa Big Data, primero es necesario conocer cómo y cuantos datos se generan. Ya que actualmente todo el mundo realiza cualquier cosa desde cualquier lugar, algo que es posible gracias a la tecnología. Esta gran conectividad es una fuente de cantidades ingentes de datos. Cuando se habla de Big Data se está hablando de grandes cantidades de datos. Estos serían: (1) Byte (B) equivale a ocho bits. (2) Kilobyte (KB) corresponde a mil bytes. (3) Megabyte (MB) equivale a mil kilobytes. (4) Gigabyte (GB) corresponde a mil megabytes. (5) Terabyte (TB) equivale a mil gigabytes. (6) Petabyte (PB) corresponde a mil terabytes. (7) Exabyte (EB) equivale a mil petabytes. (8) Zettabyte (ZB) corresponde a mil exabytes. Según la Empresa Domo, en un estudio sobre la cantidad de datos que se generaban en el año 2014 en un minuto en la red por usuarios de social media, se pueden resaltar las siguientes empresas y cantidades asociadas al Big Data: (1) YouTube, los usuarios suben setenta y dos horas de videos nuevos. (2) Email, los usuarios envían doscientos cuatro millones de mensajes. (3) Google, los usuarios envían cuatro millones de consultas de búsqueda. (4) Facebook, los usuarios comparten dos millones cuatrocientos sesenta mil piezas de contenido. (5) Whatsapp, los usuarios comparten trescientos cuarenta y siete mil doscientos veintidós fotos. (6) Twitter, los usuarios envían doscientos setenta y siete mil tuits. (7) Instagram, los usuarios publican doscientas dieciséis mil fotos. (8) Amazon, genera ochenta y tres mil dólares de ventas en línea. (9) Pandora, los usuarios escuchan sesenta y un mil ciento cuarenta y un horas de música. (10) Skype, los usuarios se conectan por veintitrés mil trescientas horas.

Maté, en el artículo publicado el año 2015 titulado “Big data: Un nuevo paradigma de análisis de datos”, complementa mencionando que existen tres grandes bloques o tipos de datos en Big Data, donde es posible realizar la clasificación: (1) Datos estructurados. Corresponde a datos con longitud y formato definidos, como fechas, números o cadenas de caracteres. Se almacena este tipo de datos en tablas. Como ejemplo se tiene una ficha de clientes con: Fecha de nacimiento, nombre, dirección, transacciones en un mes, puntos de compra. (2) Datos semiestructurados. Son datos combinados que no se limitan a campos determinados, pero tienen marcadores para diferenciarse y clasificarse. Se trata de información irregular y son datos que poseen otros datos que se describen entre ellos. Un ejemplo de este tipo de datos son los correos electrónicos, la parte estructuras contiene el destinatario, los receptores y el tema; la parte no estructurada corresponde al texto del mensaje. Otro ejemplo se refiere a los lenguajes de programación de páginas Web o de bases de datos como HTML, XML o JSON. (3) Datos no estructurados. Datos en el formato original en el que fueron recopilados, no se pueden almacenar en tablas ya que no es posible su simplificación a tipos básicos de datos. Ejemplo de datos no estructurados se produce de persona a persona en la comunicación en las redes sociales; de persona a máquina se produce en los dispositivos médicos, el comercio electrónico, las computadoras y los dispositivos móviles; de maquina a máquina se produce en los sensores, dispositivos GPS, cámaras de seguridad. Otro grupo de datos no estructurados son los videos y documentos multimedia, los documentos PDF, contenidos de correos electrónicos, imágenes.

 

Guillermo Choque Aspiazu
https://www.eldiario.net
09 de Mayo de 2016

Translate »