Etiqueta: Ciencia y Tecnología

Teoría del caos

Teoría del caos

La palabra caos ha estado tradicionalmente asociada a los conceptos de confusión y desorden. De hecho el Diccionario de la Real Academia Española lo define como aquel estado amorfo e indefinido que se supone anterior a la ordenación del cosmos. Esta misma acepción es la tiene en el Génesis, el primero de los libros bíblicos, que en su segundo versículo dice: “La tierra era un caos total, las tinieblas cubrían el abismo, y el Espíritu de Dios iba y venía sobre la superficie de las aguas”. La “teoría del caos” es un elemento de manejo referencial cultural amplio. Su gran número de publicaciones tiene denominador común: la complejidad, la co-incidencia y simultaneidad de múltiples elementos en la dinámica de fenómenos y procesos, no lineales ni predecibles sino azarosos o aleatorios. Sus patrones de “orden desordenado” son sistemas abiertos y multilineales, y exigen modelos lógicos alternativos para su comprensión e interpretación distintos de los aplicados a fenómenos lineales predecibles dentro de la polaridad dinámica de causa-efecto. En estos fenómenos o sistemas abiertos, mínimas alteraciones a su condición original devienen cambios exponenciales imprevisibles. Las incidencias en la comprensión del mundo y su trama epistémica, dentro de los marcos levantados por la modernidad, son significativas.

Las dinámicas sistémicas del Caos han generado necesidad de nuevos conceptos y técnicas de experimentación, con gran incidencia en la elaboración de sistemas de representación de la realidad y sus bases filosóficas, metafísicas y metodológicas acerca del significado de la impredecibilidad e inestabilidad compleja en los procesos naturales, culturales y sociales, así como de sus comportamientos posibles a largo plazo. Su extrapolación a otros dominios del conocimiento humano es aplicada en economía, sociología, teoría cultural, neurociencia y planificación urbana, música, entre otras. El descubrimiento y formalización del caos se ha dado en considerar como una nueva revolución en la ciencia física del siglo veinte, comparable a la que en su día provocaron la relatividad y la teoría cuántica. Según Rañada, en el libro publicado el año 2007 titulado “dinámica clásica”, un sistema dinámico se considera caótico si presenta un comportamiento aperiódico resultado de un modelo totalmente determinista y que presenta gran sensibilidad a las condiciones iníciales. La sensibilidad a las condiciones iníciales implica que existe una divergencia exponencial de trayectorias inicialmente muy próximas en el espacio de fases, fenómeno que se conoce como estirado. Otra propiedad existente sobre el espacio de fases y opuesta al estirado es el plegamiento que conlleva que dos trayectorias muy lejanas pueden eventualmente acercarse. Si se representa el retrato fase de un sistema dinámico, se observa que las dos fuerzas anteriores entran en acción de forma que se genera una estructura confinada en una región del espacio de fases que se conoce como atractor extraño. Como la región en la que está ubicado el atractor es finita, se tiene, al seguir una trayectoria cualquiera, una curva de longitud infinita encerrada en un área finita o, dicho de otra forma, un atractor extraño posee estructura fractal. La computadora facilita el proceso iterativo de los sistemas dinámicos y es un arma imprescindible para aproximarse a la geometría de los atractores extraños.

De caos como espacio de ausencia de orden, de vida y sentido, se pasó al caos como espacio en el que se genera la vida, la estructura, el logos y el sentido de un otro orden. La dialéctica moderna de opuestos antagónicos orden-desorden suponía un sólo tipo de orden. Los descubrimientos realizados en la ciencia del caos permitieron la comprensión de la existencia de otros órdenes posibles, o más bien, un “ordenado desorden”. Katherine Hayles, en el libro escrito el año 1998 titulado “La evolución del caos: El orden dentro del desorden en las ciencias contemporáneas”, comenta que “el desorden ordenado de los sistemas caóticos no tenía un lugar reconocido dentro de la mecánica clásica. Al demostrar que tales sistemas no sólo existen sino que además son comunes, la teoría del caos abrió, o más precisamente reveló un tercer territorio, que se sitúa entre el orden y el desorden.” En esto coincide con William Demastes quien afirma, en el libro escrito el año 1998 titulado “Teatro del caos más allá de lo absurdo, en el desorden ordenado” no sin poesía, que “es en el vasto fondo mediador entre los dos extremos, de ese tercer territorio del orden y del desorden, donde la vida se manifiesta, y es lo que hace que valga la pena ser vivida.”

El caos como tal presenta una naturaleza intersticial; esta noción requiere ser entendida desde un pensamiento precisamente intersticial, difuso, a-lógico según la lógica clásica; y es en esto que se percibe la pertinencia de enfoques como los de la lógica difusa de Lotfi Zadeh y el pensamiento complejo desarrollado por Edgar Morin. En el cúmulo de consideraciones y estudios de sistemas dinámicos no lineales que conforman la “teoría del caos” confluyen diversas disciplinas de las ciencias: termodinámica, meteorología y epidemiología, reacciones químicas y movimiento de fluidos, ritmos cardíacos y tendencias económico-sociales, sin excluir las ciencias de la cultura o teoría cultural contemporánea. La teoría del caos estudia sistemas dinámicos complejos, en los que la aparición de problemas y “aberraciones” frecuentes intrigaban a los estudiosos y que ahora son vistas con carácter de existencia legítima.

La teoría del caos no es antirracionalista; busca ampliar los alcances de la razón, liberándola de sus limitaciones positivistas modernas. El estudio sistemático del Caos tuvo antecedentes en observaciones que sobre lo irregular desarrolló el matemático francés Henri Poincaré. Los planteamientos y fórmulas del astrónomo y matemático inglés Isaac Newton radicaban en ecuaciones lineales que representaban la dinámica de sistemas cerrados predecibles, considerando arbitrariamente que corporizaba la dinámica universal. Pero la aparición de algo conocido como “el problema de los tres cuerpos” introdujo nuevos elementos que escapaban de la linealidad predecible newtoniana. Poincaré demostró la incapacidad de la fórmula de Newton para resolver este tipo de problemas, cuya linealidad se veía alterada por la incorporación de elementos perturbadores. Esta perturbación implicó desarrollos no regularmente lineales en estos sistemas. Por ello, entendió la necesidad de nuevas formulaciones matemáticas para describir tales peculiaridades. Esas formulaciones y teorías dieron origen a las matemáticas de los sistemas dinámicos.

Una de las propiedades de estos sistemas es la del estiramiento, dado por la evolución de una serie ordenada de puntos con valores matemáticos que “estiran” su conformación sobre sí mismos. El estiramiento funciona con dinámicas aleatorias al ser activadas repetidas veces, en cifras muy altas. En este tipo de procesos puede ocurrir la llamada “recurrencia de Poincaré”, que es una transformación típicamente caótica aunque extremadamente rara, y consiste en que por azar o casualidad la compleja configuración inicial de puntos vuelve a su estado de origen. Las probabilidades temporales de que tales cosas ocurran son de una en más o menos quince o veinte mil millones de años, es decir, la edad estimada del universo. Una incidencia que de esto se desprende es que, dada la evolución actual del universo, la posibilidad de que la configuración que haya tenido en un cualquiera momento dado se repita en otro universo paralelo es de sólo una dentro de la edad que lleva acumulada desde el big bang. Existen otros antecedentes insoslayables que contribuyeron, junto con las propuestas de Poincaré desde las ciencias matemáticas, a alimentar la noción que contemporáneamente se tiene del universo y su comportamiento, con los cuales coinciden en la exigencia de una misma representación lógica diferente, como han sido los descubrimientos y desarrollos de la física cuántica y de la dinámica macrocósmica.

Los estudios en la búsqueda de orden a partir del caos, tienen como principal representante al físico belga Ylia Prigogine, Premio Nobel de Física en 1979 por su descubrimiento de las estructuras disipativas. Progogine presenta una fuerte formalización teórica con consecuencias filosóficas, ontológicas y metafísicas adicionales a sus resultados de experimentación. Incluso celebra la extrapolación de sus logros hacia ámbitos diferentes, como la explicación, comprensión y previsión de fenómenos como el tránsito automotor. Katherine Hayles, en la obra citada, observa la fuerte afinidad y relación que Prigogine sostiene con círculos intelectuales franceses. Los alcances filosóficos de esta tendencia tocan cuestiones de antiquísima data, como la noción de vacío referida por el pensamiento taoísta chino, la reconciliación de nociones del ser y devenir, tratadas ya por Heráclito y por el filósofo francés Henri Bergson. Resulta imprescindible referir al filósofo y poeta latino Lucrecio, quien en su obra “De rerum natura” comentaba la noción de clinamen, definida como la “inclinación” que caracterizaba a los átomos en su manifestación de devenir y evolución de la materia. El clinamen, doctrina original del griego Epicuro, expresaba las pequeñas desviaciones en que incurrían los átomos en su caída hacia abajo producida por su propio peso, que daban lugar a que se encontraran y mezclaran en una condición evolutiva; de aquí la libertad que átomos y naturaleza ejercen, en oposición a una visión mecanicista del mundo. El filósofo francés Michel Serres realizó un estudio sobre Lucrecio. Ylia Prigogine y el norteamericano William Demastes hacen referencia a Serres y a Lucrecio en su vigencia y actualidad, en las obras citadas. Todos coinciden en la producción de novedades posibles de organización a partir de la “nada” que surge de la descomposición o desordenamiento de la materia.

Referencias Bibliográficas

  • Demastes, William. (1998). Theatre of Chaos Beyond Absurdism, into Orderly Disorder. Cambridge University Press.
  • Hayles, N. Katherine. (1998). La evolución del caos El orden dentro del desorden en las ciencias contemporáneas. Gedisa, Barcelona.
  • Rañada Antonio (2007) Dinámica clásica. 2da. Edición. Alianza Editorial.
Guillermo Choque Aspiazu
http://www.eldiario.net
Abril 2 de 2012
Tecnología 2012

Tecnología 2012

Se acaba 2011 y es hora tanto de repasar cuáles han sido los momentos claves en la tecnología en este año, entre otros la compra de Motorola por parte de Google o la muerte de Steve Jobs; también es hora de dirigir la vista un poco hacia el futuro e intentar vislumbrar cuáles serán las tendencias que pegarán fuerte en este 2012 que ingresa. Una tendencia que sobresale, y con bastante razón, es la tecnología de control por voz. Es preocupación de muchos es el pronóstico comentado de la cultura maya que menciona que el mundo como se lo conoce, verá su final en el año 2012 del calendario gregoriano. Lo que sí es una realidad es que los avances tecnológicos que se podrían estar gozando en ese año serían muy variados y sorprendentes. Aunque a decir verdad ya son pocas las cosas que sorprenden: lo que hoy aparece en una película como un sofisticado gadget futurista, mañana estará en el bolsillo de cualquier ciudadano.

Bienvenido 2012, Gartner una reconocida consultora internacional en temas de tecnología informática, ha dado a conocer cuáles serán las tecnologías clave en los doce meses que siguen a esta cordial bienvenida del nuevo año, ésas que, según la consultora, tienen el potencial de impactar de forma significativa en las organizaciones, las primeras cinco son: (1) Aplicaciones e interfaces centradas en movilidad. El paradigma de la interfaz de usuario que se ha utilizado desde hace más de veinte años, la centrada en los iconos, menús y punteros, será reemplazada por interfaces basadas en la movilidad que harán énfasis en la búsqueda, la voz, el vídeo, lo táctil y lo gestual. (2) Experiencia de usuario contextual y social. La informática contextual utiliza información sobre el usuario, su entorno, actividades, conexiones y preferencias para mejorar la calidad de la interacción. El sistema se anticipa a las necesidades del usuario, y de forma proactiva le sirve el contenido, producto o servicio más apropiado y personalizado. El contexto puede utilizarse para aplicaciones del tipo móvil, social, ubicación, pagos y transacciones. (3) Internet de las cosas. Es un concepto que describe cómo Internet se ampliará en la medida que se incorporan sensores e inteligencia a sistemas como dispositivos de consumo que a su vez están conectados a la Web. La visión y el concepto han existido durante años pero no ha sido hasta ahora cuando se habla con propiedad del tema, cuando se ha producido una explosión del número y la variedad de cosas que se conectan a la Red y en las tecnologías diseñadas para identificar, detectar y comunicar. (4) Tiendas de aplicaciones. Las tiendas de aplicaciones de Apple y Android, donde existen cientos de miles de aplicaciones, se harán móviles. (5) Aplicaciones analíticas de próxima generación. Estas aplicaciones están empezando a mirar a la nube y, por tanto, a explotar recursos de la nube para computación grid e informática de alto rendimiento.

Continuando con la clasificación realizada por Gartner, las siguientes cinco tecnologías clave son: (6) Datos inmensos. El tamaño y la complejidad de los formatos y la velocidad de entrega superan las capacidades de tecnologías de gestión de datos tradicionales. Se requiere por tanto el uso de nuevas tecnologías que simplifiquen sólo la gestión del volumen. Otras nuevas tecnologías surgirán con el potencial de ser disruptivas. Además, como consecuencia del crecimiento exponencial de los datos, en el futuro, los usuarios no podrán poner toda la información en un único almacén de datos, sino en varios almacenes de datos lógicos que contengan información de múltiples fuentes. (7) Informática empotrada. Se observa un potencial enorme en el uso de memoria flash en dispositivos de consumo, equipos de entretenimiento y otros sistemas de tecnología informática embebidos. Asimismo, esta tecnología ofrece una nueva capa de jerarquía de memoria en servidores que presenta ventajas clave como espacio, temperatura, rendimiento y resistencia, entre otras. Pero, además, la disponibilidad de gran cantidad de memoria impulsa nuevos modelos de aplicaciones. (8) Servidores de bajo consumo. La adopción de servidores de bajo consumo energético, anunciados y comercializados por los nuevos jugadores en el mercado de este tipo de sistemas y que han sido diseñados sobre procesadores de baja potencia que se utilizan tradicionalmente en los dispositivos móviles, empezarán a ser una realidad. (9) Computación en las nubes. La nube es una tendencia disruptiva y tiene el potencial para impactar a largo plazo en la mayoría de las industrias. La computación en las nubes es la tendencia a basar las aplicaciones en servicios alojados de forma externa, en la propia Web. Mientras que el mercado se mantiene en sus primeras etapas, la mayor parte de los proveedores de grandes empresas participan plenamente en la entrega de una gama de ofertas para construir entornos y ofrecer servicios en la nube. Las organizaciones están pasando de tratar de entender la nube para la toma de decisiones sobre las cargas de trabajo seleccionadas a poner en práctica servicios, construyendo para ello nubes privadas. La nube híbrida, que reúne a los servicios externos de nube pública y los servicios internos de nube privada, así como las capacidades para asegurar, administrar y gobernar todo el espectro de la nube, será un foco importante para el año 2012. (10) El reinado de las tabletas. Una de las tecnologías que no puede faltar en esta lista son las tabletas, las que gracias a su cómodo tamaño, a su interfaz táctil y a su fácil conectividad, han supuesto un enorme avance en los últimos años, tanto en tecnología como en popularidad, y no es de extrañar, a tenor de las cifras de ventas registradas el segundo trimestre de 2011 con un total de cuatro punto cuatro millones de unidades distribuidas. Una cifra que se sitúa por encima de las previsiones iníciales de tres punto siete millones de dispositivos, y que representa un incremento de un trescientos noventa y cuatro por ciento frente al mismo intervalo del año anterior, y de un ochenta y dos por ciento con respecto al primer trimestre de 2011. Está claro que esta nueva opción de movilidad reinará en las compañías, que deberán ser capaces de gestionar un entorno que operará con dos o cuatro soluciones inteligentes.

A continuación se recopilan algunos ejemplos de tecnología que pudiera verse en el 2012 o antes de la fecha señalada, y si no se termina el mundo seguramente se estarán hablando de dichos avances alrededor de todo el mundo. Algunas de estas tecnologías han sido agregadas a la lista oficial de IBM de avances tecnológicos, otras se las han mencionado en varios sitios de la autopista de la información. (1) Tecnología para almacenamiento de energía solar. La misma estará disponible en el pavimento, la pintura y las ventanas. Esta tecnología suena particularmente atractiva pues una de las realidades es que es necesario que se empiece a utilizar otras formas de energía alternativa. (2) La bola de cristal de la salud. Según IBM esta tecnología estará disponible en breve, por menos de doscientos dólares y se refiere a lecturas del acido desoxirribonucleico que serán posibles gracias al reciente mapeo del genoma humano. (3) Reconocimiento de voz para todos los equipos. Este reconocimiento se refiere principalmente a la comunicación directa por voz con Internet. Algunos ejemplos de esta tecnología ya se pueden ver en ciertos gadgets como el iPod Schuffle que responde a comandos de voz, juegos como Singstar en el que se por voz selecciona lo que quieres cantar, entre otros ejemplos más. La idea es que se podrá “escuchar” correos electrónicos, dictar el contenido de las respuestas, solicitar cálculos, y otras actividades tan solo utilizando comandos de voz. (4) Inteligencia artificial como soporte de compras. Un consejero en los probadores, cambios de color de la ropa en vestidores digitales, etiquetas que solicitan al súper mercado productos que ya están por terminarse, bienes perecederos que ya no deben ser consumidos por su fecha de caducidad. Cuestiones como éstas serán mejoradas con la inteligencia artificial que servirá como soporte de compras. (5) Firmas digitales inteligentes. Las mismas que sirvan de apoyo a firmar toda clase de documentos y evitar las engorrosas filas para hacer trámites, es muy probable que los celulares se acerquen a estas firmas que resuelvan gran parte de los problemas del ser humano. (6) Papel y plumas digitales. Una perfecta interfaz es aquella a la que se está acostumbrado, así que una hoja digital que sirva para tomar apuntes y notas y se pueda después transferirla a la computadora sería una gran idea. Pues no sólo le salvaría la vida a miles de árboles anualmente, sino que permitiría a los estudiantes del mundo contar con apuntes perfectos y se horraría un montón de materias reprobadas. (7) Videojuegos. Es cierto que el futuro está a la vuelta de la esquina y que una de las tecnologías de las que más se hablará el año que entra es del proyecto Natal de Xbox. Sin embargo, para el 2012 es probable que no sólo sean necesarios los controles para vivir la experiencia de los videojuegos, sino que sea posible ser observadores participantes en mundos virtuales con realidad aumentada utilizando tercera dimensión.

Finalmente algunas predicciones para el año 2012, las que quizá se impongan en términos de una prospectiva deseable que suceda en este mundo dominado por espectros de energía transparentes que permitan una comunicación más fluida utilizando millones de circuitos que transmiten bits en miles de dispositivos electrónicos, son las siguientes: (1) Windows 8, el nuevo sistema operativo de Microsoft, con posibilidades de interfaz hablada. (2) Facebook con un sistema análogo a los hangouts de Google Plus. (3) Android, con la fragmentación eliminada de este sistema operativo. (4) Apple, con el dominio del mercado de smartphones y tablets, y la llegada de nuevos iPhones, iPads y Macs. (5) Tabletas, más accesibles e innovadoras. (6) Televisores inteligentes, con dispositivos conectados a Internet, cultura y entretenimiento en un solo lugar y tener toda la información de la película, serie o partido de fútbol a disposición en cualquier momento. (7) Autos voladores, con posibilidades ciertas de poner fin al caótico tráfico, solucionando uno de los grandes problemas que aquejan a las metrópolis del siglo veintiuno.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Enero 9 de 2012
Geometría de la naturaleza

Geometría de la naturaleza

Rectas, curvas, ángulos, cubos, esferas y demás figuras geométricas forman parte del paisaje urbano y natural. Aunque las matemáticas y sus leyes universales están en la naturaleza, en las calles, en el parque, en las sombras, en el fondo del mar y allá donde se fija la mirada, sin embargo, existen muchos seres humanos encasillados en la vida urbana que no logran percibirla. La mayor parte de las veces, solamente la fotografía es capaz de captar y comunicar eficazmente la belleza geométrica de la naturaleza. En la naturaleza existen abundantes ejemplos de formas pertenecientes a la geometría euclidiana clásica, tales como hexágonos, cubos, tetraedros, cuadrados, triángulos, etc.; pero su vasta diversidad también produce objetos que eluden la descripción euclidiana. En esos casos los fractales proporcionan un mejor medio de explicación. La geometría euclidiana es muy útil para la descripción de objetos tales como cristales o colmenas, pero no se encuentra en ella elementos que sean capaces de describir las palomitas de maíz, la corteza de un árbol, las nubes, ciertas raíces o las líneas costeras. Los fractales permiten modelar, por ejemplo, objetos tales como una hoja de helecho o un copo de nieve. Con la incorporación del azar en la programación es posible, por medio de la computadora, obtener fractales que describen los flujos de lava y también terrenos montañosos.

Los fractales deben su origen al francés Henri Poincaré. Sus ideas fueron tomadas, más tarde por dos matemáticos, también franceses: Gastón Julia y Pierre Fatou, hacia el año 1918. Hubo un paréntesis en el estudio de los fractales, que fue renovado a partir del año 1974 y fue fuertemente impulsado por el desarrollo de la computadora digital. En realidad, el término fractal fue acuñado el año 1975 por el Dr. Benoit Mandelbrot, de la Universidad de Yale, a quien se considera el padre de la geometría fractal. Su trabajo, que mostraba diversas variantes del conjunto que hoy lleva su nombre, fue publicado el 26 de diciembre de 1980. La aparición de los fractales originó una geometría que puede describir el universo en perpetuo cambio. John H. Hubbard, de la Universidad de Cornell, y Adrien Douady, de la Universidad de Paris, en honor a su descubridor, pusieron al conjunto el nombre de Mandelbrot en la década de 1980, mientras trabajaban en las pruebas de diversos aspectos del mismo. Hubbard dice haberse reunido con Mandelbrot en 1979, y haberle mostrado cómo programar una computadora para lograr funciones iterativas. Hubbard admite que Mandelbrot más tarde desarrolló un método superior para generar las imágenes del conjunto. Estas curvas eran llamadas monstruos. Los matemáticos conservadores del siglo diecinueve consideraban patológicas a estas curvas monstruo. No las aceptaban ni las creían dignas de exploración porque contradecían las ideas matemáticas aceptadas.

Resulta demasiado complicado proporcionar una definición general de la base de la geometría de la naturaleza, el fractal, muchas de estas definiciones no se pueden aplicar a todas las familias de fractales existentes. Sin embargo, todos los fractales tienen algo en común, ya que todos ellos son el producto de la iteración, repetición, de un proceso geométrico elemental que da lugar a una estructura final de una complicación aparente extraordinaria. Con esta teoría se han desarrollado ideas tales como las de dimensiones fraccionarias, teorías de la iteración y de la auto-similitud y aplicaciones a la turbulencia. Es posible pensar en los fractales como una curva en perpetuo crecimiento. Para analizar un fractal, hay que observarlo en movimiento, puesto que se desarrolla constantemente. Actualmente se dispone de computadoras capaces de generar fractales. Cuando se observa una ilustración o una fotografía de un fractal, se lo está viendo en un momento de tiempo, está congelado en una etapa determinada de su crecimiento. En esencia, es esta idea de crecimiento o de cambio la que vincula a los fractales con la naturaleza.

Es necesario observar que, si se pretende describir fenómenos naturales no es posible contentarse con su contemplación como simples imágenes, estructuras estáticas. En efecto, cualquier modelo geométrico de un objeto de la naturaleza, como una planta, que no lleve incorporado de alguna forma su crecimiento dinámico, no será para el científico totalmente satisfactorio. Lo mismo puede aplicase al depósito de zinc en un proceso electrolítico, la formación de cordilleras, la descripción de un proceso tumoral, y otras observaciones. En otras palabras, tratar de comprender el concepto de fractal ignorando el proceso dinámico que lo crea no es adecuado. Además, sorprendentemente, y al contrario de lo que a menudo la experiencia hace inferir, en la geometría fractal, el proceso responsable de un intrincado y complejo fenómeno puede ser sorprendentemente simple. También en este caso, el recíproco es cierto: La simplicidad de un proceso no debe llevar, a las personas, a desdeñar sus posibles consecuencias, que a menudo pueden ser altamente complejas.

La geometría fractal tiene su origen en el concepto de proceso iterativo introducido hace ya más de trescientos años por Isaac Newton y Gottfried Leibniz. De forma esquemática, un proceso iterativo consta de: una unidad de entrada compuesta por un dato inicial. Esta unidad de entrada alimenta la unidad de proceso, cerebro pensante del proceso iterativo, que manipula la información recibida y produce un nuevo dato que constituye la unidad de salida. Este nuevo dato será posteriormente utilizado por la unidad de entrada para volver a alimentar la unidad de proceso, y así sucesivamente. Aunque seguramente, en esta era de la informática, la mayor parte de las personas se encuentran acostumbradas a este tipo de procesos cuyo ejemplo típico es el primitivo concepto algorítmico de lazo o bucle, existen otros procesos iterativos, más “artesanales” o “creativos”.

En la segunda mitad del siglo veinte la geometría fractal se convirtió en una nueva rama de las matemáticas, pues comenzó a considerar la simetría de los fenómenos desde una nueva perspectiva, es decir, la simetría de invarianza de escala. Esta explica la razón de que algunos objetos se parezcan a sí mismos independientemente de la variación de la escala de observación. Por ejemplo, una ramita pequeña arrancada de un brócoli, seguirá siendo como un pequeño brócoli; una rama de pino de navidad, se verá como si fuera un pequeño pino recién crecido; la imagen de un arroyuelo y sus bifurcaciones, será una copia fiel de una foto de un río caudaloso con sus afluentes, etc. Esta nueva geometría tiene como emblema el famoso “conjunto de Mandelbrot”: extraordinaria estructura generada a partir de una iteración simple de números complejos que impactó y maravilló al mundo de las artes plásticas. Fue precisamente en la plástica donde mayor aceptación tuvo la geometría fractal en sus inicios, debido a la belleza de las creaciones que salían de la naciente tecnología de las computadoras personales en la década de los años ochenta del siglo pasado. En Estados Unidos y Europa se llegaron a exponer en galerías de arte, obras obtenidas por computadoras, salidas de simples algoritmos de iteración.

La geometría fractal contiene a la de Euclides como caso particular. Las líneas rectas, lo regular, las figuras geométricas, no son más que modelos de una realidad mucho más rica y diversa: la realidad de las formas irregulares, de los objetos naturales, de las estructuras vivientes en general. La nueva geometría permitió revelar las propiedades más íntimas de la naturaleza, subrayando la necesidad de representar a los fenómenos tales como ellos son, en toda su riqueza como elementos multiformes, fraccionados y difusos. Por estas razones es que se dice que la geometría fractal es la “geometría de la naturaleza.” Bajo el imperio de las costumbres y las tradiciones, especialmente las científicas, casi siempre las personas se han limitado mentalmente a considerar situaciones que son realmente ideales, como las figuras geométricas. En la naturaleza estas figuras son la excepción, mientras que la mayoría de las figuras que hay alrededor son fractales. Aunque parezca increíble, este hecho tan contundente no había sido considerado en serio durante muchos siglos por la humanidad.

A la geometría fractal se le reconoce, según se dijo, como la geometría de la naturaleza y, en especial, tiene un papel fundamental para la comprensión geométrica del caos determinista, algo que le ha dado el crédito de ser la primera disciplina de las matemáticas que posee una definición de dimensión con significado físico. Anteriormente las definiciones matemáticas de dimensión eran funcionales solo para sí, sin embargo, la dimensión fractal es un número, por lo general fraccionario, que ayuda a la cuantificación espacial, la cual expresa cuánto se llena el espacio que se ocupa. La intuición gráfica de la mente del matemático francés Benoit Mandelbrot, le ha permitido proporcionar un lenguaje para describir fenómenos muy variados de gran interés científico y práctico, dejando algunas veces en segundo plano la fundamentación teórica y los aspectos excesivamente formales de esta nueva geometría, cuya aplicación ha enriquecido las herramientas para solucionar problemas en las ciencias naturales y física, geología, astronomía, estadística, economía y ciencias de la computación, entre otras.

Los fractales abarcan no solo los campos del caos, sino una amplia variedad de formas naturales, que resultaban imposibles de describir mediante la geometría diferencial hasta ahora desarrollada. Dichas formas son, entre otras, las líneas costeras, los árboles y plantas, las montañas, las galaxias, las nubes y los patrones meteorológicos. Así mismo en anatomía humana, el cerebro, los pulmones, el sistema nervioso, la estructura celular. Otros fenómenos impredecibles, como la turbulencia de los vientos y las aguas, el crecimiento de la población de una especie bajo cierto ambiente, las oscilaciones bursátiles en la bolsa de valores, etc., escapan al alcance del mundo del orden.

 

Guillermo Choque Aspiazu
http://www.eldiario.net/
Enero 24 de 2011
Ciencia y tecnología 2011

Ciencia y tecnología 2011

Desde el año 1960 las Naciones Unidas se han encargado de promover la aplicación de la ciencia y la tecnología para el desarrollo de sus Estados miembros. Para mejorar la labor en esta esfera, las naciones unidas estableció la Comisión de Ciencia y Tecnología para el Desarrollo, que es una comisión orgánica del Consejo Económico y Social que se dedica a lo siguiente: (1) Examinar las cuestiones relacionadas con la ciencia y la tecnología y sus consecuencias para el desarrollo. (2) Promover el conocimiento de las políticas científicas y tecnológicas respecto a los países en desarrollo. (3) Formular recomendaciones sobre temas científicos y tecnológicos dentro del sistema de las Naciones Unidas. La Comisión fue establecida el año 1992 como una comisión funcional del Consejo Económico y Social y fue reestructurada recientemente. Está compuesta por treinta y tres Estados miembros y se reúne cada dos años, eligiendo un tema para su labor entre períodos de sesiones y sus deliberaciones.

La educación es fundamental en el desarrollo integral de toda sociedad, mediante ésta, se socializan y transforman los seres humanos, tanto en lo individual como en lo colectivo, las instituciones y el Estado mismo. Por tal motivo, resulta indispensable que éste provea a su población de un sistema educativo de calidad, en el cuál, ninguna persona se encuentre excluida por su género, religión, raza o condición social; la educación es un derecho humano esencial. La cultura y la educación son parte indivisible de la formación ciudadana. Son un derecho de todos los mexicanos sin distinción de edades, sexo, origen étnico, condición económica, religión o lugar de residencia”.

Es necesario garantizar a todos los bolivianos, con la concurrencia del Estado y de los particulares, la oportunidad de acceso a la educación en sus distintos niveles; estableciendo una correspondencia entre la educación y las necesidades del país; fortaleciendo el sistema de becas para los mejores estudiantes; estimulando la investigación científica; y, orientando a las nuevas generaciones a participar en las carreras técnicas y tecnológicas. Asimismo, si se parte del entendimiento de que inclusión social es la garantía de las necesidades mínimas de la población a través del buen accionar de un Estado socialmente responsable, la educación viene a formar parte implícita de estas obligaciones, bajo el entendimiento de que el derecho a la educación es un derecho humano básico cuyo cumplimiento es la base de una sociedad más justa y por lo tanto más incluyente. “Existen muchos estudios que demuestran que la educación y el nivel de ingresos están relacionados: entre más alto sea el nivel educativo, las probabilidades de conseguir un empleo y de obtener un mayor nivel de ingresos son más altas”.

De retorno a los términos generales, se vive en un mundo donde la tecnología marca el ritmo del progreso y las pautas de vida. En otras palabras, las personas viven en un mundo modelado por la tecnología; y en el concepto de tecnología están implícitos los de la ciencia y la técnica. Estas tres palabras clave, ciencia, técnica y tecnología, están vinculadas a actividades específicas del hombre y ligadas indisolublemente al desarrollo de la civilización.

La ciencia responde al deseo del hombre de conocer y comprender racionalmente el mundo que lo rodea y los fenómenos con él relacionados, deseo que lo lleva a investigar científicamente. Normalmente, el resultado de las investigaciones científicas incrementa el cuerpo metódicamente formado y sistematizado de conocimientos. Esta actividad humana, denominada investigación científica, y su producto resultante, denominado conocimiento científico, es lo que se llama ciencia. En este campo, la motivación es el ansia de conocimientos, la actividad es la investigación y el producto resultante es el conocimiento científico.

Desde un punto de vista general, la técnica es el procedimiento o conjunto de procedimientos que tienen como objetivo obtener un resultado determinado, en el campo de la ciencia, la tecnología, las artesanías u otra actividad. También se puede decir que se trata del o los procedimientos puestos en práctica al realizar una actividad, así como también la pericia o capacidad que se pone de manifiesto cuando se realiza la actividad. Estos procedimientos no excluyen la creatividad como factor importante de la técnica. La tecnología, por su parte, surge al enfocar determinados problemas técnico-sociales con una concepción científica y dentro de un cierto marco económico y sociocultural. Está íntimamente vinculada con la ciencia, y la complementariedad entre ambas se acrecienta cada vez más. En el pasado, generalmente ciencia y técnica marcharon separadamente sin complementarse. Es posible recordar, por ejemplo, la Grecia clásica donde la ciencia no estuvo vinculada con aplicaciones técnicas, o mencionar la ingeniería romana o del Medioevo, donde había una técnica sin ciencia subyacente. En los primeros años del siglo veintiuno, la tecnología y la ciencia marchan indisolublemente ligadas. La tecnología utiliza el método científico, comprende un saber sistematizado y en su accionar se maneja tanto a nivel práctico como conceptual.

Un pronóstico elaborado por expertos en ciencia y tecnología, medios especializados, universidades y empresas de hardware determinó cuáles serán los diez hitos tecnológicos del año próximo. El informe, difundido por la revista del Instituto Tecnológico de Massachusetts, Technology Review, presenta 10 inventos que si bien parecerían extraídos de una película futurista, pero ya son parte de la cotidianidad de los seres humanos: (1) Grafeno. Llamado “el material del futuro”, este descubrimiento significó el Premio Nobel de Física 2010 para Andre Geim y Kostya Novoselov. Este material, que será utilizado para los procesadores se enrolla y se pliega, es 10 veces más rápido que el silicio y es un buen conductor, que solucionará la cuestión de llamada “conectividad total”. (2) Letreros interactivos. Son pantallas LCD táctiles e interactivas con cristal holográfico que responden a la demanda de los consumidores por experiencias conectadas a redes en el punto de venta. La interfaz es sensible al tacto con video y reconocimiento del rostro. Ofrecen información sobre el producto y su aplicación. (3) Robots enfermeras. Las enfermeras del futuro son humanoides capacitados para realizar análisis de sangre, guiar a los pacientes por el hospital y asistirlos en la sala de espera, además de tomarles la presión y la fiebre. Algunos hospitales de Japón ya las implementaron, con buena recepción por parte de los pacientes, que encontraron la espera más entretenida gracias a los videos que estas enfermeras cibernéticas muestran a través de su pecho. (4) Vehículos inteligentes. Ya se había presentado al primer auto que twittea. Pero, si bien Ford tuvo la primicia en ese aspecto, ya hay varios fabricantes abocados a la creación de vehículos con Internet. Esta combinación permite al usuario, entre otras cosas, conocer el estado de las rutas y disfrutar de contenidos interactivos durante el viaje. (5) Celulares en tres dimensiones. Julien Flack, director de tecnología de Dynamic Digital Depth es el autor de un software que le demandó una década de trabajo, y permite que la imagen en el celular salte de dos dimensiones a tres dimensiones, ofreciendo una experiencia mucho más real. Dicho software fue desarrollado para el Samsung W960, lanzado en Corea del Sur.

La lista continúa luego de esta breve pausa entre párrafos con los siguientes hitos: (6) Redes de sensores inalámbricos. Son redes de nodos o computadoras en miniatura equipadas para una tarea común. Son autoconfigurables, de fácil instalación y capaces de concretar el proceso de emisión y recepción de datos en pocos segundos. Pueden detectar actividad sísmica, el estado del tránsito y movimientos militares. (7) Televisor de LED. Estas pantallas, cuyo costo se espera que descienda al ritmo de su demanda creciente, son amigas de la naturaleza, generan menos calor, no utilizan materiales tóxicos ni generan residuos. Además, brindan una mejor experiencia visual, no deforman la imagen ni cambian el color. (8) Componentes fotovoltaicos. Son células solares de película fina que tienen la particularidad de convertir la luz en electricidad. Este avance, descubierto por la Física Kylie Catchpole, implicaría un gran avance de la energía solar por encima de los combustibles fósiles. (9) Computación ubicua. Se refiere a la integración de la informática en el entorno humano o real, al punto que la computadora no sea percibida como un objeto diferenciado. Se espera que el hombre interactúe con chips informáticos para realizar sus tareas cotidianas dando órdenes sólo con la voz. (10) Implantes cibernéticos. Se trata de prótesis basadas en materiales ópticos y electrónicos capaces de almacenar datos sobre el estado de salud e historial del paciente, además de monitorear sus signos vitales.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Diciembre 27 de 2010
Darwinismo

Darwinismo

Darwinismo es un término con el que se describen las ideas de Charles Darwin, especialmente en relación con la evolución biológica por selección natural. El darwinismo no es sinónimo de evolucionismo, este último es anterior a Charles Darwin: las teorías darwinistas son evolucionistas, pero su aportación clave es el concepto de selección natural considerado determinante para explicar la causa de la evolución y que en su posterior desarrollo, con numerosas aportaciones y correcciones, permitirá la formulación de la teoría de la evolución actual o síntesis evolutiva moderna. Por tanto es igualmente equivocado usar el término “darwinismo” cuando se hace referencia a la actual teoría de la evolución ya que ésta no se reduce solo a las ideas postuladas por Charles Darwin.

Por lo general, se suele asociar el evolucionismo con la figura de Charles Darwin el genial naturalista británico. Pero eso no es así. Darwin no utilizó la palabra “evolución” hasta la sexta edición de su ya famoso libro “Sobre el Origen de las Especies”. La aportación de Darwin a la Ciencia es haber propuesto un mecanismo explicativo acerca del hecho evolutivo: la Selección Natural. Sin embargo, el darwinismo, y en general, el evolucionismo, fue esgrimido como banderín de enganche de los librepensadores, los ateos, los masones, los anarquistas y, en general, las fuerzas que en el siglo diecinueve se oponían a una iglesia católica, beligerante y monolítica, y a unos católicos impregnados del tradicionalismo más radical. Los argumentos esgrimidos por los contrarios a la evolución eran muy diversos: la evolución se oponía a la Biblia, negaba la providencia de Dios, situaba a los humanos al nivel de los monos y de los animales; el evolucionismo era materialista, ateo y enemigo de la religión; pervertía las costumbres y reducía todo a un relativismo moral. Las ideas de Darwin contenían implicaciones religiosas que algunos no estaban dispuestos a tolerar. Actualmente todavía restan, no sólo por parte de los creyentes como por parte de los científicos, atisbos de intolerancia.

A partir de Darwin se inicia la nueva Biología. Thomas Henry Huxley en Inglaterra, Ernst Haëckel y Fritz Muller en Alemania, fueron más radicalmente darwinistas que el mismo Darwin. En este sentido, se puede decir que Darwin no era darwinista. El más destacado de ellos fue Ernst Haëckel, a este investigador le pertenece la teoría de gastrea que dice: “…todos los metazoos descienden de un antecesor hipotético semejante al estado de gástrula del embrión. Y junto con Fritz Muller propone la ley biogenética fundamental, la ontogenia es una recapitulación de la filogenia. Entre otros términos acuñó los de filogenia, el año 1866, y el de ecología, aunque en un sentido diferente al moderno. Desde los tiempos de Haëckel, la sistemática animal y vegetal ya no es pura taxonomía, sino filogenética, esta ultima representa la descripción dinámica de los linajes evolutivos. En los primeros años del siglo veinte no tardan en cobrar fuerza algunas teorías alternativas al darwinismo que pretenden explicar mejor los cambios en las especies. Así, reaparecen concepciones biológicas de tipo lamarckista y neolamarckista. Éstos defienden que los caracteres adquiridos por uso y desuso de los órganos pasan a los descendientes: se heredan. Para ellos hay un “transformismo” en las especies debido a las modificaciones, producidas por los cambio en el medio, de forma natural o artificial y son las que dan lugar a variaciones correlativas en el patrimonio hereditario.

Desde finales del siglo diecinueve hasta bien entrado el siglo veinte, y posiblemente parte del actual siglo veintiuno, algunos naturalistas adoptaron la idea de la evolución, pero no el mecanismo de “variación aleatoria” y la “selección natural”. Como escribió el novelista Samuel Butler, amigo al principio de Darwin y luego sarcástico oponente, “el darwinismo desterraba la mente del universo”, destruía el diseño inteligente y negaba la posibilidad de transmitir a las generaciones futuras el acervo de los logros culturales y científicos, los cuales no se explican por selección natural. Algunos científicos de la primera mitad del siglo veinte creían que había que enterrar a Darwin y a sus teorías. Se consideraba anticientífico y contrario a las teorías biológicas de moda basadas en la genética y las mutaciones.

Por los años treinta se introduce la genética de poblaciones en el pensamiento científico y aparece la llamada “Nueva Síntesis” o “Teoría Sintética de la Evolución”. Se suele considerar al investigador Theodosius Dobzhanski como el “padre” de la nueva síntesis, al publicar hacia el año 1937 el libro “Genética y el Origen de las Especies”. A estas ideas se unen el zoólogo Julian Huxley, el ornitólogo Erns Mayr, los botánicos Stebbins y Grant, el genetista Ford y el paleontólogo Georges Gaylord Simpson, entre otros. Tras la publicación de la obra de Darwin, los debates y las polémicas ocupan todo el final del siglo diecinueve. Pero con el cambio de siglo llegó la crisis del darwinismo, la misma se produce por el avance de la genética y sobre todo con la teoría cromosómica de la herencia de los caracteres adquiridos. Los biólogos se preguntaban: ¿cómo compaginar la existencia de la selección natural, que es un proceso gradual, con las mutaciones, que son discontinuas?. Los esfuerzos individuales de cada uno de estos, confluyeron en el famoso Congreso de Princeton, celebrado en la Universidad norteamericana del mismo nombre en enero del año 1947. Este Congreso culminó con un acuerdo general entre las diferentes disciplinas biológicas y paleontológicas convertidas al “pensamiento poblacional”: la genética de poblaciones.

Las concepciones evolucionistas de Darwin constituyen un complejo sistema teórico, un conjunto de teorías relacionadas, más que una teoría singular. El núcleo de esas concepciones sigue conservando toda su validez, a pesar de su natural insuficiencia y de algún error significativo, sobre todo en su explicación de la herencia a través de pangénesis. En el darwinismo se identifican tres ejes teóricos que explican distintos aspectos de la realidad biológica. (1) El transformismo, que es la noción de que las especies van cambiando sus características a lo largo del tiempo de una manera fundamentalmente gradual. Lo que ahora designa el término evolucionismo fue señalado durante mucho tiempo, hasta bien entrado el siglo veinte, como transformismo. (2) La noción de que las especies se diversifican, por adaptación a ambientes o modos de vida diferenciados, ramificándose; el otro aspecto del mismo fenómeno es que todas las especies están emparentadas, aunque en grados distintos, y en último término todas las especies tienen su origen común en un remoto antepasado común único. De esta convicción deriva la filogenia, que intenta clasificar las especies de manera obligatoria por su parentesco, siendo un criterio que debe pasar por encima de cualquier otro. Darwin desconfiaba de que este ideal fuera alcanzable, aunque el desarrollo reciente del análisis filogenético lo está aproximando. (3) La adaptación al ambiente que motiva el cambio evolutivo, según había sido ya propuesto con anterioridad por otros autores, como Lamarck, debía tener su mecanismo en la selección natural, concebida como resultado de dos factores. Estos son, por un lado, la variabilidad natural hereditaria de los individuos de una especie y, por otro, la tasa diferencial de éxito reproductivo, dependiente también de la tasa de supervivencia, entre las distintas variantes genéticas presentes en la población.

Cualquier teoría sobre la evolución de las especies terrestres tiene que demostrar dos principios básicos: (1) la aparición de la flora y fauna por la transformación de antepasados extintos; (2) la existencia de un mecanismo reproductor acorde con el argumento transformista. Darwin publicó en 1859 la primera edición del “Origen de las Especies” pero hasta el año 1868 no expuso un modelo hereditario complementario a su teoría de la evolución, aunque la idea se remonta a comienzos de la década de los años cuarenta. La denominó “Teoría de la Pangénesis” y constituye el capítulo final del libro “La Variación de Plantas y Animales bajo Domesticación”. Explicar cómo se producen y se transmiten las variaciones a la progenie en el curso de la especiación fue el reto planteado en el origen de las especies, pero Darwin postergó la resolución del problema convirtiéndolo en un argumento contrario a su ideología. Para un darwinista como Wallace la carencia de un modelo hereditario complemento a la teoría de la evolución había sido una dificultad inquietante que la pangénesis resolvía.

Darwin eligió la teoría celular como referente científico de su propuesta, y vertebró la pangénesis entorno a dos fenómenos citológicos: (1) la división celular; (2) la producción de partículas celulares, gémulas, que circulan libremente por el organismo y tienen capacidad individual para regenerar la célula de procedencia. Relacionando ambos procesos propone un mecanismo fisiológico común a todos los seres vivos y activo en cualquier fenómeno hereditario: en su fase de división las células producen gémulas que son liberadas al sistema, el conjunto representa físicamente el organigrama anatómico individual permaneciendo inactiva su capacidad generatriz si no ocurre algún proceso multiplicativo. Entonces, cada unidad desarrolla una célula semejante a la progenitora, punto de partida para la morfogénesis de nuevos organismos en los procesos reproductivos, o para reconstruir la porción anatómica lesionada si es un episodio regenerativo.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Septiembre 13 de 2010
Secuenciamiento de genes

Secuenciamiento de genes

La bioinformática es una ciencia aplicada donde se usa teoría y tecnología matemática computacional para procesar, relacionar y derivar predicciones e inferencias a partir de datos obtenidos en biología molecular. Pretende sobre todo entender y analizar el flujo de información y el control de esta en los organismos. Pero es mucho más que eso, es un campo de fertilización cruzada donde interactúan sinérgicamente las ciencias de la computación y la biología, con todas la riquezas y limitantes que puedan aportar cada una de ellas, además, estas dos aúnan esfuerzos para formar un campo donde diariamente se expanden las fronteras de la ciencia, en beneficio directo de la humanidad y el entendimiento de la vida en general. La bioinformática se construye con los siguientes conceptos: (1) El primero y más importante es la base del dogma central de la biología molecular. El archivo de información de cada organismo, la huella digital para el desarrollo potencial o la actividad de cualquier individuo, es el material genético que subyace en su interior celular; de manera concreta es una molécula llamada ácido desoxirribonucleico. (2) El segundo concepto es el de vida. “Un organismo vivo es uno complejo y organizado, que ocurre naturalmente, efectúa manipulaciones de materia, energía e información homeostática y se auto reproduce sobre el mismo principio molecular, lo que le permite, tomados como un todo, la capacidad de evolucionar”

En uno de los campos más apasionantes y complejos de la biología, la taxonomía, la ciencia de imponer orden en el aparente caos de la vida, la bioinformática cumple un papel estelar. Con el tiempo, se ha establecido que el análisis de secuencias da la evidencia menos ambigua para la relación entre especies. Para organismos avanzados es muy adecuada, e integrando datos de la paleontología, anatomía comparada y embriología se logra el mejor panorama que se pueda esperar. Las moléculas de ácido desoxirribonucleico son cadenas largas, lineales, donde se encuentra un mensaje compuesto por un alfabeto de cuatro símbolos: Adenina, Timina, Guanina y Citosina. Implícita en su estructura se encuentra su función, es decir, los mecanismos para su auto replicación y su expresión de genes en proteínas. El ácido desoxirribonucleico contiene información necesaria para construir proteínas, las cuales son las moléculas responsables de la gran mayoría de estructuras y actividades de los organismos vivos. Ciertos fragmentos de ácido desoxirribonucleico descifran secuencias de aminoácidos que codifican proteínas. El dogma central de la biología molecular es entonces el siguiente: (1) La secuencia del ácido desoxirribonucleico determina la secuencia de la proteína. (2) La secuencia de la proteína determina la estructura proteica. (3) La estructura proteica determina la función proteica.

Desde que hace más de medio siglo se descubriese que el ácido desoxirribonucleico era la molécula portadora de la información genética, su secuenciación ha supuesto un permanente reto tecnológico para los científicos. Pero sin lugar a dudas el reto que supuso a finales del siglo veinte la secuenciación del genoma humano, y el avance que ha de suponer para la Biología en general y para la Medicina en particular, la posibilidad de conocer a un costo razonable la secuencia individual de cada ser vivo, incluidos los organismos patógenos, ha disparado una carrera tecnológica para abaratar el costo de la secuenciación y ofrecer a un ritmo que se acelera por momentos, rebajas continuas en la secuenciación masiva de genomas, incluidas las del genoma humano. En el año 1977, los investigadores Sanger y Coulson desarrollaron un método para secuenciar el ácido desoxirribonucleico, basado en una reacción enzimática de terminación de cadena, lo que transformó la biología, permitiendo descifrar genes y más tarde, genomas completos.

En la década de 1980 aumenta la secuenciación de genes y genomas mediante el método de Sanger, aunque la secuenciación en esta época es tediosa y manual. Hacia el año 1997 se publica la primera secuencia de ácido desoxirribonucleico de un genoma completo, el bacteriófago PhiX174. De esta forma surge la era genómica, es decir, el estudio de los genomas desde una visión global, su secuencia, los genes, sus funciones y regulación. El planteamiento de la secuenciación del genoma humano promovió que a final de los años 1980 aparecieran los primeros secuenciadores automáticos de ácido desoxirribonucleico de la empresa “Applied Biosystems”. Una comparación de genes en una especie o entre especies puede mostrar similitudes entre funciones de proteínas, o relaciones entre especies, a través del uso de filogenética molecular para construir árboles filogenéticos. Con la creciente cantidad de datos, desde hace mucho se ha vuelto poco práctico analizar secuencias de ácido desoxirribonucleico manualmente. Actualmente se usan programas de computadora para estudiar el genoma de miles de organismos, conteniendo miles de millones de nucleótidos. Estos programas pueden compensar mutaciones en la secuencia del ácido desoxirribonucleico, para identificar secuencias que están relacionadas, pero que no son idénticas. Una variante de este alineamiento de secuencias se usa en el proceso de secuenciación. Esta tecnología fue aplicada en la secuenciación del genoma humano, proyecto que duró diez años, culminando el año 2000 y, en el que se invirtieron unos tres mil millones de dólares.

La posibilidad de secuenciar el genoma humano estimuló la imaginación de ingenieros, químicos, y biólogos, y a finales de la década de 1980 aparecen los primeros secuenciadores automáticos de ácido desoxirribonucleico. La firma Applied Biosystems pone en el mercado, hacia el año 1987, el secuenciador automático ABI 370A que tres años más tarde se convertiría en el ABI 377. Estos secuenciadores utilizaban la electroforesis en placas de poliacrilamida para la separación de los fragmentos de ácido desoxirribonucleico y permitían la secuenciación en unas pocas horas de hasta noventa y seis muestras de ácido desoxirribonucleico al mismo tiempo con longitudes de secuencia de más de quinientos pares de bases. Los nucléotidos se leían y registraban automáticamente gracias a un sistema de detección láser y a un complejo programa de análisis informático. El uso de cuatro fluorocromos diferentes para marcar los terminadores de secuencia, permitía utilizar el mismo canal para separar los fragmentos generados en las cuatro reacciones de terminación de polimerización que utiliza el método de Sanger.

El proyecto genoma humano motivó el perfeccionamiento y desarrollo de técnicas en el campo de la biología y en el de la bioinformática para la obtención de la secuencia completa del ácido desoxirribonucleico, el genoma o “conjunto de genes”. Se determino la secuencia del genoma y se cartografiaron los genes a través de un mapeo genético. Tras el proyecto Genoma Humano, además de la Genómica, surgieron la Proteómica, Metabolómica, etc. El elevado costo de secuenciación de los primeros genomas completos, que tenían un costo de un dólar por nucleótido, y de los casi tres mil millones de dólares que se estima costó el primer borrador del genoma humano con los tres mil millones de nucleótidos, sirvió para estimular la imaginación de los científicos en busca de soluciones más baratas para la secuenciación masiva de ácido desoxirribonucleico. Así surgieron los secuenciadores de alto rendimiento.

La secuenciación conocida como “perdigonada” fue utilizada por el Instituto de Investigación Genómica, para secuenciar el primer genoma de bacteria, el “haemophilus influenzae”, la cual no proporciona una lista secuencial de nucleótidos, pero en cambio ofrece las secuencias de miles de pequeños fragmentos de ácido desoxirribonucleico, cada uno de aproximadamente seiscientos a ochocientos nucleótidos de largo. Las terminaciones de estos fragmentos se superponen y, cuando son alineados de la manera correcta, constituyen el genoma completo del organismo en cuestión. El secuenciamiento perdigonado proporciona datos de secuencia rápidamente, pero la tarea de ensamblar los fragmentos puede ser bastante complicada para genomas muy grandes. En el caso del Proyecto Genoma Humano, llevó varios meses de tiempo de procesador, en una computadora DEC Alpha, para ensamblar los fragmentos. El secuenciamiento perdigonado es el método de elección para todos los genomas secuenciados y los algoritmos de ensamblado genómico son un área crítica de la investigación en bioinformática.

Otro aspecto de la bioinformática en el análisis de secuencias es la búsqueda automática de genes y secuencias reguladoras dentro de un genoma. No todos los nucleótidos dentro de un genoma son genes. Dentro del genoma de organismos más avanzados, grandes partes del ácido desoxirribonucleico no sirven a ningún propósito obvio. Este ácido desoxirribonucleico, conocido como “ácido desoxirribonucleico basura”, puede, sin embargo, contener elementos funcionales todavía no reconocidos. La bioinformática sirve para estrechar la brecha entre los proyectos de genoma y proteoma, por ejemplo, en el uso de secuencias de ácido desoxirribonucleico para identificación de proteínas.

Guillermo Choque Aspiazu
http://www.eldiario.net/
Septiembre 20 de 2010
Dueños de Internet

Dueños de Internet

La idea de una red de computadoras diseñada para permitir la comunicación general entre usuarios de varias computadoras se ha desarrollado en un gran número de pasos. La unión de todos estos desarrollos culminó con la red de redes que se conoce como Internet. Esto incluía tanto desarrollos tecnológicos como la fusión de la infraestructura de la red ya existente y los sistemas de telecomunicaciones. Las más antiguas versiones de estas ideas aparecieron a finales de los años 1950. Implementaciones prácticas de estos conceptos empezaron a finales de los años 1960 y a lo largo de los años 1970. En la década de los años 1980, tecnologías que se reconocen como las bases de la moderna Internet, empezaron a expandirse por todo el mundo. En los años 1990 se introdujo la World Wide Web, que se hizo ampliamente aceptable y de uso común. Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider, comprendió la necesidad de una red mundial, según consta en su documento de enero de 1960 denominado “Simbiosis Hombre-Computadora”.

Internet puede ser definida como “Una red de redes de computadoras” que se encuentran interconectadas a lo largo del mundo, nadie es dueño de Internet simplemente cada usuario paga su conexión hasta llegar a la red. Para proporcionar una idea de cómo Internet se incorpora a la sociedad se debe recordar que la radio demoró veinte y ocho años en llegar a cuarenta millones de personas y la televisión solo tardo diez años en llegar a la misma cantidad de gente. Internet apenas tardo tres años en llegar al mismo número de personas y pronto será un elemento de comunicación más en la vida cotidiana. Se calcula que en el año 2000 los usuarios de Internet eran aproximadamente 300 millones.

Internet nació en los Estados Unidos como un proyecto de la Agencia de Investigación de Proyectos Avanzados de Defensa”. La misma buscaba intercambiar información entre los investigadores, científicos y militares, ubicados en distintos sitios distantes. La red debía soportar un ataque nuclear sin perder la conexión con el resto de los sitios, constaba de cuatro computadoras interconectadas y se llamaba DARPANET. En el año 1972 ya había conectadas 37 computadoras y pasó a denominarse ARPANET, la aplicación más utilizada en ésta era Telnet para luego pasar a ser el email o correo electrónico. Hacia el año 1984 la “Fundación Nacional de la Ciencia” estableció la NSFNET paralela a la ARPANET para la investigación académica que ya estaba saturada, también la NSFNET se saturó hacia mediados del año 1987 y no precisamente por la actividad académica. En éste último año se redimensionó totalmente la NSFNET, con un acceso más rápido, con módems y computadoras más veloces, a ellas podían ingresar todos los países aliados de los Estados Unidos.

En los años 1990 se empieza a conocer como en la actualidad, la denominada red de redes o Internet y se abrió para todo aquel que pudiera conectarse. El protocolo utilizado en esta gran red es el “Protocolo de Control de Transferencia” encargado de contabilizar la transmisión de datos entre computadoras y registrar si hay o no errores, mientas que el “Protocolo de Internet” es el que realiza realmente la transferencia de los datos.

Internet es una red centralizada que se asemeja a un sistema circulatorio con sus capilares, venas, arterias y músculo cardíaco. Los proveedores más pequeños son los capilares, en tanto que las venas y arterias son las grandes compañías proveedoras de acceso internacional conectadas a los grandes nodos y, el corazón está en la Corporación Internet Los dueños de la red son los que determinan su funcionamiento y por esa razón, tienen la facultad de controlar los contenidos y hacer uso de ellos para sus fines comerciales y políticos. Internet se ha convertido en un instrumento fundamental para el desarrollo social y humano de los países, sin embargo, al estar en manos de los Estados Unidos y del gran capital de las telecomunicaciones, está en función de sus intereses.

Internet es un conjunto de redes, redes de computadoras y equipos físicamente unidos mediante cables que conectan puntos de todo el mundo. Estos cables se presentan en muchas formas: desde cables de red local, varias máquinas conectadas en una oficina o campus, a cables telefónicos convencionales, digitales y canales de fibra óptica que forman las “carreteras” principales. Esta gigantesca red se difumina en ocasiones porque los datos pueden transmitirse vía satélite, o a través de servicios como la telefonía celular, o porque a veces no se sabe muy bien a dónde está conectada.

En la actualidad gracias al uso del Internet, el mundo ha marcado un cambio importante para las organizaciones, la importancia de contar con una información veraz y oportuna ha ocasionado que las empresas busquen productos más eficientes e innovadores, los cuales hacen posible que las actividades diarias de una organización se realicen de una manera rápida, sencilla y eficiente. Esto mismo ha traído como consecuencia el que la sociedad y el individuo mismo, rompan con viejos paradigmas de comunicación, para adaptarse a la nueva cultura informática que la sociedad y las organizaciones demandan, adaptándose a esta nueva era digital.

Si alguna persona se pregunta ¿de quién es Internet? la respuesta más probable es que se le diga: Internet es de todos, o, quizá, Internet es de nadie. Ambas respuestas están equivocadas. Internet es de Estados Unidos, aunque se la presta al resto del mundo, y eso es precisamente lo que muchos países quisieran cambiar. Es un mito pensar que Internet no tiene dueño. El Gobierno de Estados Unidos controla Internet a través de una organización privada, no lucrativa, llamada “Corporación Internet para la Asignación de Nombres y Números” establecida el año 1998. De hecho, es el Departamento de Comercio estadounidense quien supervisa la labor de los quince miembros del Concejo Directivo de dicha Corporación y son esas pocas personas metidos en una sala de conferencias de la Ciudad de Los Ángeles, quienes administran un sistema de trece servidores gigantes en todo el mundo que permite el envío de miles de millones de correos diarios.

Parece magia cuando se envía un “correo electrónico” y unos segundos después lo pueden leer a miles de kilómetros de distancia. Pero es pura tecnología. Es la Corporación Internet en Estados Unidos, la encargada de asignar la identificación de correo electrónico, permitiendo que haya millones de sitios para visitar en la Internet. Todo parece muy libre. No hay censura abierta en las comunicaciones, es prácticamente gratis y se puede usar Internet casi para cualquier cosa; desde descargar libros y artículos para una investigación hasta escuchar música, archivar fotos y ver televisión, además del ejercicio permanente de comunicación a través del correo electrónico.

Internet es un sistema que conecta cadenas de computadoras y que fue creada por un grupo de ingenieros estadounidenses a mediados de los años 1960 para el Departamento de Defensa. Es, en otras palabras, un invento estadounidense para la guerra y Estados Unidos no está dispuesto a dejarlo en paz. En un momento dado los estadounidenses consideraron entregar el control de Internet a un Organismo Internacional en el año 2006. Sin embargo, cambiaron de opinión para no perder el control de Internet.

Internet es un instrumento fundamental para el funcionamiento de la economía y de la sociedad estadounidense y el gobierno del presidente Obama no quiere correr el riesgo de dejarla en manos antiestadounidenses o poco amistosas, ni siquiera en manos de las Naciones Unidas. La idea de una Internet controlada internacionalmente y no por Estados Unidos suena, a primera vista, como justa y lógica. Pero al más superficial análisis se encuentran varios problemas. Si la Internet, por ejemplo, fuera controlada por un organismo internacional, dictaduras o gobiernos autoritarios podrían censurar la información que cuestionara sus regímenes. O, peor aún, pudieran pedir los nombres, direcciones y teléfonos de aquellos quienes los critican por Internet y, luego, buscarlos y encarcelarlos bajo cualquier pretexto. Incluso ahora, con la Internet fuera de sus manos, los gobiernos dictatoriales limitan enormemente su funcionamiento y contenido dentro de sus países. Imagine entonces, cómo sería si esos gobiernos y otros similares determinaran lo que es posible ver por Internet. A partir de ese momento se dejaría de tener acceso a toneladas de información que hoy están disponibles. Internet está plagado de debates sobre este tema, particularmente en el idioma inglés.

 

Guillermo Choque Aspiazu
http://www.eldiario.net/
Agosto 2 de 2010

Supercomputadora Watson

Supercomputadora Watson

La empresa IBM es una de las más tradicionales y de gran alcance en el mundo tecnológico. El desarrollo de computadoras con el procesamiento de datos de alto rendimiento y las inversiones en inteligencia artificial, la tecnología que permite la creación de robos y androides en las películas, son algunos de los rasgos más característicos de la organización. Para estimular sus colaboradores y demostrar la calidad de sus productos, la multinacional afrenta a la inteligencia humana a través de desafíos nada comunes. Se trata de poner en práctica la vieja y muy discutida batalla entre el hombre y la maquina. Lo que está en boga es averiguar quién es capaz de “pensar” de manera más eficiente.

En 1997 la supercomputadora Deep Blue de IBM le ganó al maestro mundial de ajedrez Gary Kasparov, y esa fue quizás la primera vez que el mundo en la cultura popular despertó al hecho de que “esas máquinas tontas y de poder bruto pero sin inteligencia” quizás no eran tan “brutas” después de todo. El mismo Kasparov dijo en una de sus entrevistas al ser vencido, que de la manera que Deep Blue jugaba a él le daba la impresión de un profundo espíritu casi humano dentro de la máquina. Pasada más de una década, IBM está a punto de hacer historia otra vez, con una nueva super-computadora de última generación a la que llama Watson.

Los ingenieros de IBM durante los últimos años han estado desarrollando la supercomputadora Watson, el nombre fue asignado como un homenaje al fundador de la compañía Thomas J. Watson. La meta del grupo es hacer que esta computadora muy potente gane el concurso televisivo más famoso de los Estados Unidos, el Jeopardy. En este programa distribuido por la “Distribuidora de Televisión CBS”, tres participantes se organizan en frente de un panel con treinta pantallas, en las cuales son mostradas frases relacionadas a los más diversos temas, como política, ciencia, historia y cultura popular. Para ganar puntos, cada competidor debe formular una pregunta que tendría la sentencia escogida como respuesta.

Watson está siendo desarrollada con novedosas técnicas de hardware y software para nada más y nada menos competir contra Ken Jennings en el popular juego de televisión estadounidense denominado “Jeopardy!”, con un antecedente producido el año 2004 donde ganó setenta y cuatro veces consecutivas en ese programa, ganando dos y medio millones de dólares acumulados. Watson también ha sido capaz de ganarle a dos expertos jugadores de Jeopardy!: Dorothy Gilmartin y Alison Kolani, en cuatro partidos de seis jugados, esto en preparación para un futuro partido contra Ken Jennings, aunque se debe reconocer que por el momento, esta es una excepción a la regla, ya que muchos buenos jugadores de Jeopardy aun pueden ganar a Watson. Lo extraordinario de este logro es que Watson juega el juego tal cual juegan otros jugadores: Se crea un set al igual que la TV, se trae un anfitrión, todos los jugadores toman su posición, aunque Watson en realidad está en una habitación llena de máquinas en el piso de arriba, por lo que su “presencia” en realidad es virtual, y a Watson se le dan las preguntas a la misma vez que a los otros participantes, y tiene la misma cantidad de segundos para contestar que los otros participantes.

Lo más asombroso es que Jeopardy no es un simple juego de preguntas y respuestas repetitivas, sino uno que requiere de un muy profundo conocimiento tanto de historia y cultura popular actual, como de las más mínimas idiosincrasias del idioma inglés, incluyendo frases de doble significado, el uso de sarcasmo, etc. El verdadero desafío de Watson radica en interpretar los enigmas, las ironías, las sutilezas y subjetividades que puedan existir en el contenido presentado durante la disputa. Sin pensar en las posibilidades de los temas abordados, el corto tiempo de procesamiento de datos y la comprensión y adaptación de las preguntas en un lenguaje humano, mucho más compleja que los símbolos asociados al lenguaje computacional.

En otras palabras, Watson no es un simple “sistema experto”, sino uno que debe literalmente aprender millones de datos constantemente, hacer relaciones entre ellos, poder estudiar lo que sea que se le pregunte, e inferir, muchos dirían reflexionar, una respuesta. En su modo actual, a Watson se le puede hacer prácticamente cualquier pregunta que uno pueda imaginar de los miles de temas que se tratan en Jeopardy, y muchos otros más fuera de este, y está ya a un nivel que puede ofrecer respuestas más confiables que muchos humanos promedio. Watson es similar a Google en que es posible preguntarle lo que sea, pero con la diferencia de que entiende lo que se le pregunta, y además, no ofrece un lista de miles de enlaces en donde quizá se encuentre la respuesta buscada, sino que ofrece una única respuesta final, tal cual se la daría cualquier ser humano, en el caso de Watson directamente con una voz sintética.

Uno de los grandes avances que han permitido este tipo de máquinas, es el uso de análisis estadístico en la comprensión del lenguaje, así como en la extracción de información, algo que por décadas había sido poco práctico hacerlo a la escala que se hace actualmente, dado los fuertes requerimientos computacionales para procesar el lenguaje natural humano. Con análisis estadístico, es posible pensar de modo diferente a una computadora clásica, en donde debido a la base booleana, todo es un sí o un no, sino pensar como una mente más flexible, en donde es posible aceptar valores intermedios, así como los valores que más se aproximen a una respuesta final, aunque no sea precisamente la respuesta definitiva. Esto permite por ejemplo que estas máquinas hagan el equivalente de “adivinar” o “razonar para proporcionar la respuesta más adecuada posible según los datos conocidos” para así ofrecer posibles respuestas a las preguntas realizadas. Otro de los trucos detrás de Watson es el hecho de que aparte de conocer miles de textos de referencia, Watson no aplica una sola manera de “entender” este conocimiento, sino que utiliza centenares de distintos algoritmos, todos en paralelo, para entre todos descubrir cuáles son las respuestas estadísticamente más posibles para alguna pregunta determinada.

Las características sobresalientes de la supercomputadora Watson son: (1) Está constituida por una serie de racks de servidores. (2) Aprende millones de datos constantemente, hace relaciones entre ellos y computa una respuesta. (3) Utiliza centenares de algoritmos que procesa en paralelo para determinar cuáles son, estadísticamente hablando, las respuestas posibles para una determinada pregunta. (4) Emite las respuestas en tiempo real como si se tratara de un ser humano. (5) Es capaz de entender preguntas y responder con precisión a la velocidad de un concursante de Jeopardy. (6) Utiliza métodos de procesamiento paralelo, análisis estadístico aplicado a la comprensión del lenguaje natural, inteligencia artificial y técnicas avanzadas de extracción de información. (7) Reconoce voz humana y expresa sus respuestas con voz sintética. (8) El cerebro de Watson ha sido alimentado con miles de documentos de referencia: diccionarios, guías, tesis, manuales, tesauros, etc. (9) No está conectada a Internet ni requiere asistencia externa.

Es sin lugar a dudas un impresionante avance en inteligencia artificial y no se pierde nada soñando con la posibilidad de que en poco tiempo tecnologías similares puedan ser incorporadas a los navegadores de Internet, situación en la que no se estaría muy lejos de Multivac, quizá tampoco tan cerca. Si bien se suele utilizar el excelente rendimiento de distintos motores de ajedrez como muestra de superioridad de las computadoras sobre los seres humanos, se deja de lado un hecho igual de importante, a ser los pobres resultados que han obtenidos en el Go, ese juego ancestral inmortalizado por el ganador del Premio Nóbel Yasunari Kawabata y popularizado recientemente por el anime Hikaru no Go. En el Go, al igual que en las artes marciales, los niveles de juego son medidos por Dan. Son en total nueve niveles de Dan para profesionales, siete Dan para amateur y treinta kyu para los principiantes. Hace más de diez años, los mejores programas perdían hasta con niños y hoy en día han mejorado notablemente, es cierto, pero a lo sumo llegan a lograr un rendimiento de tercer Dan.

Volviendo a Jeopardy, los expertos no pensaban que fuese posible que una computadora lograse relacionar siquiera las preguntas del programa con una respuesta, al estar pronunciadas estas de manera tan vaga y alusiva, siendo además el campo abarcado amplio en extremo. Una computadora que comprende el lenguaje humano y responde en consecuencia, quizá en el camino hacia una conversación efectiva. Curiosamente, al hablar de Watson tras el fin de la competencia todos los participantes humanos se refirieron a la computadora como a “él”, como si fuese uno más de ellos. Los resultados obtenidos por la supercomputadora Watson permitirán: (1) Desarrollar aplicaciones que mejorarán la comunicación entre los seres humanos y entre éstos y las máquinas. (2) Mejorar los navegadores. (3) Mejorar las traducciones entre lenguas. (4) Contribuir con los avances de la Web Semántica.

 

Guillermo Choque Aspiazu
http://www.eldiario.net/
Agosto 9 de 2010

Fullerenos

Fullerenos

El carbono es un elemento curioso. Se presenta en formas y colores diversos. Quizá los más comunes son los sólidos negros como el grafito, pero también se puede presentar como el cristalino y duro diamante. Efectivamente, los diamantes están pura y simplemente formados por átomos de carbono. Claro está que en los diamantes esos átomos de carbono están ordenados de una forma muy especial, que sólo se consigue bajo presiones muy altas. Así que en este caso esas piedras tan preciosas son escasas y caras no debido a su composición sino a las extrañas condiciones bajo las que se forman. En cualquier caso el grafito es un material muy común y barato que se puede encontrar en las minas de los lápices. En el grafito los átomos de carbono forman capas en las que cada átomo está rodeado por otros tres átomos idénticos a él formando una estructura hexagonal. En el diamante cada átomo de carbono está enlazado a cuatro vecinos iguales dispuestos en forma de tetraedro.

La estructura de cada uno de estos dos materiales, es decir, el orden interno de sus átomos, es lo que determina sus propiedades. El enlace en tres dimensiones de los átomos de carbono en el diamante da lugar a una estructura más robusta y por tanto a cristales más duros que en el caso del grafito. En este último el enlace se limita a las dos dimensiones de las capas, que pueden deslizarse fácilmente entre sí lo cual da lugar a un material blando que se usa como lubricante sólido.

Todo esto se sabe desde hace ya muchos años. Pero hace poco el carbono irrumpió con fuerza de nuevo en el mundo de los materiales gracias a una aparición estelar con nuevas ropas. El año 1985 se descubrió una nueva forma del carbono, de hecho una familia entera de nuevas formas. El primer miembro de esta familia y el mejor conocido es una forma con estructura esférica, compuesta por sesenta átomos de carbono. Esta bola de fórmula C60 se conoce también como “buckminsterfullerene” o simplemente “fullereno” en honor del ingeniero americano R. Buckminster Fuller. El ingeniero Fuller había diseñado, ya el año 1967, para la exposición en Montreal, una cúpula geodésica en la que usaba elementos hexagonales junto con alguno pentagonal para curvar la superficie. La molécula de fullereno es verdaderamente un asombroso conjunto de sesenta átomos de carbono, todos ellos equivalentes, indistinguibles, cada uno enlazado a otros tres carbonos, como en el grafito, pero con una topología peculiar, formando parte de dos hexágonos y un pentágono que da lugar a una estructura cerrada.

Los fullerenos o fulerenos son la tercera forma más estable del carbono, tras el diamante y el grafito. Como se menciono anteriormente, el primer fullereno se descubrió el año 1985 y, desde entonces, se han vuelto populares entre los químicos, tanto por su belleza estructural como por su versatilidad para la síntesis de nuevos compuestos, ya que se presentan en forma de esferas, elipsoides o cilindros. Los fullerenos esféricos reciben a menudo el nombre de buckyesferas y los cilíndricos el de buckytubos o nanotubos. Pocas veces a lo largo de la historia actual de la química, una investigación ha dado lugar de forma inesperada al descubrimiento de una familia de moléculas tan excepcional como es la de los fullerenos, que constituye una nueva forma alotrópica del carbono, además de grafito y diamante, y posee unas propiedades excepcionales. Particularmente destaca la geometría tridimensional altamente simétrica de estas moléculas. En concreto, la más pequeña y representativa de ellas, el fullereno C60, posee una geometría idéntica a la de un balón de fútbol. Las aplicaciones potenciales de estas moléculas pueden suponer una auténtica revolución en el mundo de la ciencia.

Hasta el siglo veinte, el grafito y el diamante eran las únicas formas alotrópicas conocidas del carbono. En experimentos de espectroscopia molecular, se observaron picos que correspondían a moléculas con una masa molecular exacta de sesenta, setenta o más átomos de carbono. Harold Kroto, de la Universidad de Sussex, James Heath, Sean O’Brien, Robert Curl y Richard Smalley, de la Universidad de Rice, descubrieron el C60 y otros fulerenos, en un experimento que consistió en hacer incidir un rayo laser sobre un trozo de grafito. Ellos esperaban efectivamente descubrir nuevos alótropos del carbono, pero suponían que serían moléculas largas, en lugar de las formas esféricas y cilíndricas que encontraron. A Kroto, Curl y a Smalley se le concedió el premio Nobel de Química el año 1996, por su colaboración en el descubrimiento de esta clase de compuestos. El C60 y otros fulerenos fueron más adelante observados fuera del laboratorio. Hacia el año 1991, era relativamente fácil producir unos cuantos gramos de polvo de fulereno usando las técnicas de Donald Huffman y Wolfgang Krätschmer. La purificación del fulereno era un desafío para los químicos hasta hace poco cuando un equipo de investigadores españoles desarrolló un nuevo proceso de obtención. Los fulerenos endoédricos han incorporado, entre los átomos de la red, iones u otras moléculas más pequeñas. El fulereno es un reactivo habitual en muchas reacciones orgánicas como por ejemplo en la reacción de Bingel, descubierta el año 1993.

A comienzos del siglo veintiuno, las propiedades químicas y físicas de los fulerenos todavía están bajo intenso estudio, en laboratorios de investigación pura y aplicada. En abril del año 2003, se estaba estudiando el potencial uso medicinal de los fulerenos, fijando antibióticos específicos en su estructura para atacar bacterias resistentes y ciertas células cancerígenas, tales como el melanoma. Los fulerenos no son muy reactivos debido a la estabilidad de los enlaces tipo grafito, y es también muy poco soluble en la mayoría de disolventes. Entre los disolventes comunes para los fulerenos se incluyen el tolueno y de disulfuro de carbono. Las disoluciones de buckminsterfulereno puro tienen un color púrpura intenso. El fulereno es la única forma alotrópica del carbono que puede ser disuelta. Los investigadores han podido aumentar su reactividad uniendo grupos activos a las superficies de los fulerenos. El buckminsterfulereno no presenta “superaromaticidad”, es decir, los electrones de los anillos hexagonales no pueden deslocalizar en la molécula entera.

Aunque se piensa que las buckyesferas son en teoría relativamente inertes, una presentación dada a la Sociedad Química Estadounidense en marzo de 2004 y descrita en un artículo publicado en la revista New Scientist el 3 de abril de 2004, sugiere que la molécula es perjudicial para los organismos. Un experimento llevado a cabo por Eva Oberdörster en la Southern Methodist University, en el que introdujo fulerenos en agua en concentraciones de 0,5 partes por millón, mostró que un tipo de salmón, el micropterus salmoides, sufrió un daño celular en el tejido cerebral diecisiete veces superior, cuarenta y ocho horas después. El daño consistía en una peroxidación lipídica a nivel de la membrana celular, lo que deteriora el funcionamiento de ésta. Se produjeron también inflamaciones en el hígado y la activación de genes relacionados con la síntesis de enzimas reparadoras.

Una nueva y entera rama de la química se ha desarrollado para manipular la del fullereno, con consecuencias en diversas áreas como la astrofísica, la superconductividad y los materiales químicos y físicos. Además las propiedades del fullereno pueden ser estudiadas sistemáticamente. Es posible producir sales superconductoras de C60, nuevos polímeros tridimensionales, nuevos catalizadores, nuevos materiales y propiedades eléctricas y ópticas, sensores, etc. También se pueden formar delgados tubos con finales cerrados, nanotubos, ordenados de la misma manera que los fullerenos. Desde un punto de vista teórico el descubrimiento de los fullerenos ha influenciado bastante la concepción de dos problemas científicos tan separados como el ciclo del carbono galáctico y la aromaticidad clásica.

La ciencia de los materiales ha mostrado desde su descubrimiento un gran interés por las posibilidades de los fullerenos, dadas sus múltiples propiedades y la alta capacidad de proceso que presentan. Siguiendo estas líneas se han obtenido polímeros electro-activos, los cuales proporcionan reacciones de transferencia electrónica, y polímeros con propiedades de limitadores ópticos, trascendental en el campo de los láseres para evitar el deterioro de los materiales. Se espera así mismo obtener materiales muy adecuados para el recubrimiento de superficies, dispositivos fotoconductores y creación de nuevas redes moleculares. El campo de la biomedicina también se ha visto beneficiado por la aparición de los fullerenos. Destaca sin duda el estudio de las propiedades de ciertos derivados órgano-metálicos de los fullerenos solubles en agua, que han mostrado una actividad significativa contra los virus de inmunodeficiencia que provocan la enfermedad del SIDA, VIH-1 y VIH-2. También se baraja actualmente la posibilidad de incorporar fullereno en los procesos de fototerapia, que permitirían la destrucción de sistemas biológicos dañinos para los seres humanos. Dada la versatilidad química de los fullerenos, se espera que una profundización en el conocimiento de sus propiedades químicas y físicas conduzca pronto a la aparición de nuevas y prometedoras aplicaciones.

 

Guillermo Choque Aspiazu
http://www.eldiario.net/
Julio 12 de 2010

Teoría de la resonancia adaptativa

Teoría de la resonancia adaptativa

Una red neuronal artificial es un sistema de procesamiento de información que tiene ciertas características de funcionamiento en común con las redes neuronales biológicas. Las redes neuronales artificiales se han desarrollado como generalizaciones de modelos matemáticos del conocimiento humano o de la biología neuronal, basados en las siguientes suposiciones: (1) El proceso de la información ocurre en muchos elementos simples llamados neuronas. (2) Las señales pasan entre las neuronas a través de enlaces que las unen. (3) Cada conexión entre neuronas lleva asociado un peso, el cual, en una red neuronal típica, lo que hace es multiplicar la señal transmitida. (4) Cada neurona aplica una función de activación, generalmente no lineal, a su entrada con el objetivo de determinar su señal de salida. Asimismo, una red neuronal se caracteriza por estos tres elementos o características: (1) La topología de conexiones entre neuronas, lo que recibe el nombre de arquitectura de la red. (2) El método de determinación de los pesos sobre las conexiones, denominado algoritmo de entrenamiento o de aprendizaje. (3) La función de activación que tengan sus neuronas.

La “teoría de la resonancia adaptativa”, desarrollada por Stephen Grossberg y Gail Carpenter, es un modelo de red neuronal artificial que basa su funcionamiento en la manera en que el cerebro procesa información y que describe una serie de modelos de redes neuronales que utilizando métodos de aprendizaje supervisado y no supervisado abordan problemas tales como el reconocimiento y la predicción de patrones. Grossberg y Carpenter desarrollaron la teoría de resonancia adaptiva en respuesta al “dilema de la estabilidad y plasticidad del aprendizaje, en el que se plantean las siguientes cuestiones: (1) Plasticidad del aprendizaje. Permite a una red neuronal aprender nuevos patrones. (2) Estabilidad del aprendizaje. Permite a una red neuronal retener los patrones aprendidos. (3) Conseguir que un modelo de red neuronal sea capaz de resolver uno solo de estos problemas es sencillo, el reto está en conseguir un modelo que sea capaz de dar respuesta a ambos. Las redes más conocidas, tales como el Perceptrón multicapa o el Adaline, son capaces de aprender cómo han de responder ante unos patrones de entrada pero, una vez entrenados, el intentar que aprendan nuevos patrones puede suponer el “olvido” de lo aprendido previamente.

La red neuronal basada en la teoría de la resonancia adaptativa, es una clasificadora de vectores. Un vector de entrada se clasifica dentro de una de un número de categorías, dependiendo de la similitud con los patrones previos. Si el criterio de similitud no se satisface se crea una nueva categoría. Así, la red neuronal con base en la teoría de la resonancia adaptativa resuelve el dilema entre plasticidad y estabilidad al habilitar que el aprendizaje ocurra solamente en un estado de resonancia. La red neuronal trabaja con patrones binarios los cuales se comparan con los vectores prototipo de modo que disminuye similitudes hasta que una igualdad adecuada se encuentra o se crea una nueva categoría.

Como se dijo anteriormente, el modelo asociado a la teoría de la resonancia adaptativa soluciona el dilema de la estabilidad y plasticidad del aprendizaje mediante un mecanismo de realimentación entre las neuronas competitivas de la capa de salida. Cuando a la red se le presenta un patrón de entrada este se hace resonar con los prototipos de las categorías conocidas por la red, si el patrón entra en resonancia con alguna clase entonces es asociado a esta y el centro de cluster es desplazado ligeramente para adaptarse mejor al nuevo patrón que le ha sido asignado. En caso contrario, si el patrón no entra en resonancia con ninguna clase, pueden suceder dos cosas: si la red posee una capa de salida estática entrará en saturación pues no puede crear una nueva clase para el patrón presentado pero tampoco puede asignarlo a una clase existente, si la red posee una capa de salida dinámica se creará una nueva clase para dicho patrón, esto no afectará a las clases ya existentes. En las redes de resonancia adaptativa existen dos tipos de pesos, los llamados pesos “hacia adelante”, que son pesos entre la capa oculta, o de entrada según se vea el modelo como de dos o tres capas, y la capa de salida, además de los llamados pesos de “realimentación”, que son pesos de retroalimentación entre la capa de salida y la capa oculta, o de entrada, según se vea. Los pesos hacia adelante tienen el mismo valor que los pesos de realimentación, pero normalizados.

El funcionamiento de un modelo asociado a la teoría de la resonancia adaptativa se divide en cuatro fases: (1) Fase de inicialización. En esta fase se inicializan los parámetros de la red neuronal y se establecen las señales de control. Mediante las señales de control, conocidas como ganancia y reinicio, se controla el flujo de datos a través de la red neuronal y se pasa a las otras fases. (2) Fase de reconocimiento. En la fase de reconocimiento se efectúa una operación con los datos de entrada y los pesos asociados a cada neurona de la capa de salida, el resultado de esta operación debe indicar qué clase tiene mayor prioridad para ver si los datos de entrada entran en resonancia con ella. Por ejemplo, se podría calcular la distancia euclidiana entre los datos de entrada y los pesos, la clase ganadora sería aquella cuyo peso estuviese más cerca de los datos de entrada y por lo tanto sería la primera a la que se le intentaría asociar dicho patrón. (3) Fase de comparación. En esta fase el vector de entrada y el vector producido por la capa de salida son comparados en la capa de entrada y el resultado obtenido se envía al control de reinicio. El objetivo es obtener una medida de similitud entre el vector de entrada y el vector prototipo que surge de la capa de salida. (4) Fase de búsqueda. De no representar la neurona ganadora la categoría del vector de entrada, esta neurona se desactiva y se empieza la búsqueda por otras categorías que ya posea la red. Se repiten entonces los pasos anteriores hasta que se encuentre una neurona ganadora que represente la categoría del vector de entrada. Si se repitiera el proceso hasta que no quedara ninguna neurona se llegaría a una situación de saturación de la red que podría solucionarse ampliando el número de neuronas de la red de forma dinámica.

Un sistema básico, asociado a la teoría de la resonancia adaptativa, es un modelo de aprendizaje no supervisado. Normalmente consta de un campo de comparación y un campo de reconocimiento que a su vez se compone de un parámetro de vigilancia y de un módulo de reinicio. El parámetro de vigilancia tiene una influencia considerable en el sistema: un valor mayor del parámetro de vigilancia produce recuerdos muy detallados, mientras que valores más pequeños de dicho parámetro producirán recuerdos más generales.

El campo de comparación toma un vector de entrada, normalmente una matriz bidimensional de valores, y transfiere su mejor coincidencia al campo de reconocimiento. Su mejor coincidencia estará en aquella neurona cuyo conjunto de pesos, o vector de peso, se acerque más al vector de entrada. Cada neurona del campo de reconocimiento emite una señal negativa, proporcional a la calidad de coincidencia de dicha neurona con el vector de entrada, para cada una de las neuronas del campo de reconocimiento provocando una inhibición de su valor de salida. De esta manera el campo de reconocimiento exhibe una inhibición lateral, permitiendo que cada neurona en él represente una categoría en la que se clasifican los vectores de entrada. Después de que el vector de entrada es clasificado, el módulo de reinicio compara la intensidad de la coincidencia encontrada por el campo de reconocimiento con el parámetro de vigilancia. Si el umbral de la vigilancia se cumple, se inicia el entrenamiento. De lo contrario, si el nivel de coincidencia no cumple con el parámetro de vigilancia, la neurona de reconocimiento disparada se inhibe hasta que un vector de entrada se aplique nuevamente.

El entrenamiento se inicia sólo al final del procedimiento de búsqueda, en el cual las neuronas de reconocimiento son desactivadas una a una por la función de reinicio hasta que el parámetro de vigilancia se satisface con una coincidencia de reconocimiento. Si ninguna coincidencia encontrada por las neuronas de reconocimiento supera el umbral de vigilancia una neurona no comprometida se ajusta para que concuerde con el vector de entrada. Existen dos métodos básicos para entrenar una red neuronal basada en la teoría de la resonancia adaptativa: lento y rápido. En el método lento el grado de entrenamiento de los pesos de la neurona de reconocimiento hacia el vector de entrada se calcula para valores continuos con ecuaciones diferenciales y por lo tanto depende del tiempo durante el cual el vector de entrada esté presente. Con el método rápido, se utilizan ecuaciones algebraicas para calcular el grado de ajuste de peso, utilizándose valores binarios. Si bien el aprendizaje rápido es eficaz y eficiente para ciertas tareas, el método de aprendizaje lento es biológicamente posible y puede usarse con redes en tiempo continuo, es decir, cuando el vector de entrada varía de forma continua.

 

Guillermo Choque Aspiazu
http://www.eldiario.net/
Junio 14 de 2010

Translate »