viernes, 16 de noviembre de 2007

AVANCES TECNOLOGICOS EN LA MEDICINA



AVANCES EN DESCUBRIR LAS CAUSAS GENÉTICAS DE ENFERMEDADES COMUNES

Según un artículo publicado en la semana de Octubre en Guardian Unlimited, varios grupos de científicos han avanzado considerablemente en la investigación sobre las causas genéticas de siete enfermedades comunes, entre las que se incluyen la diabetes, la artritis y la hipertensión, completando el mayor análisis del genoma humano. Utilizando nuevas técnicas para examinar el ADN de miles de pacientes, los científicos observaron también elementos genéticos comunes en casos de enfermedades coronarias. Sus descubrimientos allanan el camino hacia mejores tratamientos y posibles curas para los millones de personas que desarrollan estas enfermedades cada día.

Según Peter Donnelly de la Universidad de Oxford, que dirigió el programa de investigación de 9 millones de libras (unos 13,3 millones de euros) financiado por la Wellcome Trust: "Identificando los genes que subyacen tras estas enfermedades, nuestro estudio debería permitir a los científicos entender mejor cómo se produce la enfermedad, que personas tienen más riesgo de desarrollara y, llegado el momento, producir tratamientos más personalizados y eficaces".

Desde la compleción del proyecto genoma humano en el 2000, que elaboró un mapa con cada gen del cuerpo humano, los científicos han identificado rápidamente raras variaciones genéticas que causan la mayoría de la enfermedades hereditarias, como la fibrosis quística.

"Ha sido mucho más complicado identificar las variaciones comunes de enfermedades como la diabetes o la enfermedad de Crohn, en las que participan múltiples genes, pero los efectos de cada uno de ellos son menores", señaló Mark Walport, director de Wellcome Trust.

Estudiando el ADN de 17.000 personas, los 50 grupos de investigación identificaron 24 nuevos enlaces genéticos para enfermedades como el trastorno bipolar, la enfermedad de Crohn, enfermedades coronarias, diabetes de los tipos 1 y 2, artritis reumatoide e hipertensión, triplicando el número de genes asociado previamente a ellas.

En el estudio, los científicos analizaron muestras de ADN de 2.000 pacientes por enfermedad, comparándolas con 3.000 muestras de control de voluntarios sanos, y buscaron alrededor de 500.000 diferencias genéticas en cada muestra. Los resultados completos del Wellcome trust Case Control Project han sido publicados en las revistas Nature y Nature Genetics.


SANGRE ARTIFICIAL

Desarrollan sangre artificial que podría salvar muchas vidas

Continuamente se piden donantes de sangre, pero estas donaciones, aunque valiosas, presentan numerosos riesgos para el receptor, incluidas enfermedades como la hepatitis C o el VIH. Ahora, según un artículo publicado el 10 de mayo en la versión en línea de The Guardian, Lance Twyman, Doctor por la Universidad de Kent, trabaja en su laboratorio de la Universidad de Sheffield en el desarrollo de una nueva sangre artificial que sería totalmente estéril e incluso se podría fabricar en forma deshidratada. Esto facilitaría su transporte y permitiría almacenarla de cara al futuro, bastando con añadir agua posteriormente para obtener sangre del grupo 0 negativo (el donante universal).

Twyman lleva tiempo intentando crear moléculas que imiten la naturaleza y ha encontrado las porfirinas, moléculas huecas de forma cuadrada que se combinan con metales como el hierro. "El hierro se encuentra en le centro de la molécula, como en el caso de la hemoglobina", señala Twyman. Sin embargo, aunque la hemoglobina de los glóbulos rojos contiene porfirina basada en hierro para unirse al oxigeno de forma reversible (es decir, para poder captar el oxígeno en los pulmones, transportarlo y liberarlo en los tejidos), la profirina no funciona sola, ya que acaba por reaccionar con el oxígeno en lugar de enlazarse simplemente a él. Por ello, según Twyman, es necesario combinar la química de la porfirina con la química de polímeros para obtener una molécula que imite la hemoglobina.

Tras cinco años de desarrollo, combinando la porfirina con monómeros que se autoensamblan en estructura de árbol, Twyman ha logrado una molécula extremadamente similar a la hemoglobina en forma y tamaño y que, además, ofrece el entorno adecuado alrededor del núcleo de la porfirina para que se enlace el hierro y libere el oxígeno. El aspecto de esta sangre artificial es el de una pasta de color rojo oscuro, con la consistencia de la miel y soluble en agua.

El hecho de poner sangre plástica en el cuerpo, aunque sea para salvar una vida, suena arriesgado, pero Twyman señala que las porfirinas son naturales. Según él, el componente polimérico sería ignorado por sistema inmunológico del cuerpo humano y existen usos médicos en la actualidad que reafirman su postura; sin embargo, de momento, su experimento se limita a tubo de ensayo.

Según Twyman, una de las principales aplicaciones sería el campo de batalla o un lugar en el que se haya producido un desastre importante y donde aportar sangre con rapidez pueda salvar muchas vidas ya que, a diferencia de la sangre donada, ésta es fácil de almacenar y se mantiene a temperatura ambiente.

Actualmente, se está desarrollando una segunda generación de moléculas para realizar una investigación más rigurosa y, si todo va bien, el uso en humanos podría ser lo siguiente.

Otros investigadores se muestran escépticos al respecto y señalan que todavía queda mucho por investigar antes de poder afirmar nada.

FÁBRICAS DE ADN

Según un artículo publicado el 9 de abril de 2007 en Technology Review, la fabricación a medida barata de ADN podría revolucionar la biología molecular.
Es mucho más sencillo instalar un kit de suelo de madera prefabricado que tener que cortar y lijar la madera. Con una estrategia de construcción similar, Codon Devices, una empresa de biotecnología de Cambridge, Massachussets, pretende mejorar la eficiencia de la ingeniería genética. Para ello, fabrica hebras de ADN a medida, evitando a los científicos el trabajo de tener que unir complicadas piezas de ADN a la antigua.

A medida que es más y más barato crear trozos grandes de material genético desde el principio, los científicos podrán obtener creaciones biológicas cada vez más complejas.

Codon se fundó en el 2005, paralelamente al surgimiento del campo de la biología sintética. La capacidad para fabricar construcciones genéticas complejas es algo fundamental en este campo, al permitir a los científicos utilizar los trozos de ADN para diseñar nuevas partes biológicas que se pueden insertar posteriormente en bacterias u otras células.

El verano pasado, la empresa creó para Microbia, otra empresa de biotecnología de cambridge, lo que se considera el trozo más grande de ADN fabricado a medida: una cadena con 35.000 pares de bases que incorpora varios genes necesarios para sintetizar un compuesto farmacéutico.

Los biólogos de este campo están entusiasmados con las perspectivas, pero esperan un descenso en los precios que les permita costearse los experimentos que desean realizar. Por su parte, Codon confía en que ese día llegará pronto y planea utilizar su capacidad de síntesis mejorada para encontrar mejores enzimas para los procesos industriales.

Puesto que la naturaleza no siempre proporciona lo mejor, a menudo los científicos diseñan enzimas más eficaces modificando el código de ADN utilizado en su elaboración. Sin embargo, es difícil predecir qué cambios producirán las mejores enzimas. Codon está utilizando su tecnología de síntesis para llevar a cabo este proceso en masa; de este modo, realiza millones de copias de la misma construcción genética con ligeras variaciones y posteriormente las prueba para ver cuál de ellas realiza el mejor trabajo. El mismo proceso se podría utilizar para desarrollar fármacos basados en proteínas más eficaces.

Codon planea abrir este verano una fábrica de producción que funcionará como cualquier otra fábrica de producción en masa, pero su producto será el ADN. La idea es construir unas instalaciones mucho más grandes de lo necesario actualmente con el fin de prepararse para el futuro boom de la síntesis del ADN.

LOS RETOS DE LA TECNOLOGIA

Estamos en la sociedad del conocimiento y algunos grandes avances, nuevos inventos y descubrimientos progresarán exponencialmente. Las universidades más prestigiosas como el MIT (Technology Review) ya identifican "lo último" y más nuevo en tecnología e investigación.

La biología (biotecnología), nanotecnología e infotecnología tienen y tendrán un protagonismo importante en los últimos progresos y adelantos alcanzados. En pocos años, la innovación tecnológica puede hacer posible hasta una segunda revolución industrial con la construcción de nanomáquinas. Las presentamos las novedades científicas más importantes a nuestros usuarios, desde la mecatrónica a las redes de sensores:


LAS DIEZ TECNOLOGÍAS AVANZADAS QUE CAMBIARÁN EL MUNDO (SEGÚN EL MIT)

Redes de sensores sin cables (Wireless Sensor Networks)
Ingeniería inyectable de tejidos (Injectable Tissue Engineering)
Nano-células solares (Nano Solar Cells)
Mecatrónica (Mechatronics)
Sistemas informáticos Grid (Grid Computing)
Imágenes moleculares (Molecular Imaging)
Litografía Nano-impresión (Nanoimprint Lithography)
Software fiable (Software Assurance)
Glucomicas (Glycomics)
Criptografía Quantum (Quantum Cryptography)


NOTICIAS TECNOLOGICAS


CLONACIÓN DE PRIMATES


Expertos estadounidenses han creado por primera vez embriones clonados de un mono adulto; un avance técnico que podría conducir a un proceso eficaz de clonación humana.

El equipo de investigadores ha creado docenas de embriones clonados de un macaco de diez años de edad. Además, han sido capaces de extraer células madre de los embriones clonados y de fomentar su desarrollo en el laboratorio hasta convertirlas en células nerviosas y un corazón maduros, lo que plantea la posibilidad de desarrollar tejidos para transplantes que no serán rechazados por el cuerpo.

Otros científicos han dado ya la bienvenida a la noticia. Robin Lovell-Badge, científico del National Institute for Medical Research en Mill Hill, Reino Unido, señaló que "aunque el trabajo todavía no ha sido publicado, parece importante". Según él, "existía la preocupación de que los primates fuesen difíciles de clonar".
Esto habría sido un gran contratiempo para los investigadores que trabajan en el desarrollo de nuevos tratamientos basados en células madre embriónicas.

En la clonación para la obtención de células madre, el ADN de un animal adulto se inserta en un óvulo no fertilizado, al que se le ha quitado su propio material genético y, a continuación, se fomenta el crecimiento del óvulo para obtener un embrión temprano del que poder extraer células madre. Estas células madre y los tejidos desarrollados a partir de ellas coincidirán genéticamente con la fuente de ADN; en este caso, el macaco macho.

Dado que las células madre son las precursoras de todos los tejidos del cuerpo, los científicos esperan poder, algún día, utilizarlas para crear tejidos para transplantes que coincidan genéticamente con los de pacientes con enfermedades degenerativas, evitando así el tan temido rechazo.

Hasta ahora, el único otro ejemplo publicado de clonación embriónica humana se llevó a cabo en la Universidad de Newcastle, en el Reino Unido, pero los clones apenas sobrevivieron unos cuantos días y no produjeron ninguna célula madre.
La técnica utilizada para generar los embriones de macaco clonados, llamada SCNT (Somatic Cell Nuclear Transfer), sigue el mismo procedimiento básico utilizado para crear la oveja Dolly y otros mamíferos clonados, pero el autor principal del estudio, el Dr. Shoukhrat Mitalipov, ha descubierto un nuevo método para manipular los óvulos durante el proceso de clonación.

El Dr. Mitalipov y sus colegas utilizaron una técnica de iluminación llamada Oosight para visualizar las células microscópicas en tiempo real, lo que permitió retirar eficazmente el núcleo de la célula sin recurrir a los enfoques tradicionales de luz ultravioleta. La nueva técnica dio como resultado una tasa de supervivencia de los clones en desarrollo mucho más elevada.

Pero el avance no ha sido bienvenido por todos, reabriéndose el debate sobre cuestiones éticas. Josephine Quintavalle, directora de CORE (Comment on Reproductive Ethics) señaló que los clones no son la única fuente posible de células madre embriónicas y que hay otras opciones, como la sangre del cordón umbilical.


http://www.euroresidentes.com/



AVANCES EN NANOTECNOLOGIA

LA RADIO MÁS PEQUEÑA DEL MUNDO

Según un artículo publicado esta semana en Technology Review, unos investigadores han fabricado la radio más pequeña del mundo a partir de un nanotubo de carbono. El nanotubo, colocado entre dos electrodos, combina los papeles de todos los principales componentes eléctricos de una radio, incluidos el sintonizador y el amplificador, y es capaz de sintonizar una señal de radio y reproducir el audio a través de un altavoz externo.

Aunque la aplicación práctica de la radio es dudosa, se podría utilizar en sensores medioambientales y biológicos. Los investigadores están desarrollando ahora sensores microelectromecánicos (MEMS) para medir los niveles de azúcar en sangre o marcadores del cáncer en el cuerpo. En lugar de utilizar una etiqueta de identificación de radiofrecuencias del tamaño de un sello, los investigadores podrían encapsular una radio de nanotubo junto con el sensor basado en MEMS e inyectarlo directamente en el torrente sanguíneo, señala Alex Zettl, físico experimental de la Universidad de California, Berkeley, que dirige el desarrollo de la radio de nanotubo. Una vez en el interior del cuerpo, la radio podría permitir la comunicación inalámbrica entre los diminutos sensores biológicos y un monitor externo. No obstante, para ello la radio de nanotubo debería funcionar como transmisor y, de momento, solo está configurada como receptor, aunque Zettl afirma que "la misma física funcionaría como transmisor".

La radio de nanotubo funciona de un modo diferente a las radios convencionales. Éstas últimas tienen cuatro partes funcionales: la antena, el sintonizador, el amplificador y el de modulador. Las ondas de radio que llegan a una antena originan corrientes eléctricas a diferentes frecuencias. Cuando alguien selecciona una emisora de radio, el sintonizador filtra todas las frecuencias salvo una. Los transistores amplifican la señal, mientras un de modulador, por lo general un rectificador o un diodo, separa los datos (la música y otro audio) que se han codificado en una onda electromagnética portadora.

El equipo de Zettl utilizó un nanotubo de carbono para todas estas funciones. Debido a sus especiales propiedades eléctricas, los nanotubos de carbono se han utilizado previamente en la fabricación de componentes electrónicos como diodos, transistores y rectificadores. "Ha sido una revelación que se pueda construir todo esto en el interior del mismo [nanotubo]", señaló Zettl.
Etiquetas: nanotubos



MIRAR DENTRO DE CÉLULAS CON LASER

Según un artículo publicado esta semana en Technology Review, diminutas antenas que enfocan la luz de láseres infrarrojos hasta a 100nm proporcionan a los científicos un modo de observar el funcionamiento de las células.

Ingenieros de la Universidad de Harvard han construido un láser que podría permitir a los investigadores mirar en el interior de las células con una resolución ultraalta y visualizar los eventos celulares a medida que tienen lugar. Añadiendo una nanoantena a los láseres infrarrojos, los investigadores han logrado enfocar la luz de forma mucho más precisa. De hecho, los láseres podrían dar lugar a imágenes con una resolución al menos 100 veces mayor.

Hasta ahora, la resolución de los microscopios utilizados para observar la composición química de los tejidos se ha visto limitada por una propiedad física de la luz conocida como límite de difracción. Utilizando las lentes tradicionales, la luz solo se puede dirigir a modo de rayo con un ancho igual a su longitud de onda; si un microscopio utiliza una luz del infrarrojo medio con una longitud de onda de 24 micrómetros, solo se puede enfocar en un punto de 12 micrómetros de ancho. Teniendo en cuanta el tamaño de las células animales (10 micrómetros), bacterias (1 micrómetro) y virus (decenas de nanómetros), es demasiado ancho.

El año pasado, los investigadores de Harvard fueron los primeros en desarrollar un sistema práctico para superar el límite de difracción. Federico Capasso y Kenneth Crozier aplicaron la técnica a los láseres utilizados para leer y grabar los discos en los ordenadores personales. Su trabajo puede conducir a discos de almacenamiento de alta densidad, similares a los DVD, capaces de almacenar cientos de películas (véase "TR10: A New Focus for Light"). Ahora, los investigadores de Harvard están trabajando en un instrumento distinto, llamado láser de cascada cuántica, y en un nuevo campo, la formación de imágenes biológicas.



viernes, 28 de septiembre de 2007

¿QUE ES C14?



El carbono-14


El 14C (que posee 6 protones y 8 neutrones) tiene la particularidad de que es un isótopo inestable, que poco a poco va transmutándose en nitrógeno, 14N (que posee 7 protones y 7 neutrones), y desaparece según la reacción :

C = N + ß + neutrino

En compensación de esta pérdida, nuevos átomos de 14C se forman continuamente en la atmósfera como producto del choque de neutrones cósmicos sobre otros átomos atmosféricos de nitrógeno :

neutrón + N = C + H

Estos neutrones son parte de la radiación cósmica galáctica que tras atravesar el Sistema Solar llega a la atmósfera terrestre.

Los choques de los rayos cósmicos con los átomos de 14N y, por lo tanto, la producción de 14C, es máxima a unos 15 km de altura.

Rápidamente los átomos de 14C así formados se oxidan a CO2 y se difunden y se mezclan por toda la atmósfera con el resto del CO2.

Los procesos de desintegración y de formación de 14C se compensan de tal forma que la concentración de 14C en la atmósfera es "más o menos" constante.



Datación por el carbono-14
El cálculo de la pérdida de 14C en los organismos muertos se utiliza para datar a los fósiles.

En efecto, las plantas vivas asimilan el carbono del CO2 atmosférico durante la fotosíntesis y lo expulsan durante la respiración . De esta forma, los tejidos de las plantas vivas —y los de los animales vivos (humanos incluídos) que se alimentan de esas plantas— continuamente están intercambiando 14C con la atmósfera. Esto hace que la ratio 14C/12C del carbono contenido en los tejidos orgánicos de los seres vivos es semejante a la del CO2 de la atmósfera. Ahora bien, en cuanto los organismos vegetales o animales mueren, cesa el intercambio con la atmósfera y cesa el reemplazo del carbono de sus tejidos. Desde ese momento el porcentaje de 14C de la materia orgánica muerta comienza a disminuir, ya que se transmuta en 14N y no es reemplazado.

La masa de 14C de cualquier fósil disminuye a un ritmo exponencial, que es conocido. Se sabe que a los 5.730 años de la muerte de un ser vivo la cantidad de 14C en sus restos fósiles se ha reducido a la mitad y que a los 57.300 años es de tan sólo el 0,01 % del que tenía cuando estaba vivo.

Sabiendo la diferencia entre la proporción de 14C que debería contener un fósil si aún estuviese vivo (semejante a la de la atmósfera en el momento en el que murió) y la que realmente contiene, se puede conocer la fecha de su muerte.

La cantidad y el porcentaje de 14C se calcula midiendo las emisiones de partículas ß de la muestra. El método sólo es viable para fósiles no muy viejos, menores de unos 60.000 años, ya que para edades superiores las emisiones de partículas ß son ya demasiado poco intensas y difíciles de medir, por lo que los errores pueden ser muy grandes.

En la práctica, la datación de los fósiles se complica porque la concentración atmosférica de 14C ha variado sustancialmente a lo largo del tiempo. Esto hace que se necesite saber no sólo la cantidad de 14C que queda en la muestra fósil, sino también la concentración atmosférica que existía en el momento de su muerte (ver figura).

Se conocen, más o menos con exactitud, las variaciones de 14C habidas en los últimos 11.800 años gracias a la dendrocronología, es decir, al análisis de la madera de los anillos (cuyas edades conocemos por conteo) de series solapadas de troncos de árboles vivos y fósiles de Europa. Más allá los datos son más pobres e imprecisos y no pueden basarse en el estudio de árboles fósiles, aunque recientemente ha surgido la esperanza de poder hacerlo con unos enormes árboles fósiles neozelandeses denominados kauri, que pueden vivir hasta mil años, y que se han encontrado enterrados en antiguas marismas.

El período conocido se ha extendido más recientemente hasta hace unos 50.000 años por medio del análisis del 14C contenido en los sedimentos laminares del fondo de ciertas cuencas lacustres y oceánicas, como por ejemplo la cuenca de Cariaco en Venezuela (ver figura), y hasta los 45.000 años a partir del análisis de una estalagmita de una cueva sumergida en las Bahamas.

Durante los últimos diez mil años ha habido un declive en la concentración de carbono 14 en la atmósfera debido a una variación del campo geomagnético terrestre que ha reforzado el escudo protector de los rayos cósmicos. Esta disminución, con fluctuaciones, ha sido en los últimos 10.000 años de un 15 % aproximadamente con respecto al nivel de 1950 (ver figura).

Pero aparte de este declive y en tiempos más cortos, en escalas de siglos o menos, las causas de las variaciones habidas en la concentración de 14C atmosférico son debidas a otros dos motivos: 1) los cambios en la actividad solar y 2) las variaciones en la ventilación oceánica.


El carbono-14 y actividad solar

El viento solar, ligado a la intensidad de emisión de energía solar, intercepta parte de la radiación cósmica galáctica —responsable de la formación de 14C—antes de que ésta llegue a la Tierra.

Por eso, cuando en un fósil, o en la madera de un anillo de árbol, del que ya se conoce su edad por otros métodos, se encuentra una anomalía con respecto al porcentaje de 14C que le correspondería contener, ello indica que en la época en que vivió ese fósil, o creció ese anillo de árbol, pudo haber una anomalía en la producción de 14C atmosférico y, por lo tanto, en la intensidad de la radiación cósmica galáctica que alcanzaba entonces la Tierra. La llegada de mayor o menor radiación cósmica galáctica depende inversamente de la intensidad del viento solar que la intercepta. Por eso, finalmente, se puede deducir que las anomalías detectadas en el 14C dependen de las anomalías de la emisividad solar.

Las épocas en las que hubo una mayor producción de 14C se corresponden con épocas de menor actividad solar (y más radiación cósmica incidente). Si además se produce un incremento del Berilio-10, un isótopo del berilio también cosmogénico, la hipótesis de una menor actividad solar se refuerza. Tal es el caso de los mínimos de Wolf, Sporer y Maunder ocurridos en el transcurso del último milenio (ver figura).

Y viceversa, las épocas de menor producción de 14C deben relacionarse con épocas de alta actividad solar. Según algunos paleoclimatólogos, una sequía larga e intensa ocurrida entre el 750 y el 1025 de nuestra era, que coincide con una baja producción de 14C (y alta actividad solar), señalizada en los sedimentos lacustres de Yucatán, estuvo en el origen del declive de la civilización Maya (ver figura). Aquellos siglos parece que fueron también calurosos en Europa (el Período Cálido Medieval), debido quizás a esta mayor actividad solar.


El carbono-14 y los cambios en la ventilación oceánica

Pueden producirse variaciones importantes en la concentración atmosférica de 14C cuando cambian drásticamente las condiciones de ventilación de los mares.

Ocurre que hay un intercambio continuo de CO2 entre la atmósfera y los océanos. Ahora bien, una vez que el CO2 es absorbido por el agua y penetra en el océano puede permanecer siglos atrapado en él y, por lo tanto, su carbono se va empobreciendo en 14C. De esta forma el CO2 devuelto a la atmósfera en los procesos de afloramiento (upwelling) de aguas profundas contiene un carbono empobrecido en 14C, lo cual hace que se reduzca también la concentración de 14C del CO2 atmosférico.

Cuando el ciclo de intercambio de carbono entre la atmósfera y el océano se modifica también lo hace la concentración de 14C, tanto en la atmósfera como en la superficie del océano. Por ejemplo, a comienzos del Younger Dryas, hubo un fuerte aumento en la concentración de 14C atmosférico, ya que la atmósfera dejó de recibir del mar el CO2 empobrecido en 14C, que había estado recibiendo anteriormente, durante el cálido Bølling-Allerød. Ocurrió que con el advenimiento de la nueva situación océanica, disminuyó la ventilación del Atlántico, ya que la circulación termohalina —como en los tiempos fríos de la glaciación—, se había debilitado de nuevo. También en la superficie del mar este aumento está documentado, gracias, por ejemplo, a las mediciones de 14C realizadas en los foraminíferos planctónicos fósiles conservados en las laminas sedimentarias de la cuenca marina de Cariaco.

También las diferencias existentes entre la edad del carbono disuelto en las aguas tropicales y la edad del carbono disuelto en las aguas de latitudes altas pueden dar ciertas claves sobre las variaciones de la circulación oceánica (ver figura). En efecto, actualmente, la edad aparente (diferencia con respecto a la atmósfera) del reservorio de las aguas superficiales de los Trópicos y del Atlántico Norte, analizando su ratio 14C/12C, es de unos 400 años, mientras que en las altas latitudes del Pacífico Norte y Sur es de unos 1.200 años. Esta diferencia está causada por el tipo e intensidad de circulación oceánica termohalina existente hoy día. Pues bien, por medio del estudio del 14C contenido en la caliza de foraminíferos fósiles recogidos en diferentes regiones, podemos saber algo sobre los cambios ocurridos en las edades de los diferentes reservorios oceánicos, a lo largo, por ejemplo, de la última desglaciación, y extraer así conclusiones sobre las variaciones en la circulación termohalina de aquella época.

INVENTOS Y DESCUBRIMEINTOS

A continuación intentare elaborar con los inventos y descubrimientos más importantes o influyentes en la historia de la humanidad. A juicio uno de los inventos mas importantes de la historia: la imprenta. Fue inventada por Johannes Gutenberg, y las consecuencias fueron toda una revolución en la disponibilidad de la información para las masas; esto a su vez permitió el desarrollo en todas las áreas fundamentales y claves en el posterior desarrollo del mundo: las artes, la ciencia, la medicina, etc. En resumen, un mega gran invento.

En segundo lugar, la bombilla eléctrica o ampolleta, inventada por Thomas Alva Edison. En este mismo instante, si es de noche o esta oscuro en nuestra habitación, estamos disfrutando del trabajo de este gran hombre.

Luego podemos mencionar al teléfono, obra de Alexander Graham Bell. Su invento lo empleamos incontables veces durante nuestra vida diaria, ya sea para temas relacionados con el trabajo o diversión, y nos permite mantenernos comunicados con nuestros seres queridos.. Incluso demasiado (con esto de los teléfonos celulares, hay quienes incluso llevan a cuestas más de un aparato a la vez).

Otro de los grandes inventos de la historia es la radio, o la transmisión de señales a través de ondas electromagnéticas. Puedes explorar en la sección de ciencia de este sitio la discusión sobre su real inventor. Muy interesante.

Otro espectacular invento es el radar, que permite la detección de objetos mediante la emisión de ondas de radio que "rebotan" en la superfice de estos objetos. Se puede determinar la distancia a la cual se encuentra un objeto midiendo el tiempo que toma la onda en ir y volver a la fuente emisora de ondas. Increíble. Quien inventó el radar fue Robert H. Rhine, nacido el 30 de Agosto de 1922 en Boston, Massachusetts.

Sigamos con el automóvil. No podemos dejar de mencionar al respecto a Henry Ford, quién masifico la producción del mismo (aunque no fué el quien lo inventó), y permitió que este invento se convirtiera en el sistema de transporte fundamental para el funcionamiento del mundo y la economía actual. En 1909 desarrolló el primer modelo, el famoso "Ford T", y en 1927 su compañía lanzó el modelo "A", ofreciéndolo incluso en cuatro colores.

No podemos dejar de mencionar entre los grandes inventos al avión. En 1903, después de grandes esfuerzos por fin los hermanos Wright se mantuvieron en el aire por 12 segundos. Pensar que tan solo un siglo después tenemos aviones comerciales capaces de transportar cómodamente a un pequeño pueblo (el Airbus 380), utilizando la última tecnología en computadoras.

Otro de los grandes inventos que ha tenido una infinidad de usos hasta nuestros días es el Láser, o en inglés "Light Amplification by Stimulated Emission of Radiation". El Láser fue inventado por Gordon Gould, quien lo introdujo al mundo en 1959.

Uno de los inventos que es un verdadero icono de nuestra época es el Microchip, inventado en 1959 por Jack Kilby. El Microchip o simplemente "chip" es un circuito electrónico miniaturizado, lo que hace posible, entre muchísimas otras cosas, que el computador que estas ocupando en este preciso instante pueda caber sobre un escritorio, en vez de ocupar una casa completa. Bastante práctico.

Y terminando con la lista de grandes inventos mencionaremos a la Internet.Esta gran invención ha revolucionado al mundo haciendo que cantidades de información nunca antes pensadas estén a la disposición de las masas. Para más detalle sobre la Internet puedes visitar los artículos relacionados en la sección de computadoras.

Los grandes descubrimientos, mencionando a aquellos que han impactado profundamente a cada una de las áreas del conocimiento y quehacer humanos.

La tierra se mueve: Nicolás Copérnico propone que el centro del sistema solar es el sol, y no la tierra.

Los microorganismos: Las observaciones accidentales de Leeuwenhoek utilizando sus microscopios son la base de la microbiología y bacteriología actuales.

El átomo: John Dalton teoriza que la materia está formada por pequeñas partículas llamadas átomos.

El desplazamiento de los continentes: Alfred Wegener propone que los continentes antiguamente formaron una única masa de tierra, la cual se separó. Por eso los continentes en un mapa casi se pueden unir como en un rompecabezas.

La doble hélice del código genético: James Watson y Francis Crik describen en 1953 la molécula de DNA, compuesta de dos cadenas en forma de hélice. Muestran que el DNA se reproduce a si mismo manteniendo su estructura, salvo en caso de pequeñas mutaciones o errores.

La selección natural: En 1858, Charles Darwin publica su teoría, en base a la información que recabó en sus viajes. Aún esta audaz teoría es motivo de incesantes debates.

La penicilina: Descubrimiento que ha tenido un tremendo impacto en la medicina, de manos de Alexander Flemming, quien en realidad la descubrió por accidente, después de una observación casual en uno de sus cultivos de bacterias.

La teoría de la relatividad: La famosa fórmula de Einstein E=mc², prueba que la masa y la energía en realidad son equivalentes, o distintas manifestaciones del mismo fenómeno. Realmente espectacular.

“La realidad supera muchas veces a la ficción, y en su época cada uno de estos eventos cambió el curso de la humanidad para siempre”.

¿QUE ES ANIAC?


ENIAC (Electrical Numerical Integrator and Calculator 1946) fue la primera gran computadora de propósito general, a ella le debemos mucho mas de lo que podemos imaginar, no por su velocidad de calculo, sino por su capacidad de calculo. Hasta entonces todas las maquinas construidas por el ser humano tenían un propósito especifico, estaban designadas para realizar una labor especifica, podían realizar operaciones aritméticas ( Maquina de Leibniz 1671), cálculos astronómicos ( mecanismo de Antikythera 80 a.C), pero nunca se había fabricado una maquina con tal potencia, y aun no se ha construido una sola computadora que supere lo que fabricaron en 1946, John P. Eckert, John W. Mauchly y John von Neumann.

ENIAC fue el primer computador que se realizo con arquitectura de Von Newman, arquitectura que continua usandose hoy en día, ningún ordenador actual puede solucionar mas problemas que el ENIAC, y el numero de problemas que el ENIAC no puede solucionar es exactamente igual al de cualquier ordenador actual. Desde 1946 el ser humano ha conseguido solucionar estos problemas de una manera mas rápida, incrementando la velocidad de calculo de las computadoras, pero nunca ha conseguido incrementar su capacidad de calculo. En los tiempos que corren, se anuncian nuevas innovaciones, nanotecnologia que multiplicara por 1000 la velocidad de los procesadores actuales basados en silicio, esto hará que ciertos problemas especialmente complicados tengan una solución viable en tiempos relativamente cortos, pero me entristece decir aun no se conoce un ordenador capaz de solucionar algo que el ENIAC no pudiera.

EL CÒDIGO MORSE



El Código Morse es un medio de comunicación basado en la transmisión y recepción de mensajes empleando sonidos o rayos de luz y un alfabeto alfanumérico compuesto por puntos y rayas. Aunque este código surgió en el siglo 19, su empleo es perfectamente utilizable hoy en día cuando la existencia de condiciones atmosféricas adversas no permite el empleo de otros medios más desarrollados como, por ejemplo, la transmisión de la voz.


Aún cuando en una transmisión inalámbrica por radiofrecuencia realizada solamente con código Morse aparezcan interferencias producidas por tormentas eléctricas, los sonidos de los puntos y las rayas serán siempre reconocibles para el oído humano aunque se escuchen mezclados con el ruido que produce en esos casos la estática atmosférica.

En sus inicios para transmitir y recibir mensajes en Código Morse se empleaba un primitivo aparato inventado en 1844 por Samuel Morse, creador a su vez del propio código que lleva su nombre. Ese aparato constaba de una llave telegráfica de transmisión, que hacía las veces de interruptor de la corriente eléctrica y un electroimán como receptor de los puntos y las rayas..

Cada vez que la llave se oprimía hacia abajo con los dedos índice y medio se establecía un contacto eléctrico que permitía transmitir los puntos rayas del código Morse. Los impulsos intermitentes que se producían al apretar la llave telegráfica se enviaban a un tendido eléctrico compuesto por dos alambres de cobre. Esos cables, soportados por postes de madera, se extendían muchas veces a cientos de kilómetros de distancia a partir del punto de origen de la transmisión hasta llegar al punto de recepción.


El primitivo receptor de ese sistema de telegrafía por donde se oía el sonido de los puntos y las rayas estaba formado por un electroimán con una bobina de alambre de cobre enrollada alrededor de un núcleo de hierro. Cuando la bobina recibía los impulsos de corriente eléctrica correspondientes a los puntos y las rayas, el núcleo de hierro se magnetizaba y atraía hacia sí una pieza móvil, también de hierro, que al golpearlo emitía un sonido seco peculiar. Ese sonido era semejante a un “tac” corto cuado se recibía un punto, o un “taaac” más largo si se recibía una raya. Por ejemplo, la letra “a” del código Morse, formada por un punto y una raya ( . – ), se oía aproximadamente así: “tac – taaac”.

Con el invento de Marconi del transmisor elemental de ondas de radio, a partir del año 1901 la transmisión de mensajes por telegrafía se comenzó a realizar también de forma inalámbrica, adaptándolo al mismo sistema inventado por Morse. Esa nueva forma de transmisión tenía la ventaja que no era necesario realizar tendidos de cables a largas distancias, por lo que muy pronto los barcos se adoptaron esa nueva tecnología para comunicarse entre sí y con tierra. El “telegrafista” pasó entonces a llamarse “radiotelegrafista”.

La posterior aparición de la válvula de vacío inventada por Fleming en 1904 y el desarrollo de la válvula triodo inventada por Lee de Forest tres años después, abrieron la posibilidad de generar ondas de radiofrecuencia por medios electrónicos. Ese avance tecnológico mejoró en gran medida la transmisión de mensajes en código Morse por vía inalámbrica, permitiendo su envío a cualquier confín del mundo.

Con la introducción en el mercado de los transmisores electrónicos por ondas de radiofrecuencia, el electroimán utilizado hasta entonces para recibir las señales del código Morse se sustituyó por un altoparlante o, en su defecto, un par de cascos (audífonos) y el sonido pasó a escucharse como “beeps” cortos o largos, según fuera un punto o una raya lo que se estuviera recibiendo. La llave telegráfica de Morse se sustituyó también por otra llamada "vibroplex bug", inventada en 1903 por Horace G. Martin que posibilitaba enviar los mensajes con mayor rapidez. El pulsador de esta nueva llave funcionaba de forma horizontal y se manipulaba haciendo presión hacia los lados utilizando el dedo índice y el pulgar.

Además de las transmisiones de mensajes que se realizan empleando sistemas eléctricos o electrónicos, el código Morse permite utilizar también otros medios más sencillos. Uno de ellos consiste en utilizar una fuente de luz intermitente, mientras que el otro se basa en producir sonidos empleando cualquier dispositivo que permita reproducir los puntos y las rayas. Un ejemplo del uso práctico de esos diversos métodos lo tenemos principalmente en los barcos, que en determinados casos pueden llegar a emplear cualquiera de las posibilidades que se han mencionado.

Por ejemplo, para enviar mensajes empleando una fuente de luz los barcos se valen de una especie de reflector llamado “blinker”, dotado de una cortinilla que al abrirse deja pasar los rayos de luz y al cerrarse los interrumpe. Un rayo de luz corto se entiende como un punto, mientras uno más largo es una raya. A la derecha se puede ver un blinker transmitiendo un S.O.S. pidiendo auxilio. La formación de esas siglas en código Morse se realiza con tres puntos que corresponden a la letra (S), tres rayas a la letra (O) y tres puntos más (igualmente para la otra S) ( . . . – – – . . . )

En casos de emergencia los barcos suelen utilizar también el “tifón” (silbato accionado por un chorro de vapor o de aire), que llevan comúnmente fijado a su chimenea; gracias al fuerte y grave sonido que emiten los tifones, se pueden utilizar para propagar los sonidos de mensajes de auxilio en código Morse. Un sonido corto del tifón significa un punto, mientras que uno más largo significa una raya.

Para transmitir las letras del código, cada punto y cada raya se separa haciendo breves pausas. La velocidad de transmisión de las palabras que forman el texto de los mensajes depende en gran medida de la habilidad y experiencia práctica que tenga el telegrafista o el radiotelegrafista, tanto a la hora de transmitir como de recibir los mensajes.

Independientemente de la velocidad y destreza que se pueda llegar a adquirir empleando el código Morse, a la hora de transmitir un mensaje el tiempo de demora de una raya debe superar en tres veces el de un punto.

Cada letra o número del código se compone de uno o más puntos o rayas, o las combinaciones de ambos signos, separados entre sí por una pausa de tiempo equivalente al de la transmisión de un punto. Además, entre la transmisión de una letra y la siguiente, el tiempo de separación debe ser mayor que el necesario para transmitir una raya o tres puntos. El tiempo de separación entre una palabra y la otra debe ser equivalente al que se requiere para transmitir seis puntos.

viernes, 7 de septiembre de 2007

EL DESCUBRIMIENTO DE AMÉRICA


Una de las fechas más significativas durante el reinado de los Reyes Católicos fue la del 12 de octubre de 1492: el día en que Cristóbal Colón descubrió América.
El hecho de que Cristóbal Colón (que no era español de origen) acudiera a una corte extranjera para ofrecer sus servicios prueba que el descubrimiento de América no fue en modo alguno accidental.
Portugal y Castilla (España) estaban muy avanzados en la exploración de rutas mercantiles marítimas y Sevilla, una rica y populosa ciudad española era por entonces un importante centro comercial. Sabemos que las rutas africanas permanecían cerradas para Castilla en favor de Portugal. En 1479, por el tratado de Alcaçova, Alfonso V de Portugal renunció a sus aspiraciones sobre Castilla y reconoció los derechos de Castilla en las islas Canarias, mientras que Castilla reconocía los derechos de Portugal en las Azores, Cabo Verde y Madeira.
Las Islas Canarias eran una puerta excelente hacia rutas alternativas. Esto es lo que Cristóbal Colón ofreció, y lo hizo a un estado que precisaba de ellas, y que estaba también acostumbrado y preparado para este tipo de empresa. La España unificada poseía en 1492 una poderosa maquinaria de guerra, una sólida economía, una proyección exterior, experiencia naval que incluía la exploración de rutas mercantiles, y un notable potencial cientifico-tecnológico: matemáticos, geógrafos, astrónomos y constructores navales, que habían sido formados en una mezcla de tres culturas (judíos, musulmanes y cristianos). Su único rival era la vecina Portugal que, como ya sabemos, había puesto punto final a la expansión española en Africa.
La oferta de Colón fue rápidamente aceptada a pesar de sus conocidos errores. Pero durante su viaje a Asia sus carabelas, inesperadamente, tropezaron con el continente americano.
Los españoles estaban especialmente bien preparados por su historia para conquistar, ocupar, poblar y explotar nuevas tierras y asimilar nueva gente. América, entonces, se convirtió en la nueva tierra prometida para aquella gente acostumbrada a la aventura y con las armas militares, diplomáticas y administrativas a su disposición para afrontar el reto. A mediados del siglo XVI, se habían establecido en dos de los virreinatos más importantes, Méjico en el Atlántico y Perú en el Pacífico.