viernes, 16 de noviembre de 2007

AVANCES TECNOLOGICOS EN LA MEDICINA



AVANCES EN DESCUBRIR LAS CAUSAS GENÉTICAS DE ENFERMEDADES COMUNES

Según un artículo publicado en la semana de Octubre en Guardian Unlimited, varios grupos de científicos han avanzado considerablemente en la investigación sobre las causas genéticas de siete enfermedades comunes, entre las que se incluyen la diabetes, la artritis y la hipertensión, completando el mayor análisis del genoma humano. Utilizando nuevas técnicas para examinar el ADN de miles de pacientes, los científicos observaron también elementos genéticos comunes en casos de enfermedades coronarias. Sus descubrimientos allanan el camino hacia mejores tratamientos y posibles curas para los millones de personas que desarrollan estas enfermedades cada día.

Según Peter Donnelly de la Universidad de Oxford, que dirigió el programa de investigación de 9 millones de libras (unos 13,3 millones de euros) financiado por la Wellcome Trust: "Identificando los genes que subyacen tras estas enfermedades, nuestro estudio debería permitir a los científicos entender mejor cómo se produce la enfermedad, que personas tienen más riesgo de desarrollara y, llegado el momento, producir tratamientos más personalizados y eficaces".

Desde la compleción del proyecto genoma humano en el 2000, que elaboró un mapa con cada gen del cuerpo humano, los científicos han identificado rápidamente raras variaciones genéticas que causan la mayoría de la enfermedades hereditarias, como la fibrosis quística.

"Ha sido mucho más complicado identificar las variaciones comunes de enfermedades como la diabetes o la enfermedad de Crohn, en las que participan múltiples genes, pero los efectos de cada uno de ellos son menores", señaló Mark Walport, director de Wellcome Trust.

Estudiando el ADN de 17.000 personas, los 50 grupos de investigación identificaron 24 nuevos enlaces genéticos para enfermedades como el trastorno bipolar, la enfermedad de Crohn, enfermedades coronarias, diabetes de los tipos 1 y 2, artritis reumatoide e hipertensión, triplicando el número de genes asociado previamente a ellas.

En el estudio, los científicos analizaron muestras de ADN de 2.000 pacientes por enfermedad, comparándolas con 3.000 muestras de control de voluntarios sanos, y buscaron alrededor de 500.000 diferencias genéticas en cada muestra. Los resultados completos del Wellcome trust Case Control Project han sido publicados en las revistas Nature y Nature Genetics.


SANGRE ARTIFICIAL

Desarrollan sangre artificial que podría salvar muchas vidas

Continuamente se piden donantes de sangre, pero estas donaciones, aunque valiosas, presentan numerosos riesgos para el receptor, incluidas enfermedades como la hepatitis C o el VIH. Ahora, según un artículo publicado el 10 de mayo en la versión en línea de The Guardian, Lance Twyman, Doctor por la Universidad de Kent, trabaja en su laboratorio de la Universidad de Sheffield en el desarrollo de una nueva sangre artificial que sería totalmente estéril e incluso se podría fabricar en forma deshidratada. Esto facilitaría su transporte y permitiría almacenarla de cara al futuro, bastando con añadir agua posteriormente para obtener sangre del grupo 0 negativo (el donante universal).

Twyman lleva tiempo intentando crear moléculas que imiten la naturaleza y ha encontrado las porfirinas, moléculas huecas de forma cuadrada que se combinan con metales como el hierro. "El hierro se encuentra en le centro de la molécula, como en el caso de la hemoglobina", señala Twyman. Sin embargo, aunque la hemoglobina de los glóbulos rojos contiene porfirina basada en hierro para unirse al oxigeno de forma reversible (es decir, para poder captar el oxígeno en los pulmones, transportarlo y liberarlo en los tejidos), la profirina no funciona sola, ya que acaba por reaccionar con el oxígeno en lugar de enlazarse simplemente a él. Por ello, según Twyman, es necesario combinar la química de la porfirina con la química de polímeros para obtener una molécula que imite la hemoglobina.

Tras cinco años de desarrollo, combinando la porfirina con monómeros que se autoensamblan en estructura de árbol, Twyman ha logrado una molécula extremadamente similar a la hemoglobina en forma y tamaño y que, además, ofrece el entorno adecuado alrededor del núcleo de la porfirina para que se enlace el hierro y libere el oxígeno. El aspecto de esta sangre artificial es el de una pasta de color rojo oscuro, con la consistencia de la miel y soluble en agua.

El hecho de poner sangre plástica en el cuerpo, aunque sea para salvar una vida, suena arriesgado, pero Twyman señala que las porfirinas son naturales. Según él, el componente polimérico sería ignorado por sistema inmunológico del cuerpo humano y existen usos médicos en la actualidad que reafirman su postura; sin embargo, de momento, su experimento se limita a tubo de ensayo.

Según Twyman, una de las principales aplicaciones sería el campo de batalla o un lugar en el que se haya producido un desastre importante y donde aportar sangre con rapidez pueda salvar muchas vidas ya que, a diferencia de la sangre donada, ésta es fácil de almacenar y se mantiene a temperatura ambiente.

Actualmente, se está desarrollando una segunda generación de moléculas para realizar una investigación más rigurosa y, si todo va bien, el uso en humanos podría ser lo siguiente.

Otros investigadores se muestran escépticos al respecto y señalan que todavía queda mucho por investigar antes de poder afirmar nada.

FÁBRICAS DE ADN

Según un artículo publicado el 9 de abril de 2007 en Technology Review, la fabricación a medida barata de ADN podría revolucionar la biología molecular.
Es mucho más sencillo instalar un kit de suelo de madera prefabricado que tener que cortar y lijar la madera. Con una estrategia de construcción similar, Codon Devices, una empresa de biotecnología de Cambridge, Massachussets, pretende mejorar la eficiencia de la ingeniería genética. Para ello, fabrica hebras de ADN a medida, evitando a los científicos el trabajo de tener que unir complicadas piezas de ADN a la antigua.

A medida que es más y más barato crear trozos grandes de material genético desde el principio, los científicos podrán obtener creaciones biológicas cada vez más complejas.

Codon se fundó en el 2005, paralelamente al surgimiento del campo de la biología sintética. La capacidad para fabricar construcciones genéticas complejas es algo fundamental en este campo, al permitir a los científicos utilizar los trozos de ADN para diseñar nuevas partes biológicas que se pueden insertar posteriormente en bacterias u otras células.

El verano pasado, la empresa creó para Microbia, otra empresa de biotecnología de cambridge, lo que se considera el trozo más grande de ADN fabricado a medida: una cadena con 35.000 pares de bases que incorpora varios genes necesarios para sintetizar un compuesto farmacéutico.

Los biólogos de este campo están entusiasmados con las perspectivas, pero esperan un descenso en los precios que les permita costearse los experimentos que desean realizar. Por su parte, Codon confía en que ese día llegará pronto y planea utilizar su capacidad de síntesis mejorada para encontrar mejores enzimas para los procesos industriales.

Puesto que la naturaleza no siempre proporciona lo mejor, a menudo los científicos diseñan enzimas más eficaces modificando el código de ADN utilizado en su elaboración. Sin embargo, es difícil predecir qué cambios producirán las mejores enzimas. Codon está utilizando su tecnología de síntesis para llevar a cabo este proceso en masa; de este modo, realiza millones de copias de la misma construcción genética con ligeras variaciones y posteriormente las prueba para ver cuál de ellas realiza el mejor trabajo. El mismo proceso se podría utilizar para desarrollar fármacos basados en proteínas más eficaces.

Codon planea abrir este verano una fábrica de producción que funcionará como cualquier otra fábrica de producción en masa, pero su producto será el ADN. La idea es construir unas instalaciones mucho más grandes de lo necesario actualmente con el fin de prepararse para el futuro boom de la síntesis del ADN.

LOS RETOS DE LA TECNOLOGIA

Estamos en la sociedad del conocimiento y algunos grandes avances, nuevos inventos y descubrimientos progresarán exponencialmente. Las universidades más prestigiosas como el MIT (Technology Review) ya identifican "lo último" y más nuevo en tecnología e investigación.

La biología (biotecnología), nanotecnología e infotecnología tienen y tendrán un protagonismo importante en los últimos progresos y adelantos alcanzados. En pocos años, la innovación tecnológica puede hacer posible hasta una segunda revolución industrial con la construcción de nanomáquinas. Las presentamos las novedades científicas más importantes a nuestros usuarios, desde la mecatrónica a las redes de sensores:


LAS DIEZ TECNOLOGÍAS AVANZADAS QUE CAMBIARÁN EL MUNDO (SEGÚN EL MIT)

Redes de sensores sin cables (Wireless Sensor Networks)
Ingeniería inyectable de tejidos (Injectable Tissue Engineering)
Nano-células solares (Nano Solar Cells)
Mecatrónica (Mechatronics)
Sistemas informáticos Grid (Grid Computing)
Imágenes moleculares (Molecular Imaging)
Litografía Nano-impresión (Nanoimprint Lithography)
Software fiable (Software Assurance)
Glucomicas (Glycomics)
Criptografía Quantum (Quantum Cryptography)


NOTICIAS TECNOLOGICAS


CLONACIÓN DE PRIMATES


Expertos estadounidenses han creado por primera vez embriones clonados de un mono adulto; un avance técnico que podría conducir a un proceso eficaz de clonación humana.

El equipo de investigadores ha creado docenas de embriones clonados de un macaco de diez años de edad. Además, han sido capaces de extraer células madre de los embriones clonados y de fomentar su desarrollo en el laboratorio hasta convertirlas en células nerviosas y un corazón maduros, lo que plantea la posibilidad de desarrollar tejidos para transplantes que no serán rechazados por el cuerpo.

Otros científicos han dado ya la bienvenida a la noticia. Robin Lovell-Badge, científico del National Institute for Medical Research en Mill Hill, Reino Unido, señaló que "aunque el trabajo todavía no ha sido publicado, parece importante". Según él, "existía la preocupación de que los primates fuesen difíciles de clonar".
Esto habría sido un gran contratiempo para los investigadores que trabajan en el desarrollo de nuevos tratamientos basados en células madre embriónicas.

En la clonación para la obtención de células madre, el ADN de un animal adulto se inserta en un óvulo no fertilizado, al que se le ha quitado su propio material genético y, a continuación, se fomenta el crecimiento del óvulo para obtener un embrión temprano del que poder extraer células madre. Estas células madre y los tejidos desarrollados a partir de ellas coincidirán genéticamente con la fuente de ADN; en este caso, el macaco macho.

Dado que las células madre son las precursoras de todos los tejidos del cuerpo, los científicos esperan poder, algún día, utilizarlas para crear tejidos para transplantes que coincidan genéticamente con los de pacientes con enfermedades degenerativas, evitando así el tan temido rechazo.

Hasta ahora, el único otro ejemplo publicado de clonación embriónica humana se llevó a cabo en la Universidad de Newcastle, en el Reino Unido, pero los clones apenas sobrevivieron unos cuantos días y no produjeron ninguna célula madre.
La técnica utilizada para generar los embriones de macaco clonados, llamada SCNT (Somatic Cell Nuclear Transfer), sigue el mismo procedimiento básico utilizado para crear la oveja Dolly y otros mamíferos clonados, pero el autor principal del estudio, el Dr. Shoukhrat Mitalipov, ha descubierto un nuevo método para manipular los óvulos durante el proceso de clonación.

El Dr. Mitalipov y sus colegas utilizaron una técnica de iluminación llamada Oosight para visualizar las células microscópicas en tiempo real, lo que permitió retirar eficazmente el núcleo de la célula sin recurrir a los enfoques tradicionales de luz ultravioleta. La nueva técnica dio como resultado una tasa de supervivencia de los clones en desarrollo mucho más elevada.

Pero el avance no ha sido bienvenido por todos, reabriéndose el debate sobre cuestiones éticas. Josephine Quintavalle, directora de CORE (Comment on Reproductive Ethics) señaló que los clones no son la única fuente posible de células madre embriónicas y que hay otras opciones, como la sangre del cordón umbilical.


http://www.euroresidentes.com/



AVANCES EN NANOTECNOLOGIA

LA RADIO MÁS PEQUEÑA DEL MUNDO

Según un artículo publicado esta semana en Technology Review, unos investigadores han fabricado la radio más pequeña del mundo a partir de un nanotubo de carbono. El nanotubo, colocado entre dos electrodos, combina los papeles de todos los principales componentes eléctricos de una radio, incluidos el sintonizador y el amplificador, y es capaz de sintonizar una señal de radio y reproducir el audio a través de un altavoz externo.

Aunque la aplicación práctica de la radio es dudosa, se podría utilizar en sensores medioambientales y biológicos. Los investigadores están desarrollando ahora sensores microelectromecánicos (MEMS) para medir los niveles de azúcar en sangre o marcadores del cáncer en el cuerpo. En lugar de utilizar una etiqueta de identificación de radiofrecuencias del tamaño de un sello, los investigadores podrían encapsular una radio de nanotubo junto con el sensor basado en MEMS e inyectarlo directamente en el torrente sanguíneo, señala Alex Zettl, físico experimental de la Universidad de California, Berkeley, que dirige el desarrollo de la radio de nanotubo. Una vez en el interior del cuerpo, la radio podría permitir la comunicación inalámbrica entre los diminutos sensores biológicos y un monitor externo. No obstante, para ello la radio de nanotubo debería funcionar como transmisor y, de momento, solo está configurada como receptor, aunque Zettl afirma que "la misma física funcionaría como transmisor".

La radio de nanotubo funciona de un modo diferente a las radios convencionales. Éstas últimas tienen cuatro partes funcionales: la antena, el sintonizador, el amplificador y el de modulador. Las ondas de radio que llegan a una antena originan corrientes eléctricas a diferentes frecuencias. Cuando alguien selecciona una emisora de radio, el sintonizador filtra todas las frecuencias salvo una. Los transistores amplifican la señal, mientras un de modulador, por lo general un rectificador o un diodo, separa los datos (la música y otro audio) que se han codificado en una onda electromagnética portadora.

El equipo de Zettl utilizó un nanotubo de carbono para todas estas funciones. Debido a sus especiales propiedades eléctricas, los nanotubos de carbono se han utilizado previamente en la fabricación de componentes electrónicos como diodos, transistores y rectificadores. "Ha sido una revelación que se pueda construir todo esto en el interior del mismo [nanotubo]", señaló Zettl.
Etiquetas: nanotubos



MIRAR DENTRO DE CÉLULAS CON LASER

Según un artículo publicado esta semana en Technology Review, diminutas antenas que enfocan la luz de láseres infrarrojos hasta a 100nm proporcionan a los científicos un modo de observar el funcionamiento de las células.

Ingenieros de la Universidad de Harvard han construido un láser que podría permitir a los investigadores mirar en el interior de las células con una resolución ultraalta y visualizar los eventos celulares a medida que tienen lugar. Añadiendo una nanoantena a los láseres infrarrojos, los investigadores han logrado enfocar la luz de forma mucho más precisa. De hecho, los láseres podrían dar lugar a imágenes con una resolución al menos 100 veces mayor.

Hasta ahora, la resolución de los microscopios utilizados para observar la composición química de los tejidos se ha visto limitada por una propiedad física de la luz conocida como límite de difracción. Utilizando las lentes tradicionales, la luz solo se puede dirigir a modo de rayo con un ancho igual a su longitud de onda; si un microscopio utiliza una luz del infrarrojo medio con una longitud de onda de 24 micrómetros, solo se puede enfocar en un punto de 12 micrómetros de ancho. Teniendo en cuanta el tamaño de las células animales (10 micrómetros), bacterias (1 micrómetro) y virus (decenas de nanómetros), es demasiado ancho.

El año pasado, los investigadores de Harvard fueron los primeros en desarrollar un sistema práctico para superar el límite de difracción. Federico Capasso y Kenneth Crozier aplicaron la técnica a los láseres utilizados para leer y grabar los discos en los ordenadores personales. Su trabajo puede conducir a discos de almacenamiento de alta densidad, similares a los DVD, capaces de almacenar cientos de películas (véase "TR10: A New Focus for Light"). Ahora, los investigadores de Harvard están trabajando en un instrumento distinto, llamado láser de cascada cuántica, y en un nuevo campo, la formación de imágenes biológicas.



viernes, 28 de septiembre de 2007

¿QUE ES C14?



El carbono-14


El 14C (que posee 6 protones y 8 neutrones) tiene la particularidad de que es un isótopo inestable, que poco a poco va transmutándose en nitrógeno, 14N (que posee 7 protones y 7 neutrones), y desaparece según la reacción :

C = N + ß + neutrino

En compensación de esta pérdida, nuevos átomos de 14C se forman continuamente en la atmósfera como producto del choque de neutrones cósmicos sobre otros átomos atmosféricos de nitrógeno :

neutrón + N = C + H

Estos neutrones son parte de la radiación cósmica galáctica que tras atravesar el Sistema Solar llega a la atmósfera terrestre.

Los choques de los rayos cósmicos con los átomos de 14N y, por lo tanto, la producción de 14C, es máxima a unos 15 km de altura.

Rápidamente los átomos de 14C así formados se oxidan a CO2 y se difunden y se mezclan por toda la atmósfera con el resto del CO2.

Los procesos de desintegración y de formación de 14C se compensan de tal forma que la concentración de 14C en la atmósfera es "más o menos" constante.



Datación por el carbono-14
El cálculo de la pérdida de 14C en los organismos muertos se utiliza para datar a los fósiles.

En efecto, las plantas vivas asimilan el carbono del CO2 atmosférico durante la fotosíntesis y lo expulsan durante la respiración . De esta forma, los tejidos de las plantas vivas —y los de los animales vivos (humanos incluídos) que se alimentan de esas plantas— continuamente están intercambiando 14C con la atmósfera. Esto hace que la ratio 14C/12C del carbono contenido en los tejidos orgánicos de los seres vivos es semejante a la del CO2 de la atmósfera. Ahora bien, en cuanto los organismos vegetales o animales mueren, cesa el intercambio con la atmósfera y cesa el reemplazo del carbono de sus tejidos. Desde ese momento el porcentaje de 14C de la materia orgánica muerta comienza a disminuir, ya que se transmuta en 14N y no es reemplazado.

La masa de 14C de cualquier fósil disminuye a un ritmo exponencial, que es conocido. Se sabe que a los 5.730 años de la muerte de un ser vivo la cantidad de 14C en sus restos fósiles se ha reducido a la mitad y que a los 57.300 años es de tan sólo el 0,01 % del que tenía cuando estaba vivo.

Sabiendo la diferencia entre la proporción de 14C que debería contener un fósil si aún estuviese vivo (semejante a la de la atmósfera en el momento en el que murió) y la que realmente contiene, se puede conocer la fecha de su muerte.

La cantidad y el porcentaje de 14C se calcula midiendo las emisiones de partículas ß de la muestra. El método sólo es viable para fósiles no muy viejos, menores de unos 60.000 años, ya que para edades superiores las emisiones de partículas ß son ya demasiado poco intensas y difíciles de medir, por lo que los errores pueden ser muy grandes.

En la práctica, la datación de los fósiles se complica porque la concentración atmosférica de 14C ha variado sustancialmente a lo largo del tiempo. Esto hace que se necesite saber no sólo la cantidad de 14C que queda en la muestra fósil, sino también la concentración atmosférica que existía en el momento de su muerte (ver figura).

Se conocen, más o menos con exactitud, las variaciones de 14C habidas en los últimos 11.800 años gracias a la dendrocronología, es decir, al análisis de la madera de los anillos (cuyas edades conocemos por conteo) de series solapadas de troncos de árboles vivos y fósiles de Europa. Más allá los datos son más pobres e imprecisos y no pueden basarse en el estudio de árboles fósiles, aunque recientemente ha surgido la esperanza de poder hacerlo con unos enormes árboles fósiles neozelandeses denominados kauri, que pueden vivir hasta mil años, y que se han encontrado enterrados en antiguas marismas.

El período conocido se ha extendido más recientemente hasta hace unos 50.000 años por medio del análisis del 14C contenido en los sedimentos laminares del fondo de ciertas cuencas lacustres y oceánicas, como por ejemplo la cuenca de Cariaco en Venezuela (ver figura), y hasta los 45.000 años a partir del análisis de una estalagmita de una cueva sumergida en las Bahamas.

Durante los últimos diez mil años ha habido un declive en la concentración de carbono 14 en la atmósfera debido a una variación del campo geomagnético terrestre que ha reforzado el escudo protector de los rayos cósmicos. Esta disminución, con fluctuaciones, ha sido en los últimos 10.000 años de un 15 % aproximadamente con respecto al nivel de 1950 (ver figura).

Pero aparte de este declive y en tiempos más cortos, en escalas de siglos o menos, las causas de las variaciones habidas en la concentración de 14C atmosférico son debidas a otros dos motivos: 1) los cambios en la actividad solar y 2) las variaciones en la ventilación oceánica.


El carbono-14 y actividad solar

El viento solar, ligado a la intensidad de emisión de energía solar, intercepta parte de la radiación cósmica galáctica —responsable de la formación de 14C—antes de que ésta llegue a la Tierra.

Por eso, cuando en un fósil, o en la madera de un anillo de árbol, del que ya se conoce su edad por otros métodos, se encuentra una anomalía con respecto al porcentaje de 14C que le correspondería contener, ello indica que en la época en que vivió ese fósil, o creció ese anillo de árbol, pudo haber una anomalía en la producción de 14C atmosférico y, por lo tanto, en la intensidad de la radiación cósmica galáctica que alcanzaba entonces la Tierra. La llegada de mayor o menor radiación cósmica galáctica depende inversamente de la intensidad del viento solar que la intercepta. Por eso, finalmente, se puede deducir que las anomalías detectadas en el 14C dependen de las anomalías de la emisividad solar.

Las épocas en las que hubo una mayor producción de 14C se corresponden con épocas de menor actividad solar (y más radiación cósmica incidente). Si además se produce un incremento del Berilio-10, un isótopo del berilio también cosmogénico, la hipótesis de una menor actividad solar se refuerza. Tal es el caso de los mínimos de Wolf, Sporer y Maunder ocurridos en el transcurso del último milenio (ver figura).

Y viceversa, las épocas de menor producción de 14C deben relacionarse con épocas de alta actividad solar. Según algunos paleoclimatólogos, una sequía larga e intensa ocurrida entre el 750 y el 1025 de nuestra era, que coincide con una baja producción de 14C (y alta actividad solar), señalizada en los sedimentos lacustres de Yucatán, estuvo en el origen del declive de la civilización Maya (ver figura). Aquellos siglos parece que fueron también calurosos en Europa (el Período Cálido Medieval), debido quizás a esta mayor actividad solar.


El carbono-14 y los cambios en la ventilación oceánica

Pueden producirse variaciones importantes en la concentración atmosférica de 14C cuando cambian drásticamente las condiciones de ventilación de los mares.

Ocurre que hay un intercambio continuo de CO2 entre la atmósfera y los océanos. Ahora bien, una vez que el CO2 es absorbido por el agua y penetra en el océano puede permanecer siglos atrapado en él y, por lo tanto, su carbono se va empobreciendo en 14C. De esta forma el CO2 devuelto a la atmósfera en los procesos de afloramiento (upwelling) de aguas profundas contiene un carbono empobrecido en 14C, lo cual hace que se reduzca también la concentración de 14C del CO2 atmosférico.

Cuando el ciclo de intercambio de carbono entre la atmósfera y el océano se modifica también lo hace la concentración de 14C, tanto en la atmósfera como en la superficie del océano. Por ejemplo, a comienzos del Younger Dryas, hubo un fuerte aumento en la concentración de 14C atmosférico, ya que la atmósfera dejó de recibir del mar el CO2 empobrecido en 14C, que había estado recibiendo anteriormente, durante el cálido Bølling-Allerød. Ocurrió que con el advenimiento de la nueva situación océanica, disminuyó la ventilación del Atlántico, ya que la circulación termohalina —como en los tiempos fríos de la glaciación—, se había debilitado de nuevo. También en la superficie del mar este aumento está documentado, gracias, por ejemplo, a las mediciones de 14C realizadas en los foraminíferos planctónicos fósiles conservados en las laminas sedimentarias de la cuenca marina de Cariaco.

También las diferencias existentes entre la edad del carbono disuelto en las aguas tropicales y la edad del carbono disuelto en las aguas de latitudes altas pueden dar ciertas claves sobre las variaciones de la circulación oceánica (ver figura). En efecto, actualmente, la edad aparente (diferencia con respecto a la atmósfera) del reservorio de las aguas superficiales de los Trópicos y del Atlántico Norte, analizando su ratio 14C/12C, es de unos 400 años, mientras que en las altas latitudes del Pacífico Norte y Sur es de unos 1.200 años. Esta diferencia está causada por el tipo e intensidad de circulación oceánica termohalina existente hoy día. Pues bien, por medio del estudio del 14C contenido en la caliza de foraminíferos fósiles recogidos en diferentes regiones, podemos saber algo sobre los cambios ocurridos en las edades de los diferentes reservorios oceánicos, a lo largo, por ejemplo, de la última desglaciación, y extraer así conclusiones sobre las variaciones en la circulación termohalina de aquella época.

INVENTOS Y DESCUBRIMEINTOS

A continuación intentare elaborar con los inventos y descubrimientos más importantes o influyentes en la historia de la humanidad. A juicio uno de los inventos mas importantes de la historia: la imprenta. Fue inventada por Johannes Gutenberg, y las consecuencias fueron toda una revolución en la disponibilidad de la información para las masas; esto a su vez permitió el desarrollo en todas las áreas fundamentales y claves en el posterior desarrollo del mundo: las artes, la ciencia, la medicina, etc. En resumen, un mega gran invento.

En segundo lugar, la bombilla eléctrica o ampolleta, inventada por Thomas Alva Edison. En este mismo instante, si es de noche o esta oscuro en nuestra habitación, estamos disfrutando del trabajo de este gran hombre.

Luego podemos mencionar al teléfono, obra de Alexander Graham Bell. Su invento lo empleamos incontables veces durante nuestra vida diaria, ya sea para temas relacionados con el trabajo o diversión, y nos permite mantenernos comunicados con nuestros seres queridos.. Incluso demasiado (con esto de los teléfonos celulares, hay quienes incluso llevan a cuestas más de un aparato a la vez).

Otro de los grandes inventos de la historia es la radio, o la transmisión de señales a través de ondas electromagnéticas. Puedes explorar en la sección de ciencia de este sitio la discusión sobre su real inventor. Muy interesante.

Otro espectacular invento es el radar, que permite la detección de objetos mediante la emisión de ondas de radio que "rebotan" en la superfice de estos objetos. Se puede determinar la distancia a la cual se encuentra un objeto midiendo el tiempo que toma la onda en ir y volver a la fuente emisora de ondas. Increíble. Quien inventó el radar fue Robert H. Rhine, nacido el 30 de Agosto de 1922 en Boston, Massachusetts.

Sigamos con el automóvil. No podemos dejar de mencionar al respecto a Henry Ford, quién masifico la producción del mismo (aunque no fué el quien lo inventó), y permitió que este invento se convirtiera en el sistema de transporte fundamental para el funcionamiento del mundo y la economía actual. En 1909 desarrolló el primer modelo, el famoso "Ford T", y en 1927 su compañía lanzó el modelo "A", ofreciéndolo incluso en cuatro colores.

No podemos dejar de mencionar entre los grandes inventos al avión. En 1903, después de grandes esfuerzos por fin los hermanos Wright se mantuvieron en el aire por 12 segundos. Pensar que tan solo un siglo después tenemos aviones comerciales capaces de transportar cómodamente a un pequeño pueblo (el Airbus 380), utilizando la última tecnología en computadoras.

Otro de los grandes inventos que ha tenido una infinidad de usos hasta nuestros días es el Láser, o en inglés "Light Amplification by Stimulated Emission of Radiation". El Láser fue inventado por Gordon Gould, quien lo introdujo al mundo en 1959.

Uno de los inventos que es un verdadero icono de nuestra época es el Microchip, inventado en 1959 por Jack Kilby. El Microchip o simplemente "chip" es un circuito electrónico miniaturizado, lo que hace posible, entre muchísimas otras cosas, que el computador que estas ocupando en este preciso instante pueda caber sobre un escritorio, en vez de ocupar una casa completa. Bastante práctico.

Y terminando con la lista de grandes inventos mencionaremos a la Internet.Esta gran invención ha revolucionado al mundo haciendo que cantidades de información nunca antes pensadas estén a la disposición de las masas. Para más detalle sobre la Internet puedes visitar los artículos relacionados en la sección de computadoras.

Los grandes descubrimientos, mencionando a aquellos que han impactado profundamente a cada una de las áreas del conocimiento y quehacer humanos.

La tierra se mueve: Nicolás Copérnico propone que el centro del sistema solar es el sol, y no la tierra.

Los microorganismos: Las observaciones accidentales de Leeuwenhoek utilizando sus microscopios son la base de la microbiología y bacteriología actuales.

El átomo: John Dalton teoriza que la materia está formada por pequeñas partículas llamadas átomos.

El desplazamiento de los continentes: Alfred Wegener propone que los continentes antiguamente formaron una única masa de tierra, la cual se separó. Por eso los continentes en un mapa casi se pueden unir como en un rompecabezas.

La doble hélice del código genético: James Watson y Francis Crik describen en 1953 la molécula de DNA, compuesta de dos cadenas en forma de hélice. Muestran que el DNA se reproduce a si mismo manteniendo su estructura, salvo en caso de pequeñas mutaciones o errores.

La selección natural: En 1858, Charles Darwin publica su teoría, en base a la información que recabó en sus viajes. Aún esta audaz teoría es motivo de incesantes debates.

La penicilina: Descubrimiento que ha tenido un tremendo impacto en la medicina, de manos de Alexander Flemming, quien en realidad la descubrió por accidente, después de una observación casual en uno de sus cultivos de bacterias.

La teoría de la relatividad: La famosa fórmula de Einstein E=mc², prueba que la masa y la energía en realidad son equivalentes, o distintas manifestaciones del mismo fenómeno. Realmente espectacular.

“La realidad supera muchas veces a la ficción, y en su época cada uno de estos eventos cambió el curso de la humanidad para siempre”.

¿QUE ES ANIAC?


ENIAC (Electrical Numerical Integrator and Calculator 1946) fue la primera gran computadora de propósito general, a ella le debemos mucho mas de lo que podemos imaginar, no por su velocidad de calculo, sino por su capacidad de calculo. Hasta entonces todas las maquinas construidas por el ser humano tenían un propósito especifico, estaban designadas para realizar una labor especifica, podían realizar operaciones aritméticas ( Maquina de Leibniz 1671), cálculos astronómicos ( mecanismo de Antikythera 80 a.C), pero nunca se había fabricado una maquina con tal potencia, y aun no se ha construido una sola computadora que supere lo que fabricaron en 1946, John P. Eckert, John W. Mauchly y John von Neumann.

ENIAC fue el primer computador que se realizo con arquitectura de Von Newman, arquitectura que continua usandose hoy en día, ningún ordenador actual puede solucionar mas problemas que el ENIAC, y el numero de problemas que el ENIAC no puede solucionar es exactamente igual al de cualquier ordenador actual. Desde 1946 el ser humano ha conseguido solucionar estos problemas de una manera mas rápida, incrementando la velocidad de calculo de las computadoras, pero nunca ha conseguido incrementar su capacidad de calculo. En los tiempos que corren, se anuncian nuevas innovaciones, nanotecnologia que multiplicara por 1000 la velocidad de los procesadores actuales basados en silicio, esto hará que ciertos problemas especialmente complicados tengan una solución viable en tiempos relativamente cortos, pero me entristece decir aun no se conoce un ordenador capaz de solucionar algo que el ENIAC no pudiera.

EL CÒDIGO MORSE



El Código Morse es un medio de comunicación basado en la transmisión y recepción de mensajes empleando sonidos o rayos de luz y un alfabeto alfanumérico compuesto por puntos y rayas. Aunque este código surgió en el siglo 19, su empleo es perfectamente utilizable hoy en día cuando la existencia de condiciones atmosféricas adversas no permite el empleo de otros medios más desarrollados como, por ejemplo, la transmisión de la voz.


Aún cuando en una transmisión inalámbrica por radiofrecuencia realizada solamente con código Morse aparezcan interferencias producidas por tormentas eléctricas, los sonidos de los puntos y las rayas serán siempre reconocibles para el oído humano aunque se escuchen mezclados con el ruido que produce en esos casos la estática atmosférica.

En sus inicios para transmitir y recibir mensajes en Código Morse se empleaba un primitivo aparato inventado en 1844 por Samuel Morse, creador a su vez del propio código que lleva su nombre. Ese aparato constaba de una llave telegráfica de transmisión, que hacía las veces de interruptor de la corriente eléctrica y un electroimán como receptor de los puntos y las rayas..

Cada vez que la llave se oprimía hacia abajo con los dedos índice y medio se establecía un contacto eléctrico que permitía transmitir los puntos rayas del código Morse. Los impulsos intermitentes que se producían al apretar la llave telegráfica se enviaban a un tendido eléctrico compuesto por dos alambres de cobre. Esos cables, soportados por postes de madera, se extendían muchas veces a cientos de kilómetros de distancia a partir del punto de origen de la transmisión hasta llegar al punto de recepción.


El primitivo receptor de ese sistema de telegrafía por donde se oía el sonido de los puntos y las rayas estaba formado por un electroimán con una bobina de alambre de cobre enrollada alrededor de un núcleo de hierro. Cuando la bobina recibía los impulsos de corriente eléctrica correspondientes a los puntos y las rayas, el núcleo de hierro se magnetizaba y atraía hacia sí una pieza móvil, también de hierro, que al golpearlo emitía un sonido seco peculiar. Ese sonido era semejante a un “tac” corto cuado se recibía un punto, o un “taaac” más largo si se recibía una raya. Por ejemplo, la letra “a” del código Morse, formada por un punto y una raya ( . – ), se oía aproximadamente así: “tac – taaac”.

Con el invento de Marconi del transmisor elemental de ondas de radio, a partir del año 1901 la transmisión de mensajes por telegrafía se comenzó a realizar también de forma inalámbrica, adaptándolo al mismo sistema inventado por Morse. Esa nueva forma de transmisión tenía la ventaja que no era necesario realizar tendidos de cables a largas distancias, por lo que muy pronto los barcos se adoptaron esa nueva tecnología para comunicarse entre sí y con tierra. El “telegrafista” pasó entonces a llamarse “radiotelegrafista”.

La posterior aparición de la válvula de vacío inventada por Fleming en 1904 y el desarrollo de la válvula triodo inventada por Lee de Forest tres años después, abrieron la posibilidad de generar ondas de radiofrecuencia por medios electrónicos. Ese avance tecnológico mejoró en gran medida la transmisión de mensajes en código Morse por vía inalámbrica, permitiendo su envío a cualquier confín del mundo.

Con la introducción en el mercado de los transmisores electrónicos por ondas de radiofrecuencia, el electroimán utilizado hasta entonces para recibir las señales del código Morse se sustituyó por un altoparlante o, en su defecto, un par de cascos (audífonos) y el sonido pasó a escucharse como “beeps” cortos o largos, según fuera un punto o una raya lo que se estuviera recibiendo. La llave telegráfica de Morse se sustituyó también por otra llamada "vibroplex bug", inventada en 1903 por Horace G. Martin que posibilitaba enviar los mensajes con mayor rapidez. El pulsador de esta nueva llave funcionaba de forma horizontal y se manipulaba haciendo presión hacia los lados utilizando el dedo índice y el pulgar.

Además de las transmisiones de mensajes que se realizan empleando sistemas eléctricos o electrónicos, el código Morse permite utilizar también otros medios más sencillos. Uno de ellos consiste en utilizar una fuente de luz intermitente, mientras que el otro se basa en producir sonidos empleando cualquier dispositivo que permita reproducir los puntos y las rayas. Un ejemplo del uso práctico de esos diversos métodos lo tenemos principalmente en los barcos, que en determinados casos pueden llegar a emplear cualquiera de las posibilidades que se han mencionado.

Por ejemplo, para enviar mensajes empleando una fuente de luz los barcos se valen de una especie de reflector llamado “blinker”, dotado de una cortinilla que al abrirse deja pasar los rayos de luz y al cerrarse los interrumpe. Un rayo de luz corto se entiende como un punto, mientras uno más largo es una raya. A la derecha se puede ver un blinker transmitiendo un S.O.S. pidiendo auxilio. La formación de esas siglas en código Morse se realiza con tres puntos que corresponden a la letra (S), tres rayas a la letra (O) y tres puntos más (igualmente para la otra S) ( . . . – – – . . . )

En casos de emergencia los barcos suelen utilizar también el “tifón” (silbato accionado por un chorro de vapor o de aire), que llevan comúnmente fijado a su chimenea; gracias al fuerte y grave sonido que emiten los tifones, se pueden utilizar para propagar los sonidos de mensajes de auxilio en código Morse. Un sonido corto del tifón significa un punto, mientras que uno más largo significa una raya.

Para transmitir las letras del código, cada punto y cada raya se separa haciendo breves pausas. La velocidad de transmisión de las palabras que forman el texto de los mensajes depende en gran medida de la habilidad y experiencia práctica que tenga el telegrafista o el radiotelegrafista, tanto a la hora de transmitir como de recibir los mensajes.

Independientemente de la velocidad y destreza que se pueda llegar a adquirir empleando el código Morse, a la hora de transmitir un mensaje el tiempo de demora de una raya debe superar en tres veces el de un punto.

Cada letra o número del código se compone de uno o más puntos o rayas, o las combinaciones de ambos signos, separados entre sí por una pausa de tiempo equivalente al de la transmisión de un punto. Además, entre la transmisión de una letra y la siguiente, el tiempo de separación debe ser mayor que el necesario para transmitir una raya o tres puntos. El tiempo de separación entre una palabra y la otra debe ser equivalente al que se requiere para transmitir seis puntos.

viernes, 7 de septiembre de 2007

EL DESCUBRIMIENTO DE AMÉRICA


Una de las fechas más significativas durante el reinado de los Reyes Católicos fue la del 12 de octubre de 1492: el día en que Cristóbal Colón descubrió América.
El hecho de que Cristóbal Colón (que no era español de origen) acudiera a una corte extranjera para ofrecer sus servicios prueba que el descubrimiento de América no fue en modo alguno accidental.
Portugal y Castilla (España) estaban muy avanzados en la exploración de rutas mercantiles marítimas y Sevilla, una rica y populosa ciudad española era por entonces un importante centro comercial. Sabemos que las rutas africanas permanecían cerradas para Castilla en favor de Portugal. En 1479, por el tratado de Alcaçova, Alfonso V de Portugal renunció a sus aspiraciones sobre Castilla y reconoció los derechos de Castilla en las islas Canarias, mientras que Castilla reconocía los derechos de Portugal en las Azores, Cabo Verde y Madeira.
Las Islas Canarias eran una puerta excelente hacia rutas alternativas. Esto es lo que Cristóbal Colón ofreció, y lo hizo a un estado que precisaba de ellas, y que estaba también acostumbrado y preparado para este tipo de empresa. La España unificada poseía en 1492 una poderosa maquinaria de guerra, una sólida economía, una proyección exterior, experiencia naval que incluía la exploración de rutas mercantiles, y un notable potencial cientifico-tecnológico: matemáticos, geógrafos, astrónomos y constructores navales, que habían sido formados en una mezcla de tres culturas (judíos, musulmanes y cristianos). Su único rival era la vecina Portugal que, como ya sabemos, había puesto punto final a la expansión española en Africa.
La oferta de Colón fue rápidamente aceptada a pesar de sus conocidos errores. Pero durante su viaje a Asia sus carabelas, inesperadamente, tropezaron con el continente americano.
Los españoles estaban especialmente bien preparados por su historia para conquistar, ocupar, poblar y explotar nuevas tierras y asimilar nueva gente. América, entonces, se convirtió en la nueva tierra prometida para aquella gente acostumbrada a la aventura y con las armas militares, diplomáticas y administrativas a su disposición para afrontar el reto. A mediados del siglo XVI, se habían establecido en dos de los virreinatos más importantes, Méjico en el Atlántico y Perú en el Pacífico.


viernes, 31 de agosto de 2007

LOS INVENTOS MAS RELEVANTES DE JOHANNES STRADANUS













LA BRÚJULA
Poco se sabe sobre el origen de la brújula, aunque los chinos afirman que ellos la habían inventado más de 2.500 años antes de Cristo. Y es probable que se haya usado en los países del Asia Oriental hacia el tercer siglo de la era cristiana. Y hay quienes opinan que un milenio más tarde, Marco Polo la introdujo en Europa.
Los chinos usaban un trocito de caña conteniendo una aguja magnética que se hacía flotar sobre el agua, y así indicaba el norte magnético. Pero en ciertas oportunidades no servía, pues necesitaba estar en aguas calmas, por lo que fue perfeccionada por los italianos.
El fenómeno del magnetismo se conocía; se sabía desde hacía mucho tiempo que un elemento fino de hierro magnetizado señalaba hacia el norte, hay diversas teorías sobre quién inventó la brújula. Ya en el siglo XII existían brújulas rudimentarias. En 1269, Pietro Peregrino de Maricourt, alquimista de la zona de Picardía, describió y dibujó en un documento, una brújula con aguja fija (todavía sin la rosa de los vientos). Los árabes se sintieron muy atraídos por este invento; la utilizaron inmediatamente, y la hicieron conocer en todo Oriente.
La brújula (de "buxula", cajita hecha de boj o boxus) es un instrumento magnético que aparece descripto en La Divina Comedia de Dante, de la siguiente manera: "Los navegantes tienen una brújula que en el medio tiene enclavada con un perno, una ruedecilla de papel liviano que gira en torno de dicho perno; dicha ruedecilla tiene muchas puntas y una de ellas tiene pintada una estrella traspasada por una punta de aguja; cuando los navegantes desean ver dónde está la tramontana, marcan dicha punta con el imán."
Otros historiadores señalan que la primera brújula de navegación práctica fue inventada por un armero de Positano (Italia), Flavio Gioja, entre los siglos XIV y XV. Él fue quien la perfeccionó suspendiendo la aguja sobre una púa de forma similar a la que actualmente conserva. Y la encerró en una cajita con tapa de vidrio. Más tarde apareció la "rosa de los vientos", un disco con marcas de divisiones de grados y subdivisiones, que señalaba 32 direcciones celestes, y que fue la brújula marina que se utilizó hasta fines del siglo XIX.
Posteriormente se logró un nuevo avance, cuando el físico inglés Sir William Thomson (Lord Kevin) logró independizar a este instrumento, del movimiento del barco durante tempestades, y anuló los efectos de las construcciones del barco sobre la brújula magnética. Utilizó ocho hilos delgados de acero sujetos en la rosa de los vientos, en lugar de una aguja pesada. Y era llenada con aceite para disminuir las oscilaciones.
En los comienzos del siglo XX aparece la brújula giroscópica o también llamada girocompás. Consiste en un giróscopo, cuyo rotor gira alrededor de un eje horizontal paralelo al eje de rotación de la tierra. Se le han agregado dispositivos que corrigen la desviación, la velocidad y el rumbo; y en los transatlánticos y buques suele estar conectado eléctricamente, a un piloto automático. Este girocompás señala el norte verdadero, mientras que la brújula magnética, justamente, señalaba el norte magnético.










GUTEMBERG Y LA IMPRENTA

Mucho se ha discutido sobre la verdadera aportación de Gutenberg a la industria de las artes gráficas, aunque de ningún modo se le puede atribuir la invención de la imprenta, cuyos principios eran explotados con anterioridad a sus descubrimientos. Ya a comienzos del siglo XV se imprimían naipes y estampas con motivos religiosos, mediante la aplicación de una plancha de madera grabada y embadurnada con tinta grasa, sobre el papel o el pergamino. Este procedimiento de impresión, la xilografía, era originario de Extremo Oriente, China o Corea, y entró en Europa a través de Italia.
Tampoco fue mérito de Gutenberg la composición de textos con caracteres móviles, es decir, la fabricación de letras o símbolos individuales. Esta práctica surgió de un modo natural, a través de la necesidad de introducir correcciones en los textos de las planchas xilográficas, ya que era necesario extraer la letra a sustituir y reemplazarla por un taquillo o dado de madera que llevase grabado en relieve el nuevo carácter. El verdadero mérito de Gutenberg fue el perfeccionar estas técnicas hasta conseguir un procedimiento tipográfico que ha permanecido sin apenas cambios hasta los primeros compases del siglo XX.
Para ello procedió a sustituir la madera por el metal, fabricando moldes de fundición capaces de reproducir tipos metálicos suficientemente regulares como para permitir la composición de textos. Fue esta invención, la impresión tipográfica con tipos móviles metálicos, la que dio origen al libro moderno.

Mucho se ha discutido también sobre la autenticidad de sus aportaciones. El hecho de no haber dejado su nombre en ninguno de los libros por él impresos, junto con las sombras que existen en torno a su vida, ha dado pie a atribuir a otros los méritos de su invención. El principal adversario en disputarle el descubrimiento ha sido, y para algunos sigue siendo, Laurens Janszoon Coster, un impresor de Haarlem del que se dice que inventó el tipo móvil metálico unas dos décadas antes que Gutenberg. De hecho, se han encontrado incunables en Holanda, confeccionados con tipos móviles, que muy bien pudieran haber salido de su taller. No obstante, lo defectuoso de la impresión ha llevado a muchos eruditos a pensar que Coster se sirvió de punzones de madera y de moldes de arena fina o de arcilla para fabricar los tipos de imprenta, atribuyendo a Gutenberg el punzón metálico y el molde de fundición, sin cuyo concurso la tipografía no hubiese sido posible.


SU TRASCENDENCIA
La invención de la imprenta con caracteres móviles, obra del alemán Johannes Gutenberg, es uno de los grandes hitos de la historia de la cultura. La posibilidad de realizar tiradas de múltiples ejemplares de libros facilitó el acceso de un mayor número de personas en todo el mundo al saber escrito y conllevó radicales transformaciones en la política, la religión y las artes.
El impacto de la invención de la imprenta fue tremendo. La producción de libros durante los primeros cincuenta años después de la decisiva aportación de Gutenberg fue, casi con toda seguridad, mayor que en los mil años precedentes.

La imprenta de Gutenberg provocó una verdadera revolución en la cultura. El saber escrito dejó de ser patrimonio de una élite y se extendió a amplias capas de la población. La escritura fue sustituyendo a la tradición oral como forma privilegiada para transmitir conocimientos, a la par que las publicaciones impresas, como libros o periódicos, se generalizaron. A principios del siglo XX la escritura impresa ya era el medio predominante en Occidente para la difusión del saber. Además de su enorme significado para la religión, la política y las artes en general, fue este un avance tecnológico que facilitó todos los demás que le siguieron.



Los cambios que trajo consigo la imprenta de Gutenberg sólo son comparables a los que está originando la generalización de la informática en el umbral del siglo XXI. Los ordenadores están sustituyendo a los documentos impresos como instrumentos para transmitir y conservar los textos. Sin embargo, el libro, tal como lo hemos entendido hasta la actualidad, continuará siendo de gran utilidad durante mucho tiempo. Podría decirse que aún vivimos en lo que el sociólogo canadiense Marshall McLuhan denominó la «galaxia Gutenberg», la época de la historia marcada por el predominio de la letra impresa.



LA PÓLVORA
La pólvora, un insumo que todo tirador consume casi a diario, pero en el que no todos reparan. Tan solo quienes se dedican al arte de la recarga, destinan atención en este detalle. Pero en función de nuestro deporte, se lo podría denominar cómo piedra angular de todo el desarrollo del tiro deportivo y uno de los descubrimientos que cambió los linimientos del poder en el mundo. Está de más decir que imperios han crecido y madurado, al amparo de esta alquimia.
Yendo a un elevamiento histórico, el término pólvora deriva de la palabra polvo, cuyo origen es el aspecto que presentaban las pólvoras de fabricación primitiva.
Se denomina pólvora a la mezcla de sustancias que son capaces de reaccionar en breve tiempo y que generan gases a grandes diferencias de temperatura y presión y a su vez producen determinado trabajo mecánico.
Estos materiales tienen la característica de ser propulsores, y cabe destacar que las explosiones de dichos materiales se diferencian en dos categorías : explosivos "detonadores", que son de transformación instantánea y que se produce en la totalidad del explosivo, por lo tanto es incontrolable. La segunda categoría son los explosivos "deflagradores", en los cuales el proceso es mas lento y se producen por capas, generalmente desde la superficie de él explosivo hacia el interior del mismo de modo controlado. Este tipo de explosivos deflagradores son los que se usan habitualmente para impulsar un proyectil.
Los dos grandes tipos de pólvoras son las llamadas pólvoras negras y las pólvoras sin humo (más modernas); aunque la clasificación es mucho más amplia.
En este artículo comenzaremos por dar una explicación sobre las pólvoras negras que de hecho son las más primitivas.
En sus comienzos se constituían por simples mezclas de elementos que generalmente se la mezclaban en el mismo momento de usarlas. A la pólvora negra también se la llama mecánicas por estar formadas por mezclas de sustancias combustibles y comburente (sustancia que genera oxigeno para poder producirse la combustión), y sin procesos químicos que intervengan. Es extremadamente sensible al calor y a la fricción; y la ignición se produce por la rápida oxidación del carbón y el azufre usando el oxígeno liberado del nitrato de potasio, y al quemarse libera una gran cantidad de calor pudiendo llegar hasta alrededor de los 1700 grados.
Cómo en sus comienzos no se lograba un graneado muy homogéneo en tamaño y forma ya que la irregularidad daba formas tales cómo esféricas, en tabletas, hexagonales, cúbicas y demás, la combustión era muy variable provocando efectos indeseables cómo la explosión del arma misma. Las primeras mezclas de las que se tiene registro fueron en Francia en el año 1338 utilizando la siguiente mezcla: salitre (también llamado nitrato de potasio, como agente oxidante) 50%, azufre (sólido amarillo y mayor productor de humo, dicho mineral se encuentra cerca de los cráteres volcánicos y de los manantiales de agua caliente como en Italia, Sicilia y EEUU) 25% y carbón o carbono (cómo agente reductor y al cuál se debe su color negro) 25%. Años más tarde (1350) Inglaterra utilizó la mezcla : salitre 66,6%, azufre 11,1% y carbón 22,3%.
En los años subsiguientes se comprobó que variando el tamaño y la forma de los granos, variaba a su vez la presión en la combustión. También con el afán de perfeccionar la combustión se reemplazó el salitre por oxígeno portante cómo el clorato de potasio cuya fórmula era: clorato de potasio 49%, prusiato de potasio 28% y azufre 23%; pero esta mezcla era muy corrosiva y su única ventaja residía en producir pocos residuos en su combustión.
Cabe destacar que la pólvora negra tiene altos residuos de combustión llegando a un 60% de su peso original y son de sulfuro de potasio, sulfato de potasio y carbonato de potasio, e influyen en el humo denso y el olor característico de este tipo de pólvora. La combinación del calor y los gases producen una alta presión si la reacción esta contenida en un recipiente como puede ser un arma.
En sus comienzos la fabricación era muy larga y tediosa, ya que la mezcla se realizaba humedeciendo todos sus compuestos y se los colocaba en unas especies de vasijas de madera las cuales tenían unos mecanismos de agitación por un tiempo de entre 12 y 15 horas hasta que se produzca una mezcla homogénea. Luego se prensaba para eliminarle el agua hasta que quedaba la mezcla seca y sólida, luego por medio de rodillos se la molía para producir el graneado deseado; y por último se grafitaban los granos obtenidos.
El grafito es una forma de carbón y es el principal elemento de los lápices. El nombre grafito proviene de la palabra griega GRAPHEIN que significa escribir. El que también se lo utiliza en lubricantes, ceras, baterías y motores eléctricos.
A su vez se las puede clasificar en tres tipos: "pólvoras vivas": cuyos granos van de uno a tres milímetros y son de rápida deflagración.
· "Pólvoras lentas": con granos de cuatro a doce milímetros, las cuáles arden más lentamente.
· "Pólvoras progresivas": de granos más gruesos, y cuya combustión es paulatina y aumenta a medida que el proyectil avanza a través del ánima.
La granulación se indica con la letra F (fine). Cuantas más veces se repita la F más fino será el grano. Espero que con este artículo haya aportado algo acerca de este tema tan complejo cómo es el de las pólvoras.
Resulta evidente, que la pólvora a recorrido un largo camino en su historia, y creo que en este momento ha llegado casi al pináculo de su evolución, ya que los adelantos tecnológicos con relación al arte de la guerra, en este momento, ya pasan por una tecnología que va más allá de las armas ligeras.




bibliografia





HISTORIA

La destilación para la obtención de alcohol es una práctica muy antigua, cuyo invento se suele atribuir a los árabes. Sin embargo, existe documentación que demuestra que ya los egipcios utilizaban los alambiques o pequeños aparatos de destilación. El alcohol obtenido se utilizaba con fines religiosos y cosméticos.
La palabra alcohol es de origen árabe, al igual que alambique y alquitara. Su significado primitivo era "finísimo polvo de antimonio usado en cosmética", y era un producto utilizado para pintar ojos y cejas.
A principios del siglo IX se inicia el desarrollo de la alquimia árabe, atribuyéndose el descubrimiento de la destilación para la obtención del alcohol a Ibn Yasid.


El primer gran difusor europeo de la destilación de vino es probablemente Arnaldo de Vilanova (Valencia 1240-1311). Este destilado se utilizaba con fines medicinales, y se diferenciaba el aqua ardens, de 60 grados alcohólicos; y del aqua vitae, de 90 grados.
La descripción de los alambiques para la destilación de orujos aparece ya en el siglo XVII. El jesuita Miguel Agustí describe los destilados de marc, por lo que puede suponerse que las destilaciones de orujo y vino empiezan en Galicia a partir de dicho siglo, debido a la facilidad con que los alquimistas de los diferentes conventos y órdenes religiosas se transmitían sus conocimientos y, también, a través del Camino de Santiago.


TECNICAS Y CONNOTACIONES

La destilación como tantas otras técnicas de uso en la química convencional, debe su descubrimiento a los alquimistas.
Los orígenes de la alquimia pueden rastrearse en Grecia hacia el año 300 antes de Cristo, recogiendo aportaciones egipcias y babilónicas. Su mayor esplendor en la antigüedad parece haberse alcanzado en Alejandría entre los años 200-300 después de Cristo, siendo posiblemente en esta época cuando se inventa el alambique, que los historiadores atribuyen a María la Judía, Zósimo de Panópolis y su hermana Theosebeia.
Hay pruebas documentales de que los trabajos de estos alquimistas llegaron a los árabes y los aparatos que utilizaban para la destilación son descritos por Marco Graco en el siglo VIII, en el que puede considerarse el primer documento histórico sobre la destilación de vinos, aunque no indica nada sobre las características del destilado obtenido.
A principios del siglo IX se inicia el desarrollo de la alquimia árabe, que recibe la influencia de la escuela de Alejandría, junto a la de los trabajos realizados por los alquimistas chinos recopilados por He Hong en el año 300 después de Cristo en el "Bao Puzi".
Los árabes recopilaron los conocimientos de los alquimistas existentes hasta la época en el llamado "Libro de Crates".
Pero será la obra de Gerber (posible seudónimo de un grupo de alquimistas árabes), publicada hacia el año 850, y que fue traducida al latín con el título "De Summa Perfectionis", la que llevará a Europa el pensamiento y los métodos de la química.
Es indudable que la destilación para la obtención de alcohol es un descubrimiento árabe que algunos autores atribuyen a Ibn Yasid.
Este descubrimiento no puede ser anterior al siglo X, puesto que la inmensa obra del filósofo árabe Avicena (980-1037), verdadera enciclopedia de los conocimientos de su época, no menciona el alcohol, aunque sí describe detalladamente el alambique y relaciona minuciosamente sus aplicaciones.
Por este tiempo Venecia comerciaba establemente con los árabes, por lo que parece natural que entre los estudiosos de la alquimia y de la química, existiese el interés por este aspecto característico del comportamiento de las sustancias.
Es indudable que la primera utilización del alcohol fue como sustancia medicinal. En el año 1.100, la escuela de Salerno (Italia), diferenciaba dos formas, el "aqua ardens" de 60 grados alcohólicos y el "aqua vitae" de 90 grados.
En el siglo XIII, se hablaba ya del "espíritu del vino", origen indudable del término "espirituosas" con que se generaliza la denominación de las bebidas alcohólicas.
Ya hemos dicho que se le atribuían propiedades medicinales y hasta la virtud de prolongar la vida ; el término francés "eau de vie" (agua de vida) hace referencia a esta propiedad.
Sin embargo es imposible no encontrar en tales espirituosos reminiscencias de connotaciones rituales y mágicas profundamente arraigadas en los mismos orígenes de la civilización.
El médico paduano Michele Savonarola (1384-1462) escribe una obra "De arte confectionis aquae vitae" extrañándose de que los antiguos escritores no hablasen del agua maravillosa.
Sin embargo los destilados obtenidos debían tener un sabor poco agradable, puesto que, para su consumo medicinal solía macerarse con hierbas o frutas, práctica que continúa aún en nuestras comunidades rurales, para elaborar los tradicionales licores de Galicia.
Hay pruebas ciertas de que en el 1.600, la entonces potente Compañía de Jesús, dedicó una notable atención a los aguardientes. Utilizaban esta bebida para el consuelo de los que sufren y, casi consecuencia lógica, dedican una parte de sus no escasos recursos intelectuales, al estudio de nuevas materias alcohólicas y búsqueda de nuevas técnicas en el campo de la destilación.
En 1617, el agrónomo eclesiástico catalán Miguel Agustí, publica una obra en cuatro volúmenes con el título "Libro dels secrets d´agricoltura, casa rústica y pastoril" en la que describe detalladamente un alambique para obtener aguardiente de los orujos.
En 1663, su cofrade, el monje jesuita alemán Atanasio Kircher, p



Historia del Reloj
Horas, minutos, segundos...


Fracciones del día que nuestra civilización mide ansiosa como un registro de actividad constante, o de quietud silenciosa. Desde tiempo inmemorial, los humanos tratamos de contabilizar el paso del tiempo para organizar nuestra vida y ordenar nuestro destino. Las civilizaciones antiguas lo hacían ligándolo a la alternancia del día y la noche, así como a los ciclos de la Luna. Pero poco a poco el ingenio de nuestros antepasados fue creando aparatos capaces de fraccionar los periodos de luz y tinieblas con exactitud creciente. El reloj entraba en escena.
Primero fue el reloj solar, que indicaba los momentos del día gracias al movimiento de la sombra del Sol sobre una superficie plana, con un cuadrante. Los arqueólogos descubrieron que los chinos lo usaron unos 3.000 años antes de Cristo, empleándolo también los egipcios y los incas. Claro que éste no funcionaba de noche ni en días muy nublados, y tampoco en el crepúsculo o el amanecer. Además, los cuadrantes tenían que modificarse según las diferentes latitudes terrestres por variar la inclinación de los rayos solares, y la medición en general no era muy segura porque la duración de los días es distinta en cada época del año.
Fue así que nacieron las clepsidras, unos recipientes que hacían las veces de reloj de agua y supieron usarse en Babilonia y Egipto primero, y luego en Grecia y Roma. El líquido iba pasando de un contenedor a un vaso o fúentón graduado, que a medida que se llenaba iba marcando las horas transcurridas. Los romanos llegaron a usar este modelo de reloj en sus tribunales para controlar el desarrollo de las audiencias y un sistema similar solía usarse de noche, empleando velas marcadas.
Afrededor del siglo III de nuestra era apareció por fin el hoy famoso reloj de arena, con dos recipientes unidos por un estrecho pasadizo. ¿Acaso no ha visto Usted alguna vez esos pequeñísimos relojes de arena popularizados en una época para medir los minutos de una charla telefónica? Seguro que sí. Pues bien, en el pasado los relojes de arena más grandes eran capaces de medir el tiempo de todo un día, facilitando ya la puntualidad de toda la familia.
Con todo, debería pasar bastante tiempo hasta que las maquinarias comenzaran su reinado. Recién en el siglo VIII el italiano Pacifico construyó un reloj accionado por contrapesas que fue obsequiado al rey Pipino el Breve por el Papa Paulo I. Eran los primeros pasos. Hacia el 1 300 estos mecanismos ya eran habituales en los relojes de algunas iglesias europeas, al punto que el reloj de este tipo más antiguo que se conserva todavía en buen estado de funcionamiento es el de la Catedral de Salisbury, Inglaterra, instalado en 1386. Pero el reloj de pesas ganaría eficiencia con el descubrimiento de la Ley del Péndulo, enunciada por Galileo Galilei hacia el 1600. Gracias a esto, el matemático y físico holandés Christiaan Huygens logró armar el primer reloj de péndulo en 1657, aplicando el sistema sobre un reloj de pared.
Ya entonces, sin embargo, habían pasado unos cien años desde los primeros relojes a cuerda inventados en la ciudad alemana de Nüremberg, lo que permitía la construcción de relojes portátiles. De esta época viene la fama de Ginebra corno célebre centro relojero. La legislación calvinista de la ciudad impedia a sus orfebres realizar "cruces, cálices u otros instrúrnentos", con lo cual fuieron perdiendo su rica clientela francesa y saboyarda. Por eso decidieron dedicarse a la creación de cajas para el mecanismo de los relojes, trabajando en estrecha colaboración con los artesanos relojeros. Ya a principios del siglo XVII, la reputación de la relojería ginebrina atravesaba las fronteras del país y exponía sus creaciones en las ferias de Lyon y Francfort.
El avance del reloj había sido importante, aunque quedaban cuestiones sin resolver como el desgaste de las piezas y la consiguiente inexactitud en la medición del tiempo. Este aspecto logró modificarlo Nicolás Faccio en 1704, utilizando rubíes y zafiros como pivotes de los mecanismos de los relojes. La dureza de estas piedras redujo significativamente los errores por frotación y desgaste, significando una mejora importante en la industria relojera.
Hoy en día, contamos con una inusual variedad de tipos y calidades de relojes: artesanales, eléctricos, cronómetros, despertadores, de pulsera, atómicos, digitales... El reloj pulsera, por ejemplo, fue creado en 1904 por el relojero suizo Hans Wildorsf, de la famosa casa Rolex, quien apenas seis años después diseñó el primer cronómetro de pulsera. Los relojes atómicos, por su parte, comenzaron a construirse en 1949, constituyéndose en una de las primeras aplicaciones pacificas de la energía nuclear. Por último, digamos que el uso de las propiedades del cuarzo en los relojes se inició en los Laboratorios Beil, en Estados Unidos, y a partir de 1980 se popularizó su uso en los relojes pulsera, que reemplazaron el clásico cuadrante redondo por una pantalla donde se puede efectuar una lectura directa de la hora. Se ha recorrido ya un largo camino.

TIPOS DE RELOJ


Dispositivo empleado para medir o indicar el paso del tiempo, que puede ser fijo o portátil. Un reloj necesita una fuente de energía y una forma de transmitir y controlar esta energía, además de indicadores para registrar el tiempo transcurrido.
MECANISMOS

La fuente de energía de un reloj puede ser un peso, un resorte motor o una corriente eléctrica. En los relojes mecánicos es necesario levantar el peso o tensar el resorte periódicamente; la fuerza motriz suministrada por la fuente de energía se transmite por un tren de engranajes y se regula con un péndulo o un volante. Este tipo de reloj registra el paso del tiempo mediante agujas que giran en una esfera o mediante ruedas numeradas; también pueden indicar la hora de forma audible haciendo sonar una campana o carillón. En los relojes eléctricos y electrónicos el tiempo puede indicarse mostrando números en una pantalla.

RELOJES ELÉCTRICOS Y ELECTRÓNICOS

En algunos relojes eléctricos domésticos, un pequeño motor gira al unísono con el generador de la central eléctrica, que está regulado para que proporcione una corriente alterna de una frecuencia determinada. También pueden emplearse corrientes eléctricas para mantener varios relojes secundarios sincronizados con el péndulo de un reloj principal.
En 1929 se desarrolló el reloj de cristal de cuarzo, de gran precisión. Este reloj utiliza un anillo de cuarzo conectado a un circuito eléctrico, al que se le hace oscilar a 100.000 Hz (hercios, o ciclos por segundo). Esta oscilación de alta frecuencia se convierte en una corriente alterna, se reduce a una frecuencia más adecuada para la medida del tiempo y se emplea para alimentar el motor de un reloj síncrono. El error máximo de los relojes de cuarzo más precisos es de 1 segundo en 10 años.
Los relojes de pulsera eléctricos o electrónicos emplean pequeñas pilas que duran más o menos un año. La pila puede impulsar el volante de un reloj mecánico convencional o puede emplearse para hacer oscilar un pequeño diapasón o, con más frecuencia, un cristal de cuarzo.

CRONÓMETROS

Los relojes mecánicos de alta precisión conocidos como cronómetros eran empleados por los navegantes para determinar la longitud geográfica y calcular su posición en alta mar. También los utilizaban astrónomos y joyeros para calibrar instrumentos de medida. El primer cronómetro eficaz fue construido en 1761 por el relojero británico John Harrison. Era un instrumento portátil montado sobre balancines para mantener el delicado mecanismo en posición horizontal.
Otro reloj de precisión, denominado cronógrafo, no sólo proporciona la hora exacta sino que también registra el tiempo transcurrido en fracciones de segundo. Hay distintas formas de cronógrafo: el tacómetro, que mide la velocidad de rotación; el pulsómetro, que determina el ritmo de una pulsación, y el contador de producción, que indica el número de productos fabricados en un tiempo determinado. Los cronógrafos o cronómetros empleados en competiciones deportivas indican el tiempo transcurrido, pero no la hora del día.

RELOJES ATÓMICOS

Los dispositivos de medida del tiempo más precisos son los relojes atómicos basados en la frecuencia de la oscilación entre dos estados de energía de determinados átomos o moléculas. Estas vibraciones no resultan afectadas por fuerzas externas. El funcionamiento del reloj de cesio, utilizado para definir la unidad fundamental de tiempo en el Sistema Internacional de unidades, se basa en la medida de la frecuencia de la radiación absorbida por un átomo de cesio al pasar de un estado de energía más bajo a uno más alto.
El reloj de amoníaco y el reloj de hidrógeno emplean el principio del máser. El máser de amoníaco separa las moléculas de amoníaco en dos niveles de energía diferentes, y la frecuencia constante —muy alta— con la que oscilan las moléculas entre un nivel y otro se emplea para medir el tiempo con gran precisión. Entre otras cosas los relojes atómicos se utilizan para medir la velocidad de rotación de la Tierra, cuyo periodo puede variar en 4 o 5 milisegundos de un día a otro.







¿QUE SON LAS NUEVAS TECNOLOGIAS?



Hace referencia a los últimos desarrollos tecnológicos y sus aplicaciones (programas, procesos y aplicaciones).
Las nuevas tecnologías se centran en los procesos de comunicación y las agrupamos en tres áreas: la informática, el vídeo y la telecomunicación, con interrelaciones y desarrollos a más de un área.
Existe una confusión en identificar las nuevas tecnologías con la informática por la presencia de microprocesadores en casi todos los nuevos aparatos y por la función que tiene ésta en la sociedad actual. Hacen referencia también al desarrollo tecnológico en el diseño de procesos, programas y aplicaciones.


DESARROLLO BASE EN INFORMÁTICA.


El gran salto de la informática lo supuso el desarrollo de microchips. El primer ordenador (1946) ocupaba una gran sala, hoy una calculadora científica de bolsillo es más potente que ese ordenador.
La memoria de un ordenador se mide en bytes. Cada vez se pueden fabricar ordenadores más pequeños, más potentes y que consumen menos. Un cambio espectacular se produce con los sistemas ópticos de almacenamiento de información ( CD-ROM) y se investigan otros nuevos.
Los avances en los diseños de sistemas operativos y la programación correspondiente ( software) también adquieren gran importancia. El sistema operativo de un ordenador consiste en las instrucciones que hace funcionar los circuitos que lo forman de acuerdo al usuario.
El desarrollo de sistemas de inteligencia artificial y lenguajes de antes permitirán un importante cambio en el planteamiento y diseño de programas educativos. Un aspecto relevante es la comunicación con el ordenador mediante el lenguaje natural.

DESARROLLO BASE VÍDEO.


En el campo de la imagen electrónica se han producido los avances más espectaculares.
El vídeo ha irrumpido en la sociedad actual a través de la mejora de procesos: la grabación de la imagen en una cinta magnética a través de unos cabezales se ha modificado la velocidad, los materiales... también se han mejorado los circuítos que tratan la señal y otros aspectos. La miniaturización ha supuesto el gran cambio que ha permitido introducir el vídeo en las familias y en el centro escolar.
Hay tres cambios importantes:
sustitución de tubos de vacío T.V. por pantallas planas.
tratamiento digital de la imagen.
formato de imagen electrónica de alta definición.
Los dos primera ya son casi una realidad. En un futuro próximo se integrará en todos los medios audiovisuales en lo que podríamos llamar la imagen electrónica.
Un desarrollo más a tener en cuenta son los cambios en los sistemas de registros. Es previsible un futuro basado en el disco óptico digital.


DESARROLLO BASE EN TELECOMUNICACIÓN.


Los dos grandes desarrollos en el campo de la comunicación son los satélites y el cable de fibra óptica.
Los satélites están siendo utilizados desde hace tiempo. Los cables ópticos sustituyen a los metálicos que transmitían señales eléctricas. Transmiten impulsos luminosos, aumenta la cantidad de información por transmitir y disminuyen las pérdidas.
El cable ha permitido desarrollos educativos a través del vídeotexto, su desarrollo posibilitará los sistemas de enseñanza abierta.
Los sistemas de T.V. clásica se aplican educativamente al teletexto.
El gran cambio educativo en el s. XXI se verá más influenciado por el desarrollo de los sistemas de telecomunicaciones.

LOS MEDIOS COMO RECURSOS DIDÁCTICOS.


Un uso correcto de los medios para trabajar los contenidos del currículo tiene que tener en cuenta las formas de aprender del alumno y las formas de organizar la información de los medios (planteamiento multimedia).
El profesorado al diseñar las v.d. buscará los medios y los documentos más adecuados y los integrará en sus estrategias de enseñanza. Es muy importante la forma que tiene un documento de estructura y presentar la información porque facilita su uso. Todos los documentos son útiles, pero unos más que otros. Con un mismo medio se conseguirá rendimientos diferentes según el modo de empleo.
Durante un tiempo se creía que los documentales de TV eran muy útiles para enseñar, pero un análisis ha permitido cuestionar esta idea debido a la excesiva información que contienen. La estructura narrativa y las características de éstos resultan eficaces para el entretenimiento, pero no para la enseñanza. Para ello es importante tener claro qué le podemos pedir a un documento para que sea didáctico.


REQUISITOS PARA QUE UN MEDIO SEA DIDÁCTICO.


Los documentos audiovisuales los clasificamos en dos grupos: los dedicados a contenidos conceptuales y procedimentales y los dirigidos a contenidos actitudinales.
El tratamiento del lenguaje es diferente: en el primer caso se dirige al intelecto y en el segundo a la emotividad.
Los documentos que trabajan contenidos actitudinales encuentran en la imagen y sonido sus bases que conectan fácilmente con el sentimiento y la emotividad. Ejemplo la publicidad televisiva.
En ambos casos se emplean la sucesión rápida de imágenes y sonidos lo más impactantes posibles ya que facilita la formación de compradores natos aunque puede potenciar actitudes contrarias.
Los documentos dirigidos a conceptos y procedimientos deberán de tener una información estructurada lógicamente porque han de comprenderse. Deberían tener en cuenta las teorías sobre el procesamiento de la información y cuidar la selección y dosificación de la misma.
Requisitos para que el documento audiovisual sea didáctico:
-La información sea relevante con los contenidos del currículo que trate de forma directa y en profundidad los temas que se trabajen en clase.
-La estructura y presentación de la informática sea adecuada al propio contenido y a la forma de aprender de los destinatarios, es decir:
-que éstos estén claros y estructurados, que no salten de un tema a otro.
-que se vea lo que se tiene que ver en el tiempo necesario.
-que las voces sean comprensibles.
-Presentación de temas con recapitulaciones que incluya mecanismos y recursos que faciliten el aprendizaje.
-Actividades, bibliografía, videografía... (que incorpore sugerencias)
Sabremos si un documento audiovisual es didáctico tras someterlo a un análisis.


Bibliografía


HISTORIA DEL LASER



En 1916, Albert Einstein estableció los fundamentos para el desarrollo de los láseres y de sus predecesores, los máseres (que emiten microondas), utilizando la ley de radiación de Max Planck basada en los conceptos de emisión espontánea e inducida de radiación. La teoría fue olvidada hasta después de la Segunda Guerra Mundial.
En 1953, Charles H. Townes y los estudiantes de postgrado James P. Gordon y Herbert J. Zeiger construyeron el primer máser. Un dispositivo que funcionaba con los mismos principios físicos que el láser pero que produce un haz coherente de microondas en lugar de un haz de luz visible. El máser de Townes era incapaz de funcionar en continuo. Nikolay Basov y Aleksandr Prokhorov de la Unión Soviética trabajaron independientemente en el oscilador cuántico y resolvieron el problema de obtener un máser de salida de luz continua, utilizando sistemas con más de dos niveles de energía. Townes, Basov y Prokhorov compartieron el Premio Nobel de Física en 1964 por "los trabajos fundamentales en el campo de la electrónica cuántica", los cuales condujeron a la construcción de osciladores y amplificadores basados en los principios de los máser-láser.
A continuación se muestra una línea del tiempo de los eventos más relevantes de la historia del laser:
1917. El físico Albert Einstein desarrolló el concepto de la "emisión estimulada", que dio paso al desarrollo posterior de la luz láser.
1947. Los físicos Willis E. Lamb y R. C. Rutherford demostraron la emisión estimulada por primera vez.
1951. El físico Charles H. Townes y sus colegas conciben el Máser, el primer dispositivo basado en la emisión estimulada. Son galardonados con el premio Nobel de Física en 1964. El físico Joseph Weber también trabajó en el concepto de máser y de láseres presentando sus ideas en una conferencia en 1952, y publicando el primer texto sobre lo que ahora denominamos electrónica cuántica.
1958. Los físicos Arthur L. Schawlow y Charles H. Townes fueron los primeros en escribir un artículo detallado sobre los máser ópticos. También se les atribuye la invención del láser.
1960. Schalow y Townes patentan su tecnología láser y los físicos Peter P Sorokin y Mirek Stevenson desarrollan el primer láser de uranio.
1962. El físico Robert Hall inventa el láser semiconductor.
1969. Se encuentra la primera aplicación industrial del láser al ser utilizado en las soldaduras de los elementos de chapa en la fabricación de vehículos.
1970. El físico Gordon Gould patenta la tecnología láser más utilizada en aplicaciones industriales, comerciales y médicas.
1980. Un grupo de físicos de la Universidad de Hull liderados por Geoffrey Pret registran la primera emisión láser en el rango de los rayos X.
1984. Tiene lugar la primera demostración registrada de un láser de rayos X.
1985. Se comienza a comercializar el Disco Compacto, donde un haz láser de baja potencia <> los datos codificados en forma de pequeños orificios (puntos y rayas) sobre un disco óptico con una cara reflectante. Posteriormente esa secuencia de datos digitales se transforman en una señal analógica permitiendo la escucha de los archivos musicales. Inmediatamente después la tecnología desarrollada se usa en el campo del almacenamiento masivo de datos.
1994. En el Reino Unido se utiliza por primera vez la tecnología láser en cinemómetros para detectar conductores con exceso de velocidad. Posteriormente se extiende su uso por todo el mundo.
2001. Científicos de la Universidad de St. Andrews crean un láser que puede manipular objetos muy pequeños. Al mismo tiempo, científicos japoneses crean objetos del tamaño de un glóbulo rojo utilizando el láser.
2002. Científicos australianos <> con éxito un haz de luz láser de un lugar a otro.
2003. El escáner láser permitirá al museo británico efectuar exhibiciones virtuales.
Actualmente. Científicos de la compañía Intel descubren la forma de trabajar con un chip láser a base de silicio abriendo las puertas para el desarrollo de redes de comunicación mucho más rápidas y eficientes.

PROCESO


Los láseres constan de un medio activo capaz de generar el láser. Hay cuatro procesos básicos que se producen en la generación del láser, denominados bombeo, emisión espontánea de radiación, emisión estimulada de radiación y absorción.

BOMBEO


Se provoca mediante una fuente de radiación (una lámpara), el paso de una corriente eléctrica o el uso de cualquier otro tipo de fuente energética que provoque una emisión.

EMISIÓN ESPONTANEA DE RADIACIÓN


Los electrones que vuelven al estado fundamental emiten fotones. Es un proceso aleatorio y la radiación resultante está formada por fotones que se desplazan en distintas direcciones y con fases distintas generándose una radiación monocromática incoherente.

EMISIÓN ESTIMULADA DE RADIACIÓN


La emisión estimulada, base de la generación de radiación de un láser, se produce cuando un átomo en estado excitado recibe un estímulo externo que lo lleva a emitir fotones y así retornar a un estado menos excitado. El estimulo, en cuestión, proviene de la llegada de un fotón con energía similar a la diferencia de energía entre los dos estados. Los fotones así emitidos por el átomo estimulado poseen fase, energía y dirección similares a las del fotón externo que les dio origen. La emisión estimulada descrita es la raíz de muchas de las características de la luz láser. No sólo produce luz coherente y monocroma sino, también, "amplifica" la emisión de luz ya que, por cada fotón que incide sobre un átomo excitado, se genera otro fotón.