viernes, 19 de diciembre de 2008

Estudio de la NASA estima que calentamiento global provoca aumento de tormentas tropicales

Estudio de la NASA estima que calentamiento global provoca aumento de tormentas tropicales

La frecuencia extremadamente alta de las nubes en las zonas tropicales, que están asociadas a la formación de tormentas y lluvias, es cada vez mayor debido al calentamiento global, según un estudio divulgado el viernes por un centro de la NASA en California. La investigación "halló una fuerte correlación entre la frecuencia de estas nubes y las variaciones de estaciones de la temperatura en la superficie promedio de las zonas tropicales de los océanos", indicó el estudio liderado por Hartmut Aumann, del laboratorio Jet Propulsion (JPL) de la NASA en Pasadena, California. "Por el aumento de cada grado de la temperatura en la superficie media del océano, el equipo observó un crecimiento de 45% de la frecuencia de estas nubes de gran altitud", apuntó la investigación. "Dado que actualmente el promedio de calentamiento climático es de 0,13 grados por década, el equipo concluyó que la frecuencia de estas tormentas podría aumentar 6% por década", agregó la misma fuente. El equipo de investigadores liderado por Aumann indicó que el estudio estaba basado en cinco años de información recolectada por un instrumento infrarrojo de esta agencia llamado Atmospheric Infrared Sounder (AIRS, por sus siglas en inglés). La información del AIRS se usa para observar algunos tipos de nubes en los trópicos de la Tierra relacionada con las tormentas severas, lluvias torrenciales y granizos.

sábado, 29 de noviembre de 2008

China e India pedirán ayuda financiera contra el cambio climático


China e India se disponen a pedir el apoyo financiero de los países industrializados para ayudar a las naciones en vías de desarrollo a luchar contra el calentamiento del planeta en la conferencia sobre el cambio climático que empieza el lunes en Polonia. La conferencia anual de la ONU sobre el clima de Poznan (Polonia) lanzará la negociación sobre el futuro régimen de lucha contra el calentamiento y el acuerdo que reemplazará al Protocolo de Kioto, que expira en 2012. Ambos gigantes asiáticos -que siguen negándose a que se les impongan objetivos de reducción de emisiones de gases con efecto invernadero al igual que otros países en vías de desarrollo- consideran que tienen derecho a recibir un apoyo de los países ricos para combatir las consecuencias de los cambios climáticos y desarrollar sus energías renovables.

"Los países en vías de desarrollo afirman que si se espera de ellos acciones verificables, medibles y de las cuales se pueda rendir cuentas, eso implica que se ponga sobre el tapete dinero, verificable, medible y del cual se pueda rendir cuentas", sostuvo el principal responsable de la lucha contra el cambio climático de la ONU, Yvo De Boer, interrogado por teléfono por la AFP.
China considera que los países industriales deberían aportar a las naciones menos favorecidas una ayuda que represente el 0,7% de su Producto Interior Bruto (PIB). Esa solicitud "será presentada en Poznan (...). India apoya esa propuesta", afirmó un representante del gobierno indio que participará en la conferencia y que solicitó el anonimato.

Pekín está sumamente interesado en el aporte de los países ricos en materia de energías renovables. "Los países desarrollados deberían tener en sus presupuestos un fondo para las transferencias de tecnologías", dijo Zhou Ji, un profesor de la Universidad Popular y consejero gubernamental en materia de cambio climático. Li Yan, una militante de la organización no gubernamental Greenpeace en China, indicó que esas cuestiones financieras serán "enérgicamente discutidas" en Poznan, en momentos en que se produce una desaceleración económica mundial. Según Li Yan, que irá a la ciudad polaca como observadora, los países en vías de desarrollo ya están trabajando en la elaboración de planes concretos sobre la adjudicación de semejantes sumas de dinero y ya han superado la etapa de propuestas vagas.

"Para ellos, el control de emisiones de gases con efecto invernadero está estrechamente vinculado al monto de la ayuda de los países industrializados", dijo Li a la AFP. Sin embargo, "China no se comprometerá sobre reducciones de emisiones durante esta conferencia", afirmó Zhou Ji. Ni China ni India quieren que su crecimiento se vea obstaculizado por semejantes objetivos y afirman que los países industrializados son históricamente responsables de la situación. Los países en vías de desarrollo no se vieron limitados por objetivos severos por el Protocolo de Kioto de 1997. Este es uno de los principales argumentos de Estados Unidos para negarse a firmar ese tratado.

Sin embargo, China e India se han convertido en emisores cada vez más importantes en los últimos años. Estos dos países, que dependen en gran medida de las energías fósiles, tienen un fuerte crecimiento económico. China es, junto con Estados Unidos, el mayor contaminador del planeta, e India se encuentra entre los cinco primeros.

miércoles, 29 de octubre de 2008

China dice que será difícil reducir gases de invernadero


China dice que su dependencia del carbón hará difícil que la nación reduzca las emisiones de gases de invernadero. En un informe emitido este miércoles en Beijing, el gobierno reconoce el impacto que el cambio climático ha tenido en el país, y cita aumento de temperaturas, fuertes precipitaciones y severas sequías. Sin embargo, el informe indica que el sector energético de China, dominado por el carbón, no puede ser cambiado sustancialmente en el futuro cercano.
Xie Zenhua, vicepresidente del organismo de planificación económica de China, dijo que se está tratando de aumentar el suministro de energía no contaminante para reducir emisiones, pero que el costo es alto. “La energía renovable de China actualmente es de apenas un 8,3 por ciento en comparación con su energía no renovable. Para 2010 esa proporción llegará al 10 por ciento y para 2020 al 15 por ciento.” Dijo Xie. “Para alcanzar esas metas, China necesita invertir más de 290 millones de dólares…” agregó.
El funcionario chino dijo que las emisiones de gases de invernadero de su país son ahora aproximadamente del mismo nivel que en Estados Unidos. China dice que su dependencia del carbón hará difícil que la nación reduzca las emisiones de gases de invernadero. En un informe emitido este miércoles en Beijing, el gobierno reconoce el impacto que el cambio climático ha tenido en el país, y cita aumento de temperaturas, fuertes precipitaciones y severas sequías. Sin embargo, el informe indica que el sector energético de China, dominado por el carbón, no puede ser cambiado sustancialmente en el futuro cercano.
Xie Zenhua, vicepresidente del organismo de planificación económica de China, dijo que se está tratando de aumentar el suministro de energía no contaminante para reducir emisiones, pero que el costo es alto. “La energía renovable de China actualmente es de apenas un 8,3 por ciento en comparación con su energía no renovable. Para 2010 esa proporción llegará al 10 por ciento y para 2020 al 15 por ciento.” Dijo Xie. “Para alcanzar esas metas, China necesita invertir más de 290 millones de dólares…” agregó.
El funcionario chino dijo que las emisiones de gases de invernadero de su país son ahora aproximadamente del mismo nivel que en Estados Unidos.

Se necesitarán dos planetas para la humanidad en 2030, dice WWF


PARIS (AFP) — Al ritmo de su consumo actual, la humanidad, para satisfacer sus necesidades a comienzos de la década de 2030, necesitará tener a su disposición dos planetas, afirma el Fondo Mundial para la Naturaleza (WWF).La huella ecológica de la humanidad, que evalúa su consumo de recursos naturales, ha superado ya el 30% de las capacidades del planeta para regenerarse, señala el WWF en su informe Planeta Vivo 2008. La presión de la humanidad sobre el planeta se ha duplicado en los últimos 45 años por dos razones, por el crecimiento demográfico y por el aumento del consumo individual, explica el informe.

Esta sobrexplotación está agotando los ecosistemas y los desperdicios se acumulan en el aire, la tierra y el agua, indica.Como resultado, la deforestación, la escasez de agua, el declive de la biodiversidad y el desorden climático, provocado por la emisión de gases con efecto invernadero, "ponen cada vez más en peligro el bienestar y el desarrollo de todas las naciones", explica el WWF.
El "Indice Planeta Vivo", un instrumento calibrado para medir la evolución de la biodiversidad mundial y que abarca 1.686 especies de vertebrados en todas las regiones del mundo, ha disminudo casi en un 30% en los últimos 35 años, precisa el informe. En vista del declive de esta índice, "parece cada vez más improbable que alcancemos el objetivo, sin embargo modesto, a que apuntaba la Convención de Rio sobre la diversidad biológica: reducir la erosión de la biodiversidad mundial de aquí a 2010", infiere el WWF. Además de la huella ecológica mundial y el Indice Planeta Vivo, el informe presenta un tercer instrumento de medida, "la huella del agua", que evalúa la presión resultante del consumismo sobre los recursos hídricos a escala nacional, regional y mundial.

El problema es que el agua es un recurso distribuido muy desigualmente a través del mundo. Así, unos 50 países se encuentran actualmente enfrentados a un estrés hídrico moderado o grave, subraya el WWF. Y el número de personas que sufren la penuria del agua, ya sea todo el año o por temporadas, aumentará debido al cambio climático, agrega.

martes, 7 de octubre de 2008

El cambio climático aumentará la malnutrición, la malaria y la diarrea


Expertos de la OMS debaten en Madrid el incremento de las patologías por el calentamiento global . El impacto del cambio climático en la salud mundial aumentará sobremanera la malnutrición, la malaria y la diarrea. Estos serán algunos de los efectos más perniciosos que el calentamiento global tendrá en la salud humana, pero no los únicos. El incremento de las patologías infecciosas, respiratorias, gastrointestinales o cardiovasculares serán la otra dramática cara de la moneda del cambio de clima mundial. Las tres enfermedades antes citadas, algunas de las más sensibles al clima, originarán que se incremente el número de muertes, que ya se sitúa en 3.300.000 fallecimientos anuales. Se trata de patologías que son los «mayores asesinos» por su sensibilidad a las variaciones climáticas, tal como expresó María Neira, directora de Salud Pública y Medio Ambiente de la Organización Mundial de la Salud (OMS).
Neira participó en la primera reunión de expertos internacionales de la OMS sobre salud y cambio climático, que se celebra en Madrid auspiciada por el Ministerio de Sanidad y Consumo. En el marco de este cónclave de especialistas, Bernat Soria anunció la creación en España en escasas semanas de un Observatorio nacional de cambio climático y salud, que servirá como instrumento diagnóstico para medir el impacto en la salud de las políticas medioambientales y adoptar la toma de decisiones oportunas. En paralelo, los ministerios de Sanidad y de Medio Ambiente, Medio Rural y Marino tienen previsto crear un Plan Nacional de Acción en Salud y Medio Ambiente para el periodo 2009-2012, que se centrará sobre todo en el cambio climático.
Incidencia en Europa Las lesiones y la mayoría de las enfermedades relacionadas con el clima, exceptuando las tres antes mencionadas, causan cada año más de 150.000 muertes y los desastres naturales producen más de 60.000 muertes, sobre todo en los países en desarrollo. Pero también tienen incidencia en Europa, donde las elevadas temperaturas del verano de 2003, que afectó también a España, causaron más de 70.000 muertes. Pero si en algo coinciden los expertos de la OMS es en que los riesgos para la salud de los gases de efecto invernadero, causantes del cambio climático, se ceban con los países que menos han contribuido a crear el problema. Estos países ya sufren malnutrición generalizada y disponen de sistemas de salud y educativos débiles.

Análisis recientes han demostrado que el riesgo de una epidemia de malaria es unas cinco veces mayor al año siguiente de un fenómeno climático como el de «El Niño». En algunas regiones, el riesgo de diarrea estimado para el año 2030 es un 10% mayor que en ausencia de cambio climático. En cuanto a las estimaciones de los efectos sobre la malnutrición, varían mucho de unas regiones a otras. En la actualidad hay consenso científico sobre el calentamiento global y sus efectos profundamente negativos en algunas de las principales variables de la salud: los alimentos, el aire y el agua. Se trata de una amenaza directa para la salud en todos los países a causa de grandes tormentas, olas de calor, inundaciones, sequías e incendios que pueden perturbar el suministro de agua y alimentos.

jueves, 11 de septiembre de 2008

Terrorismo, 11 SEPT A siete años del atentado contra las Torres Gemelas



A la "guerra mundial" al terrorismo, solo le quedan unos 130 días para capturar a Bin Laden. El presidente estadounidense, George W. Bush, tiene menos de cinco meses para cumplir con la promesa que hizo hace siete años de capturar a Osama bin Laden "vivo o muerto", antes de que su sucesor en la Casa Blanca herede la persecución del terrorista más buscado del mundo. Capturar al jefe de la red Al Qaeda le permitiría sin duda al presidente que hoy en día bate todos los récords de impopularidad recobrar una parte del apoyo con el que contaba tras los atentados del 11 de septiembre de 2001 en Estados Unidos. Pero si Bush no logra atrapar a Osama bin Laden antes del 20 de enero de 2009, cuando entregue la Casa Blanca a su sucesor, podría convertirse en uno de los grandes fracasos de su presidencia, cuyo rumbo quedó marcado ocho meses después de iniciada con el derrumbe de las Torres Gemelas en Nueva York. La Casa Blanca asegura que la búsqueda de Bin Laden se realiza sin descanso y que Bush está constantemente informado al respecto. Pero el presidente niega que haya redoblado esfuerzos para dar con el jefe de Al Qaeda. "Yo veo que los diarios titulan: Bush ordena un esfuerzo particular para encontrar a Osama bin Laden. Un poco de sensacionalismo periodístico. Porque en definitiva es lo que hemos hecho desde el 11 de septiembre", indicó en junio a la cadena británica Sky News. Bush hizo su promesa de capturar a Osama bin Laden "vivo o muerto" seis días después de que Al Qaeda perpetrara los peores atentados de la historia de Estados Unidos, que dejaron unos 3.000 muertos, al tiempo que declaró la "guerra mundial" al terrorismo. Nueva York trata de mantener el ritmo de su cotidianidad mientras McCain y Obama se preparan, para en una especie de tregua, presentarse en la Zona Cero y capitalizar el acto. La Casa Blanca reconoció ayer las limitaciones que ha tenido para encontrar a Osama bin Laden. Nueva York sigue cumpliendo con sus visitantes. Todos los clichés que hemos aprendido de la Gran Manzana siguen vigentes y funcionando. Hay policías de gorras heptagonales, humo saliendo de las alcantarillas a media Quinta Avenida, esténciles de Warhol en muros que se doblan, bomberos… torres, torres y más torres. Y la ausencia de un par de ellas. En una esquina del mapa es en donde se erige el riel imaginario de varios tópicos que estarán en juego en noviembre próximo cuando los candidatos a la presidencia de Estados Unidos se enfrenten en las urnas. Este séptimo aniversario de los atentados terroristas del 11 de septiembre en las Torres Gemelas, en 2001, es el talón de Aquiles que dio tregua a los dos candidatos que contienden a la presidencia de Estados Unidos.Memorial 11 septiembre en Pentágono revive dolorosos recuerdosEn la mañana del 11 de septiembre del 2001, Patrick Smith caminaba hacia un televisor en una oficina del Pentágono, para mirar las noticias sobre los ataques en contra del World Trade Center de Nueva York, cuando escuchó una fuerte explosión. "La pared en frente mío se torció hacia adentro," recuerda. "Las losas del techo y los cables comenzaron a caerse, luego todo se puso negro y después (...) una bola de fuego gigante entró por la pared," dice. Imágenes como esas cruzarán el pensamiento de varios de los sobrevivientes el jueves, cuando el primer memorial permanente en Estados Unidos en conmemoración de los ataques del 11 de septiembre se dedique a las 184 personas que murieron en el Pentágono y en el vuelo 77 de American Airlines, que se estrelló contra el edificio. La ceremonia en la sede del Departamento de Defensa estadounidense, a la que asistirá el presidente George W. Bush, se realizará exactamente siete años después de que militantes de Al Qaeda secuestraron cuatro aviones comerciales y mataron a casi 3.000 personas. Smith, un civil que trabaja para el Ejército, estará entre la audiencia. Sabe que es afortunado de tener esa posibilidad. "Podía escuchar y sentir cómo los pelos de la cabeza y los brazos comenzaban a chamuscarse por el intenso calor de la llama," dijo. "Si hubiera caminado seis pies más (casi dos metros), probablemente no estaría aquí sentado hoy," afirmó. Smith vio a una colega entre las llamas que no pudo salir y no logró ayudarla. Un compañero de trabajo salió corriendo del fuego, con su ropa incendiada. Smith se tiró al piso y salió gateando de aquel infierno. Tomó la mano de una colega herida y juntos encontraron una forma de salir seguros. "Ella tenía quemaduras de segundo grado y la piel se le estaba empezando a caer de la cara," dijo. Los recuerdos se han vuelto menos intensos con el paso del tiempo, pero nunca desaparecerán por completo, señaló. Smith cree que el memorial en el Pentágono, un parque diseñado por Julie Beckman y Keith Kaseman, con arces y unidades en conmemoración de cada víctima, es un tributo adecuado para aquellos que murieron. "Hicieron un gran trabajo," dijo Smith, quien se desempeñaba en el departamento de personal del Ejército en el momento del ataque.

miércoles, 10 de septiembre de 2008

"Ahora comienza la etapa de los descubrimientos científicos"


Éxito en el estreno del acelerador europeo de partículas.- Su objetivo: hallar el bosón de Higgs, última pieza del 'puzzle' subatómico "Tras la etapa de la tecnología ahora comienza la fase en la que se producirán los descubrimientos científicos". Con estas palabras resumía esta tarde Robert Aymar, actual director del CERN (Laboratorio Europeo de Física de Partículas) el éxito del Gran Colisionador de Hadrones (LHC, por sus siglas en inglés) el acelerador de partículas que busca reproducir las condiciones físicas que dieron lugar al Universo y que se ha puesto este miércoles en marcha.
Igualmente exultante el público asistente - científicos y periodistas, básicamente, porque la inauguración oficial con jefes de Estado será el 21 de octubre- ha jaleado con aplausos cada vez que el haz de protones cubría un octante, la octava parte de los 27 kilómetros del túnel circular que constituye el gran colisionador. La ceremonia ha transcurrido en un ambiente desenfadado con conexiones con Chicago y Japón. Aymar ha querido tener hoy como invitados de honor a los cinco directores que le precedieron en el cargo, entre ellos Chris Llewellyn, que ocupó el cargo entre 1994 y 1998. Llewellyn ha recordado que el laboratorio se enorgullece también de haber sido el escenario donde se inventó la World Wide Web, aunque no precisamente para el uso más popular que tiene hoy. "Se inventó para que los físicos de partículas intercambiaran enormes cantidades de datos complejos", ha recordado.
Éxito doble Hacia las 9.30 el primer haz de protones recorría en el sentido de las agujas del reloj el túnel del LHC. A las 15.00 horas un segundo haz de protones, esta vez en el sentido contrario a las agujas del reloj, completaba el mismo recorrido. No esperaban conseguir tanto en una sola jornada los padres de este proyecto que se apunta pues un doble éxito en el día de hoy. No obstante, todavía habrá que esperar para el primer choque de partículas subatómicas en el interior del LHC. La historia de este mastodóntico proyecto, que por fin ha echado hoy a andar, se remonta años atrás. En 1993, el ministro británico de Ciencia, William Waldegrave, reparó en que su departamento estaba gastando mucho dinero en la búsqueda de una cosa llamada "el bosón de Higgs", y lanzó el desafío: "No sé si financiaré la búsqueda del bosón de Higgs, pero le pago una botella de champán a quien logre explicarme qué es". El LHC tiene también otros objetivos, pero el principal es encontrar el bosón de Higgs, apodado "la partícula-Dios" por el premio Nobel Sheldon Glashow. Es una predicción central del modelo estándar con el que los físicos describen el mundo subatómico, y observarlo requiere las altas energías de colisión que alcanzará el LHC, un esfuerzo de 6.000 millones de euros.
¿Una catástrofe planetaria? Esas altas energías también han llevado a algunas personas a temer que el LHC pueda causar una catástrofe planetaria, mediante la creación de un agujero negro u otros fenómenos. Estos catastrofistas han llegado a presentar dos demandas judiciales contra el acelerador de Ginebra. El grupo de físicos reunidos en el Consejo Asesor de Seguridad del LHC (LHC Safety Assessment Group, o LSAG) ha concluido, sin embargo, que "incluso si el acelerador llegara a producir microagujeros negros -una posibilidad contraria al modelo estándar de la física de partículas-, estos serían "incapaces de agregar materia en torno a ellos de una forma que resultara peligrosa para la Tierra".
El campo de Higgs fue postulado en 1963 por media docena de físicos, de los que el británico Peter Higgs ni siquiera era el más destacado (de hecho, hay quien prefiere llamarlo "campo de Higgs-Brout- Englert-Guralnik-Hagen-Kibble"). Pero fue Higgs el primero en hablar del "bosón de Higgs". El campo de Higgs y el bosón de Higgs son dos formas de ver el mismo fenómeno. Esta dualidad se deriva de uno de los principios más desconcertantes -pero también mejor establecidos- de la física cuántica (la antiguamente llamada "dualidad onda-corpúsculo"). El caso más familiar es el de la doble naturaleza de la luz, que consiste a la vez en un campo electromagnético y en un chorro de partículas, o fotones. El modelo estándar de la física subatómica divide las partículas en dos grandes grupos: las que constituyen la materia (fermiones, como los quarks) y las que transmiten las fuerzas (bosones, como el fotón). El propuesto bosón de Higgs, por tanto, sería una partícula, y eso es lo que los físicos esperan observar en el nuevo superacelerador de Ginebra. Si el bosón de Higgs aparece en el LHC en los próximos años, la última pieza habrá encajado y el modelo estándar habrá recibido el espaldarazo definitivo. En caso contrario, habrá que modificar el modelo en sus fundamentos más básicos.

Acelerador de partículas. La hora de la verdad para 10.000 físicos de 80 países


Como prueba de que no espera el apocalipsis, el director del LHC, el gran acelerador europeo de partículas, se dejaba ver ayer sonriente y relajado. Alrededor de las 9.30 de la mañana de hoy se inyectará el primer haz de partículas. Es el momento de la verdad para 10.000 físicos e ingenieros de decenas de países que llevan trabajando desde hace más de 15 años en el desarrollo y construcción de este gigantesco laboratorio con el que quieren ahondar en el conocimiento de las profundidades del átomo. Especialistas de unos 80 países están volcados en este proyecto que aglutina la veintena de países que son miembros del CERN (Laboratorio Europeo de Física de Partículas, junto a Ginebra), incluido España, cuyos físicos, ingenieros y empresas han hecho aportaciones notables al proyecto. “Si todo va bien con el haz, será un gran éxito”, explicó ayer el portavoz del CERN, James Gillies. “El segundo haz en dirección opuesta al primero no tiene por qué inyectarse el primer día, pero si todo funciona bien, podría intentarse y entonces el éxito, con los dos haces, sería ya grandísimo”. Para dentro de un mes está previsto provocar las primeras colisiones de las partículas de los haces, colisiones de protones contra protones en que se producirán las partículas y fenómenos que estudiarán los científicos. Para ello hay que tener los haces perfectamente estables dentro del tubo de vacío del acelerador y afinarlos en los cuatro puntos de colisión de la circunferencia.
Un centenar de personas en el centro de control del LHC realizarán todas las pruebas (una docena de ellos directamente en los ordenadores de control de la máquina), pero entre 4.000 y 5.000 personas están hoy en el CERN (2.500 de plantilla y el resto, científicos e ingenieros colaboradores del proyecto, además de unos 250 periodistas). “El ambiente es de máxima tensión y expectación”, dice Gillies. “Es muy emocionante: por fin vamos a ver el LHC funcionando”. El CERN está justo en la frontera entre Francia y Suiza y el túnel del LHC está entre el lago de Ginebra y las montañas del Jura. Así, los protones del acelerador, a casi la velocidad de la luz, pasarán de un país a otro miles de veces por segundo y chocarán en el centro de los cuatro detectores. El túnel está cerrado desde hace un par de semanas para cualquier visita excepto los técnicos. Pero en la mañana de hoy, cuando se inyecte el haz, será inaccesible, informa Gillies. Nadie puede estar dentro cuando circulan los haces de partículas porque la radiación que producen en el túnel es nociva. Cuando el acelerador se para, se puede volver a entrar para revisar todo. El LHC está formado por 1.600 enormes imanes superconductores enfriados hasta 271 grados centígrados bajo cero, mediante 130 toneladas de helio líquido.

Para el encendido se han juntado en el CERN miles de científicos pendientes de este gigantesco experimento único en el mundo y varias veces más potente que el de más energía hasta ahora, el Tevatron de Chicago. Unos 1.200 estadounidenses están volcados, ya que el LHC ha puesto a Europa el punto focal internacional de la física de partículas, que desde la II Guerra Mundial estuvo al otro lado del Atlántico. Estados Unidos proyectó y empezó a construir en Tejas un acelerador como el LHC, el SSC, pero el proyecto fue cancelado por su coste. Los europeos lo han logrado, jugando con la ventaja de la concentración de esfuerzos en el CERN y la estrategia de utilizar las instalaciones de unos aceleradores para poner en marcha los siguientes. Aún así el coste ha sido elevado: unos 6.000 millones de euros. El túnel de 27 kilómetros que hoy concentra la atención de la ciencia mundial alojó el anterior gran colisionador del CERN, el LEP, de la misma longitud, pero de menor energía. Se desmontó el LEP y se ha instalado en su lugar el LHC, con el que los físicos esperan obtener nuevos datos del microcosmos para entender cómo están hechas y cómo funcionan la materia y la energía.

'Hubble' El principio del fin del telescopio


La NASA prepara la que será la última misión de reparación del más famoso telescopio espacial. En unos cinco años será dirigido para su destrucción
Una leyenda de la astronomía ha llegado al principio del fin. El telescopio espacial Hubble, tras 18 años en órbita mirando el universo remoto y, en general, casi todos los cuerpos celestes, de mostrar un cosmos como nunca se había visto antes, recibirá el próximo mes a siete astronautas que realizarán en él las últimas operaciones de reparación y mantenimiento. Pondrán dos cámaras nuevas, cambiarán equipos que no funcionan, quitarán por fin las famosas gafas que se colocaron al observatorio en 1993 para corregir su defecto óptico y dejarán el Hubble listo para seguir observando el cielo -previsiblemente- durante otros cinco años. Se quitarán las antiguas 'gafas' del observatorio, que ya no son necesarias. El 'Endeavour' estará listo para rescatar al 'Atlantis' si hay problemas. En realidad, la idea es que dure lo que dure a partir de ahora, y cuando deje de funcionar, será dirigido a su destrucción en la alta atmósfera terrestre o en el océano, para que recojan sus últimos trozos. Hacia 2013, el llamado sustituto del Hubble, el telescopio James Webb ya en construcción, tendría que estar listo en el espacio. La partida del transbordador Atlantis, con los siete astronautas que irán al Hubble bajo el mando del veterano comandante Scott Altman, está prevista para el 10 de octubre. Es una misión especial, que fue cancelada a raíz del accidente del Columbia en 2003 por considerar que era demasiado peligrosa (en caso de problemas, los tripulantes no pueden refugiarse en la Estación Espacial porque está en otra órbita).
Pero la presión popular -sobre todo en EE UU- y de los científicos, obligaron a la NASA a replanear la decisión y finalmente se volvió a poner en el calendario el último vuelo de servicio del Hubble. Para atenuar el riesgo, durante esta misión del Atlantis, otro transbordador, el Endavour, con cuatro astronautas de rescate, estarán preparados en el centro espacial Kennedy (Florida) para ir a auxiliar a sus colegas en órbita si tuvieran problemas; los del Atlantis, pese a que la duración de la misión es de 11 días, llevarán suministros para aguantar 25 días en el espacio. El vuelo asignado a Altman y su tripulación es realmente complicado. El Atlantis se colocará en órbita junto al Hubble y los astronautas lo agarrarán con el brazo robótico de la nave para fijarlo verticalmente en la bodega. Entonces empezarán los paseos espaciales (están previstos cinco, sumando unas 32 horas) en que sustituirán las baterías del telescopio y sus sensores de guiado, cambiarán los seis giróscopos de orientación (tres están estropeados) y pondrán unas cubiertas aislantes. Instalarán dos nuevas cámaras avanzadas: un espectrógrafo ultravioleta de gran sensibilidad y una cámara de gran angular WFC3; además, intentarán arreglar allí mismo otros dos instrumentos destinados a la observación. Será la primera vez que se intenta una reparación de estas características en órbita. La apretada agenda de los astronautas incluye extraer y retirar el Costar, el instrumento que se colocó en el telescopio en la primera misión de reparación (1993) para compensar el defecto óptico (aberración esférica) que tiene debido a un error de fabricación en el pulido del espejo. Ahora todos los instrumentos del Hubble tendrán ya la corrección incorporada y no hará falta el Costar.

El Hubble es un cilindro de aluminio de 13,2 metros de longitud y 4,2 de diámetro, con espejo principal de 2,4 metros. Pesa 11 toneladas y está en órbita terrestre a 570 kilómetros de altura (casi 200 más que la ISS), precisamente en una situación accesible para los transbordadores, dado que desde el principio el observatorio se concibió como una plataforma astronómica de larga duración que sería reparada y mejorada a lo largo de los años por los astronautas. Tras un retraso de cuatro años debido al accidente del Challenger, en 1986, el Hubble fue lanzado al espacio, el 25 de abril de 1990, con gran satisfacción de la NASA y de los astrónomos de todo el mundo. Pero no empezó a funcionar a pleno rendimiento, con imágenes de calidad, hasta tres años después, cuando se corrigió el problema del espejo.
Entre sus éxitos, tras 15 años mirando el cielo (18 si se cuentan las observaciones mermadas del principio), figura la determinación del valor de la llamada Constante de Hubble y, a partir de ella, la edad del universo (unos 13.700 millones de años), las imágenes del cosmos profundo (hasta unos 10.000 millones de años luz), y miles de objetos celestes conocidos ahora con gran detalle gracias a sus fotografías y espectros de la luz. El Hubble da una vuelta a la Tierra cada 97 minutos a una velocidad de 28.000 kilómetros por hora. Aún así es capaz de apuntar a un astro con enorme precisión (la desviación es inferior al grosor de un cabello humano visto a una distancia de un kilómetro y medio). Esto, unido a su posición por encima de la atmósfera terrestre que evita la perturbación que induce ésta en la luz de las estrellas, ha hecho, y hace, del telescopio un gran instrumento astronómico.
Hasta ahora se han hecho cuatro misiones de servicio al Hubble (1993, 1997, 1999 y 2002). El coste del programa asciende a unos 4.250 millones de euros, más otros 400 millones aportados por la Agencia Europea del Espacio (ESA). Si todo va bien en la próxima misión del transbordador, con los nuevos instrumentos y los dispositivos electrónicos reparados, el Hubble tendrá ante sí cinco años al menos de muy fructífero trabajo científico. Las nuevas cámaras servirán, por ejemplo, para estudiar la evolución de las galaxias, poblaciones de estrellas en galaxias cercanas y las cuestiones más candentes de la cosmología actual: la materia oscura del universo y la energía oscura que provoca la aceleración de su expansión. El Atlantis está desde la semana pasada en la plataforma de lanzamiento de la base de Florida, aunque sus responsables siguen muy pendientes de los huracanes que en esta época barren la zona.

Acelerador de partículas proyecto pretende recrear un contexto similar al 'Big Bang'

8.000 millones de dólares para activar el gran acelerador de partículas proyecto pretende recrear un contexto similar al 'Big Bang'

Todo listo para activar el gran acelerador de partículas del CERN en Ginebra El proyecto pretende recrear un contexto similar al 'Big Bang' · Los científicos desmienten las teorías apocalípticas y garantizan la seguridad del experimento Tras doce años de trabajo, que ha dado como resultado un laboratorio de física con forma de anillo de 27 kilómetros de circunferencia a 100 metros de profundidad en la frontera entre Francia y Suiza, finalmente se ha activado en el Laboratorio Europeo para la Investigación Nuclear (CERN) de Ginebra el denominado Gran Colisionador de Hadrones (LHC). Su objetivo es estudiar colisiones de partículas a energía nunca alcanzadas y comprender así mejor el Universo para descubrir de su composición y cómo se formó. "Este es el proyecto científico más complejo que se ha hecho nunca", ha declarado uno de los científicos españoles responsables del proyecto, el español Antonio Vergara Fernández.

El nuevo acelerador de partículas, que ha supuesto una inversión de 8.000 millones de dólares, persigue dar un salto cualitativo en el desarrollo de la Física de Partículas, de forma que principios que hasta ahora sólo pueden ser enunciados de forma teórica, se conviertan en una realidad tangible en laboratorio. Para conseguirlo, ha tenido que levantarse el mayor ingenio científico construido nunca por el hombre: un enorme anillo de 27 kilómetros de circunferencia en el que se podrá hacer que un haz de partículas circule a velocidades nunca alcanzadas haciéndolas chocar entre sí para recrear un contexto similar al que se produjo con ocasión del nacimiento del Universo, el denominado 'Big Bang'.

En comparación con aceleradores de partículas ya existente, el LHC producirá haces que tendrán una energía siete veces más elevada y una intensidad treinta veces superior. En una entrevista difundida por el CERN, el investigador español Antonio Vergara Fernández, uno de los responsables del proyecto, destacó las magnitudes del nuevo acelerador. Explicó que una vez horadado el túnel bajo tierra se pasó varios años instalando la maquinaría del acelerador en su interior, pero lo complejo vino después. "Hemos tenido que aprender a enfriar 27 kilómetros de acelerador a 271 grados bajo cero (la temperatura a la que puede funcionar de forma efectiva), luego encender toda la máquina y demostrar que todos los elementos funcionan sin ninguna particular en el acelerador, una labor en la que han pasado dos años. Enfriada y lista para recibir hadrones, ha habido que preparar un haz de partículas para que lleguen a la zona del acelerador, se aceleren y creen las colisiones". Para conseguirlo disponen de unas cadenas previas de aceleradores, denominadas inyectores, por las que pasan los protones antes de introducirse en el LHC. El éxito se producirá cuando se consiga que al menos una parte del haz de partículas inicial logre dar la vuelta al anillo completo.

"Este es el proyecto científico más complejo que se ha hecho nunca", agregó Vergara Fernández, ya que ha habido muchos problemas que solucionar, y esta puesta en marcha es el final de muchos años de preparación y muchas horas pasadas aquí. En total se espera 9.000 investigadores puedan trabajar en el CERN de forma itinerante, para permitir a los físicos corroborar sus teorías.

No será el fin del mundo La gran cantidad de energía y las dimensiones del nuevo acelerador han suscitado no pocas críticas y temores apocalípticos. Algunos científicos, encabezados por el bioquímico alemán Otto Rossier, creen que la activación de acelerador provocará el fin del mundo, ya que se podrían provocar agujeros negros en el interior del LHC succionando a todo el planeta.
Al respecto, el CERN ha publicado estos días un informe científico en el que se garantiza la seguridad de su operación. Su director general, Robert Aymar, ha declarado que el LHC "es capaz de estudiar en detalle lo que la naturaleza está haciendo ya alrededor de nosotros". "El LHC es seguro, y cualquier reserva sobre un posible riesgo es pura ficción"

martes, 9 de septiembre de 2008

Culpan al calentamiento global por la mayor cantidad, y ferocidad de los huracanes


Un artículo aparecido en la revista científica Nature atribuye la elevada frecuencia y feracidad de Gustav, Ike, y otros huracanes al fenómeno del calentamiento global, generado por la actividad del hombre. Entre los datos publicados en el artículo científico, se resalta que la velocidad máxima de los vientos huracanados de los ciclones tropicales viene aumentado significativamente desde 1981. Y esta tendencia al alza, aparentemente generada por un aumento de las temperaturas promedio de los océanos, no tiene visos de amainar en el corto plazo.
Tradicionalmente, en las polémicas sobre cambio climático, los expertos discutían sobre si el calentamiento impactaría elevando la fuerza, el número y la duración de los ciclones tropicales. La física básica y el estudios de modelos del clima parecen sugerir a los meteorólogos que las tormentas tropicales efectivamente, se volverán más intensas, a causa de océanos más cálidos que pueden entregar más energía que termina convertida en ciclones. Sin embargo, algunos escépticos aventuraban que los cambios atmosféricos podría tener un papel inhibidor en las tormentas de veranos (en el hemisferio norte).
Cambios en la perspectiva Ahora, en el último número de Nature, James Elsner, un climatólogo de la Universidad Estatal de Florida, EE.UU, y un grupo de colegas han comprobado que los más fuertes tormentas tropicales son efectivamente- cada vez más violentas, con los aumentos más notables registrándose en el Atlántico Norte y en los océanos del norte de la India. Elsner y su equipo repasaron datos estadísticos obtenidos por satélite sobre las velocidades del viento de los ciclones. Y comprobó que -aunque no hubo prácticamente un aumento en el promedio de número o la intensidad de todas las tormentas, si apareció un cambio significativo en la distribución de los mismos y una suba en la cantidad de huracanes más violentos y que son los que causan mayores estragos.
En otras palabras, se comprobó que, en general, hubo más tormentas con una velocidad máxima del viento superior a 210 kilómetros por hora (lo que las coloca en Categoría 4 y 5). Y el equipo aventuró que la principal causa del cambio observado es el aumento de las temperaturas oceánicas. De hecho, escribieron que una elevación de 1 º C en la temperatura promedio de la superficie del mar se traduciría en un aumento del 31% en la frecuencia mundial de huracanes de categoría 4 y 5 por cada año. O sea, que de 13 huracanes por año se pasaría a una media de 17 grandes tormentas. Hay que acotar que desde 1970, los océanos tropicales se han calentado alrededor de medio grado Celsius y que los modelos matemáticos de cambio climáticos sugieren que puede seguir aumentando su temperatura en hasta dos grados para el año 2100. Mientras tanto, otros científicos han calculado que la cantidad de tormentas de categoría 4 y 5, las más violentas, prácticamente se ha duplicado en número desde los registros tomados en 1970.

Huracanes, cada vez más frecuentes e intensos debido al calentamiento global

Habitantes del estado indio de Bihar, afectados por los anegamientos, cargan sus pertenencias en espera de ser auxiliados por equipos de rescate Los huracanes son una de las fuerzas de mayor poder destructivo en la naturaleza, y su existencia depende de que la temperatura de la superficie de los océanos llegue al menos a 26 grados centígrados. Una pregunta obvia es si Gustav es resultado de la elevación de temperaturas marinas asociada con el calentamiento global. La respuesta simple es que es virtualmente imposible vincular cualquier evento atmosférico con el cambio climático. Sin embargo, cada vez hay mayores indicios de que el calentamiento global podría se la causa de que los huracanes aumenten en frecuencia e intensidad. Ray Nagin, alcalde de Nueva Orleáns, señaló este domingo que la temperatura de la superficie marina en algunas partes del Golfo de México llega a 32.2 grados. Es decir, conforme Gustav cruza el Golfo hacia la costa sur de Estados Unidos, es probable que cobre más fuerza que la categoría 3, en la que estuvo la mayor parte del domingo.
Los científicos han advertido a Nagin que Gustav podría llegar con facilidad a la categoría 5, la mayor en la escala Saffir-Simpson, cuando toque tierra al oeste de Nueva Orleáns, este lunes. Los huracanes no son poco comunes en la región en esta época del año. Se forman cuando el mar se calienta, durante el verano.Todos estos fenómenos comienzan como un grupo de tormentas que se unen para formar columnas de aire húmedo y caliente que se elevan desde el mar. Cuando estas tormentas se concentran, crean pilares de aire húmedo que se extienden desde la superficie marina hasta la frontera superior de la atmósfera. En la base del pilar, la baja presión absorbe más aire y humedad. Entre tanto, el aire de la cúspide se enfría con rapidez, y cae en un pozo central que se vuelve el ojo de la tormenta, conforme la estructura comienza a girar por influencia de la rotación de la Tierra.
La cuestión respecto de los ciclones tropicales es que poseen inmensas cantidades de energía, la cual se absorbe en forma de calor y humedad del océano y se libera de nuevo conforme la humedad se condensa y enfría. La energía de un huracán se libera de dos maneras. Una son las altas velocidades de los vientos de más de 250 kilómetros por hora en uno de categoría 5, y la otra son las olas altas creadas al intensificarse la tormenta como resultado de la baja presión que se forma en la superficie del mar, debajo de la tormenta.Existe poca duda de que los huracanes en el Atlántico norte se han vuelto mucho más frecuentes en las décadas pasadas. Si bien los dos años pasados fueron normales, 2005, el año del huracán Katrina, fue el más activo del que se tenga registro, con 27 tormentas nombradas, de las cuales 15 fueron lo bastante grandes para ser clasificadas como huracanes. De éstas, siete fueron de categoría 3 o mayores: cinco huracanes más que en una típica temporada atlántica. De hecho, el huracán Wilma, de octubre de ese año, fue la tormenta atlántica más fuerte en la historia, al romper el récord anterior, que databa de 1988.
Hasta ahora, 2008 ha sido relativamente activo. Van siete tormentas nombradas, entre ellas tres huracanes. A estas alturas del año pasado iban cinco tormentas nombradas y de ellas sólo una fue huracán. A causa de la naturaleza generalmente caótica de los huracanes, en un tiempo se pensaba que su frecuencia e intensidad tenían poco que ver con el cambio climático. Las diferencias en la actividad anual se atribuían a las condiciones atmosféricas locales, más que al clima. Si bien parecería de sentido común sugerir que quizá el aumento de las temperaturas marinas produzca más huracanes y los vuelva más intensos, de ningún modo es algo obvio. Por ejemplo, una atmósfera más caliente podría volverlos menos intensos al bajar la diferencia de temperatura respecto del mar, y las temperaturas más altas también podrían generar vientos, los cuales dispersarían las tormentas tropicales y volverían menos frecuentes los huracanes.Sin embargo, un estudio de Kerry Emanual, del Instituto Tecnológico de Massachussets, realizado en 2005 comenzó a cambiar este punto de vista: parecía haber un vínculo entre la actividad de los huracanes y la subida en la temperatura oceánica causado por el calentamiento global y el cambio climático. En 2007, un estudio del Centro Nacional de Investigación Atmosférica en Boulder, Colorado, descubrió un nexo entre el número registrado de tormentas tropicales en el Atlántico norte en la década pasada y la elevación de temperaturas y el calentamiento global.

El análisis examinó registros de tormentas de un siglo a la fecha y no encontró otra forma de explicar el incremento en años recientes. “La conclusión es que el reciente aumento de ciclones tropicales se debe en parte al calentamiento de invernadero”, sostuvieron los científicos.

Canadá pierde enormes territorios árticos por el calentamiento global

En lo que va de 2008, las 5 capas de hielo del norte de ese país han disminuido un 23 por ciento, lo que se ha acelerado durante la temporada estival del septentrional hemisferio.De acuerdo a un reporte científico, la isla Ellesmere, en Canadá, ha perdido un cuarto de su territorio, por la separación de enormes regiones de hielo a causa del calentamiento global. Uno de ellos, el Markaham, de 50 kilómetros cuadrados, se ha quebrado por completo, convirtiéndose en un iceberg flotante. Los sucesivos desprendimientos que desde julio pasado se han registrado, implican que las 5 placas de hielo, que durante más de 4 mil años han permanecido inmutables, se están reduciendo con velocidad sorprendente y ya queda sólo un 23 por ciento de la más externa.
Las investigaciones han concluido que la temperatura cálida de la atmósfera ha disminuido las condiciones heladas del océano circundante de la región y así colaborado con los desprendimientos. "Estos eventos son sustanciales en la rápida y drástica reconfiguración de la geografía del Ártico" dijo el doctor Derek Mueller, de la Universidad de Trent, quien asegura además que los cambios son irreversibles con las condiciones climáticas actuales. En julio un substancial bloque de hielo se ha separado de una de las mayores porciones de la isla Ellesmere, conocida como Ward Hunt. Con el reciente desprendimiento de Markham, se estima que los territorios de hielo han disminuido en 122 kilómetros cuadrados en los últimos dos meses. La última pérdida similar a ésta que ha sufrido los territorios del norte de Canadá, ocurrió durante los cálidos veranos de los años '30 y '40. Y las temperaturas en el Ártico están ahora más altas que nunca.

Recomiendan comer menos carne para evitar calentamiento global


Asegura la ONU que la sociedad mundial debería evitar el consumo de este alimento ya que es un factor potente para la generación de gas invernadero. La Organización de las Naciones Unidas (ONU) recomendó a la sociedad mundial a evitar el consumo de carne, debido a que provoca más gases con efecto invernadero que los automóviles e industrias. Según información de la BBC de Londres, el presidente Intergubernamental sobre Cambio Climático (PICC), Rajendra Pachauri, aseguró que las emisiones de gas metano de las empresas están disminuyendo, pero la producción de carne envía un número elevado de gases a la atmósfera de la tierra. "El Fondo de Naciones Unidas para la Agricultura y la Alimentación (FAO) estima que las emisiones directas de la producción de carne, representan aproximadamente el 18% de las emisiones totales de gases con efecto invernadero", dijo Pachauri Por su parte, datos de la FAO revelan que el 18%, incluye los gases con efecto invernadero liberados en cada parte del ciclo de producción de carne: limpieza de la tierra, transporte de fertilizantes, quema de combustibles fósiles en vehículos de granja, y las emisiones delanteras y posteriores de ganados y ovejas.

El cambio climático, hace millones de años

El cambio climático, hace millones de años
El hallazgo de varios bosques fosilizados en minas de carbón en Estados Unidos revela cómo hace más de 300 millones de años perecieron las plantas debido al calentamiento global. Con un aspecto similar al Amazonas, los científicos estudian los restos para intuir cuál será el destino de las selvas húmedas. Varios bosques fosilizados descubiertos en minas de carbón en Estados Unidos constituyen las primeras pruebas prehistóricas de cómo las selvas tropicales son destruidas por el calentamiento global y presagian el futuro del Amazonas.
Los seis bosques petrificados datan de hace entre 303.9 y 309 millones de años, período de fuerte calentamiento global, lo que permite a los investigadores comprobar los efectos del cambio climático sobre un paisaje prehistórico, informa el diario The Times. Según Howard Falco-Lang, de la Universidad de Bristol, los fósiles encontrados a metros de profundidad en los Estados norteamericanos de Illinois y Kentucky indican que ese paisaje estuvo una vez cubierto de árboles musgosos, helechos, equisetos y otras especies de árboles primitivos hace 309 millones de años. Una vez producido el calentamiento global, hace 306.5 millones de años, el paisaje sufrió una profunda transformación y los árboles fueron sustituidos por helechos en forma de maleza, según Falcon-Lang.
Aquellos bosques primitivos, el mayor de los cuales cubre una superficie de 10.000 hectáreas, tenían una vegetación tropical muy similar a la del actual Amazonas, señala el experto británico. "Se trata de los mayores bosques fosilizados del mundo. Es extraordinario encontrarse un paisaje forestal de tal extensión perfectamente conservado", explica Falcon-Lang. Los bosques quedaron sepultados durante temblores de tierra y la vegetación se conservó perfectamente bajo los sedimentos. Las pruebas de su existencia pueden verse actualmente en más de quinientas minas. Falcon-Lang califica de extraordinaria la experiencia de caminar por los túneles de esas minas: "El carbón representa el suelo sobre el que crecía el bosque tropical. Los árboles están en el techo y se ven colgar las raíces".
Según el experto, aquellos árboles enormes padecieron un estrés enorme y murieron por culpa del calentamiento global. "El bosque tropical se colapsó durante ese período de calentamiento extremo. Los árboles musgosos desaparecieron de la noche a la mañana y fueron sustituidos por marañas de helechos. Es lo que puede acabar ocurriéndole al Amazonas", advierte el científico.

Calentamiento global, Confirman deshielo en el Ártico por calentamiento global


Según una nota publicada por The New York Times, varios especialistas en Europa y Estados Unidos están de acuerdo en que, por primera vez, el Pasaje del Noroeste se ha abierto de forma simultánea Especialistas estadounidenses y europeos en el estudio del hielo coincidieron por primera vez en que se ha abierto un círculo de aguas navegables alrededor del contorno de la capa polar del Ártico. Según una nota publicada por The New York Times, varios especialistas en Europa y Estados Unidos están de acuerdo en que, por primera vez, el Pasaje del Noroeste de Norteamérica y la Ruta Marítima del Norte en Europa y Asia se han abierto de forma simultánea en al menos medio siglo, si no es que más. Aunque las corrientes y los vientos juegan un papel importante, indican los expertos, la creciente extensión de aguas abiertas en el norte representa la evidencia más reciente de que el océano Ártico- que antaño fuera una región hostil para cualquier tipo de transporte marítimo excepto para submarinos nucleares y cazadores de focas- se está convirtiendo cada vez más en un océano abierto durante el verano.
Seguramente el calentamiento global provocado por la continua acumulación de gases de efecto invernadero está contribuyendo al retroceso del hielo, concuerdan actualmente especialistas, aunque existen distintos puntos de vista sobre qué tanto de los enormes retrocesos de hielo se deben a la actividad humana. El mes pasado, reportes más recientes informaron que los satélites mostraron aguas navegables en ambas rutas marítimas del Ártico. Sin embargo, esos hallazgos fueron cuestionados por el Centro Nacional de Datos sobre Nieve y Hielo de Estados Unidos, a cargo de la Marina estadounidense y la Administración Nacional Oceánica y Atmosférica. El centro señaló que los satélites que monitorearon el hielo recibieron información confusa debido a la amplia extensión de aguas frescas que se acumularon en lo alto de los témpanos de hielo, lo cual puede dar una imagen parecida a la de las rutas marítimas abiertas.
Sin embargo, el viernes, citando nuevas imágenes tomadas con sensores que pueden distinguir más claramente el hielo del agua, el Centro Nacional de Datos sobre Nieve y Hielo emitió un comunicado en el que concluye: "este es el primer acontecimiento grabado que muestra que el Pasaje del Noroeste y la Ruta Marítima del Norte se están abriendo al mismo tiempo". Durante años, científicos han estado advirtiendo que el calentamiento está provocando que la región se transforme en un área más acuosa. Con un mayor calentamiento, indican expertos, permanecerán extensiones más amplias de aguas abiertas en el verano, seguidas por la formación de hielo en el invierno. Sin embargo, ese hielo será demasiado delgado como para perdurar hasta el siguiente verano. En esencia, las aguas árticas podrían estar comportándose más como las que rodean la Antártica, donde cada invierno se forma una capa de hielo que prácticamente desaparece para el siguiente verano. Como reflejo de la complejidad del clima global, la extensión de hielo invernal en la Antártica se ha estando expandiendo últimamente. Aunque los transportistas han soñado durante siglos con enviar mercancías a través de las rutas del Ártico- enorme atajo en comparación con otras rutas marítimas de distancias largas- Pablo Clemente-Colón, principal científico del Centro Nacional de Datos sobre Nieve y Hielo, dijo que las aguas abiertas en los pasajes de Rusia, especialmente, siguen estando cubiertas con delgados y peligrosos témpanos de hielo y que también se pueden cerrar en cuestión de horas

Huracan 'Ike' destroza Cuba de este a oeste

'Ike' destroza Cuba de este a oeste, Los daños provocados por la serie de ciclones que la han asolado durante el último mes resucitan el fantasma del hambre

'Ike' no tuvo piedad con Cuba. Mató a cuatro personas que se protegían de sus ansias devoradoras, además de destrozar el país de punta a punta. Derrumbó casas, destruyó cosechas, arrancó techos de talleres y naves, volvió a azotar la misma región machacada por 'Gustav' y dejó incomunicadas numerosas poblaciones. Dos hombres murieron cuando la antena de televisión que intentaban desmontar cayó sobre un cable eléctrico y los electrocutó. Un hombre de 35 años pereció aplastado por una pared de su vivienda que no resistió el impacto de un árbol arrancado por el viento. Y una mujer de 72 años quedó sepultada al derrumbarse su casa. No estaban entre el casi millón y medio de cubanos que la Defensa Civil evacuó de las zonas de peligro. Uno de cada diez ciudadanos tuvo que dejar su vivienda.
Las autoridades no han cuantificado los daños causados por 'Ike', que se suman a los destrozos millonarios que dejó 'Gustav', y a la precaria situación económica de la isla. 'Gustav' dañó 140.000 viviendas, más de 500 escuelas y centros sanitarios, miles de hectáreas de cultivos, unas 150 torres de alta tensión, más unos 1.000 postes de tendido eléctrico y telefónico, 3.500 secaderos de tabaco y 1.500 naves de almacenamiento. En la zona oriental han quedado arruinadas las cosechas, entre ellas las del plátano, alimento imprescindible en las mesas cubanas junto con el arroz y los frijoles. También se perdieron cultivos de otras viandas y hortalizas. «Vamos a pasar mucho hambre», comentaba preocupada Dalia García.
Fidel Castro se preguntaba el lunes: «¿Dónde quedarán un racimo de plátanos, una fruta o los vegetales de un huerto intensivo? ¿Dónde un cultivo de frijoles y otros granos? ¿Dónde un campo de arroz o caña? ¿Dónde un centro de producción avícola, porcina o lechera?». La cuenta es aterradora. Si con el actual rendimiento de la agricultura cubana el gobierno necesitaba importar el 84% de los alimentos, ¿qué pasará ahora? ¿Podrá la nueva reforma agraria (entrega en usufructo de tierras a campesinos), que ya se aplica, contrarrestar los efectos de los huracanes? El tiempo lo dirá, pero la consecuencia lógica será el incremento de los precios, algo que pocos cubanos pueden asumir. Ayer, el sol salía en Baracoa y con él comenzaron los trabajos de recuperación. De madrugada, excavadoras y volquetes retiraban escombros para abrir las vías principales de la ciudad. La misma disposición había en el resto de las provincias orientales: Guantánamo, Granma, Las Tunas Holguín y Camagüey. Numerosas viviendas sufrieron derrumbes y otras muchas están dañadas, pero la caída de postes ha cortado la red de electricidad y telefónica, incomunicando a muchas localidades.
Nuevo embate
Mientras, el occidente sufría desde la madrugada el embate de vientos y lluvias. 'Ike' tocó tierra en la costa sur de Pinar del Río con la categoría 1 de las 5 de la escala Saffir-Simpson, con vientos sostenidos de 130 y rachas de 150, una fuerza 16 veces menor que la de 'Gustav'. Al mediodía, su ojo estaba sobre San Cristóbal uno de los ocho municipios severamente castigados por 'Gustav' días atrás. Las rachas huracanadas aullaban en La Habana, sin energía eléctrica desde la noche del lunes, y grandes ramas de árboles centenarios sucumbieron ante la fuerza de vientos que llegaron a soplar a 130 kilómetros por hora. El temor más extendido era ver qué pasará con las 80.000 viviendas en mal estado que hay en varios municipios de La Habana, especialmente en La Habana vieja y centro. Para mantener informados a los cubanos se habilitó un número de teléfono especial que proporciona partes meteorológicos para aquellos que no tienen radio. La televisión cubana transmite desde el domingo un programa informativo especial sobre el ciclón. Se muestran olas gigantescas, ríos desbordados, calles cortadas con árboles, carteles, troncos y escombros. Los especialistas alertan sobre la necesidad de reforzar las medidas higiénicas, especialmente hervir el agua, para evitar enfermedades infectocontagiosas.
Anteanoche informaron de la llegada de la ayuda española y mostraron imágenes del momento, el viernes, en que las cajas con el emblema de la Agencia Española de Cooperación Internacional que era cargadas en un avión que iba a despegar rumbo a Cuba.

domingo, 7 de septiembre de 2008

Huracán Ike se acerca a Cuba con vientos de 215 kph



LA HABANA (Reuters) - El huracán Ike se acercaba el domingo a Cuba con feroces vientos de 215 kilómetros por hora, obligando a evacuar a centenares de miles de personas frente al embate del segundo ciclón de categoría 4 en una semana. La tormenta podría zambullirse luego en el Golfo de México, amenazando los yacimientos petroleros de donde Estados Unidos extrae un cuarto de su crudo. Ike azotará Cuba mientras la isla intenta todavía reponerse de la devastación causada hace ocho días por el huracán Gustav, que dañó más de 100.000 viviendas en la provincia occidental de Pinar del Río. Ike, un ciclón de categoría 4 en la escala Saffir-Simpson de cinco, tocaría tierra en torno a las 2200 hora EDT (0200 GMT del lunes), dijo el Instituto de Meteorología de Cuba. "Es un huracán extremadamente peligroso," advirtió el Centro Nacional de Huracanes (CNH) de Estados Unidos, que alertó que la marea podía subir hasta 5,5 metros. A las 1400 horas EDT (1800 GMT), el ojo de Ike estaba justo al oeste de la Isla Inagua y a 155 kilómetros al este-nordeste de Guantánamo, la punta oriental de Cuba. "Es muy severo," dijo Shanie Roker desde la Isla Inagua. "Hay mucho viento y lluvia. Los techos en Matthew Town están siendo dañados y los árboles derribados," explicó. Según la televisión estatal cubana, olas de hasta seis metros de altura castigaban el domingo la ciudad colonial de Baracoa, en el extremo oriental de Cuba. Los modelos informáticos sugieren que Ike entrará a Cuba por la provincia oriental de Holguín y se desplazará durante unas 34 horas a lo largo de la isla. Su impacto económico podría ser devastador, pues de mantener su trayectoria afectaría las minas de níquel de Holguín, buena parte de las plantaciones de caña de azúcar y varios importantes balnearios de la costa norte.
TURISTAS A SALVO
En Varadero, el principal balneario de Cuba a 140 kilómetros al este de La Habana, las autoridades preparaban la evacuación de hasta 13.000 turistas.
La agencia estatal de noticias AIN dijo que las autoridades estaban incluso hablando con los operadores turísticos para que envíen aviones a Cuba para evacuar a los turistas extranjeros. Las autoridades cubanas evacuaron a más de 300.000 personas en el oriente de la isla. "Las vidas, esa es nuestra prioridad, hacer todo lo que esté a nuestro alcance para evitar la pérdida de vidas," declaró el vicepresidente cubano, José Ramón Machado, a una radio estatal. Varios modelos indican que Ike podría emerger al Golfo de México a la altura de La Habana, una ciudad de poco más de dos millones de habitantes que fue puesta en la tarde del domingo bajo "alerta ciclónica." Ike avanzaba con rumbo oeste a 21 kilómetros por hora.

viernes, 5 de septiembre de 2008

Nieva en Kenia y por primera vez se puede circunnavegar el Polo Norte ¿Cambio climatológico, Calentamiento Global?

Los habitantes de Kenia no daban crédito a lo que veían sus ojos: había nevado. Tan excepcional es el fenómeno que la zona se ha llenado de curiosos que querían ver, tocar, incluso saborear la nieve que solo habían visto en televisión. Pero mientras unos se divertían, las autoridades recordaban que este puede ser el primer signo del cambio climático en África. Ésta era una zona de bosque que nunca se reforestó. Solo se habían escuchado noticias de Kenia relacionadas a sus excelentes velocistas. Ahora, en un hecho sorprendente, las agencias internacionales reportaron este miércoles una fuerte granizada en este lejano país del África. El hecho se registró en un pueblo cercano a la ciudad de Nyahururu, a unos 220 kilómetros de Nairobi. La admiración de los habitantes por la caída del hielo fue tal, que la zona se llenó de decenas de curiosos que querían ver, tocar, incluso saborear la nieve que solo habían visto alguna vez por la televisión. Kenia se encuentra en el este de África, en las costas del Índico. Limita al norte con Sudán y Etiopía, al noreste con Somalia, al oeste con Uganda, al sur con Tanzania y al este con el océano Índico. Pero mientras unos se divertían, las autoridades locales recordaban que este puede ser el primer signo del cambio climático en África en una zona de bosque que nunca se reforestó.
Solo hace días atrás se registraron alarmantes fotografías del Polo Norte, que por acción del efecto del calentamiento global se moldeo como una gran Isla. Debido al retiro de los hielos. Por primera vez en la historia de la Humanidad se puede circunnavegar el Polo Norte. Así se desprende de las imágenes de satélite ofrecidas por la web del Instituto de Física Ambiental de la Universidad de Bremen (Alemania). En las imágenes, se puede ver claramente cómo el casquete polar está rodeado de mar, sin ningún brazo helado que lo conecte a la plataforma continental, ya sea por el Este o por el Oeste. El Paso del Noroeste se abrió el fin de semana del 23 y 24 de agosto y el último obstáculo helado del Paso del Este, un área de hielo marino que se extendía hacia Siberia, se derritió unos pocos días después. Por tanto, el casquete polar es ahora una isla en mitad del océano. Nunca antes en al menos 125.000 años estos pasajes se habían abierto simultáneamente. En el verano de 2005 el Pasaje del Noreste (alrededor de Rusia) quedó temporalmente desbloqueado. El año pasado fue el Paso del Noroeste el que quedó libre de hielo en todo el camino desde el Pacífico al Atlántico por primera vez en nuestra historia. “Esto es un hecho histórico”, dice en The Independent Mark Serreze, del Centro Nacional de la Nieve y el Hielo, perteneciente a la Universidad de Colorado en Boulder. Por eso es extraño que sea un centro alemán y no la NASA quien haya dado a conocer estas imágenes, toda vez que proceden de uno de sus satélites.

sábado, 30 de agosto de 2008

EMERGENCIA en El Caribe, Cuba azotada por Gustav, convertido en poderoso Huracán categoría 4 Evacuan Nueva Orleans por la inminente llegada

EMERGENCIA en El Caribe, Cuba azotada por Gustav, convertido en poderoso Huracán categoría 4 Evacuan Nueva Orleans por la inminente llegadaSábado 30 de agosto 2008La ciudad, que hace 3 años fue arrasada por el Katrina, se prepara para la llegada de un nuevo ciclón. Las autoridades dispusieron micros para los que no tienen vehículos. El huracán Gustav, que ya dejó 85 muertos en su paso devastador por el Caribe, se acerca a Cuba con fuerza de categoría tres y debe atravesar la isla por el occidente, en su ruta al Golfo de México y las costas de Nueva Orleans. Residentes de Nueva Orleans decidieron evacuar ante el temor de repetir la historia de hace tres años cuando su ciudad de unos 300 mil habitantes fue devastada por el huracán Katrina, informó el Centro Nacional de Huracanes de Estados Unidos (CNH). Meteorólogos del centro con base en Miami dijeron que los vientos máximos sostenidos de Gustav alcanzaron los 195 kilómetros por hora en la escala Saffir-Simpson de cinco etapas. Cualquier tormenta con vientos de al menos 178 kilómetros por hora es considerada como "seria" por el CNH. El pronóstico más probable indica que llegaría a la costa occidental de Nueva Orleans el martes. Aunque los pronósticos a largo plazo a menudo son poco acertados, el CNH sostuvo que Gustav alcanzó la categoría 4 Se espera que caigan entre 15 y 30 centímetros de lluvia en las Islas Caimán y el centro y oeste de Cuba, donde es posible que ocurran inundaciones y deslaves. Entre 2,5 a 8 centímetros de lluvia podrían caer sobre los cayos de Florida y las zonas más australes del estado antes de la mañana del domingo, dijo el centro. Funcionarios de emergencias de Estados Unidos advirtieron que se espera que Gustav sea acompañado por una marejada de entre 5 a 9 metros a lo largo de la costa del Golfo, y dijeron que se espera que 4 estados que se encuentran en su posible camino inicien evacuaciones el sábado. "Esta tormenta tiene el potencial de ser una tormenta muy peligrosa", dijo Bill Irwin, director de programa del Cuerpo de Ingenieros del Ejército de Estados Unidos.EMPLEADOS A MAR ABIERTO EVACUADOSLos precios del petróleo bajaron el viernes después de una semana de volatilidad debido a la amenaza que Gustav representa para las 4.000 plataformas que producen un cuarto del petróleo de Estados Unidos y un 15 por ciento de su gas natural. Las compañías energéticas evacuaron a sus trabajadores situados en plantas mar adentro y cerraron su producción, como medida de precaución ante la llegada de la tormenta más poderosa desde la devastadora temporada de huracanes del Atlántico 2005. Katrina fue un monstruoso huracán Categoría 5 en el Golfo de México antes de tocar tierra cerca de Nueva Orleans como categoría 3, el 29 de agosto del 2005, quebrando sus diques de protección e inundando la ciudad, famosa por ser el lugar de nacimiento del jazz.
Ver enlace actualizado del Poderoso Huracán

jueves, 28 de agosto de 2008

Amenaza Gustav como posible huracán, se desvía hacia Jamaica

Amenaza Gustav como posible huracán, se desvía hacia Jamaica

La tormenta tropical Gustav parece tomar fuerza de huracán. Gustav también podría dirigirse, por el Golfo de México, hacia Louisiana, Estados Unidos El centro de la tormenta deberá pasar muy cerca de Jamaica. La tormenta tropical Gustav parecía recobrar fuerza de huracán hoy, mientras viró su trayectoria hacia el sur de Jamaica, alejándose de Cuba, y parecía dirigirse por el Golfo de México hacia Louisiana, Estados Unidos.

El Centro Nacional de Huracanes (CNH) de Estados Unidos informó que Gustav tenía vientos máximos sostenidos de 110 kilómetros por hora y se proyectaba que este mismo jueves se convierta de nuevo en huracán. El vórtice de Gustav giró hacia el oeste-suroeste en las últimas horas y se pronostica un giro gradual hacia el oeste-noroeste el viernes. Gustav alcanzó la categoría de huracán el martes pasado y tras impactar Haití se debilitó a tormenta.
El centro de la tormenta deberá pasar muy cerca de Jamaica este jueves y se pronostica que llegará a Louisiana el lunes próximo convertido en huracán de categoría dos o tres en la escala Saffir-Simpson de cinco, según los meteorólogos estadunidenses. Los expertos recordaron que Louisiana sufrió serios estragos hace tres años causados por el huracán Katrina.

Los pronósticos de largo plazo del CNH establecen que la tormenta podría tocar tierra en cualquier lugar entre los estados de Florida y Texas, pero una de las trayectorias más probables la lleva a Nueva Orleans, ciudad devastada en 2005 por el huracán Katrina. El gobernador de Nueva Orleans, Ray Nagin, abandonó la Convención Nacional Demócrata en Denver el miércoles y viajó de regreso para coordinar los preparativos ante la posibilidad de una evacuación masiva. A diferencia del huracán Katrina, Nagin dijo a la cadena CN que no utilizará refugios como el estadio Superdomo y que los residentes serían evacuados de la ciudad y confió en que está ocasión los diques de la ciudad si resistan. Hace tres años el derrumbe de diques provocó inundaciones que causaron unos mil 500 muertos y dejó daños materiales de unos 80 mil millones de dólares, en una de las peores tragedias que se recuerden en el país.

Hasta el momento en su paso por el Caribe, Gustav ha resultado ser una tormenta mortífera. Unas 23 personas murieron en aludes de tierra e inundaciones; 15 de ellas en Haití y el resto en República Dominicana, afirmaron reportes oficiales. En Cuba se informó que en la provincia de Santiago más de 35 mil personas fueron trasladadas a lugares seguros y en Granma más de 27 mil. A pesar de las lluvias las autoridades cubanas no informaron de fallecimientos hasta el momento. El nerviosismo por el avance de Gustav rumbo al Golfo de México, de donde se extrae una cuarta parte de la producción de petróleo de Estados Unidos, provocó que los precios mundiales del crudo alcanzaran un precio de 120 dólares por barril. La semana pasada la tormenta tropical Fay dejó 40 muertes entre Haití, Dominicana, Cuba y Florida, Estados Unidos.

Gustav es el tercer huracán de la temporada 2008 en el Atlántico norte, que va del 1 de junio al 30 de noviembre y meteorólogos proyectan que la temporada será aún más activa.

miércoles, 27 de agosto de 2008

Tormenta tropical Gustav se aleja de Haití



La tormenta tropical Gustav se alejó el miércoles de Haití y República Dominicana tras provocar 16 muertes y los meteorólogos advirtieron que aún podría convertirse en un huracán peligroso para los campos petroleros del Golfo de México. Los precios del petróleo subieron en tres dólares el barril debido a la amenaza de Gustav a las instalaciones energéticas de Estados Unidos. La trayectoria de largo plazo más probable de la tormenta apuntaba hacia la costa estadounidense del Golfo, en algún lugar entre los estados de Florida y Texas. La zona del Golfo alberga un cuarto de la producción petrolera de Estados Unidos y del 15 por ciento de gas natural. La séptima tormenta de la temporada atlántica de huracanes descargó lluvias torrenciales que provocaron inundaciones y aludes causando la muerte de al menos ocho personas en República Dominicana y otras ocho en el vecino Haití, dijeron las autoridades. La tormenta se mantuvo durante un día cerca de Haití, una evolución peligrosa para la empobrecida nación de cerca de nueve millones de habitantes, donde las laderas de las colinas fueron deforestadas y las intensas lluvias suelen causar desastrosos aludes. Entre los muertos en Haití hubo al menos tres fallecidos en un alud, una mujer que pereció cuando intentaba cruzar un río y otra persona aplastada por un árbol, dijeron las autoridades. En la vecina República Dominicana, ocho personas, siete de la misma familia, quedaron sepultadas bajo el lodo cuando una ladera colapsó justo al norte de Santo Domingo. A las 1500 horas GMT Gustav se situó a 177 kilómetros al oeste de la empobrecida y deteriorada capital de Haití, Puerto Príncipe, tras tocar tierra un día antes como huracán cerca de la ciudad sureña de Jacmel, dijo el Centro Nacional de Huracanes de Estados Unidos. La tormenta avanzaba hacia el oeste-noroeste a una velocidad de 8 kilómetros por hora, en una dirección que le permitiría recuperar fuerza sobre las profundas aguas cálidas al sur de Cuba. Su dirección lo llevaría al Golfo de México, probablemente como el primer huracán importante en amenazar las instalaciones energéticas estadounidenses allí desde los huracanes Katrina y Rita, en el 2005. Los huracanes importantes son aquellos que se clasifican como Categoría 3 o más en la escala Saffir-Simpson de cinco niveles de intensidad. Katrina y Rita, ambas tormentas de Categoría 5 en el Golfo, obligaron a suspender alrededor de un cuarto de la producción de crudo y gas estadounidense, dañando las plataformas marítimas y cortando los ductos.
El pronóstico del Centro Nacional de Huracanes para los próximos cuatro días estima los vientos máximos sostenidos de Gustav en hasta 185 kilómetros por hora, convirtiéndolo en un fuerte huracán Categoría 3. Las compañías petroleras importantes comenzaron a evacuar a su personal de las plataformas del Golfo. Gustav podría interrumpir el 85 por ciento de la producción estadounidense en las plataformas del Golfo, según el servicio meteorológico privado Planalytics.

Tormenta Tropical



Una tormenta o tempestad es un fenómeno atmosférico caracterizado por la coexistencia próxima de dos o más masas de aire de diferentes temperaturas.

El contraste térmico y otras propiedades de las masas de aire (humedad) dan origen al desarrollo de fuertes movimientos ascendentes y descendentes (convección) produciendo una serie de efectos característicos, como fuertes lluvias y viento en la superficie e intenso aparato eléctrico. Esta actividad eléctrica se pone de manifiesto cuando se alcanza la tensión de ruptura del aire, momento en el que se establece el rayo eléctrico que da origen a los fenómenos característicos de relámpago y trueno. La aparición de relámpagos depende de factores tales como el grado de ionización atmosférico, además del tipo y la concentración de la precipitación. Las tormentas obtienen su energía de la liberación de calor latente que se produce en la condensación del vapor de agua en las parcelas ascendentes de la tormenta. El término anglosajón (Storm) se refiere estrictamente y en el ámbito meteorológico únicamente a tormentas intensas con vientos en superficie de al menos 80 km/h. El término castellano es mucho menos restrictivo. Las tormentas producen nubes de desarrollo vertical -Cumulonimbus - Cumulus- que pueden llegar hasta la tropopausa en torno a 10 km de altura. El ciclo de actividad de una tormenta típica presenta una fase inicial de formación, intermedia de madurez y final de decaimiento que dura en torno a una o dos horas. Típicamente una célula convectiva de tormenta posee una extensión horizontal de unos 10x10 km. Sin embargo, frecuentemente se producen simultánea o casi simultáneamente varias células convectivas que desencadenan fuertes precipitaciones durante un periodo de tiempo más largo. En ocasiones, cuando las condiciones del viento son adecuadas, una tormenta puede evolucionar hasta el estado de supercélula originando series de corrientes ascendentes y descendentes y abundante precipitación durante varias horas. Las tormentas pueden contener vórtices de aires, es decir, viento girando en torno a un centro (como los huracanes). Las tormentas que contienen estos vórtices son muy intensas y sólo las producen la trombas y los tornados, además suelen originarse en zonas muy cerradas, donde el viento no tiene suficiente escape. Una tormenta tropical hace referencia a una tormenta de mayores dimensiones en latitudes subtropicales alternando regiones ascendentes y descendentes y capaz de evolucionar potencialmente hasta el estado de huracán.

jueves, 7 de agosto de 2008

La contaminación sigue siendo el tema en Olimpiadas Beijing 2008



Los deportistas que participan en los juegos han manifestado preocupación por esta situación ambiental. La bruma espesa que cubre la ciudad ilustra lo difícil que puede ser despejar el aire en la ciudad sede de las Olimpiadas
El aire contaminado de Beijing puso de manifiesto el problema acuciante más visible para los organizadores olímpicos que habían prometido limpiar la capital

BEIJING, CHINA.- Una espesa neblina gris en torno del Estadio Nacional y sobre la ciudad redujo la visibilidad a un kilómetro y medio. En vísperas de la ceremonia inaugural de los Juegos Olímpicos, el aire contaminado de Beijing puso de manifiesto el problema acuciante más visible para los organizadores olímpicos que habían prometido limpiar la capital. Pese a los enormes esfuerzos chinos por mejorar la calidad del aire en los meses anteriores a las olimpíadas, la bruma espesa que cubría la ciudad el jueves ilustra lo difícil que puede ser despejar el aire. Al fin de cuentas dependerá de las circunstancias climáticas: viento y lluvia. ``Yo esperaba que las medidas pudieran tener más efecto que la semana pasada'', dijo Zhu Tong, profesor adjunto en el Colegio de Ciencia e Ingeniería Ambiental, en la Universidad de Beijing, que ha aconsejado al gobierno en cuestiones de contaminación.

``Lamentablemente, tuvimos condiciones meteorológicas que no fueron propicias para despejar el ambiente. Por eso, el aire estancado en Beijing ha contribuido a que se acumularan los contaminantes. Espero que en el próximo par de semanas tengamos condiciones que nos permitan limpiar los aires''.
El pronóstico para el viernes, durante la ceremonia inaugural de los juegos, anticipaba cielo cubierto con ligera probabilidad de lluvias por la tarde, dijo la agencia meteorológica china. Pero el alivio podría llegar el fin de semana, con un pronóstico de lluvias moderadas que podrían despejar los contaminantes.
El jueves, el índice de contaminación en el aire era de 96, que se acercaba al límite de aire aceptable. Los registros de 51 a 100 son considerados contaminación moderada, y todo lo que sobrepase los 100 es perjudicial para los grupos sensibles, incluyendo niños y ancianos.

Se han recopilado sus propios datos sobre contaminación desde mediados de julio con registros sobre el peor contaminante, partículas diminutas conocidas como partículas en suspensión 10. Los registros independientes recopilados en la principal avenida olímpica indican que, aunque hay notables altibajos, las concentraciones de PM10 eran a menudo muy superiores a lo que la Organización Mundial de la Salud considera saludables. El viernes, las lecturas revelaron una concentración de PM10 de 373 microgramos por metro cúbico, muy por encima de los 50 que la OMS considera saludable.

El aire notoriamente contaminado en esta megaciudad de 17 millones de habitantes ha sido una preocupación desde que Beijing ganó la organización de los juegos en el 2001. China ha invertido 140 mil millones de yuans (20 mil millones de dólares) para descontaminar la ciudad. Pero los esfuerzos ambientalistas han sido contrarrestados por la constante construcción y el aumento del tránsito. Los deportistas que participan en los juegos del 8 al 24 de agosto han manifestado preocupación desde el comienzo por las consecuencias de la contaminación sobre su salud y su desempeño, y muchos optaron por entrenarse fuera de Beijing.

martes, 5 de agosto de 2008

Ecología



Ernst Haeckel.
La ecología es el estudio de la relación entre los seres vivos y su ambiente o de la distribución y abundancia de los seres vivos, y cómo esas propiedades son afectadas por la interacción entre los organismos y su ambiente. El ambiente incluye las propiedades físicas que pueden ser descritas como la suma de factores abióticos locales, como el clima y la geología, y los demás organismos que comparten ese hábitat (factores bióticos).

Historia

el término Ökologie fue introducido en 1866 por el prusiano Ernst Haeckel en su trabajo Morfología General del Organismo; está compuesto por las palabras griegas oikos (casa, vivienda, hogar) y logos (estudio), por ello Ecología significa "el estudio de los hogares".

En un principio, Haeckel entendía por ecología a la ciencia que estudia las relaciones de los seres vivos con su ambiente, pero más tarde amplió esta definición al estudio de las características del medio, que también incluye el transporte de materia y energía y su transformación por las comunidades biológicas. wikipedia hp

Objeto de estudio

La ecología es la rama de la Biología que estudia los seres vivos, su medio y las relaciones que establecen entre ellos. Éstos pueden ser estudiados a muchos niveles diferentes, desde las proteínas y ácidos nucleicos (en la bioquímica y la biología molecular), a las células (biología celular), tejidos (histología), individuos (botánica, zoología, fisiología, bacteriología, virología, micología y otras) y, finalmente, al nivel de las poblaciones, comunidades, ecosistemas y la biosfera. Éstos últimos son los sujetos de estudio de la ecología.

Dado que se concentra en los más altos niveles de organización de la vida en la Tierra y en la interacción entre los individuos y su ambiente, la ecología es una ciencia multidisciplinaria que utiliza herramientas de otras ramas de la ciencia, especialmente Geología, Meteorología, Geografía, Física, Química y Matemática.

Los trabajos de investigación en esta disciplina se diferencian con respecto de la mayoría de los trabajos en las demás ramas de la Biología por su mayor uso de herramientas matemáticas, como la estadística y los modelos matemáticos.


Como disciplina científica en donde intervienen diferentes caracteres la ecología no puede dictar qué es "bueno" o "malo". Aun así, se puede considerar que el mantenimiento de la biodiversidad y sus objetivos relacionados han provisto la base científica para expresar los objetivos del ecologismo y, así mismo, le ha provisto la metodología y terminología para expresar los problemas ambientales.

Una rama muy importante de la ecología es la ecología microbiana, que estudia a los microorganismos en los diferentes ambientes: aire, agua y tierra. En los últimos años se han logrado numerosos avances en esta disciplina con las técnicas disponibles de biología molecular.

La Agronomía, Pesquería y, en general, toda disciplina que tenga relación con la explotación o conservación de recursos naturales, en especial seres vivos, tienen la misma relación con la ecología que gran parte de las ingenierías con la Matemática, Física y Química.

Las ciencias económicas comparten una buena proporción de la parte formal de la ecología; algunas herramientas utilizadas en esta disciplina, como tablas de vida y teoría de juegos, tuvieron su origen en la economía. La ciencia que integra ambas disciplinas es la economía ecológica.

La ecología microbiana es la rama de la ecología que estudia a los microorganismos en su ambiente natural, los cuales mantienen una actividad continua imprescindible para la vida en la Tierra. Los mecanismos que mantienen la diversidad microbiana de la biosfera son la base de la dinámica de los ecosistemas terrestres, acuáticos y aéreos. Es decir, la base de la existencia de las selvas y de los sistemas agrícolas, entre otros. Por otra parte, la diversidad microbiana del suelo es la causa de la fertilidad del mismo.

La ecología matemática se dedica a la aplicación de los teoremas y métodos matemáticos a los problemas de la relación de los seres vivos con su medio y es, por tanto, una rama de la biología. Esta disciplina provee de la base formal para la enunciación de gran parte de la ecología teórica

La Ecología de la recreación es el estudio científico de las relaciones ecológicas entre el ser humano y la naturaleza dentro de un contexto recreativo. Los estudios preliminares se centraron principalmente en los impactos de los visitantes en áreas naturales. Mientras que los primeros estudios sobre impactos humanos datan de finales de la década de los 20, no fue sino hasta los 70s que se reunió una importante cantidad de material documental sobre ecología de la recreación, época en la cual algunos países sufrieron un exceso de visitantes en áreas naturales, lo que ocasionó desequilibrios dentro de procesos ecológicos en dichas zonas. A pesar de su importancia para el turismo sostenible y para el manejo de áreas protegidas, la investigación en este campo ha sido escasa, dispersa y relativamente desarticulada, especialmente en países biodiversos.

La Ecología del Paisaje es una disciplina a caballo entre la geografía física orientada regionalmente y la biología. Estudia los paisajes naturales prestando especial atención a los grupos humanos como agentes transformadores de la dinámica físico-ecológica de éstos. Ha recibido aportes tando de la geografía física como de la biología, ya que si bien la geografía aporta las visiones estructurales del paisaje (el estudio de la estructura horizontal o del mosaico de subecosistemas que conforman el paisaje), la biología nos aportará la visión funcional del paisaje (las relaciones verticales de materia y energía). Este concepto comienza en 1898, con el geógrafo, padre de la pedología rusa, Vasily Vasilievich Dokuchaev y fue más tarde continuado por el geógrafo alemán Carl Troll. Es una disciplina muy relacionada con otras áreas como la Geoquímica, la Geobotánica, las Ciencias Forestales o la Pedología.

La Biogeografía es la ciencia que estudia la distribución de los seres vivos sobre la Tierra, así como los procesos que la han originado, que la modifican y que la pueden hacer desaparecer. Es una ciencia interdisciplinaria, de manera que aunque formalmente es una rama de la Geografía, recibiendo parte de sus fundamentos de especialidades como la Climatología y otras Ciencias de la Tierra, es a la vez parte de la Biología. La superficie de la Tierra no es uniforme, ni en toda ella existen las mismas características. El espacio isotrópico que utilizan, o suponen, los esquemas teóricos de localización es tan solo una construcción matemática del espacio.

Invención


Creación de nuevos dispositivos, objetos, ideas o procedimientos para conseguir un objetivo humano. El proceso de invención va invariablemente precedido de uno o más descubrimientos que ayudan al inventor a resolver el problema en cuestión. Un descubrimiento puede ser accidental (como el descubrimiento de los rayos X por Wilhelm Conrad Roentgen al experimentar con los rayos catódicos), o inducido (como cuando Benjamin Franklin inventó el pararrayos después de descubrir la naturaleza eléctrica del rayo).
Generalmente, el término invención se aplica sólo a la creación de un nuevo material o dispositivo y el término inventor a la persona que lo ha creado. A veces el término invención se aplica también a un nuevo procedimiento, como cuando, por ejemplo, una persona inventa un nuevo juego o un nuevo sistema de contabilidad. Sin embargo, la definición estricta de invento es cualquier cosa producida por una persona que tenga la característica de ser relativamente nueva y única. Esta definición fue adoptada por Johann Sebastian Bach cuando tituló Invenciones a una serie de composiciones para teclado. Véase Invención (música).
En la mayoría de los países se reconocen legalmente determinadas clases de invenciones, y su uso queda durante un tiempo bajo control del inventor. En los países industrializados cualquier arte, máquina, fabricación o material nuevo y útil o cualquier mejora o modificación de éstos puede quedar protegido con una patente. Textos escritos, música, pinturas, esculturas y fotografías pueden protegerse con los derechos de autor. La protección que supone este reconocimiento legal es limitada y en muchos casos si una persona modifica un invento con el fin de mejorarlo tiene opción a solicitar una nueva patente o derechos de autor. La legislación sobre patentes y derechos de autor no cubre todas las invenciones. Muchos procesos e ideas que no presentan unas características claras (como los conceptos psicológicos utilizados en publicidad) carecen de protección legal.
Adaptabilidad
La capacidad de invención, restringida al Homo sapiens y tal vez a unos pocos animales, implica también una capacidad continuada para adaptar los descubrimientos a la vida cotidiana. En el caso de los seres humanos, el desarrollo de las metodologías va precedido y seguido por descubrimientos de leyes naturales que facilitan la construcción. El patrón de descubrimiento seguido de invención, seguida de otro descubrimiento (que supone un continuo desarrollo de nuevos conceptos, procedimientos y dispositivos) es característico de la capacidad de invención de la especie humana.
Primeras invenciones

Los primeros utensilios ya pusieron de manifiesto la capacidad de invención del ser humano. Los nombres de las grandes eras de la arqueología (edad de piedra, edad del bronce y edad del hierro) se derivan del tipo de herramienta utilizada (piedra o metal). Los primeros utensilios de piedra eran toscos, pero servían para defenderse y para recoger alimentos, actos fundamentales para poder sobrevivir. Muchas de las principales invenciones se produjeron antes del periodo de la historia escrita. Entre ellas se encuentra la invención de las primeras herramientas, el desarrollo del lenguaje hablado, el cultivo de plantas, la domesticación de animales, el desarrollo de técnicas de construcción, la producción y el control del fuego, el trabajo del barro o arcilla, el desarrollo de sencillos sistemas políticos y la invención de la rueda.
El periodo de la historia escrita comenzó con la invención de la escritura. Ésta, como medio de comunicación de masas, adquirió un gran auge con la invención de la imprenta en el siglo XV. El proceso creativo siguió su curso durante todo el periodo de la historia escrita, pero a partir de la aparición de los libros impresos, los descubrimientos del pasado han estado accesibles de forma generalizada y se han podido utilizar como punto de partida para otros descubrimientos e invenciones.
La era de las máquinas

La era de las máquinas, que comenzó con la Revolución Industrial y llega hasta nuestros días, se desarrolló a partir de una serie de invenciones entre las que destaca el uso de combustibles fósiles (como el carbón) como fuente de energía, la mejora de los procesos metalúrgicos (especialmente el acero y el aluminio), el desarrollo de la electricidad y de la electrónica, la invención del motor de combustión interna y el uso del metal y del cemento u hormigón en la construcción. Los avances actuales para optimizar la utilización de energía prometen iniciar una nueva era de creatividad.
Los primeros inventores solían trabajar aislados y no podían financiarse sus propios inventos. En algunos casos, dos personas que trabajaban de forma independiente consiguieron descubrir lo mismo; sin embargo, el descubrimiento sólo fue atribuido a uno de ellos. Esto sucedió con Elisha Gray y Alexander Graham Bell, que solicitaron la patente del teléfono el mismo día. La autoría del descubrimiento del cálculo fue amargamente disputada entre Isaac Newton y Gottfried Wilhelm Leibniz.
Actualmente, la mayor parte de las invenciones y de los descubrimientos se realizan en grandes organizaciones de investigación financiadas por universidades, asociaciones gubernamentales, industrias o fundaciones privadas. Por esta razón, cada vez es más difícil adscribir una invención a una sola persona. Los investigadores en los laboratorios modernos forman a menudo parte de un proyecto global y la planificación y el desarrollo del mismo suele ser el trabajo de todo un grupo. La bomba atómica, por ejemplo, fue desarrollada durante la II Guerra Mundial por un pequeño grupo de científicos de diferentes nacionalidades, que, a su vez, dirigían un grupo mucho mayor de científicos y técnicos, la mayoría de los cuales desconocía la finalidad del proyecto (véase Armas nucleares). Otro ejemplo significativo de cooperación en la investigación es el desarrollo de la computadora digital electrónica, dispositivo esencial para almacenar, recuperar y manipular grandes volúmenes de información.

Efectos de la tecnología



Durante las últimas décadas, algunos observadores han comenzado a advertir sobre algunos resultados de la tecnología que también poseen aspectos destructivos y perjudiciales. De la década de 1970 a la de 1980, el número de estos resultados negativos ha aumentado y sus problemas han alcanzado difusión pública. Los observadores señalaron, entre otros peligros, que los tubos de escape de los automóviles estaban contaminando la atmósfera, que los recursos mundiales se estaban usando por encima de sus posibilidades, que pesticidas como el DDT amenazaban la cadena alimenticia, y que los residuos minerales de una gran variedad de recursos industriales estaban contaminando las reservas de agua subterránea. En las últimas décadas, se argumenta que el medio ambiente ha sido tan dañado por los procesos tecnológicos que uno de los mayores desafíos de la sociedad moderna es la búsqueda de lugares para almacenar la gran cantidad de residuos que se producen. Véase Lluvia ácida; Contaminación atmosférica; Conservación; Ecología; Capa de ozono; Lluvia radiactiva. Los problemas originados por la tecnología son la consecuencia de la incapacidad de predecir o valorar sus posibles consecuencias negativas. Se seguirán sopesando las ventajas y las desventajas de la tecnología, mientras se aprovechan sus resultados.
Alternativas propuestas
El concepto denominado tecnología apropiada, conveniente o intermedia se acepta como alternativa a los problemas tecnológicos de las naciones industrializadas y, lo que es más importante, como solución al problema del desequilibrio social provocado por la transferencia de tecnologías avanzadas a países en vías de desarrollo. Se dice que el carácter arrollador de la tecnología moderna amenaza a ciertos valores, como la calidad de vida, la libertad de elección, el sentido humano de la medida y la igualdad de oportunidades ante la justicia y la creatividad individual. Los defensores de este punto de vista proponen un sistema de valores en el que las personas reconozcan que los recursos de la Tierra son limitados y que la vida humana debe reestructurarse alrededor del compromiso de controlar el crecimiento de la industria, el tamaño de las ciudades y el uso de la energía. La restauración y la renovación de los recursos naturales son los principales objetivos tecnológicos.
Además se ha argumentado que, como la sociedad moderna ya no vive en la época industrial del siglo XIX y principios del XX (y que la sociedad postindustrial es ya una realidad), las redes complejas posibles gracias a la electrónica avanzada harán obsoletas las instituciones de los gobiernos nacionalistas, las corporaciones multinacionales y las ciudades superpobladas.
La tecnología ha sido siempre un medio importante para crear entornos físicos y humanos nuevos. Sólo durante el siglo XX se hizo necesario preguntar si la tecnología destruiría total o parcialmente la civilización creada por el ser humano.
Perspectivas
A lo largo del siglo XX la tecnología se extendió desde Europa y Estados Unidos a otras naciones importantes como Japón y la antigua Unión Soviética, pero en ningún caso lo hizo a todos los países del mundo. Muchos de los países de los denominados en vías de desarrollo no han experimentado nunca el sistema de fábricas ni otras instituciones de la industrialización, y muchos millones de personas sólo disponen de la tecnología más básica. La introducción de la tecnología occidental ha llevado a menudo a una dependencia demasiado grande de los productos occidentales. Para la población de los países en vías de desarrollo que depende de la agricultura de subsistencia tiene poca relevancia este tipo de tecnologías. En los últimos años, grupos de ayuda occidentales han intentado desarrollar tecnologías apropiadas, usando las técnicas y materiales de los pueblos indígenas.

Logros y beneficios tecnológicos



Dejando a un lado los efectos negativos, la tecnología hizo que las personas ganaran en control sobre la naturaleza y construyeran una existencia civilizada. Gracias a ello, incrementaron la producción de bienes materiales y de servicios y redujeron la cantidad de trabajo necesario para fabricar una gran serie de cosas. En el mundo industrial avanzado, las máquinas realizan la mayoría del trabajo en la agricultura y en muchas industrias, y los trabajadores producen más bienes que hace un siglo con menos horas de trabajo. Una buena parte de la población de los países industrializados tiene un mejor nivel de vida (mejor alimentación, vestimenta, alojamiento y una variedad de aparatos para el uso doméstico y el ocio). En la actualidad, muchas personas viven más y de forma más sana como resultado de la tecnología.
En el siglo XX los logros tecnológicos fueron insuperables, con un ritmo de desarrollo mucho mayor que en periodos anteriores. La invención del automóvil, la radio, la televisión y teléfono revolucionó el modo de vida y de trabajo de muchos millones de personas. Las dos áreas de mayor avance han sido la tecnología médica, que ha proporcionado los medios para diagnosticar y vencer muchas enfermedades mortales, y la exploración del espacio (véase Astronáutica), donde se ha producido el logro tecnológico más espectacular del siglo: por primera vez los hombres consiguieron abandonar y regresar a la biosfera terrestre.

La Revolución Industrial



La Revolución Industrial comenzó en Inglaterra porque este país tenía los medios técnicos precisos, un fuerte apoyo institucional y una red comercial amplia y variada. Los cambios económicos, incluida una mayor distribución de la riqueza y un aumento del poder de la clase media, la pérdida de importancia de la tierra como fuente fundamental de riqueza y poder, y los negocios oportunistas, contribuyeron a que la Revolución Industrial comenzara en Gran Bretaña. Las primeras fábricas aparecieron en 1740, concentrándose en la producción textil (véase Sistema industrial). En esa época, la mayoría de los ingleses usaban prendas de lana, pero en 100 años las prendas de lana ásperas se vieron desplazadas por el algodón, especialmente tras la invención de la desmotadora de algodón del estadounidense Eli Whitney en 1793. Algunas inventos británicos, como la cardadora y las máquinas de lanzadera volante de John Kay, la máquina de hilar algodón de James Hargreaves y las mejoras en los telares realizadas por Samuel Cromptom fueron integrados con una nueva fuente de potencia: la máquina de vapor, desarrollada en Gran Bretaña por Thomas Newcomen, James Watt y Richard Trevithick, y en Estados Unidos por Oliver Evans. En un periodo de 35 años, desde la década de 1790 hasta la de 1830, se pusieron en marcha en las islas Británicas más de 100.000 telares mecánicos.
Una de las innovaciones más importantes en el proceso de telares fue introducida en Francia en 1801 por Joseph Jacquard. Su telar usaba tarjetas con perforaciones para determinar la ubicación del hilo en la urdimbre. El uso de las tarjetas perforadas inspiró al matemático Charles Babbage para intentar diseñar una máquina calculadora basada en el mismo principio. A pesar de que la máquina no se convirtió nunca en realidad, presagiaba la gran revolución de las computadoras de la última parte del siglo XX.
Nuevas prácticas laborales
La Revolución Industrial condujo a un nuevo modelo de división del trabajo, creando la fábrica moderna, una red tecnológica cuyos trabajadores no necesitan ser artesanos y no tienen que poseer conocimientos específicos. Por ello, la fábrica introdujo un proceso de remuneración impersonal basado en un sistema de salarios. Como resultado de los riesgos financieros asumidos por los sistemas económicos que acompañaban a los desarrollos industriales, la fábrica condujo también a los trabajadores a la amenaza constante del despido.
El sistema de fábricas triunfó después de una gran resistencia por parte de los gremios ingleses y de los artesanos, que veían con claridad la amenaza sobre sus ingresos y forma de vida. En la fabricación de mosquetes, por ejemplo, los armeros lucharon contra el uso de partes intercambiables y la producción en serie de rifles. Sin embargo, el sistema de fábricas se convirtió en una institución básica de la tecnología moderna, y el trabajo de hombres, mujeres y niños se convirtió en otra mera mercancía dentro del proceso productivo. El montaje final de un producto (ya sea una segadora mecánica o una máquina de coser) no es el trabajo de una persona, sino el resultado de un sistema integrado y colectivo. Esta división del trabajo en operaciones, que cada vez se especificaba más, llegó a ser la característica determinante del trabajo en la nueva sociedad industrial, con todas las horas de tedio que esto supone.
Aceleración de las innovaciones
Al aumentar la productividad agrícola y desarrollarse la ciencia médica, la sociedad occidental llegó a tener gran fe en lo positivo del cambio tecnológico, a pesar de sus aspectos menos agradables. Algunas realizaciones de ingeniería como la construcción del canal de Suez, el canal de Panamá y la torre Eiffel (1889) produjeron orgullo y, en gran medida, asombro. El telégrafo y el ferrocarril interconectaron la mayoría de las grandes ciudades. A finales del siglo XIX, la bombilla (foco) inventada por Thomas Alva Edison comenzó a reemplazar a las velas y las lámparas. En treinta años todas las naciones industrializadas generaban potencia eléctrica para el alumbrado y otros sistemas.
Algunos inventos del siglo XIX y XX, como el teléfono, la radio, el automóvil con motor y el aeroplano sirvieron no sólo para mejorar la vida, sino también para aumentar el respeto universal que la sociedad en general sentía por la tecnología. Con el desarrollo de la producción en serie con cadenas de montaje para los automóviles y para aparatos domésticos, y la invención aparentemente ilimitada de más máquinas para todo tipo de tareas, la aceptación de las innovaciones por parte de los países más avanzados, sobre todo en Estados Unidos, se convirtió no sólo en un hecho de la vida diaria, sino en un modo de vida en sí mismo. Las sociedades industriales se transformaron con rapidez gracias al incremento de la movilidad, la comunicación rápida y a una avalancha de información disponible en los medios de comunicación.
La I Guerra Mundial y la Gran Depresión forzaron un reajuste de esta rápida explosión tecnológica. El desarrollo de los submarinos, armas, acorazados y armamento químico hizo ver más claramente la cara destructiva del cambio tecnológico. Además, la tasa de desempleados en todo el mundo y los desastres provocados por las instituciones capitalistas en la década de 1930 suscitaron en algunos sectores la crítica más enérgica sobre los beneficios que resultaban del progreso tecnológico.
Con la II Guerra Mundial llegó el desarrollo del arma que desde entonces constituye una amenaza general para la vida sobre el planeta: la bomba atómica. El gran programa para fabricar las primeras bombas atómicas durante la guerra, el Proyecto Manhattan, fue el esfuerzo tecnológico más grande y más caro de la historia hasta la fecha. Este programa abrió una época no sólo de armamento de destrucción en masa, sino también de ciencia de alto nivel, con proyectos tecnológicos a gran escala, que a menudo financiaban los gobiernos y se dirigían desde importantes laboratorios científicos. Una tecnología más pacífica surgida de la II Guerra Mundial (el desarrollo de las computadoras, transistores, electrónica y las tendencias hacia la miniaturización) tuvo un efecto mayor sobre la sociedad Las enormes posibilidades que se ofrecían se fueron convirtiendo rápidamente en realidad; esto trajo consigo la sustitución de la mano de obra por sistemas automatizados y los cambios rápidos y radicales en los métodos y prácticas de trabajo.