lunes, 27 de octubre de 2008

----INFORMÁTICA----

El vocablo informática proviene del francés informatique, acuñado por el ingeniero Philippe Dreyfrus en 1962. El vocablo es acrónimo de las palabras information y automatique. En lo que hoy día conocemos como informática confluyen muchas de las técnicas y de las máquinas que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar sus capacidades de memoria, de pensamiento y de comunicación.
Según el Diccionario de la Real Academia Española RAE informáticaes el: "Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores".
De forma genérica, podemos entender el concepto de informática como aquella disciplina encargada del estudio de métodos, procesos, técnicas, desarrollos y su utilización en ordenadores (computadores) con el fin de almacenar, procesar y transmitir información y datos en formato digital.

Introducción

La informática es la disciplina que estudia el tratamiento automático de la información utilizando dispositivos electrónicos y sistemas computacionales. También es definida como el procesamiento de la información en forma automática. Para esto los sistemas informáticos deben realizar las siguientes tres tareas básicas:
Entrada: Captación de la información digital.
Proceso: Tratamiento de la información.
Salida: Transmisión de resultados binarios.
En los inicios del procesado de información, con la informática sólo se facilitaba los trabajos repetitivos y monótonos del área administrativa, gracias a la automatización de esos procesos, ello trajo como consecuencia directa una disminución de los costes y un incremento en la producción.
En la informática convergen los fundamentos de las ciencias de la computación, la programación y las metodologías para el desarrollo de software, la arquitectura de computadores, las redes de datos (como Internet), la inteligencia artificial y ciertas cuestiones relacionadas con la electrónica. Se puede entender por informática a la unión sinergia de todo este conjunto de disciplinas.
Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana, como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos, industria, robótica, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computerizado, aplicaciones/herramientas multimedia, medicina, biología, física, química, meteorología, ingeniería, arte, etc. Una de la aplicaciones más importantes de la informática es facilitar información en forma oportuna y veraz, lo cual, por ejemplo, puede tanto facilitar la toma de decisiones a nivel gerencial (en una empresa) como permitir el control de procesos críticos.
Actualmente es difícil concebir un área que no use, de alguna forma, el apoyo de la informática; en un enorme abanico que cubre desde las más simples cuestiones domésticas hasta los cálculos científicos más complejos.
Entre las funciones principales de la informática se cuentan las siguientes:
Creación de nuevas especificaciones de trabajo.
Desarrollo e implementación de sistemas informáticos.
Sistematización de procesos.
Optimización de los métodos y sistemas informáticos existentes.

------------------------INFORMÁTICA-----------------------------

Para la Real Academia de La Lengua, la informática, es conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores (computadores). La palabra proviene del francés, ya que ellos crearon el concepto informatique, o sea, informática. La conjunción entre las palabras información y automatización.
La informática se ha ido desarrollando, para que el hombre, pueda realizar tareas triviales, de manera ordenada, rápida y eficientemente. Por lo mismo, la informática se ha ido desarrollando desde hace muchísimos años. Incluso podemos llegar a los chinos, en el año 3000AC, cuando crearon el ábaco, para realizar diversos cálculos de manera eficiente y lo más rápidamente posible. Ya en el siglo XVII, se lograron desarrollar las primeras máquinas posibles de realizar cálculos de manera mecánica.
De aquel punto de la historia, podemos saltar a 1981, donde se presentó en sociedad, al primer computador personal o PC, desarrollado por IBM, en colaboración conjunta con Bill Gates y Paul Allen. Computador que poseía un lenguaje Microsoft Basic, un procesador Intel 8088 y un sistema operativo DOS. Antes De esa fecha, ya se lograban los primeros avances en Internet, por parte de las ramas castrenses de los Estados Unidos. Asimismo, ya se había creado la manera de interconectar varios computadores por medio de un solo cable, o sea, crear una red de área local (LAN). Posteriormente a la presentación del primer PC, estos continuaron con su desarrollo y evolución natural. Asimismo, en 1990, se crea la novedosa manera de interactuar con Internet, el World Wide Web (www). Posteriormente, en el 96`se da un gran salto, en lo que es Internet. Se desarrolla la segunda versión de ésta, la cual era bastante más rápida que la primera y se pueden cargar y transportar, datos o archivos muchos más pesados, que en la primera Internet. Hasta lo que tenemos hoy en día, por medio de la banda ancha, la cual supera larga y ampliamente a su predecesora, la conexión vía modem.
De hecho, hoy en día, casi todo puesto laboral, debe interactuar con algún computador. Pero no sólo en éste ámbito, la informática se hace presente. Hoy en día, es una herramienta poderosa en la enseñanza juvenil y universitaria. Y por qué no decirlo, también en la infantil, ya que al nacer con la tecnología en sus manos, los pequeños logran desenvolverse rápidamente, en cualquier programa computacional.
Debido a todos estos factores mencionados, la informática es parte de nuestra vida cotidiana. La utilizamos para escribir, para buscar información por medio de Internet, en nuestros puestos de trabajo con la Intranet, en los correos electrónicos, en los juegos de diversión, para dibujar, retocar fotografías, imprimir documentos, etc.
O sea, gran parte de nuestras actividades cotidianas, se ven envueltas o desarrollas por medio de la informática.

miércoles, 15 de octubre de 2008

LA NANOTECNOLOGIA
























La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas (nanomateriales). Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Para hacerse una idea de lo pequeño que puede ser un nanobot, más o menos un nanobot de 50 nm tiene el tamaño de 5 capas de moléculas o átomos (depende de qué esté hecho el nanobot).
nano- es un prefijo griego que indica una medida, no un objeto, de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja.









Definición
La nanotecnología promete soluciones nuevas y más eficientes para los problemas ambientales, así como muchos otros enfrentados por la humanidad. Las nanotecnologías prometen beneficios de todo tipo, desde aplicaciones médicas nuevas o más eficientes a soluciones de problemas ambientales y muchos otros; sin embargo, el concepto de nanotecnología aún no es muy conocido en la sociedad.
Un nanómetro es la mil millonésima parte de un metro (10^(-9) metros). Para comprender el potencial de esta tecnología es clave saber que las propiedades físicas y químicas de la materia cambian a escala nanométrica, lo cual se debe a efectos cuánticos. La conductividad eléctrica, el calor, la resistencia, la elasticidad, la reactividad, entre otras propiedades, se comportan de manera diferente que en los mismos elementos a mayor escala.
Aunque en las investigaciones actuales con frecuencia se hace referencia a la nanotecnología (en forma de motores moleculares, computación cuántica, etcétera), es discutible que la nanotecnología sea una realidad hoy en día. Los progresos actuales pueden calificarse más bien de nanociencia, cuerpo de conocimiento que sienta las bases para el futuro desarrollo de una tecnología basada en la manipulación detallada de las estructuras moleculares.





Historia
El ganador del premio Nobel de Física, Richard Feynman fue el primero en hacer referencia a las posibilidades de la nanociencia y la nanotecnología en el célebre discurso que dio en el Caltech (Instituto Tecnológico de California) el 29 de diciembre de 1959 titulado Abajo hay espacio de sobra (There's Plenty Room at the Bottom).
Otro hombre de esta área fue Eric Drexler quien predijo que la nanotecnología podría usarse para solucionar muchos de los problemas de la humanidad, pero también podría generar armas poderosisimas. Creador del Foresight Institute y autor de libros como Máquinas de la Creación Engines of Creation muchas de sus predicciones iniciales no se cumplieron, y sus ideas parecen exageradas en la opinion de otros expertos, como Richard Smalley.
Pero estos conocimientos fueron más allá ya que con esto se pudo modificar la estructura de las moléculas como es el caso de los polímeros o plásticos que hoy en día los encontramos en todos nuestros hogares y que sin ellos no podríamos vivir. Pero hay que decir que este tipo de moléculas se les puede considerar “grandes”...
Con todos estos avances el hombre tuvo una gran fascinación por seguir investigando más acerca de estas moléculas, ya no en el ámbito de materiales inertes, sino en la búsqueda de moléculas orgánicas que se encontrarán en nuestro organismo.
No fue sino hasta principios de la década de los cincuenta cuando Watson y Crick propusieron que el DNA era la molécula principal que jugaba un papel clave en la regulación de todos los procesos del organismo y de aquí se tomo la importancia de las moléculas como determinantes en los procesos de la vida.
Hoy en día la medicina se le da más interés a la investigación en el mundo microscópico ya que en este se encuentran posiblemente las alteraciones estructurales que provocan la enfermedad, y no hay que decir de las ramas de la medicina que han salido mas beneficiadas como es la microbiología. Inmunología, fisiología, en fin casi todas las ramas de la medicina.
Con todos estos avances han surgido también nuevas ciencias como es la ingeniería genética que hoy en día todos han oído escuchar acerca de las repercusiones que puede traer la humanidad como es la clonación o la mejora de especies. Entre estas ciencias también se encuentra otras no muy conocidas como es la nanotecnología, a la cual se le puede definir como aquella que se dedica a la fabricación de la tecnología en miniatura.
La nanotecnología, a diferencia de la ingeniería genética, todavía no esta en pasos de desarrollo; Se le puede considerar como “ una ciencia teórica” ya que todavía no se le ha llevado a la practica ya que aun no es viable, pero las repercusiones que acarreara para el futuro son inmensas.




Inversión
Algunos países en vías de desarrollo ya destinan importantes recursos a la investigación en nanotecnología. La nanomedicina es una de las áreas que más puede contribuir al avance sostenible del Tercer Mundo, proporcionando nuevos métodos de diagnóstico y cribaje de enfermedades, mejores sistemas para la administración de fármacos y herramientas para la monitorización de algunos parámetros biológicos.
Actualmente, alrededor de 40 laboratorios en todo el mundo canalizan grandes cantidades de dinero para la investigación en nanotecnología. Unas 300 empresas tienen el término “nano” en su nombre, aunque todavía hay muy pocos productos en el mercado.
Algunos gigantes del mundo informático como IBM, Hewlett-Packard (HP), NEC e Intel están invirtiendo millones de dólares al año en el tema. Los gobiernos del llamado Primer Mundo también se han tomado el tema muy en serio, con el claro liderazgo del gobierno estadounidense, que para este año ha destinado 570 millones de dólares a su National Nanotechnology Initiative.
En España, los científicos hablan de “nanopresupuestos”. Pero el interés crece, ya que ha habido algunos congresos sobre el tema: en Sevilla, en la Fundación San Telmo, sobre oportunidades de inversión, y en Madrid, con una reunión entre responsables de centros de nanotecnología de Francia, Alemania y Reino Unido en la Universidad Autónoma de Madrid.

Ensamblaje interdisciplinario
La característica fundamental de la nanotecnología es que constituye un ensamblaje interdisciplinar de varios campos de las ciencias naturales que están altamente especializados. Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica. Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser una tecnología convergente.
Una posible lista de ciencias involucradas sería la siguiente:
Química (Moleculares y computacional)
Bioquímica
Biología molecular
Física
Electrónica
Informática
Matemáticas

Nanotecnología avanzada
La nanotecnología avanzada, a veces también llamada fabricación molecular, es un término dado al concepto de ingeniería de nanosistemas (máquinas a escala nanométrica) operando a escala molecular. Se basa en que los productos manufacturados se realizan a partir de átomos. Las propiedades de estos productos dependen de cómo estén esos átomos dispuestos. Así por ejemplo, si reubicamos los átomos del grafito (compuesto por carbono, principalmente) de la mina del lápiz podemos hacer diamantes (carbono puro cristalizado). Si reubicamos los átomos de la arena (compuesta básicamente por sílice) y agregamos algunos elementos extras se hacen los chips de un ordenador.
A partir de los incontables ejemplos encontrados en la biología se sabe que miles de millones de años de retroalimentación evolucionada puede producir máquinas biológicas sofisticadas y estocásticamente optimizadas. Se tiene la esperanza que los desarrollos en nanotecnología harán posible su construcción a través de algunos significados más cortos, quizás usando principios biomiméticos. Sin embargo, K. Eric Drexler y otros investigadores han propuesto que la nanotecnología avanzada, aunque quizá inicialmente implementada a través de principios miméticos, finalmente podría estar basada en los principios de la ingeniería mecánica.
Determinar un conjunto de caminos a seguir para el desarrollo de la nanotecnología molecular es un objetivo para el proyecto sobre el mapa de la tecnología liderado por Instituto Memorial Battelle (el jefe de varios laboratorios nacionales de EEUU) y del Foresigth Institute. Ese mapa debería estar completado a finales de 2006.




Futuras aplicaciones
Según un informe de un grupo de investigadores de la Universidad de Toronto, en Canadá, las catorce aplicaciones más prometedoras de la nanotecnología son:
Almacenamiento, producción y conversión de energía.
Armamento y sistemas de defensa.
Producción agrícola.
Tratamiento y remediación de aguas.
Diagnóstico y cribaje de enfermedades.
Sistemas de administración de fármacos.
Procesamiento de alimentos.
Remediación de la contaminación atmosférica.
Construcción.
Monitorización de la salud.
Detección y control de plagas.
Control de obesidad en lugares pobres
Informática.
Alimentos transgénicos

Riesgos potenciales

Sustancias viscosas
Recientemente, un nuevo estudio ha mostrado como este peligro de la “sustancia viscosa gris” es menos probable que ocurra de como originalmente se pensaba. K. Eric Drexler considera un escenario accidental con sustancia viscosa gris improbable y así lo declara en las últimas ediciones de Engines of Creation. El escenario sustancia viscosa gris clamaba la Tree Sap Answer: ¿Qué oportunidades existen de que un coche pudiera ser mutado a un coche salvaje, salir fuera de la carretera y vivir en el bosque solo de savia de árbol?. Sin embargo, se han identificado otros riesgos mayores a largo plazo para la sociedad y el entorno.
Una variante de esto es la “Sustancia viscosa verde”, un escenario en que la nanobiotecnología crea una máquina nanométrica que se autoreplica que consume todas las partículas orgánicas, vivas o muertas, creando un cieno -como una masa orgánica muerta. En ambos casos, sin embargo, sería limitado por el mismo mecanismo que limita todas las formas vivas (que generalmente ya actúan de esta manera): energía disponible.

Veneno y Toxicidad
A corto plazo, los críticos de la nanotecnología puntualizan que hay una toxicidad potencial en las nuevas clases de nanosustancias que podrían afectar de forma adversa a la estabilidad de las membranas celulares o distorsionar el sistema inmunológico cuando son inhaladas o ingeridas. Una valoración objetiva de riesgos puede sacar beneficio de la cantidad de experiencia acumulada con los materiales microscópicos bien conocidos como el hollín o las fibras de asbestos.
Hay una posibilidad que las nanopartículas en agua potable pudieran ser dañinas para los humanos y otros animales. Las células de colon expuestas a partículas de dióxido de titanio se ha encontrado que se descomponen a mayor velocidad de la normal. Las nanopartículas de dióxido de titanio se usan normalmente en pantallas de sol, haciéndolas transparentes, al contrario de las grandes partículas de dióxido de titanio, que hacen a las pantallas de sol parecer blancas.

Armas
La militarización de la nanotecnología es una aplicación potencial. Mientras los nanomateriales avanzados obviamente tienen aplicaciones para la mejora de armas existentes y el hardware militar a través de nuevas propiedades (tales como la relación fuerza-peso o modificar la reflexión de la radiación EM para aplicaciones sigilosas), y la electrónica molecular podría ser usada para construir sistemas informáticos muy útiles para misiles, no hay ninguna manera obvia de que alguna de las formas que se tienen en la actualidad o en un futuro próximo puedan ser militarizadas más allá de lo que lo hacen otras tecnologías como la ingeniería genética. Mientras conceptualmente podríamos diseñar que atacasen sistemas biológicos o los componentes de un vehículo (es decir, un nanomáquina que consumiera la goma de los neumáticos para dejar incapaz a un vehículo rápidamente), tales diseños están un poco lejos del concepto. En términos de eficacia, podrían ser comparados con conceptos de arma tales como los pertenecientes a la ingeniería genética, como virus o bacterias, que son similares en concepto y función práctica y generalmente armas tácticamente poco atractivas, aunque las aplicaciones para el terrorismo son claras.
La nanotecnología puede ser usada para crear dispositivos no detectables – micrófonos o cámaras de tamaño de una molécula, y son posibilidades que entran en el terreno de lo factible. El impacto social de tales dispositivos dependería de muchos factores, incluyendo quién ha tenido acceso a él, cómo de bien funcionan y cómo son usados. E.U.A. ha aportado gran parte de estos avances al igual que los chinos y franceces. Como dato la union europea produce 29.64% de nanotecologia mundial otro 29 Estados Unidos y el resto pequenos paises. Memoria:




En un laboratorio de IBM en Zurich, uno de los que ayudaron en la invención de aquel microscopio AFM de 1986, se trabaja en la miniaturización a nivel nanómetro del registro de datos. El sistema de almacenamiento se basa en un conjunto de 1024 agujas de AFM en una matriz cuadrada que pueden escribir bits de información de no más de 50 nanómetros de diámetro. El mismo conjunto es capaz luego de leer la información e incluso reescribirla.
La capacidad de guardar información a esa escala es una noticia excitante para el mercado, pues multiplica inmensamente la cantidad de información que se puede almacenar en un área determinada. El mejor sistema actual de registro, basado en la memoria magnética, puede guardar alrededor de dos gigabits por centímetro cuadrado; los físicos creen que el límite físico de la capacidad este sistema —no alcanzado aún— es de alrededor de 25 gigabits por centímetro cuadrado (64 gigabytes/in²).[1] El sistema de matriz de agujas descripto más arriba, bautizado "Millipede" (Miriápodo, por tener mil patas), ofrece 35 gigabits por centímetro cuadrado (y hasta 80 gigabits si se utiliza una aguja única) y es capaz de hacerlo a la velocidad de los artefactos magnéticos actuales. Con unidades de almacenamiento provistas de matrices gigantescas, con millones de agujas, se puede lograr un almacenamiento en el orden de los terabytes, algo así como 40 veces lo que está disponible hoy comercialmente.

jueves, 2 de octubre de 2008

GÉNOVA COSTA CUCA






GÉNOVA COSTA CUCA: El municipio de Génova se sitúa en la parte sur del Departamento de Quetzaltenango, en la Región VI o Región Sur-Occidental del país. Se localiza en la latitud 14° 37” y en la longitud 91° 50” 05” , del meridiano de Greenwich.
El Municipio de Génova, conforme al diccionario geográfico, dista de la capital de la República 215 kilómetros , de la cabecera departamental 70 kilómetros , vía Colomba y 115 kilómetros vía Retalhuleu, también se comunica con la frontera de México vía Tecún Umán a una distancia de 60 kilómetros , con el municipio de Flores Costa Cuca a 5 kilómetros de distancia, de la cabecera municipal de Coatepeque dista a 22 kilómetros y con el municipio de Colomba 22 kilómetros .
Según la nueva señalización de la carretera se estableción que el Municipio se encuentra a una distancia de 219 kilómetros de la ciudad capital y a 71 de la cabecera departamental vía Colomba.

EXTENSIÓN Y LÍMITES TERRITORIALES
El Municipio posee una extensión territorial de 372 kilómetros cuadrados, encontrándose a una altitud de 350 metros sobre el nivel del mar, por lo que su clima es cálido.
Limita al norte con los municipios de Flores Costa Cuca y Colomba (ambos del departamento de Quetzaltenango); al Sur con el municipio de Retalhuleu (Retalhuleu): al Este con los municipios de La Asintal (Retalhuleu) y Colomba; al oeste con los municipios de Coatepeque y Flores Costa cuca (ambos de Quetzaltenango).

Distancias
En kilómetros, Génova dista de los siguientes lugares: 219 de Guatemala, capital de la República por las carreteras centroamericanas CA-9 y CA-2; 70 a Quetzaltenango, Cabecera Departamental vía carretera a San Juan Ostuncalco y 115 vía Santa Cruz Mulúa, Retalhuleu; 60 a la ciudad de Tecún Umán, frontera con México. También se comunica con el municipio de Flores Costa Cuca a cinco kilómetros de distancia, a la ciudad de Coatepeque dista 22 kilómetros y al municipio de Colomba 22 kilómetros .

Extensión
El Municipio tiene 372 kilómetros cuadrados de superficie, equivalentes a 44,285.7 manzanas (Un km 2 contiene 119.0476 manzanas).

Altura
La altura en la marca de base situada en el parque de la Cabecera Municipal, es de 375 metros sobre el nivel del mar; la altitud promedio es de 350 metros sobre el nivel del mar.

Colindancias
Limita al norte con los municipios de Flores Costa Cuca y Colomba, ambos de Quetzaltenango; al sur con Retalhuleu, Retalhuleu); al este con El Asintal, Retalhuleu) y Colomba, Quetzaltenango; al oeste con Coatepeque y Flores Costa Cuca, ambos de Quetzaltenango.

Orografía
La topografía se caracteriza principalmente por ser un llano cóncavo formado por abanicos aluviales coalescentes. “La inclinación en la parte superior es aproximadamente del 22%, pero esta se reduce gradualmente hasta el 1% en el límite inferior.”

Clima
Su clima es cálido y húmedo. La precipitación pluvial promedio durante la época seca es de 102.42 milímetros y durante la época lluviosa es en promedio de
575.22 milímetros; normalmente solo los meses de diciembre, enero y febrero reciben menos de 50 milímetros de precipitación pluvial, ocurren sequías ocasionales solamente durante los meses de noviembre a abril, las lluvias de gran intensidad son comunes durante la época lluviosa causando daños locales serios.
La temperatura es relativamente alta con ninguna o leve variación durante el año, pero la variación diaria promedio es de más de diez grados, las heladas son desconocidas en esta región.

DIVISIÓN POLÍTICO-ADMINISTRATIVA
Estas divisiones son las formas adoptadas, para administrar la autoridad y la atención de los servicios de ornato e infraestructura, la organización de los centros poblados urbanos y rurales según su jurisdicción territorial.

División administrativa
La división administrativa está vinculada al ejercicio del poder local representado por la Municipalidad. Las aplicaciones prácticas de esta institución se ven en el manejo de los servicios públicos, delegación de autoridad en las diferentes demarcaciones, que corresponden a la competencia de autoridades menores.
La estructura de la autoridad del Municipio, para su funcionamiento cuenta con: Alcalde, Secretario, Tesorero, Registrador Civil, Oficiales I y II, Jefe de la Policía, Administrador del Mercado, Encargado del Cementerio y Consejo Municipal; además cuenta con la asesoría permanente de un Ingeniero Civil para el estudio y diseño de las obras de infraestructura. Las aldeas también cuentan con Alcalde Auxiliar, éstos representan a las comunidades ante el Municipio.

División política
Este es un sistema heredado del régimen colonial y que en Guatemala distingue las divisiones entre aldeas, caseríos y parajes o fincas en cuyo estrato o nivel se clasifican las haciendas, término dado a las explotaciones pecuarias, para distinguirlas de las agrícolas (fincas); dentro de las divisiones urbanas en algunos lugares se emplean las denominaciones de cantones y zonas.
Por asimilación de nombres de otras culturas, se han adicionado divisiones urbanas y rurales como colonias, parcelamientos, comunidades y otros, que en la práctica son sectorizaciones de hecho que permiten ubicar y localizar a personas e instituciones en una demarcación territorial, que lejos de desaparecer, se afirman como parte del sincretismo urbano nacional.
Entre los aspectos prácticos de esta división política está el manejo de la correspondencia por lugares de residencia (dirección postal) de los habitantes e identificación de regiones para fines catastrales y de registro de la propiedad inmueble.



Área urbana
Pueblos:
Génova


Colonias
La Floresta


Área rural
Aldeas:
Morazán*
San Miguelito*
Bolívar

La Paz
El Rosario





Caseríos:
El Mangalito*
Bélgica*
La Esmeralda*

Guadalupe
Los Ávila
Canutillo

Mas Adentro
Los Laureles
Manaque

Sector Juárez
Morelia
Piedra Gorda

Candelaria
Sector Méndez
San Lorenzo

Nueva Linda






Comunidades Agrarias:
Lirios de Coronado
San Roque
Arizona




Parcelamientos:
El Reposo Sector A
El Reposo Sector B
El Reposo Sector Sur B

El Reposo Sector C
El Reposo Sector D
Talzachum




Fincas:
El Carmen y Anexos
La Alianza
La Ceiba

María Lourdes
San Antonio Morazán
Nuevo San Isidro

San Julián Morazán
La Esperanza
Santa Margarita

Santa Romelia
El Amparo
Ciprés

Santa Elena
Calabria
Concepción

San Rafael
San Cayetano
San Rafael el Silencio

San Diego
El Botín
Morelia

Santa Marta
Los Limares
Serbia

San Bartolo
El Reposito





Haciendas:
San Rafael El Mangalito*
Cabañas
El Olimpo

Las Conchas
San Caralampio
América

Guadalupe
El Triunfo
El Caulote

San José Batzá
Santa Rosa
Tilapa

María Teresa
Mercedes y Anexo
Santa Marta




Labores:
La Paz Chiquita
La Florita


Caminos, vías de acceso y transporte
Las comunicaciones terrestres permiten el suministro de insumos, transporte de personal y extracción de la producción y facilitan el comercio.
La Carretera Centroamericana CA-9 que de la ciudad capital conduce al puerto de San José, converge en el municipio de Escuintla con la Carretera Centroamericana CA-2, que es la principal vía de comunicación con que cuenta el municipio de Génova. El camino de acceso al Municipio se encuentra totalmente asfaltado a una distancia de nueve kilómetros de la carretera principal CA-2. Las otras vías son caminos empedrados hacia las aldeas y caseríos.
Existe una red de 14 caminos vecinales y una carretera secundaria asfaltada de la ruta de San Antonio Morazán a Champerico de once kilómetros. En conjunto los caminos vecinales son 61% de terracería, 8% asfaltados y 31% empedrados.
El transporte vehicular ha mejorado en los últimos 20 años, cuando se utilizaba únicamente el ferrocarril para transporte de carga y personas, había pocos automotores. En el 2001 el ferrocarril ya no funciona y operan cuatro líneas de transporte extraurbano, una con servicio diario hacia la ciudad de Guatemala y tres con servicios hacia los diferentes puntos del Municipio.

lunes, 8 de septiembre de 2008

EL CALENTAMIENTO GLOBAL



Calentamiento global es un término utilizado habitualmente en dos sentidos:
Es el fenómeno observado en las medidas de la temperatura que muestra en promedio un aumento en la
temperatura de la atmósfera terrestre y de los océanos en las últimas décadas.
Es una teoría que predice, a partir de proyecciones basadas en simulaciones computacionales, un crecimiento futuro de las temperaturas.
Algunas veces se utilizan las denominaciones
cambio climático, que designa a cualquier cambio en el clima, o cambio climático antropogénico, donde se considera implícitamente la influencia de la actividad humana. Calentamiento global y efecto invernadero no son sinónimos. El efecto invernadero acrecentado por la contaminación puede ser, según algunas teorías, la causa del calentamiento global observado.
La temperatura del planeta ha venido elevándose desde mediados del
siglo XIX, cuando se puso fin a la etapa conocida como la pequeña edad de hielo.

Predicciones basadas en diferentes modelos del incremento de la temperatura media global respecto de su valor en el año 2000.
Cualquier tipo de cambio climático además implica cambios en otras variables. La complejidad del problema y sus múltiples interacciones hacen que la única manera de evaluar estos cambios sea mediante el uso de modelos computacionales que intentan simular la física de la atmósfera y del océano y que tienen una precisión limitada debido al desconocimiento del funcionamiento de la atmósfera.
La teoría antropogénica predice que el calentamiento global continuará si lo hacen las emisiones de
gases de efecto invernadero (GEI). El cuerpo de la ONU encargado del análisis de los datos científicos es el Panel Intergubernamental del Cambio Climático (IPCC, por sus siglas en inglés de Inter-Governmental Panel on Climate Change).El IPCC indica que "[...]La mayoría de los aumentos observados en las temperaturas medias del globo desde la mitad del siglo XX son muy probablemente debidos al aumento observado en las concentraciones de GEI antropogénicas.".[1] Sin embargo, existen algunas discrepancias al respecto de que el dióxido de carbono sea el gas de efecto invernadero que más influye en el Calentamiento Global de origen antropogénico[cita requerida].
El
Protocolo de Kyoto, acuerdo promovido por el IPCC, promueve una reducción de emisiones contaminantes (principalmente CO2). El protocolo ha sido tachado en ciertas ocasiones de injusto, ya que el incremento de las emisiones tradicionalmente está asociado al desarrollo económico, con lo que las naciones a las que más afectaría el cumplimiento de este protocolo podrían ser aquellas zonas menos desarrolladas.


Registros de temperatura

Temperatura media terrestre en el período 1900 - 2004.
El período sobre el que se discute la evolución de la temperatura varía, a menudo, indebidamente, según la tesis que se quiere defender. En ocasiones desde la Revolución Industrial, otras desde el comienzo de un registro histórico global de temperatura alrededor de 1860; o sobre el siglo XX, o los 50 años más recientes.
La década más calurosa del pasado siglo XX fue, con diferencia, la de los años 90. Los que niegan que haya calentamiento encuentran culpable que muchos gráficos empleados para mostrar el calentamiento empiecen en 1970, cuando comienza a subir de nuevo la temperatura después de 36 años de un ligero descenso. Señalan que durante los años posteriores a la Segunda Guerra Mundial se incrementó mucho la emisión de los gases de efecto invernadero, y afirman, falsamente,[2] que en la época predominó entre los especialistas la alarma por un posible oscurecimiento global o enfriamiento global a finales del siglo XX.[3] La interpretación actual, dentro del emergente consenso científico sobre el cambio climático, del enfriamiento relativo de mediados de siglo, lo atribuye al aumento en las emisiones de aerosoles claros, que amplifican el albedo, determinando un forzamiento negativo. Su reducción siguió a la sustitución de combustibles y tecnologías por otros que emiten menos de estos aerosoles, en parte por las medidas de lucha contra la contaminación urbana e industrial y la lluvia ácida en los países desarrollados, de manera que el aumento en la emisión global de aerosoles se ha frenado.
En los últimos 20.000 años el suceso más importante es el final de la Edad de Hielo, hace aproximadamente 12.000 años.[4] Desde entonces, la temperatura ha permanecido relativamente estable, aunque con varias fluctuaciones como, por ejemplo, el Período de Enfriamiento Medieval o Pequeña Edad del Hielo. Según el IPCC, durante el siglo XX la temperatura promedio de la atmósfera se incrementó entre 0,4 y 0,8 ºC.
Las temperaturas en la troposfera inferior se han incrementado entre 0,08 y 0,22 ºC por decenio desde 1979[cita requerida]. El aumento de la temperatura no sigue una ley lineal, sino que presenta fluctuaciones debidas a la variabilidad natural, siendo la más notable de ellas el fenómeno de El Niño. Durante el mismo periodo las temperaturas en la superficie terrestre muestran un incremento de aproximadamente 0,15 ºC por decenio.[5]
Teorías y objeciones
El debate ha sobrepasado el ámbito científico y ha llegado al debate público. Al Gore, autor de "Earth in the Balance" (La Tierra en juego) y el documental "Una verdad incómoda" recibió el Premio Nobel de la Paz en el 2007, junto al Grupo Intergubernamental sobre el Cambio Climático (IPCC) de la ONU, «por sus esfuerzos para construir y diseminar un mayor conocimiento sobre el cambio climático causado por el hombre y poner las bases para la toma de las medidas que sean necesarias para contrarrestar ese cambio».[6]
Muchas de las teorías del calentamiento global son motivo de controversia, principalmente por sus repercusiones económicas. Existe un debate social y político sobre la cuestión, en tanto que la comunidad científica internacional ha llegado a un consenso científico suficiente para exigir una acción internacional concertada para aminorar sus efectos.[7]
Los defensores de la teoría del calentamiento global por causas antropogénicas expresan una amplia gama de opiniones, aunque la posición mayoritaria es la defendida por el IPCC, que culpa a la actividad industrial y pide la disminución de emisiones de gases de efecto invernadero.[8]
Algunos científicos simplemente reconocen como datos observables los incrementos de temperatura.
Otros apoyan medidas como el Protocolo de Kioto sobre el cambio climático, que intentan tener cierto efecto sobre el clima futuro y llevar a cabo otras medidas posteriormente. Estos piensan que el daño medioambiental tendrá un impacto tan serio que deben darse pasos inmediatamente para reducir las emisiones de CO2, a pesar de los costos económicos para las naciones. Por ejemplo Estados Unidos, que produce mayores emisiones de gases de efecto invernadero que cualquier otro país, en términos absolutos, y es el segundo mayor emisor per cápita después de Australia.
Los economistas también han alertado de los efectos desastrosos que tendrá el cambio climático sobre la economía mundial con reducciones de hasta un 20% en el crecimiento, cuando las medidas para evitarlo no sobrepasarían el 1%.[9] Los daños económicos predichos provendrían principalmente del efecto de las catástrofes naturales, con cuantiosas pérdidas de vidas humanas, por ejemplo en Europa.[10]
También existen autores escépticos, como Bjørn Lomborg, que ponen en duda el calentamiento global, basándose en los mismos datos usados por los defensores del calentamiento global. La revista Scientific American (enero de 2002), dedicó un numero especial para refutar el libro de Bjørn Lomborg, donde los autores de los reportes citados por el autor, le acusan de falsearlos o malinterpretarlos.[11]
Algunos científicos defienden que no están demostradas las teorías que predicen el incremento futuro de las temperaturas, argumentando que las diferencias del índice de calentamiento en el próximo siglo entre los diferentes modelos informáticos es de más del 400% (a pesar de que en esta horquilla de variación siempre se recogen aumentos significativos). Estos científicos han sido acusados de estar financiados por consorcios petroleros[12] o presionados por sus fuentes de financiación públicas como el gobierno de los EE. UU.[13]

Los cálculos de Wigley
T.M.L. Wigley, del NCAR,[14] publicó en 1998[15] los resultados de la aplicación de un modelo climático a los efectos del Protocolo de Kioto, distinguiendo tres casos en el comportamiento de los países del anexo B del protocolo (los industrializados):
que el cumplimiento del protocolo fuera seguido por una sujeción a sus límites, pero sin nuevas medidas de reducción;
que el protocolo fuera cumplido, pero no seguido de ninguna limitación (sino de lo que se llama en inglés bussiness as usual);
que el protocolo, una vez cumplido, se continuara con una reducción de las emisiones del 1% anual.
Las reducciones del calentamiento previsto por el modelo para 2050 (2,5°C) eran respectivamente 0,11-0,21 °C (aproximadamente 6%), 0,06-0,11 °C (3%) y alrededor de 0,35 °C (14%). En todos los casos los resultados son muy modestos. Los llamados escépticos se atuvieron al segundo caso (3% de 2,5 °C, es decir, 0,7 °C) y lo esgrimieron sistemáticamente como prueba de la inutilidad del protocolo de Kioto. Fue usado por ejemplo, en el Congreso de Estados Unidos, aún bajo administración Clinton, para parar la adhesión a Kioto.[16] Wigley es citado por los opuestos a cualquier regulación para declarar que el protocolo de Kyoto es innecesario, por inútil, en contra de la conclusión del propio Wigley para quien es insuficiente, pero aún así es «importante como primer paso hacia la estabilización del sistema climático.»[15] El propio Wigley ha revisado la cuestión en un trabajo más reciente,[17] concluyendo que «para estabilizar las temperaturas medias globales, necesitamos finalmente reducir las emisiones de gases de invernadero muy por debajo de los niveles actuales».

Teorías que intentan explicar los cambios de temperatura
El clima varía por procesos naturales tanto internos como externos. Entre los primeros destacan las emisiones volcánicas, y otras fuentes de gases de efecto invernadero (como por ejemplo el metano emitido en las granjas animales). Entre los segundos pueden citarse los cambios en la órbita de la Tierra alrededor del Sol (Teoría de Milankovitch) y la propia actividad solar.
Los especialistas en climatología aceptan que la Tierra se ha calentado recientemente (El IPCC cita un incremento de 0.6 ± 0.2 °C en el siglo XX). Más controvertida es la posible explicación de lo que puede haber causado este cambio. Tampoco nadie discute que la concentración de gases invernadero ha aumentado y que la causa de este aumento es probablemente la actividad industrial durante los últimos 200 años.
También existen diferencias llamativas entre las mediciones realizadas en las estaciones meteorológicas situadas en tierra (con registros en raras ocasiones comenzados desde finales del siglo XIX y en menos ocasiones todavía de una forma continuada) y las medidas de temperaturas realizadas con satélites desde el espacio (todas comenzadas a partir de la segunda mitad del siglo XX). Estas diferencias se han achacado a los modelos utilizados en las predicciones del aumento de temperatura existente en el entorno de las propias estaciones meteorológicas debido al desarrollo urbano (el efecto llamado Isla de calor). Dependiendo del aumento predicho por estos modelos las temperaturas observadas por estas estaciones serán mayores o menores (en muchas ocasiones incluso prediciendo disminuciones de las temperaturas).

Teoría de los gases invernadero

Concentración de dióxido de carbono en los últimos 417.000 años. La parte roja indica la variación a partir de 1800.
La hipótesis de que los incrementos o descensos en concentraciones de gases de efecto invernadero pueden dar lugar a una temperatura global mayor o menor fue postulada extensamente por primera vez a finales del s. XIX por Svante Arrhenius, como un intento de explicar las eras glaciales. Sus coetáneos rechazaron radicalmente su teoría.
La teoría de que las emisiones de gases de efecto invernadero están contribuyendo al calentamiento de la atmósfera terrestre ha ganado muchos adeptos y algunos oponentes en la comunidad científica durante el último cuarto de siglo. El IPCC, que se fundó para evaluar los riesgos de los cambios climáticos inducidos por los seres humanos, atribuye la mayor parte del calentamiento reciente a las actividades humanas. La Academia Nacional de Ciencias de Estados Unidos (National Academy of Sciences, NAC) también respaldó esa teoría. El físico atmosférico Richard Lindzen y otros escépticos se oponen a aspectos parciales de la teoría.
Hay muchos aspectos sutiles en esta cuestión. Los científicos atmosféricos saben que el hecho de añadir dióxido de carbono CO2 a la atmósfera, sin efectuar otros cambios, tenderá a hacer más cálida la superficie del planeta. Pero hay una cantidad importante de vapor de agua (humedad, nubes) en la atmósfera terrestre, y el agua es un gas de efecto invernadero. Si la adición de CO2 a la atmósfera aumenta levemente la temperatura, se espera que más vapor de agua se evapore desde la superficie de los océanos. El vapor de agua así liberado a la atmósfera aumenta a su vez el efecto invernadero (El vapor de agua es un gas de invernadero más eficiente que el CO2. A este proceso se le conoce como la retroalimentación del vapor de agua (water vapor feedback en inglés). Es esta retroalimentación la causante de la mayor parte del calentamiento que los modelos de la atmósfera predicen que ocurrirá durante las próximas décadas. La cantidad de vapor de agua así como su distribución vertical son claves en el cálculo de esta retroalimentación. Los procesos que controlan la cantidad de vapor en la atmósfera son complejos de modelar y aquí radica gran parte de la incertidumbre sobre el calentamiento global.
El papel de las nubes es también crítico. Las nubes tienen efectos contradictorios en el clima. Cualquier persona ha notado que la temperatura cae cuando pasa una nube en un día soleado de verano, que de otro modo sería más caluroso. Es decir: las nubes enfrían la superficie reflejando la luz del Sol de nuevo al espacio. Pero también se sabe que las noches claras de invierno tienden a ser más frías que las noches con el cielo cubierto. Esto se debe a que las nubes también devuelven algo de calor a la superficie de la Tierra. Si el CO2 cambia la cantidad y distribución de las nubes podría tener efectos complejos y variados en el clima y una mayor evaporación de los océanos contribuiría también a la formación de una mayor cantidad de nubes.
A la vista de esto, no es correcto imaginar que existe un debate entre los que "defienden" y los que "se oponen" a la teoría de que la adición de CO2 a la atmósfera terrestre dará como resultado que las temperaturas terrestres promedio serán más altas. Más bien, el debate se centra sobre lo que serán los efectos netos de la adición de CO2, y en si los cambios en vapor de agua, nubes y demás podrán compensar y anular este efecto de calentamiento. El calentamiento observado en la Tierra durante los últimos 50 años parece estar en oposición con la teoría de los escépticos de que los mecanismos de autorregulación del clima compensarán el calentamiento debido al CO2.
Los científicos han estudiado también este tema con modelos computerizados del clima. Estos modelos se aceptan por la comunidad científica como válidos solamente cuando han demostrado poder simular variaciones climáticas conocidas, como la diferencia entre el verano y el invierno, la Oscilación del Atlántico Norte o El Niño. Se ha encontrado universalmente que aquellos modelos climáticos que pasan estas evaluaciones también predicen siempre que el efecto neto de la adición de CO2 será un clima más cálido en el futuro, incluso teniendo en cuenta todos los cambios en el contenido de vapor de agua y en las nubes. Sin embargo, la magnitud de este calentamiento predicho varía según el modelo, lo cual probablemente refleja las diferencias en el modo en que los diferentes modelos representan las nubes y los procesos en que el vapor de agua es redistribuido en la atmósfera.
Sin embargo, las predicciones obtenidas con estos modelos no necesariamente tienen que cumplirse en el futuro. Los escépticos en esta materia responden que las predicciones contienen exageradas oscilaciones de más de un 400% entre ellas, que hace que las conclusiones sean inválidas, contradictorias o absurdas. Los ecólogos responden que los escépticos no han sido capaces de producir un modelo de clima que no prediga que las temperaturas se elevarán en el futuro. Los escépticos discuten la validez de los modelos teóricos basados en sistemas de ecuaciones diferenciales, que son sin embargo un recurso común en todas las áreas de la investigación de problemas complejos difíciles de reducir a pocas variables, cuya incertidumbre es alta siempre por la simplificación de la realidad que el modelo implica y por la componente caótica de los fenómenos implicados. Los modelos evolucionan poniendo a prueba su relación con la realidad prediciendo (retrodiciendo) evoluciones ya acaecidas y, gracias a la creciente potencia de los ordenadores, aumentando la resolución espacial y temporal, puesto que trabajan calculando los cambios que afectan a pequeñas parcelas de la atmósfera en intervalos de tiempo discretos.
Las industrias que utilizan el carbón como fuente de energía, los tubos de escape de los automóviles, las chimeneas de las fábricas y otros subproductos gaseosos procedentes de la actividad humana contribuyen con cerca de 22.000 millones de toneladas de dióxido de carbono (correspondientes a 6.000 millones de toneladas de carbón puro) y otros gases de efecto invernadero a la atmósfera terrestre cada año. La concentración atmosférica de CO2 se ha incrementado hasta un 31% por encima de los niveles pre-industriales, desde 1750. Esta concentración es considerablemente más alta que en cualquier momento de los últimos 420.000 años, el período del cual han podido obtenerse datos fiables a partir de núcleos de hielo. Se cree, a raíz de una evidencia geológica menos directa, que los valores de CO2 estuvieron a esta altura por última vez hace 40 millones de años. Alrededor de tres cuartos de las emisiones antropogénicas de CO2 a la atmósfera durante los últimos 20 años se deben al uso de combustibles fósiles. El resto es predominantemente debido a usos agropecuarios, en especial deforestación.[18]
Los gases de efecto invernadero toman su nombre del hecho de que no dejan salir al espacio la energía que emite la Tierra, en forma de radiación infrarroja, cuando se calienta con la radiación procedente del Sol, que es el mismo efecto que producen los vidrios de un invernadero de jardinería. Aunque éstos se calientan principalmente al evitar el escape de calor por convección.
El efecto invernadero natural que suaviza el clima de la Tierra no es cuestión que se incluya en el debate sobre el calentamiento global. Sin este efecto invernadero natural las temperaturas caerían aproximadamente 30 ºC. Los océanos podrían congelarse, y la vida, tal como la conocemos, sería imposible. Para que este efecto se produzca, son necesarios estos gases de efecto invernadero, pero en proporciones adecuadas. Lo que preocupa a los climatólogos es que una elevación de esa proporción producirá un aumento de la temperatura debido al calor atrapado en la baja atmósfera.
Los incrementos de CO2 medidos desde 1958 en Mauna Loa muestran una concentración que se incrementa a una tasa de cerca de 1.5 ppm por año. De hecho, resulta evidente que el incremento es más rápido de lo que sería un incremento lineal. El 21 de marzo del 2004 se informó de que la concentración alcanzó 376 ppm (partes por millón). Los registros del Polo Sur muestran un crecimiento similar al ser el CO2 un gas que se mezcla de manera homogénea en la atmósfera.
Teoría de la variación solar
Se han propuesto varias hipótesis para relacionar las variaciones de la temperatura terrestre con variaciones de la actividad solar, que han sido refutadas por los físicos Terry Sloan y Arnold W. Wolfendale.[19] La comunidad meteorológica ha respondido con escepticismo, en parte, porque las teorías de esta naturaleza han sufrido idas y venidas durante el curso del siglo XX.[20]
Sami Solanki, director del Instituto Max Planck para la Investigación del Sistema Solar, en Göttingen (Alemania), ha dicho:[21]
El Sol está en su punto álgido de actividad durante los últimos 60 años, y puede estar ahora afectando a las temperaturas globales. (...) Las dos cosas: el Sol más brillante y unos niveles más elevados de los así llamados "gases de efecto invernadero", han contribuido al cambio de la temperatura de la Tierra, pero es imposible decir cuál de los dos tiene una incidencia mayor.
Willie Soon y Sallie Baliunas del Observatorio de Harvard correlacionaron recuentos históricos de manchas solares con variaciones de temperatura. Observaron que cuando ha habido menos manchas solares, la Tierra se ha enfriado (Ver Mínimo de Maunder y Pequeña Edad de Hielo) y que cuando ha habido más manchas solares, la Tierra se ha calentado, aunque, ya que el número de manchas solares solamente comenzó a estudiarse a partir de 1700, el enlace con el período cálido medieval es, como mucho, una especulación.
Las teorías han defendido normalmente uno de los siguientes tipos:
Los cambios en la radiación solar afectan directamente al clima. Esto es considerado en general improbable, ya que estas variaciones parecen ser pequeñas.
Las variaciones en el componente ultravioleta tienen un efecto. El componente UV varía más que el total.
Efectos mediados por cambios en los rayos cósmicos (que son afectados por el viento solar, el cual es afectado por el flujo solar), tales como cambios en la cobertura de nubes.
Aunque pueden encontrarse a menudo correlaciones, el mecanismo existente tras esas correlaciones es materia de especulación. Muchas de estas explicaciones especulativas han salido mal paradas del paso del tiempo, y en un artículo "Actividad solar y clima terrestre, un análisis de algunas pretendidas correlaciones" (Journal of Atmospheric and Solar-Terrestrial Physics, 2003 p801–812) Peter Laut demuestra que hay inexactitudes en algunas de las más populares, notablemente en las de Svensmark y Lassen (ver más abajo).

Variaciones en el ciclo solar.
En 1991 Knud Lassen, del Instituto Meteorológico de Dinamarca, en Copenhague, y su colega Eigil Friis-Christensen, encontraron una importante correlación entre la duración del ciclo solar y los cambios de temperatura en el Hemisferio Norte. Inicialmente utilizaron mediciones de temperaturas y recuentos de manchas solares desde 1861 hasta 1989, pero posteriormente encontraron que los registros del clima de cuatro siglos atrás apoyaban sus hallazgos. Esta relación aparentemente explicaba, de modo aproximado, el 80% de los cambios en las mediciones de temperatura durante ese período. Sallie Baliuna, un astrónomo del Centro Harvard-Smithsoniano para la astrofísica (Harvard-Smithsonian Center for Astrophysics), se encuentra entre los que apoyan la teoría de que los cambios en el Sol "pueden ser responsables de los cambios climáticos mayores en la Tierra durante los últimos 300 años, incluyendo parte de la reciente ola de calentamiento global".
Sin embargo, el 6 de mayo de 2000 la revista New Scientist informó que Lassen y el astrofísico Peter Thejil habían actualizado la investigación de Lassen de 1991 y habían encontrado que, a pesar de que los ciclos solares son responsables de cerca de la mitad de la elevación de temperatura desde 1900, no logran explicar una elevación de 0,4 ºC desde 1980:
Las curvas divergen a partir de 1980 y se trata de una desviación sorprendentemente grande. Algo más está actuando sobre el clima. [...] Tiene las «huellas digitales» del efecto invernadero.
Posteriormente, en el mismo año, Peter Stoff y otros investigadores de Centro Hadley, en el Reino Unido, publicaron un artículo en el que dieron a conocer el modelo de simulación hasta la fecha más exhaustivo sobre el clima del Siglo XX. Su estudio prestó atención tanto a los agentes forzadores naturales (variaciones solares y emisiones volcánicas) como al forzamiento antropogénico (gases invernadero y aerosoles de sulfato). Al igual que Lassen y Thejil, encontraron que los factores naturales daban explicación al calentamiento gradual hasta aproximadamente 1960, seguido posteriormente de un retorno a las temperaturas de finales del siglo XIX, lo cual era consistente con los cambios graduales en el forzamiento solar a lo largo del siglo XX y la actividad volcánica durante las últimas décadas.
Sin embargo, estos factores no podían explicar por sí solos el calentamiento en las últimas décadas. De forma similar, el forzamiento antropogénico, por sí solo, era insuficiente para explicar el calentamiento entre 1910-1945, pero era necesario para simular el calentamiento desde 1976. El equipo de Stott encontró que combinando todos estos factores se podía obtener una simulación cercana a la realidad de los cambios de temperatura globales a lo largo del siglo XX. Predijeron que las emisiones continuadas de gases invernadero podían causar incrementos de temperatura adicionales en el futuro "a un ritmo similar al observado en las décadas recientes".[22]

Otras hipótesis
Se han propuesto otras hipótesis en el ámbito científico:
El incremento en temperatura actual es predecible a partir de la teoría de las Variaciones orbitales, según la cual, los cambios graduales en la órbita terrestre alrededor del Sol y los cambios en la inclinación axial de la Tierra afectan a la cantidad de energía solar que llega a la Tierra.
El calentamiento se encuentra dentro de los límites de variación natural y no necesita otra explicación particular.[23]
El calentamiento es una consecuencia del proceso de salida de un periodo frío previo, la Pequeña Edad de Hielo y no requiere otra explicación.
En ocasiones se atribuye el aumento en las medidas al sesgo en la lectura de los termómetros de las Estaciones Meteorológicas "inmersas" en las isla de calor que han formado las edificaciones en las ciudades.
Algunos escépticos argumentan que la tendencia al calentamiento no está dentro de los márgenes de lo que es posible observar (dificultad de generar un promedio de la temperatura terrestre para todo el globo debido a la ausencia de estaciones meteorológicas, especialmente en el océano, sensibilidad de los instrumentos a cambios de unas pocas decenas de grados celsius), y que por lo tanto no requiere de una explicación a través del efecto invernadero.

El calentamiento global en el pasado
Los geólogos creen que la Tierra experimentó un calentamiento global durante el Jurásico inferior con elevaciones medias de temperatura que llegaron a 5 ºC. Ciertas investigaciones[24] [25] indican que esto fue la causa de que se acelerase la erosión de las rocas hasta en un 400%, un proceso en el que tardaron 150.000 años en volver los valores de dióxido de carbono a niveles normales. Posteriormente se produjo también otro episodio de calentamiento global conocido como Máximo termal del Paleoceno-Eoceno.[26]

Modelos climáticos
Los modelos climáticos más recientes dan una buena simulación de los cambios globales de temperatura en el siglo XX. La simulaciones climáticas no atribuyen inequívocamente el calentamiento que ocurrió desde 1910 hasta 1945 a variaciones naturales o a forzamientos antropogénicos. Todos los modelos muestran que el calentamiento habido entre 1975 y 2000 es en gran medida antropogénico. Estas conclusiones dependen de la exactitud de los modelos utilizados y de la correcta estimación de los factores externos.
La mayoría de los científicos están de acuerdo en que hay procesos climáticos importantes que están incorrectamente explicados en los modelos climáticos, pero no piensan que otros modelos mejores puedan cambiar la conclusión sobre el origen del calentamiento global actual (fuente IPCC).
Los críticos puntualizan que hay defectos y factores externos no especificados que no se han tenido en consideración, y que podrían cambiar la conclusión del IPCC. Algunos críticos no identificados dicen que las simulaciones climáticas son incapaces de acomodar los mecanismos de autorregulación del vapor de agua ni de manejar nubes. Algunos efectos solares indirectos pueden ser muy importantes y no han sido explicados por los modelos (fuente The Skeptical Environmentalist).
El IPCC en Climate Change 2001: The Scientific Basis. Cambridge, UK: Cambridge University Press, 2001, p774: "En la investigación y la creación de modelos climáticos, debemos reconocer que nos enfrentamos con un sistema caótico no lineal, y por lo tanto las predicciones a largo plazo de los estados climáticos futuros no son posibles".

Datos de Interés del Calentamiento Global
Según un artículo publicado en enero del 2004, el calentamiento global podría exterminar a una cuarta parte de todas las especies de plantas y animales de la Tierra para el 2050.
Estudios realizados, muestran que la década de los noventa, fue la más caliente en los últimos mil años.
En caso de que todo el hielo que forma el Inlandsis antártico se fundiera, el nivel del mar aumentaría aproximadamente 61 m; un aumento de sólo 6 m bastaría para inundar a Londres y a Nueva York.
El nivel del dióxido de carbono (CO2) en la atmósfera podría duplicarse en los próximo 30 o 50 años.
Los países más afectados son los principales en promover la reducción de emisión de los gases invernadero
En 1984 el tamaño del hueco en la capa de ozono, que se mide sobre la Antártida, era aproximadamente 7 millones de km², hasta 1990 alcanzó los 29 millones de km² (cuatro veces mayor). Desde el año 90, el agujero de Ozono sigue una tendencia a la reducción[27] (Imagen, medidas del "agujero de ozono de la Antártida" anuales por la NASA)
(Estos datos se miden en la época de mayor amplitud del agujero, verano)
La aceleración del flujo del hielo en regiones de Groenlandia se estimó en 2000 que disminuye el volumen de su inlandsis en 51 km³/año[28] , aunque una revaluación más reciente[29] sitúa el número en 150 km³/año. Parte del aumento se debe a una aceleración reciente de la fusión de los glaciares periféricos, y se estima que su contribución al aumento del nivel del mar ha alcanzado en 2005 un valor 0,57±0.1 mm/año.
Indonesia es el país con mayor número de mamíferos y pájaros en peligro de extinción, 128 y 104 respectivamente.
En Estados Unidos se recupera sólo el 11% de los residuos sólidos producidos, y en Europa Occidental es del 30%.
Brasil fue entre 1990 y 2000 el país en el que hubo mayor deforestación con 22.264 km²
Cinco de los 10 países que más deforestan se encuentran en el continente africano.

Datos del IPCC en su tercer informe (2001)
En relación a esta afirmación:
"Estudios realizados, muestran que la década de los noventa, fue la más caliente en los últimos mil años."
el IPCC dice exactamente:
A escala mundial, es muy probable(66-90%) que el decenio del 1990 fuera el más cálido desde que se dispone de registros instrumentales.
IPCC#Climate Change 2001: Synthesis Report
El IPCC afirma en el informe de síntesis lo siguiente:[30]
Se proyecta que los glaciares y las capas de hielo continúen su retirada generalizada durante el siglo XXI. Se prevé que en el Hemisferio Norte disminuyan aún más la capa de nieve, el permafrost, y la extensión del hielo marino. Es posible que la placa de hielo antártica aumente su masa, mientras que la de Groenlandia la pierda (véase la Pregunta 4).[31]
IPPC: cambios en la atmósfera, clima y sistema biológico terrestre durante el siglo XX:
Temperatura media mundial de la superficie: aumento en el 0,6 ± 0,2 ºC en el siglo XX; la superficie de la Tierra se ha calentado más que los océanos (muy probable: 90-99%)
Temperatura en la superficie del Hemisferio Norte: aumento durante el siglo XX más que en otro siglo de los últimos 1.000 años; el decenio de 1990 ha sido el más cálido del milenio (probable 66-90%).
Temperatura diurna de la superficie: disminución en el período 1950-2000 en las zonas terrestres; las temperaturas mínimas nocturnas han aumentado el doble de las temperaturas máximas diurnas (probable 66-90%).
Climate Change 2001: Synthesis Report
Se entiende que los bosques y selvas naturales que conocemos como paraísos salvajes han sido siempre la impronta del cultivo de los nativos de dichos bosques, se podría decir incluso que son "bosques cultivados" y que la deforestación ha existido desde el principio de los días de la especie humana, pero no a la escala actual.
La relación armoniosa del hombre "salvaje" y la "madre naturaleza" no ha sido ni mayor ni mejor que la que actualmente se pueda ejercer sin prácticas ecologistas, no es un modelo a seguir por lo tanto, simplemente fue adaptación.
IPCC: Conclusiones finales:
las concentraciones atmosféricas de los secundarios gases de efecto invernadero antropogénicos (CO2, CH4, N2O y el O3 troposférico) han aumentado en gran medida desde 1750. El principal gas de invernadero es el vapor de agua
Algunos gases secundarios de efecto invernadero perduran mucho tiempo (por ejemplo, el CO2, el N2O y los PFC).
Gran parte del calentamiento observado durante los últimos 50 años se ha producido probablemente por un aumento de concentraciones de gases de efecto invernadero debido a actividades humanas.
Climate Change 2001: Synthesis Report

Historia del calentamiento global
El primero en manifestar un interés por la materia fue Svante August Arrhenius, quien en 1903 publicó Lehrbuch der Kosmischen Physik[32] (Tratado de física del Cosmos) que trataba por primera vez de la posibilidad de que la quema de combustibles fósiles incrementara la temperatura media de la Tierra. Entre otras cosas calculaba que se encestarían 3000 años de combustión de combustibles para que se alterara el clima del planeta, bajo la suposición que los océanos captarían todo el CO2 (Actualmente se sabe que los oceanos han absorbido un 48% del CO2 antropogénico desde 1800)[33] Arrhenius estimó el incremento de la temperatura del planeta cuando se doblara la concentración de dióxido de carbono de la atmósfera. Fijaba un incremento de 5 ºC y otorgaba una valoración positiva a este incremento de temperatura porque imaginaba que aumentaría la superficie cultivable y que los países más septentrionales serían mas productivos.

Concentración de CO2 atmosfèrico medido en el observatorió de Mauna Loa: Curva de Keeling measured at Mauna Loa Observatory: The Keeling Curve..
En las décadas siguientes las teorías de Arrhenius fueron poco valoradas, pues se creía que el CO2 no influía en la temperatura del planeta y el efecto invernadero se atribuía exclusivamente al vapor de agua. El 19 de mayo de 1937,[cita requerida] 35 años después de que Arrhenius publicara su teoría, Callendar (tecnólogo especialista en vapor) publicó "The artificial prodution of carbon dioxide and its influence on temperature" (La producción artificial de dióxido de carbono y su influencia en la temperatura),[34] tratado que corregía algunas estimaciones realizadas por Arrhenius, como la capacidad de los océanos para absorber CO2. Callendar estimaba en 0,003 ºC el incremento de temperatura por año (actualmente se estima que en la segunda mitad del siglo XX se ha producido un incremento de 0.005 ºC por año).[cita requerida]
En los años 1940 se desarrolló la espectrofotometria de infrarrojos, que ha permitido conocer que el CO2 absorbe la luz de manera distinta al vapor de agua, incrementando notablemente el efecto invernadero. Todo esto fue resumido por Gilbert Plass en el año 1955.
Pese a los estudios teóricos, no existían aún evidencias científicas del cambio climático. La primera evidencia científica apareció en 1958 cuando Charles Keeling empezó a representar el comportamiento del CO2 atmosférico. Usaba datos de una estación en Mauna Loa y otra en la Antártica. Un poco antes, la Organización Meteorológica Mundial ya había iniciado diversos planos de seguimiento, que tenían como objetivo, entre otras cosas, de calcular los niveles de CO2 en la troposfera.
En 1974, aceptadas ya las hipótesis científicas, la OMM decidió crear un equipo de expertos sobre el cambio climático. Así en 1985 tuvo lugar la conferencia de Villach (Austria), donde las Naciones Unidas y el Consejo Internacional para el Medio Ambiente concluyeron que para finales del siglo XXI se podría producir un aumento en las temperaturas de entre 1,5 y 4,5 ºC y un ascenso del nivel del mar entre 20 y 140 cm.[cita requerida]
El revuelo social que produjeron todos estos estudios facilitó que en 1988 se fundara el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC), que en 1990, concluyo después de su primera reunión[cita requerida] que de seguir con el ritmo actual de emisiones de gases de efecto invernadero, cabría esperar un aumento de 0,3 ºC por decenio durante el próximo siglo (mayor que el producido durante los últimos 10.000 años).[cita requerida] En 1992 se celebró en Río de Janeiro la Conferencia de Naciones Unidas sobre el Medio Ambiente y el Desarrollo, también conocida como la Cumbre de la Tierra, donde mas de 150 países acudieron y se logró aprobar la Convención Marco sobre el Cambio Climático para tratar de estabilizar las emisiones de gases de efecto invernadero a un nivel aceptable.
En 1997 se comenzó a redactar el protocolo de Kioto sobre el cambio climático[35] cuyo objetivo era reducir las emisiones de los principales gases de efecto invernadero: dióxido de carbono, metano, óxido nitroso, hexafluoruro de azufre, hidrofluorocarbonos, perfluorocarbonos. Se justificó no incluir el vapor de agua entre los gases de efecto invernadero considerados.[cita requerida] Su redacción finalizó en 1998 aunque no entró en vigor hasta noviembre de 2004 cuando fue ratificado por Rusia.
Tras el tercer informe del IPCC,[36] se consideró la necesidad de un nuevo protocolo mas severo y con la ratificación de más países a parte del G77. Por esta razón, en 2005 se reunieron en Montreal todos los países que hasta el momento habían ratificado el protocolo de Kioto y otros países responsables de la mayoría de las emisiones de gases de efecto invernadero, incluyendo Estados Unidos, China e India. La negociación en Montreal proveía la redacción de unas bases para la futura negociación de un nuevo protocolo que entraría en vigor en 2012[cita requerida], fecha de caducidad del actual protocolo. Durante la reunión, varios países pusieron objeciones y retrasaron el pre-acuerdo (es el caso de Estados Unidos o Rusia) pero después de retrasar algunos días el final de la negociación se llegó a un pre-acuerdo.[37]
En Bali entre el 3 y el 13 de diciembre de 2007 se reanudaron las negociaciones y aunque no se fijaron límites para los gases de efecto invernadero, se alcanzó un acuerdo[38] que, entre otras cosas, incentivaba la distribución de energías renovables entre los países en vías de desarrollo para que estos no basaran su crecimiento económico en la quema de combustibles fósiles.[39]