lunes, 8 de septiembre de 2008

EL CALENTAMIENTO GLOBAL



Calentamiento global es un término utilizado habitualmente en dos sentidos:
Es el fenómeno observado en las medidas de la temperatura que muestra en promedio un aumento en la
temperatura de la atmósfera terrestre y de los océanos en las últimas décadas.
Es una teoría que predice, a partir de proyecciones basadas en simulaciones computacionales, un crecimiento futuro de las temperaturas.
Algunas veces se utilizan las denominaciones
cambio climático, que designa a cualquier cambio en el clima, o cambio climático antropogénico, donde se considera implícitamente la influencia de la actividad humana. Calentamiento global y efecto invernadero no son sinónimos. El efecto invernadero acrecentado por la contaminación puede ser, según algunas teorías, la causa del calentamiento global observado.
La temperatura del planeta ha venido elevándose desde mediados del
siglo XIX, cuando se puso fin a la etapa conocida como la pequeña edad de hielo.

Predicciones basadas en diferentes modelos del incremento de la temperatura media global respecto de su valor en el año 2000.
Cualquier tipo de cambio climático además implica cambios en otras variables. La complejidad del problema y sus múltiples interacciones hacen que la única manera de evaluar estos cambios sea mediante el uso de modelos computacionales que intentan simular la física de la atmósfera y del océano y que tienen una precisión limitada debido al desconocimiento del funcionamiento de la atmósfera.
La teoría antropogénica predice que el calentamiento global continuará si lo hacen las emisiones de
gases de efecto invernadero (GEI). El cuerpo de la ONU encargado del análisis de los datos científicos es el Panel Intergubernamental del Cambio Climático (IPCC, por sus siglas en inglés de Inter-Governmental Panel on Climate Change).El IPCC indica que "[...]La mayoría de los aumentos observados en las temperaturas medias del globo desde la mitad del siglo XX son muy probablemente debidos al aumento observado en las concentraciones de GEI antropogénicas.".[1] Sin embargo, existen algunas discrepancias al respecto de que el dióxido de carbono sea el gas de efecto invernadero que más influye en el Calentamiento Global de origen antropogénico[cita requerida].
El
Protocolo de Kyoto, acuerdo promovido por el IPCC, promueve una reducción de emisiones contaminantes (principalmente CO2). El protocolo ha sido tachado en ciertas ocasiones de injusto, ya que el incremento de las emisiones tradicionalmente está asociado al desarrollo económico, con lo que las naciones a las que más afectaría el cumplimiento de este protocolo podrían ser aquellas zonas menos desarrolladas.


Registros de temperatura

Temperatura media terrestre en el período 1900 - 2004.
El período sobre el que se discute la evolución de la temperatura varía, a menudo, indebidamente, según la tesis que se quiere defender. En ocasiones desde la Revolución Industrial, otras desde el comienzo de un registro histórico global de temperatura alrededor de 1860; o sobre el siglo XX, o los 50 años más recientes.
La década más calurosa del pasado siglo XX fue, con diferencia, la de los años 90. Los que niegan que haya calentamiento encuentran culpable que muchos gráficos empleados para mostrar el calentamiento empiecen en 1970, cuando comienza a subir de nuevo la temperatura después de 36 años de un ligero descenso. Señalan que durante los años posteriores a la Segunda Guerra Mundial se incrementó mucho la emisión de los gases de efecto invernadero, y afirman, falsamente,[2] que en la época predominó entre los especialistas la alarma por un posible oscurecimiento global o enfriamiento global a finales del siglo XX.[3] La interpretación actual, dentro del emergente consenso científico sobre el cambio climático, del enfriamiento relativo de mediados de siglo, lo atribuye al aumento en las emisiones de aerosoles claros, que amplifican el albedo, determinando un forzamiento negativo. Su reducción siguió a la sustitución de combustibles y tecnologías por otros que emiten menos de estos aerosoles, en parte por las medidas de lucha contra la contaminación urbana e industrial y la lluvia ácida en los países desarrollados, de manera que el aumento en la emisión global de aerosoles se ha frenado.
En los últimos 20.000 años el suceso más importante es el final de la Edad de Hielo, hace aproximadamente 12.000 años.[4] Desde entonces, la temperatura ha permanecido relativamente estable, aunque con varias fluctuaciones como, por ejemplo, el Período de Enfriamiento Medieval o Pequeña Edad del Hielo. Según el IPCC, durante el siglo XX la temperatura promedio de la atmósfera se incrementó entre 0,4 y 0,8 ºC.
Las temperaturas en la troposfera inferior se han incrementado entre 0,08 y 0,22 ºC por decenio desde 1979[cita requerida]. El aumento de la temperatura no sigue una ley lineal, sino que presenta fluctuaciones debidas a la variabilidad natural, siendo la más notable de ellas el fenómeno de El Niño. Durante el mismo periodo las temperaturas en la superficie terrestre muestran un incremento de aproximadamente 0,15 ºC por decenio.[5]
Teorías y objeciones
El debate ha sobrepasado el ámbito científico y ha llegado al debate público. Al Gore, autor de "Earth in the Balance" (La Tierra en juego) y el documental "Una verdad incómoda" recibió el Premio Nobel de la Paz en el 2007, junto al Grupo Intergubernamental sobre el Cambio Climático (IPCC) de la ONU, «por sus esfuerzos para construir y diseminar un mayor conocimiento sobre el cambio climático causado por el hombre y poner las bases para la toma de las medidas que sean necesarias para contrarrestar ese cambio».[6]
Muchas de las teorías del calentamiento global son motivo de controversia, principalmente por sus repercusiones económicas. Existe un debate social y político sobre la cuestión, en tanto que la comunidad científica internacional ha llegado a un consenso científico suficiente para exigir una acción internacional concertada para aminorar sus efectos.[7]
Los defensores de la teoría del calentamiento global por causas antropogénicas expresan una amplia gama de opiniones, aunque la posición mayoritaria es la defendida por el IPCC, que culpa a la actividad industrial y pide la disminución de emisiones de gases de efecto invernadero.[8]
Algunos científicos simplemente reconocen como datos observables los incrementos de temperatura.
Otros apoyan medidas como el Protocolo de Kioto sobre el cambio climático, que intentan tener cierto efecto sobre el clima futuro y llevar a cabo otras medidas posteriormente. Estos piensan que el daño medioambiental tendrá un impacto tan serio que deben darse pasos inmediatamente para reducir las emisiones de CO2, a pesar de los costos económicos para las naciones. Por ejemplo Estados Unidos, que produce mayores emisiones de gases de efecto invernadero que cualquier otro país, en términos absolutos, y es el segundo mayor emisor per cápita después de Australia.
Los economistas también han alertado de los efectos desastrosos que tendrá el cambio climático sobre la economía mundial con reducciones de hasta un 20% en el crecimiento, cuando las medidas para evitarlo no sobrepasarían el 1%.[9] Los daños económicos predichos provendrían principalmente del efecto de las catástrofes naturales, con cuantiosas pérdidas de vidas humanas, por ejemplo en Europa.[10]
También existen autores escépticos, como Bjørn Lomborg, que ponen en duda el calentamiento global, basándose en los mismos datos usados por los defensores del calentamiento global. La revista Scientific American (enero de 2002), dedicó un numero especial para refutar el libro de Bjørn Lomborg, donde los autores de los reportes citados por el autor, le acusan de falsearlos o malinterpretarlos.[11]
Algunos científicos defienden que no están demostradas las teorías que predicen el incremento futuro de las temperaturas, argumentando que las diferencias del índice de calentamiento en el próximo siglo entre los diferentes modelos informáticos es de más del 400% (a pesar de que en esta horquilla de variación siempre se recogen aumentos significativos). Estos científicos han sido acusados de estar financiados por consorcios petroleros[12] o presionados por sus fuentes de financiación públicas como el gobierno de los EE. UU.[13]

Los cálculos de Wigley
T.M.L. Wigley, del NCAR,[14] publicó en 1998[15] los resultados de la aplicación de un modelo climático a los efectos del Protocolo de Kioto, distinguiendo tres casos en el comportamiento de los países del anexo B del protocolo (los industrializados):
que el cumplimiento del protocolo fuera seguido por una sujeción a sus límites, pero sin nuevas medidas de reducción;
que el protocolo fuera cumplido, pero no seguido de ninguna limitación (sino de lo que se llama en inglés bussiness as usual);
que el protocolo, una vez cumplido, se continuara con una reducción de las emisiones del 1% anual.
Las reducciones del calentamiento previsto por el modelo para 2050 (2,5°C) eran respectivamente 0,11-0,21 °C (aproximadamente 6%), 0,06-0,11 °C (3%) y alrededor de 0,35 °C (14%). En todos los casos los resultados son muy modestos. Los llamados escépticos se atuvieron al segundo caso (3% de 2,5 °C, es decir, 0,7 °C) y lo esgrimieron sistemáticamente como prueba de la inutilidad del protocolo de Kioto. Fue usado por ejemplo, en el Congreso de Estados Unidos, aún bajo administración Clinton, para parar la adhesión a Kioto.[16] Wigley es citado por los opuestos a cualquier regulación para declarar que el protocolo de Kyoto es innecesario, por inútil, en contra de la conclusión del propio Wigley para quien es insuficiente, pero aún así es «importante como primer paso hacia la estabilización del sistema climático.»[15] El propio Wigley ha revisado la cuestión en un trabajo más reciente,[17] concluyendo que «para estabilizar las temperaturas medias globales, necesitamos finalmente reducir las emisiones de gases de invernadero muy por debajo de los niveles actuales».

Teorías que intentan explicar los cambios de temperatura
El clima varía por procesos naturales tanto internos como externos. Entre los primeros destacan las emisiones volcánicas, y otras fuentes de gases de efecto invernadero (como por ejemplo el metano emitido en las granjas animales). Entre los segundos pueden citarse los cambios en la órbita de la Tierra alrededor del Sol (Teoría de Milankovitch) y la propia actividad solar.
Los especialistas en climatología aceptan que la Tierra se ha calentado recientemente (El IPCC cita un incremento de 0.6 ± 0.2 °C en el siglo XX). Más controvertida es la posible explicación de lo que puede haber causado este cambio. Tampoco nadie discute que la concentración de gases invernadero ha aumentado y que la causa de este aumento es probablemente la actividad industrial durante los últimos 200 años.
También existen diferencias llamativas entre las mediciones realizadas en las estaciones meteorológicas situadas en tierra (con registros en raras ocasiones comenzados desde finales del siglo XIX y en menos ocasiones todavía de una forma continuada) y las medidas de temperaturas realizadas con satélites desde el espacio (todas comenzadas a partir de la segunda mitad del siglo XX). Estas diferencias se han achacado a los modelos utilizados en las predicciones del aumento de temperatura existente en el entorno de las propias estaciones meteorológicas debido al desarrollo urbano (el efecto llamado Isla de calor). Dependiendo del aumento predicho por estos modelos las temperaturas observadas por estas estaciones serán mayores o menores (en muchas ocasiones incluso prediciendo disminuciones de las temperaturas).

Teoría de los gases invernadero

Concentración de dióxido de carbono en los últimos 417.000 años. La parte roja indica la variación a partir de 1800.
La hipótesis de que los incrementos o descensos en concentraciones de gases de efecto invernadero pueden dar lugar a una temperatura global mayor o menor fue postulada extensamente por primera vez a finales del s. XIX por Svante Arrhenius, como un intento de explicar las eras glaciales. Sus coetáneos rechazaron radicalmente su teoría.
La teoría de que las emisiones de gases de efecto invernadero están contribuyendo al calentamiento de la atmósfera terrestre ha ganado muchos adeptos y algunos oponentes en la comunidad científica durante el último cuarto de siglo. El IPCC, que se fundó para evaluar los riesgos de los cambios climáticos inducidos por los seres humanos, atribuye la mayor parte del calentamiento reciente a las actividades humanas. La Academia Nacional de Ciencias de Estados Unidos (National Academy of Sciences, NAC) también respaldó esa teoría. El físico atmosférico Richard Lindzen y otros escépticos se oponen a aspectos parciales de la teoría.
Hay muchos aspectos sutiles en esta cuestión. Los científicos atmosféricos saben que el hecho de añadir dióxido de carbono CO2 a la atmósfera, sin efectuar otros cambios, tenderá a hacer más cálida la superficie del planeta. Pero hay una cantidad importante de vapor de agua (humedad, nubes) en la atmósfera terrestre, y el agua es un gas de efecto invernadero. Si la adición de CO2 a la atmósfera aumenta levemente la temperatura, se espera que más vapor de agua se evapore desde la superficie de los océanos. El vapor de agua así liberado a la atmósfera aumenta a su vez el efecto invernadero (El vapor de agua es un gas de invernadero más eficiente que el CO2. A este proceso se le conoce como la retroalimentación del vapor de agua (water vapor feedback en inglés). Es esta retroalimentación la causante de la mayor parte del calentamiento que los modelos de la atmósfera predicen que ocurrirá durante las próximas décadas. La cantidad de vapor de agua así como su distribución vertical son claves en el cálculo de esta retroalimentación. Los procesos que controlan la cantidad de vapor en la atmósfera son complejos de modelar y aquí radica gran parte de la incertidumbre sobre el calentamiento global.
El papel de las nubes es también crítico. Las nubes tienen efectos contradictorios en el clima. Cualquier persona ha notado que la temperatura cae cuando pasa una nube en un día soleado de verano, que de otro modo sería más caluroso. Es decir: las nubes enfrían la superficie reflejando la luz del Sol de nuevo al espacio. Pero también se sabe que las noches claras de invierno tienden a ser más frías que las noches con el cielo cubierto. Esto se debe a que las nubes también devuelven algo de calor a la superficie de la Tierra. Si el CO2 cambia la cantidad y distribución de las nubes podría tener efectos complejos y variados en el clima y una mayor evaporación de los océanos contribuiría también a la formación de una mayor cantidad de nubes.
A la vista de esto, no es correcto imaginar que existe un debate entre los que "defienden" y los que "se oponen" a la teoría de que la adición de CO2 a la atmósfera terrestre dará como resultado que las temperaturas terrestres promedio serán más altas. Más bien, el debate se centra sobre lo que serán los efectos netos de la adición de CO2, y en si los cambios en vapor de agua, nubes y demás podrán compensar y anular este efecto de calentamiento. El calentamiento observado en la Tierra durante los últimos 50 años parece estar en oposición con la teoría de los escépticos de que los mecanismos de autorregulación del clima compensarán el calentamiento debido al CO2.
Los científicos han estudiado también este tema con modelos computerizados del clima. Estos modelos se aceptan por la comunidad científica como válidos solamente cuando han demostrado poder simular variaciones climáticas conocidas, como la diferencia entre el verano y el invierno, la Oscilación del Atlántico Norte o El Niño. Se ha encontrado universalmente que aquellos modelos climáticos que pasan estas evaluaciones también predicen siempre que el efecto neto de la adición de CO2 será un clima más cálido en el futuro, incluso teniendo en cuenta todos los cambios en el contenido de vapor de agua y en las nubes. Sin embargo, la magnitud de este calentamiento predicho varía según el modelo, lo cual probablemente refleja las diferencias en el modo en que los diferentes modelos representan las nubes y los procesos en que el vapor de agua es redistribuido en la atmósfera.
Sin embargo, las predicciones obtenidas con estos modelos no necesariamente tienen que cumplirse en el futuro. Los escépticos en esta materia responden que las predicciones contienen exageradas oscilaciones de más de un 400% entre ellas, que hace que las conclusiones sean inválidas, contradictorias o absurdas. Los ecólogos responden que los escépticos no han sido capaces de producir un modelo de clima que no prediga que las temperaturas se elevarán en el futuro. Los escépticos discuten la validez de los modelos teóricos basados en sistemas de ecuaciones diferenciales, que son sin embargo un recurso común en todas las áreas de la investigación de problemas complejos difíciles de reducir a pocas variables, cuya incertidumbre es alta siempre por la simplificación de la realidad que el modelo implica y por la componente caótica de los fenómenos implicados. Los modelos evolucionan poniendo a prueba su relación con la realidad prediciendo (retrodiciendo) evoluciones ya acaecidas y, gracias a la creciente potencia de los ordenadores, aumentando la resolución espacial y temporal, puesto que trabajan calculando los cambios que afectan a pequeñas parcelas de la atmósfera en intervalos de tiempo discretos.
Las industrias que utilizan el carbón como fuente de energía, los tubos de escape de los automóviles, las chimeneas de las fábricas y otros subproductos gaseosos procedentes de la actividad humana contribuyen con cerca de 22.000 millones de toneladas de dióxido de carbono (correspondientes a 6.000 millones de toneladas de carbón puro) y otros gases de efecto invernadero a la atmósfera terrestre cada año. La concentración atmosférica de CO2 se ha incrementado hasta un 31% por encima de los niveles pre-industriales, desde 1750. Esta concentración es considerablemente más alta que en cualquier momento de los últimos 420.000 años, el período del cual han podido obtenerse datos fiables a partir de núcleos de hielo. Se cree, a raíz de una evidencia geológica menos directa, que los valores de CO2 estuvieron a esta altura por última vez hace 40 millones de años. Alrededor de tres cuartos de las emisiones antropogénicas de CO2 a la atmósfera durante los últimos 20 años se deben al uso de combustibles fósiles. El resto es predominantemente debido a usos agropecuarios, en especial deforestación.[18]
Los gases de efecto invernadero toman su nombre del hecho de que no dejan salir al espacio la energía que emite la Tierra, en forma de radiación infrarroja, cuando se calienta con la radiación procedente del Sol, que es el mismo efecto que producen los vidrios de un invernadero de jardinería. Aunque éstos se calientan principalmente al evitar el escape de calor por convección.
El efecto invernadero natural que suaviza el clima de la Tierra no es cuestión que se incluya en el debate sobre el calentamiento global. Sin este efecto invernadero natural las temperaturas caerían aproximadamente 30 ºC. Los océanos podrían congelarse, y la vida, tal como la conocemos, sería imposible. Para que este efecto se produzca, son necesarios estos gases de efecto invernadero, pero en proporciones adecuadas. Lo que preocupa a los climatólogos es que una elevación de esa proporción producirá un aumento de la temperatura debido al calor atrapado en la baja atmósfera.
Los incrementos de CO2 medidos desde 1958 en Mauna Loa muestran una concentración que se incrementa a una tasa de cerca de 1.5 ppm por año. De hecho, resulta evidente que el incremento es más rápido de lo que sería un incremento lineal. El 21 de marzo del 2004 se informó de que la concentración alcanzó 376 ppm (partes por millón). Los registros del Polo Sur muestran un crecimiento similar al ser el CO2 un gas que se mezcla de manera homogénea en la atmósfera.
Teoría de la variación solar
Se han propuesto varias hipótesis para relacionar las variaciones de la temperatura terrestre con variaciones de la actividad solar, que han sido refutadas por los físicos Terry Sloan y Arnold W. Wolfendale.[19] La comunidad meteorológica ha respondido con escepticismo, en parte, porque las teorías de esta naturaleza han sufrido idas y venidas durante el curso del siglo XX.[20]
Sami Solanki, director del Instituto Max Planck para la Investigación del Sistema Solar, en Göttingen (Alemania), ha dicho:[21]
El Sol está en su punto álgido de actividad durante los últimos 60 años, y puede estar ahora afectando a las temperaturas globales. (...) Las dos cosas: el Sol más brillante y unos niveles más elevados de los así llamados "gases de efecto invernadero", han contribuido al cambio de la temperatura de la Tierra, pero es imposible decir cuál de los dos tiene una incidencia mayor.
Willie Soon y Sallie Baliunas del Observatorio de Harvard correlacionaron recuentos históricos de manchas solares con variaciones de temperatura. Observaron que cuando ha habido menos manchas solares, la Tierra se ha enfriado (Ver Mínimo de Maunder y Pequeña Edad de Hielo) y que cuando ha habido más manchas solares, la Tierra se ha calentado, aunque, ya que el número de manchas solares solamente comenzó a estudiarse a partir de 1700, el enlace con el período cálido medieval es, como mucho, una especulación.
Las teorías han defendido normalmente uno de los siguientes tipos:
Los cambios en la radiación solar afectan directamente al clima. Esto es considerado en general improbable, ya que estas variaciones parecen ser pequeñas.
Las variaciones en el componente ultravioleta tienen un efecto. El componente UV varía más que el total.
Efectos mediados por cambios en los rayos cósmicos (que son afectados por el viento solar, el cual es afectado por el flujo solar), tales como cambios en la cobertura de nubes.
Aunque pueden encontrarse a menudo correlaciones, el mecanismo existente tras esas correlaciones es materia de especulación. Muchas de estas explicaciones especulativas han salido mal paradas del paso del tiempo, y en un artículo "Actividad solar y clima terrestre, un análisis de algunas pretendidas correlaciones" (Journal of Atmospheric and Solar-Terrestrial Physics, 2003 p801–812) Peter Laut demuestra que hay inexactitudes en algunas de las más populares, notablemente en las de Svensmark y Lassen (ver más abajo).

Variaciones en el ciclo solar.
En 1991 Knud Lassen, del Instituto Meteorológico de Dinamarca, en Copenhague, y su colega Eigil Friis-Christensen, encontraron una importante correlación entre la duración del ciclo solar y los cambios de temperatura en el Hemisferio Norte. Inicialmente utilizaron mediciones de temperaturas y recuentos de manchas solares desde 1861 hasta 1989, pero posteriormente encontraron que los registros del clima de cuatro siglos atrás apoyaban sus hallazgos. Esta relación aparentemente explicaba, de modo aproximado, el 80% de los cambios en las mediciones de temperatura durante ese período. Sallie Baliuna, un astrónomo del Centro Harvard-Smithsoniano para la astrofísica (Harvard-Smithsonian Center for Astrophysics), se encuentra entre los que apoyan la teoría de que los cambios en el Sol "pueden ser responsables de los cambios climáticos mayores en la Tierra durante los últimos 300 años, incluyendo parte de la reciente ola de calentamiento global".
Sin embargo, el 6 de mayo de 2000 la revista New Scientist informó que Lassen y el astrofísico Peter Thejil habían actualizado la investigación de Lassen de 1991 y habían encontrado que, a pesar de que los ciclos solares son responsables de cerca de la mitad de la elevación de temperatura desde 1900, no logran explicar una elevación de 0,4 ºC desde 1980:
Las curvas divergen a partir de 1980 y se trata de una desviación sorprendentemente grande. Algo más está actuando sobre el clima. [...] Tiene las «huellas digitales» del efecto invernadero.
Posteriormente, en el mismo año, Peter Stoff y otros investigadores de Centro Hadley, en el Reino Unido, publicaron un artículo en el que dieron a conocer el modelo de simulación hasta la fecha más exhaustivo sobre el clima del Siglo XX. Su estudio prestó atención tanto a los agentes forzadores naturales (variaciones solares y emisiones volcánicas) como al forzamiento antropogénico (gases invernadero y aerosoles de sulfato). Al igual que Lassen y Thejil, encontraron que los factores naturales daban explicación al calentamiento gradual hasta aproximadamente 1960, seguido posteriormente de un retorno a las temperaturas de finales del siglo XIX, lo cual era consistente con los cambios graduales en el forzamiento solar a lo largo del siglo XX y la actividad volcánica durante las últimas décadas.
Sin embargo, estos factores no podían explicar por sí solos el calentamiento en las últimas décadas. De forma similar, el forzamiento antropogénico, por sí solo, era insuficiente para explicar el calentamiento entre 1910-1945, pero era necesario para simular el calentamiento desde 1976. El equipo de Stott encontró que combinando todos estos factores se podía obtener una simulación cercana a la realidad de los cambios de temperatura globales a lo largo del siglo XX. Predijeron que las emisiones continuadas de gases invernadero podían causar incrementos de temperatura adicionales en el futuro "a un ritmo similar al observado en las décadas recientes".[22]

Otras hipótesis
Se han propuesto otras hipótesis en el ámbito científico:
El incremento en temperatura actual es predecible a partir de la teoría de las Variaciones orbitales, según la cual, los cambios graduales en la órbita terrestre alrededor del Sol y los cambios en la inclinación axial de la Tierra afectan a la cantidad de energía solar que llega a la Tierra.
El calentamiento se encuentra dentro de los límites de variación natural y no necesita otra explicación particular.[23]
El calentamiento es una consecuencia del proceso de salida de un periodo frío previo, la Pequeña Edad de Hielo y no requiere otra explicación.
En ocasiones se atribuye el aumento en las medidas al sesgo en la lectura de los termómetros de las Estaciones Meteorológicas "inmersas" en las isla de calor que han formado las edificaciones en las ciudades.
Algunos escépticos argumentan que la tendencia al calentamiento no está dentro de los márgenes de lo que es posible observar (dificultad de generar un promedio de la temperatura terrestre para todo el globo debido a la ausencia de estaciones meteorológicas, especialmente en el océano, sensibilidad de los instrumentos a cambios de unas pocas decenas de grados celsius), y que por lo tanto no requiere de una explicación a través del efecto invernadero.

El calentamiento global en el pasado
Los geólogos creen que la Tierra experimentó un calentamiento global durante el Jurásico inferior con elevaciones medias de temperatura que llegaron a 5 ºC. Ciertas investigaciones[24] [25] indican que esto fue la causa de que se acelerase la erosión de las rocas hasta en un 400%, un proceso en el que tardaron 150.000 años en volver los valores de dióxido de carbono a niveles normales. Posteriormente se produjo también otro episodio de calentamiento global conocido como Máximo termal del Paleoceno-Eoceno.[26]

Modelos climáticos
Los modelos climáticos más recientes dan una buena simulación de los cambios globales de temperatura en el siglo XX. La simulaciones climáticas no atribuyen inequívocamente el calentamiento que ocurrió desde 1910 hasta 1945 a variaciones naturales o a forzamientos antropogénicos. Todos los modelos muestran que el calentamiento habido entre 1975 y 2000 es en gran medida antropogénico. Estas conclusiones dependen de la exactitud de los modelos utilizados y de la correcta estimación de los factores externos.
La mayoría de los científicos están de acuerdo en que hay procesos climáticos importantes que están incorrectamente explicados en los modelos climáticos, pero no piensan que otros modelos mejores puedan cambiar la conclusión sobre el origen del calentamiento global actual (fuente IPCC).
Los críticos puntualizan que hay defectos y factores externos no especificados que no se han tenido en consideración, y que podrían cambiar la conclusión del IPCC. Algunos críticos no identificados dicen que las simulaciones climáticas son incapaces de acomodar los mecanismos de autorregulación del vapor de agua ni de manejar nubes. Algunos efectos solares indirectos pueden ser muy importantes y no han sido explicados por los modelos (fuente The Skeptical Environmentalist).
El IPCC en Climate Change 2001: The Scientific Basis. Cambridge, UK: Cambridge University Press, 2001, p774: "En la investigación y la creación de modelos climáticos, debemos reconocer que nos enfrentamos con un sistema caótico no lineal, y por lo tanto las predicciones a largo plazo de los estados climáticos futuros no son posibles".

Datos de Interés del Calentamiento Global
Según un artículo publicado en enero del 2004, el calentamiento global podría exterminar a una cuarta parte de todas las especies de plantas y animales de la Tierra para el 2050.
Estudios realizados, muestran que la década de los noventa, fue la más caliente en los últimos mil años.
En caso de que todo el hielo que forma el Inlandsis antártico se fundiera, el nivel del mar aumentaría aproximadamente 61 m; un aumento de sólo 6 m bastaría para inundar a Londres y a Nueva York.
El nivel del dióxido de carbono (CO2) en la atmósfera podría duplicarse en los próximo 30 o 50 años.
Los países más afectados son los principales en promover la reducción de emisión de los gases invernadero
En 1984 el tamaño del hueco en la capa de ozono, que se mide sobre la Antártida, era aproximadamente 7 millones de km², hasta 1990 alcanzó los 29 millones de km² (cuatro veces mayor). Desde el año 90, el agujero de Ozono sigue una tendencia a la reducción[27] (Imagen, medidas del "agujero de ozono de la Antártida" anuales por la NASA)
(Estos datos se miden en la época de mayor amplitud del agujero, verano)
La aceleración del flujo del hielo en regiones de Groenlandia se estimó en 2000 que disminuye el volumen de su inlandsis en 51 km³/año[28] , aunque una revaluación más reciente[29] sitúa el número en 150 km³/año. Parte del aumento se debe a una aceleración reciente de la fusión de los glaciares periféricos, y se estima que su contribución al aumento del nivel del mar ha alcanzado en 2005 un valor 0,57±0.1 mm/año.
Indonesia es el país con mayor número de mamíferos y pájaros en peligro de extinción, 128 y 104 respectivamente.
En Estados Unidos se recupera sólo el 11% de los residuos sólidos producidos, y en Europa Occidental es del 30%.
Brasil fue entre 1990 y 2000 el país en el que hubo mayor deforestación con 22.264 km²
Cinco de los 10 países que más deforestan se encuentran en el continente africano.

Datos del IPCC en su tercer informe (2001)
En relación a esta afirmación:
"Estudios realizados, muestran que la década de los noventa, fue la más caliente en los últimos mil años."
el IPCC dice exactamente:
A escala mundial, es muy probable(66-90%) que el decenio del 1990 fuera el más cálido desde que se dispone de registros instrumentales.
IPCC#Climate Change 2001: Synthesis Report
El IPCC afirma en el informe de síntesis lo siguiente:[30]
Se proyecta que los glaciares y las capas de hielo continúen su retirada generalizada durante el siglo XXI. Se prevé que en el Hemisferio Norte disminuyan aún más la capa de nieve, el permafrost, y la extensión del hielo marino. Es posible que la placa de hielo antártica aumente su masa, mientras que la de Groenlandia la pierda (véase la Pregunta 4).[31]
IPPC: cambios en la atmósfera, clima y sistema biológico terrestre durante el siglo XX:
Temperatura media mundial de la superficie: aumento en el 0,6 ± 0,2 ºC en el siglo XX; la superficie de la Tierra se ha calentado más que los océanos (muy probable: 90-99%)
Temperatura en la superficie del Hemisferio Norte: aumento durante el siglo XX más que en otro siglo de los últimos 1.000 años; el decenio de 1990 ha sido el más cálido del milenio (probable 66-90%).
Temperatura diurna de la superficie: disminución en el período 1950-2000 en las zonas terrestres; las temperaturas mínimas nocturnas han aumentado el doble de las temperaturas máximas diurnas (probable 66-90%).
Climate Change 2001: Synthesis Report
Se entiende que los bosques y selvas naturales que conocemos como paraísos salvajes han sido siempre la impronta del cultivo de los nativos de dichos bosques, se podría decir incluso que son "bosques cultivados" y que la deforestación ha existido desde el principio de los días de la especie humana, pero no a la escala actual.
La relación armoniosa del hombre "salvaje" y la "madre naturaleza" no ha sido ni mayor ni mejor que la que actualmente se pueda ejercer sin prácticas ecologistas, no es un modelo a seguir por lo tanto, simplemente fue adaptación.
IPCC: Conclusiones finales:
las concentraciones atmosféricas de los secundarios gases de efecto invernadero antropogénicos (CO2, CH4, N2O y el O3 troposférico) han aumentado en gran medida desde 1750. El principal gas de invernadero es el vapor de agua
Algunos gases secundarios de efecto invernadero perduran mucho tiempo (por ejemplo, el CO2, el N2O y los PFC).
Gran parte del calentamiento observado durante los últimos 50 años se ha producido probablemente por un aumento de concentraciones de gases de efecto invernadero debido a actividades humanas.
Climate Change 2001: Synthesis Report

Historia del calentamiento global
El primero en manifestar un interés por la materia fue Svante August Arrhenius, quien en 1903 publicó Lehrbuch der Kosmischen Physik[32] (Tratado de física del Cosmos) que trataba por primera vez de la posibilidad de que la quema de combustibles fósiles incrementara la temperatura media de la Tierra. Entre otras cosas calculaba que se encestarían 3000 años de combustión de combustibles para que se alterara el clima del planeta, bajo la suposición que los océanos captarían todo el CO2 (Actualmente se sabe que los oceanos han absorbido un 48% del CO2 antropogénico desde 1800)[33] Arrhenius estimó el incremento de la temperatura del planeta cuando se doblara la concentración de dióxido de carbono de la atmósfera. Fijaba un incremento de 5 ºC y otorgaba una valoración positiva a este incremento de temperatura porque imaginaba que aumentaría la superficie cultivable y que los países más septentrionales serían mas productivos.

Concentración de CO2 atmosfèrico medido en el observatorió de Mauna Loa: Curva de Keeling measured at Mauna Loa Observatory: The Keeling Curve..
En las décadas siguientes las teorías de Arrhenius fueron poco valoradas, pues se creía que el CO2 no influía en la temperatura del planeta y el efecto invernadero se atribuía exclusivamente al vapor de agua. El 19 de mayo de 1937,[cita requerida] 35 años después de que Arrhenius publicara su teoría, Callendar (tecnólogo especialista en vapor) publicó "The artificial prodution of carbon dioxide and its influence on temperature" (La producción artificial de dióxido de carbono y su influencia en la temperatura),[34] tratado que corregía algunas estimaciones realizadas por Arrhenius, como la capacidad de los océanos para absorber CO2. Callendar estimaba en 0,003 ºC el incremento de temperatura por año (actualmente se estima que en la segunda mitad del siglo XX se ha producido un incremento de 0.005 ºC por año).[cita requerida]
En los años 1940 se desarrolló la espectrofotometria de infrarrojos, que ha permitido conocer que el CO2 absorbe la luz de manera distinta al vapor de agua, incrementando notablemente el efecto invernadero. Todo esto fue resumido por Gilbert Plass en el año 1955.
Pese a los estudios teóricos, no existían aún evidencias científicas del cambio climático. La primera evidencia científica apareció en 1958 cuando Charles Keeling empezó a representar el comportamiento del CO2 atmosférico. Usaba datos de una estación en Mauna Loa y otra en la Antártica. Un poco antes, la Organización Meteorológica Mundial ya había iniciado diversos planos de seguimiento, que tenían como objetivo, entre otras cosas, de calcular los niveles de CO2 en la troposfera.
En 1974, aceptadas ya las hipótesis científicas, la OMM decidió crear un equipo de expertos sobre el cambio climático. Así en 1985 tuvo lugar la conferencia de Villach (Austria), donde las Naciones Unidas y el Consejo Internacional para el Medio Ambiente concluyeron que para finales del siglo XXI se podría producir un aumento en las temperaturas de entre 1,5 y 4,5 ºC y un ascenso del nivel del mar entre 20 y 140 cm.[cita requerida]
El revuelo social que produjeron todos estos estudios facilitó que en 1988 se fundara el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC), que en 1990, concluyo después de su primera reunión[cita requerida] que de seguir con el ritmo actual de emisiones de gases de efecto invernadero, cabría esperar un aumento de 0,3 ºC por decenio durante el próximo siglo (mayor que el producido durante los últimos 10.000 años).[cita requerida] En 1992 se celebró en Río de Janeiro la Conferencia de Naciones Unidas sobre el Medio Ambiente y el Desarrollo, también conocida como la Cumbre de la Tierra, donde mas de 150 países acudieron y se logró aprobar la Convención Marco sobre el Cambio Climático para tratar de estabilizar las emisiones de gases de efecto invernadero a un nivel aceptable.
En 1997 se comenzó a redactar el protocolo de Kioto sobre el cambio climático[35] cuyo objetivo era reducir las emisiones de los principales gases de efecto invernadero: dióxido de carbono, metano, óxido nitroso, hexafluoruro de azufre, hidrofluorocarbonos, perfluorocarbonos. Se justificó no incluir el vapor de agua entre los gases de efecto invernadero considerados.[cita requerida] Su redacción finalizó en 1998 aunque no entró en vigor hasta noviembre de 2004 cuando fue ratificado por Rusia.
Tras el tercer informe del IPCC,[36] se consideró la necesidad de un nuevo protocolo mas severo y con la ratificación de más países a parte del G77. Por esta razón, en 2005 se reunieron en Montreal todos los países que hasta el momento habían ratificado el protocolo de Kioto y otros países responsables de la mayoría de las emisiones de gases de efecto invernadero, incluyendo Estados Unidos, China e India. La negociación en Montreal proveía la redacción de unas bases para la futura negociación de un nuevo protocolo que entraría en vigor en 2012[cita requerida], fecha de caducidad del actual protocolo. Durante la reunión, varios países pusieron objeciones y retrasaron el pre-acuerdo (es el caso de Estados Unidos o Rusia) pero después de retrasar algunos días el final de la negociación se llegó a un pre-acuerdo.[37]
En Bali entre el 3 y el 13 de diciembre de 2007 se reanudaron las negociaciones y aunque no se fijaron límites para los gases de efecto invernadero, se alcanzó un acuerdo[38] que, entre otras cosas, incentivaba la distribución de energías renovables entre los países en vías de desarrollo para que estos no basaran su crecimiento económico en la quema de combustibles fósiles.[39]



LENGUAJE C/C++


C es un lenguaje de programación creado en 1972 por Ken Thompson y Dennis M. Ritchie en los Laboratorios Bell como evolución del anterior lenguaje B, a su vez basado en BCPL. Al igual que B, es un lenguaje orientado a la implementación de Sistemas Operativos, concretamente Unix. C es apreciado por la eficiencia del código que produce y es el lenguaje de programación más popular para crear software de sistemas, aunque también se utiliza para crear aplicaciones.
Se trata de un lenguaje débilmente tipificado de medio nivel pero con muchas características de bajo nivel. Dispone de las estructuras típicas de los lenguajes de alto nivel pero, a su vez, dispone de construcciones del lenguaje que permiten un control a muy bajo nivel. Los compiladores suelen ofrecer extensiones al lenguaje que posibilitan mezclar código en ensamblador con código C o acceder directamente a memoria o dispositivos periféricos.
La primera estandarización del lenguaje C fue en ANSI, con el estándar X3.159-1989. El lenguaje que define este estándar fue conocido vulgarmente como ANSI C. Posteriormente, en 1990, fue ratificado como estándar ISO (ISO/IEC 9899:1990). La adopción de este estándar es muy amplia por lo que, si los programas creados lo siguen, el código es portátil entre plataformas y/o arquitecturas. En la práctica, los programadores suelen usar elementos no-portátiles dependientes del compilador o del sistema operativo.


Filosofía
C es un lenguaje de programación relativamente minimalista. Uno de los objetivos de diseño de este lenguaje fue que sólo fueran necesarias unas pocas instrucciones en lenguaje máquina para traducir cada elemento del lenguaje, sin que hiciera falta un soporte intenso en tiempo de ejecución. Es muy posible escribir C a bajo nivel de abstracción; de hecho, C se usó como intermediario entre diferentes lenguajes.
En parte a causa de ser de relativamente bajo nivel y de tener un modesto conjunto de características, se pueden desarrollar compiladores de C fácilmente. En consecuencia, el lenguaje C está disponible en un amplio abanico de plataformas (seguramente más que cualquier otro lenguaje). Además, a pesar de su naturaleza de bajo nivel, el lenguaje se desarrolló para incentivar la programación independiente de la máquina. Un programa escrito cumpliendo los estándares e intentando que sea portátil puede compilarse en muchos computadores.
C se desarrolló originalmente (conjuntamente con el sistema operativo Unix, con el que ha estado asociado mucho tiempo) por programadores para programadores. Sin embargo, ha alcanzado una popularidad enorme, y se ha usado en contextos muy alejados de la programación de sistemas, para la que se diseñó originalmente.
C tiene las siguientes características de importancia:
Un núcleo del lenguaje simple, con funcionalidades añadidas importantes, como funciones matemáticas y de manejo de ficheros, proporcionadas por bibliotecas.
Es un lenguaje muy flexible que permite programar con múltiples estilos. Uno de los más empleados es el estructurado no llevado al extremo (permitiendo ciertas licencias rupturistas).
Un sistema de tipos que impide operaciones sin sentido.
Usa un lenguaje de preprocesado, el preprocesador de C, para tareas como definir macros e incluir múltiples ficheros de código fuente.
Acceso a memoria de bajo nivel mediante el uso de punteros.
Interrupciones al procesador con uniones.
Un conjunto reducido de palabras clave.
Por defecto, el paso de parámetros a una función se realiza por valor. El paso por referencia se consigue pasando explícitamente a las funciones las direcciones de memoria de dichos parámetros.
Punteros a funciones y variables estáticas, que permiten una forma rudimentaria de encapsulado y polimorfismo.
Tipos de datos agregados (struct) que permiten que datos relacionados (como un empleado, que tiene un id, un nombre y un salario) se combinen y se manipulen como un todo (en una única variable "empleado").
Algunas características de las que C carece que se encuentran en otros lenguajes:
Recolección de basura.
Soporte para programación orientada a objetos, aunque la implementación original de C++ fue un preprocesador que traducía código fuente de C++ a C.
Encapsulación.
Funciones anidadas, aunque GCC tiene esta característica como extensión.
Polimorfismo en tiempo de código en forma de sobrecarga, sobrecarga de operadores y sólo dispone de un soporte rudimentario para la programación genérica.
Soporte nativo para programación multihilo y redes de computadores.
Aunque la lista de las características útiles de las que carece C es larga, este factor ha sido importante para su aceptación, porque escribir rápidamente nuevos compiladores para nuevas plataformas, mantiene lo que realmente hace el programa bajo el control directo del programador, y permite implementar la solución más natural para cada plataforma. Ésta es la causa de que a menudo C sea más eficiente que otros lenguajes. Típicamente, sólo la programación cuidadosa en lenguaje ensamblador produce un código más rápido, pues da control total sobre la máquina, aunque los avances en los compiladores de C y la complejidad creciente de los microprocesadores modernos han reducido gradualmente esta diferencia.
En algunos casos, una característica inexistente puede aproximarse. Por ejemplo, la implementación original de C++ consistía en un preprocesador que traducía código fuente C++ a C. La mayoría de las funciones orientadas a objetos incluyen un puntero especial, que normalmente recibe el nombre "this", que se refiere al objeto al que pertenece la función. Mediante el paso de este puntero como un argumento de función, esta funcionalidad puede desempeñarse en C. Por ejemplo, en C++ se puede escribir:
stack.push(val);
Mientras que en C, se podría escribir:
push(stack, val);
Donde el argumento stack es un puntero a una struct equivalente al puntero this de C++, que es un puntero a un objeto.

Historia

Desarrollo inicial
El desarrollo inicial de C se llevó a cabo en los Laboratorios Bell de AT&T entre 1969 y 1973; según Ritchie, el periodo más creativo tuvo lugar en 1972. Se le dio el nombre "C" porque muchas de sus características fueron tomadas de un lenguaje anterior llamado "B".
Hay muchas leyendas acerca del origen de C y el sistema operativo con el que está íntimamente relacionado, Unix. Algunas de ellas son:
El desarrollo de C fue el resultado del deseo de los programadores de jugar con Space Travel. Habían estado jugando en el mainframe de su compañía, pero debido a su poca capacidad de proceso y al tener que soportar 100 usuarios, Thompson y Ritchie no tenían suficiente control sobre la nave para evitar colisiones con los asteroides. Por ese motivo decidieron portar el juego a un PDP-7 de la oficina que no se utilizaba; pero esa máquina no tenía sistema operativo, así que decidieron escribir uno. Finalmente decidieron portar el sistema operativo del PDP-11 que había en su oficina, pero era muy costoso, pues todo el código estaba escrito en lenguaje ensamblador. Entonces decidieron usar un lenguaje de alto nivel y portátil para que el sistema operativo se pudiera portar fácilmente de un ordenador a otro. Consideraron usar B, pero carecía de las funcionalidades necesarias para aprovechar algunas características avanzadas del PDP-11. Entonces empezaron a crear un nuevo lenguaje, C.
La justificación para obtener el ordenador original que se usó para desarrollar Unix fue crear un sistema que automatizase el archivo de patentes. La versión original de Unix se desarrolló en lenguaje ensamblador. Más tarde, el lenguaje C se desarrolló para poder reescribir el sistema operativo.
En 1973, el lenguaje C se había vuelto tan potente que la mayor parte del kernel Unix, originalmente escrito en el lenguaje ensamblador PDP-11/20, fue reescrita en C. Éste fue uno de los primeros núcleos de sistema operativo implementados en un lenguaje distinto al ensamblador. (Algunos casos anteriores son el sistema Multics, escrito en PL/I, y Master Control Program para el B5000 de Burroughs, escrito en ALGOL en 1961).

El C de Kernighan y Ritchie
En 1978, Ritchie y Brian Kernighan publicaron la primera edición de El lenguaje de programación C. Este libro fue durante años la especificación informal del lenguaje. El lenguaje descrito en este libro recibe habitualmente el nombre de "el C de Kernighan y Ritchie" o simplemente "K&R C" (La segunda edición del libro cubre el estándar ANSI C, descrito más abajo.)
Kernighan y Ritchie introdujeron las siguientes características al lenguaje:
El tipo de datos struct.
El tipo de datos long int.
El tipo de datos unsigned int.
Los operadores =+ y =- fueron sustituidos por += y -= para eliminar la ambigüedad semántica de expresiones como i=-10, que se podría interpretar bien como i =- 10 o bien como i = -10.
El C de Kernighan y Ritchie es el subconjunto más básico del lenguaje que un compilador debe de soportar. Durante muchos años, incluso tras la introducción del ANSI C, fue considerado "el mínimo común denominador" en el que los programadores debían programar cuando deseaban que sus programas fueran transportables, pues no todos los compiladores soportaban completamente ANSI, y el código razonablemente bien escrito en K&R C es también código ANSI C válido.
En estas primeras versiones de C, las únicas funciones que necesitaban ser declaradas si se usaban antes de la definición de la función eran las que retornaban valores no enteros. Es decir, se presuponía que una función que se usaba sin declaración previa (prototipo) devolvería un entero.
Ejemplo de llamada que requiere declaración previa (prototipo):
long int cierta_funcion();

int llamando_funcion()
{
long int ret;
ret = cierta_funcion();
}
Ejemplo de llamada que no requiere declaración previa:
int llamando_funcion()
{
int ret;
ret = alguna_otra_funcion();
}

int alguna_otra_funcion()
{
return 0;
}
Dado que el lenguaje C de K&R no incluía ninguna información sobre los argumentos de las funciones, no se realizaba comprobación de tipos en los parámetros de las funciones, aunque algunos compiladores lanzan mensajes de advertencia si se llamaba a una función con un número incorrecto de argumentos.
En los años siguientes a la publicación del C de Kernighan y Ritchie, se añadieron al lenguaje muchas características no oficiales, que estaba soportadas por los compiladores de AT&T, entre otros. Algunas de estas características eran:
Funciones void y el tipo de datos void *.
Funciones que retornaban tipos de datos struct o union (en lugar de punteros).
Asignación de tipos de datos struct.
Calificador const, que hace que un objeto sea de sólo lectura.
Una biblioteca estándar, que incorporaba la mayoría de las funcionalidades implementadas por varios desarrolladores de compiladores.
Enumeraciones.

ANSI C e ISO C
A finales de la década de 1970, C empezó a sustituir a BASIC como lenguaje de programación de microcomputadores predominante. Durante la década de 1980 se empezó a usar en los IBM PC, lo que incrementó su popularidad significativamente. Al mismo tiempo, Bjarne Stroustrup empezó a trabajar con algunos compañeros de Bell Labs para añadir funcionalidades de programación orientada a objetos a C. El lenguaje que crearon, llamado C++, es hoy en día el lenguaje de programación de aplicaciones más común en el sistema operativo Microsoft Windows; mientras que C sigue siendo más popular en el entorno Unix. Otro lenguaje que se desarrolló en esa época, Objective C, también añadió características de programación orientada a objetos a C. Aunque hoy en día no es tan popular como C++, se usa para desarrollar aplicaciones Cocoa para Mac OS X.
En 1983, el Instituto Nacional Estadounidense de Estándares organizó un comité, X3j11, para establecer una especificación estándar de C. Tras un proceso largo y arduo, se completó el estándar en 1989 y se ratificó como el "Lenguaje de Programación C" ANSI X3.159-1989. Esta versión del lenguaje se conoce a menudo como ANSI C, o a veces como C89 (para distinguirla de C99).
En 1990, el estándar ANSI (con algunas modificaciones menores) fue adoptado por la Organización Internacional para la Estandarización (ISO) en el estándar ISO/IEC 9899:1990. Esta versión se conoce a veces como C90. No obstante, "C89" y "C90" se refieren en esencia al mismo lenguaje.
Uno de los objetivos del proceso de estandarización del ANSI C fue producir una extensión al C de Kernighan y Ritchie, incorporando muchas funcionalidades no oficiales. Sin embargo, el comité de estandarización incluyó también muchas funcionalidades nuevas, como prototipos de función, y un preprocesador mejorado. También se cambió la sintaxis de la declaración de parámetros para hacerla semejante a la empleada habitualmente en C++:
main(argc, argv)
int argc;
char **argv;
{
...
}
pasó a ser
int main(int argc, char *argv[])
{
...
}
ANSI C está soportado hoy en día por casi la totalidad de los compiladores. La mayoría del código C que se escribe actualmente está basado en ANSI C. Cualquier programa escrito sólo en C estándar sin código que dependa de un hardware determinado funciona correctamente en cualquier plataforma que disponga de una implementación de C compatible. Sin embargo, muchos programas han sido escritos de forma que sólo pueden compilarse en una cierta plataforma, o con un compilador concreto, esto puede ser debido a diversos motivos:
La utilización de bibliotecas no estándar, como interfaces gráficos de usuario.
El uso de compiladores que no cumplen las especificaciones del estándar.
El uso de tipos de datos suponiendo que tendrán el mismo tamaño u orden de los bits en todas las plataformas.
La macro __STDC__ puede usarse para dividir el código en secciones ANSI y K&R para el compilador.
#if __STDC__
extern int getopt(int,char * const *,const char *);
#else
extern int getopt();
#endif
Algunos programadores recomiendan usar "#if __STDC__", como en el ejemplo, en lugar de "#ifdef __STDC__" porque algunos compiladores le asignan el valor cero a __STDC__ para indicar que no son compatibles con ANSI.

C99
Tras el proceso de estandarización de ANSI, la especificación del lenguaje C permaneció relativamente estable durante algún tiempo, mientras que C++ siguió evolucionando. Sin embargo, el estándar continuó bajo revisión a finales de la década de 1990, lo que llevó a la publicación del estándar ISO 9899:1999 en 1999. Este estándar se denomina habitualmente "C99". Se adoptó como estándar ANSI en marzo de 2000.
Las nuevas características de C99 incluyen:
Funciones inline.
Las variables pueden declararse en cualquier sitio (como en C++), en lugar de poder declararse sólo tras otra declaración o al comienzo de una declaración compuesta.
Muchos tipos de datos, incluyendo long long int (para reducir el engorro de la transición de 32 bits a 64 bits), un tipo de datos booleano, y un tipo complex que representa números complejos.
Arrays de longitud variable.
Soporte para comentarios de una línea que empiecen con //, como en BCPL o en C++, característica para la que muchos compiladores habían dado soporte por su cuenta.
muchas funciones nuevas, como snprintf()
muchos headers nuevos, como stdint.h.
Una consideración importante es que hasta la publicación de este estándar, C había sido mayormente un subconjunto estricto del C++. Era muy sencillo "actualizar" un programa de C hacia C++ y mantener ese código compilable en ambos lenguajes. Sin embargo, el nuevo estándar agrega algunas características que C++ no admite, como por ejemplo los inicializadores estáticos de estructuras. También define al tipo "bool" de una manera que no es exactamente la del C++.
El compilador GCC, entre muchos otros, soportan hoy en día la mayoría de las nuevas características de C99. Sin embargo, este nuevo estándar ha tenido peor acogida entre algunos desarrolladores de compiladores, como Microsoft y Borland, que se han centrado en C++. Brandon Bray, de Microsoft, dijo a este respecto: "En general, hemos visto poca demanda de muchas características de C99. Algunas características tienen más demanda que otras, y consideraremos incluirlas en versiones futuras siempre que sean compatibles con C++." [1]

Ventajas
Lenguaje muy eficiente puesto que es posible utilizar sus características de bajo nivel para realizar implementaciones óptimas.
A pesar de su bajo nivel es el lenguaje más portado en existencia, habiendo compiladores para casi todos los sistemas conocidos.
Proporciona facilidades para realizar programas modulares y/o utilizar código o bibliotecas existentes.

Variantes
Desde el inicio del lenguaje han surgido varias ramas de evolución que han generado varios lenguajes:
Objective-C es un primer intento de proporcionar soporte para la programación orientada a objetos en C, de escasa difusión, pero actualmente usado en Mac OS X y GNUstep.
C++ diseñado por Bjarne Stroustrup fue el segundo intento de proporcionar orientación a objetos a C y es la variante más difundida y aceptada. Esta versión combina la flexibilidad y el acceso de bajo nivel de C con las características de la programación orientada a objetos como abstracción, encapsulación y ocultación.
También se han creado numerosos lenguajes inspirados en la sintaxis de C, pero que no son compatibles con él:
Java, que une la sintaxis del C++ a una orientación a objetos más similar a la de Smalltalk y Objective C.
JavaScript, un lenguaje de scripting creado en Netscape e inspirado en la sintaxis de Java diseñado para dar a las páginas web mayor interactividad. A la versión estandarizada se la conoce como ECMAScript.
C# (pronunciado C Sharp) es un lenguaje desarrollado por Microsoft derivado de C/C++ y Java.

Proceso de compilación
La compilación de un programa C se realiza en varias fases que normalmente son automatizadas y ocultadas por los entornos de desarrollo:
Preprocesado consistente en modificar el código fuente en C según una serie de instrucciones (denominadas directivas de preprocesado) simplificando de esta forma el trabajo del compilador. Por ejemplo, una de las acciones más importantes es la modificación de las inclusiones (#include) por las declaraciones reales existentes en el fichero indicado.
Compilación que genera el código objeto a partir del código ya preprocesado.
Enlazado que une los códigos objeto de los distintos módulos y bibliotecas externas (como las bibliotecas del sistema) para generar el programa ejecutable final.

Ejemplo de código
El siguiente programa imprime en pantalla la frase "Hola Mundo" (C99).
#include // necesario para utilizar printf()

int main(void)
{
printf("Hola, Mundo\n");
// return 0 implícito en C99 para main().
}
El siguiente escribe "Hola, mundo" en C89
/* comentarios con '//' no permitidos en C89, sí en C99 */
#include /* necesario para utilizar printf */

main() /* tipo 'int' de retorno implícito */
{
printf ("Hola Mundo\n") ;
return 0;
}

Herramientas de programación
Al programar en C, es habitual usar algunas herramientas de programación de uso muy extendido, sobre todo en entorno de tipo unix:
make: Herramienta para automatizar el proceso de compilación, enlazado, etc.
lint: Herramienta utilizada para detectar código sospechoso, confuso o incompatible entre distintas arquitecturas

Aplicabilidad
Hecho principalmente para la fluidez de programación en sistemas UNIX. Se usa también para el desarrollo de otros sistemas operativos como Windows o Linux. Igualmente para aplicaciones de escritorio como OpenOffice, que usa una gran cantidad de miles de líneas de código de más de siete lenguajes distintos, en el que el principal es el C.
De la misma forma, es muy usado en aplicaciones científicas (para experimentos informáticos, físicos, químicos, matemáticos, entre otros, parte de ellos conocidos como modelos y simuladores), industriales (industria robótica, cibernética, sistemas de información y base de datos para la industria petrolera y petroquímica, predominan también todo lo que se refiere a simulación de máquinas de manufactura), simulaciones de vuelo (es la más delicada, ya que se tienen que usar demasiados recursos tanto de hardware como de software para desarrollar aplicaciones que permitan simular el vuelo real de un avión, o bien, de un helicóptero por ejemplo); es decir, se aplica en diversas áreas desconocidas por gran parte de los usuarios noveles.
Aunque los lenguajes de tipo dinámico (Ruby, Python, Perl...) están quitándole mercado, debido sobre todo a la mayor potencia de las máquinas actuales, se puede seguir encontrando grandes desarrollos de animaciones, modelados y renderizados 3D en películas (principalmente; también se puede hacer lo mismo en una enciclopedia multimedia por ejemplo para presentar modelos 3D de partes del cuerpo humano, y así otros ejemplos) de su clase.
El mayor problema que presenta el desarrollo con el lenguaje C frente a los lenguajes de tipo de dato dinámico es su gran diferencia de velocidad de desarrollo, siendo mucho más lento desarrollando en C. En cambio, los programas terminados presentan una mejor utilización de los recursos hardware. El mantenimiento también es más difícil y costoso que con el resto de lenguajes. Por otra parte, la mayor parte de los problemas de seguridad en los sistemas informáticos actuales deriva del hecho de que han sido realizados en C: al no disponer de sistemas de control y depender casi exclusivamente de la experiencia del programador, muchas veces quedan algunas entradas de información al programa sin comprobar en su longitud, provocando la sobreescritura de código en la pila del programa. Los lenguajes de tipo dinámico cuentan con muchos más controles de gestión de memoria y de entrada de datos.
Por ello, los directores de desarrollo deben decidir si compensa un desarrollo más largo frente a un peor aprovechamiento del hardware y, teniendo en cuenta además, que el hardware, a igualdad de prestaciones, baja su precio con el tiempo, mientras que el coste de los programadores, aumenta.
Actualmente, los grandes proyectos de software se dividen en partes, dentro de un equipo de desarrollo. Aquellas partes que son más "burocráticas" o "de gestión" con los recursos del sistema, se suelen realizar en lenguajes de tipo dinámico o script, mientras que aquellas partes "críticas", por su necesidad de rapidez de cálculo, se realizan en un lenguaje de tipo compilado, como en C o C++. Si, después de hacer la división, las partes críticas no superan un cierto porcentaje del total (aproximadamente el 10%) entonces todo el desarrollo se realiza con lenguajes dinámicos. Si la parte crítica no llega a cumplir las expectativas del proyecto, se mira a ver si merece hacerse una inversión en un nuevo hardware antes que en invertir en el coste de un programador para que reescriba esa parte crítica.