15/11/2015 SUITE 2 JEAN DE JERUSALEM ! TROU D'OZONE ! RéCHAUFFEMENT DES MERS ! MALADIES à CAUSE DU SOLEIL ! FORCE DU SOLEIL : TOUT DéTRUIRE !?
https://fr.wikipedia.org/wiki/Couche_d%27ozone
Carte du trou d'ozone au-dessus de l'Antarctique en octobre 1987.
C'est en 1985 que l'alerte a été donnée avec la découverte d'une diminution importante de la concentration d'ozone au cours des mois de septembre et d'octobre au-dessus du continent Antarctique. Une réduction de près de 50 % du contenu total d'ozone était observée, se produisant au cours du printemps austral et couvrant toute la surface de l'Antarctique. Depuis la fin des années 1970, l'épaisseur de l'ozone est passée, en certains endroits, de l'équivalent de 3 mm à 2 et même 1,5 mm aujourd'hui, en moyenne pour le mois d'octobre.
C'est cette diminution relative de l'épaisseur de la couche d'ozone stratosphérique (par rapport à son épaisseur standard ou initiale de 300 DU), que l'on nomme « trou d'ozone » ou « trou dans la couche d'ozone ».
En 2000, 2001 et 2003, le trou dans la couche d'ozone a atteint une superficie jamais observée avant 2000, alors que celui de 2002 était le plus petit qui ait été observé depuis 1998. En effet, à la fin de l'été 2003, le trou a de nouveau atteint un record de superficie… pour diminuer rapidement durant le mois d'octobre. En 2006, un nouveau record a été enregistré au-dessus de l'Antarctique.
En 2006, l'ONU et les experts alertent sur le fait que la couche d'ozone se reconstitue moins vite que prévu, en raison probablement de l'utilisation persistante de gaz interdits, de type CFC, mais peut-être aussi à cause de l'effet de serre. Ces dernières modifient l'albédo de l'atmosphère, et — avec d'autres émetteurs de gaz à effet de serre — contribuent en réchauffant les basses couches de l'atmosphère à priver les hautes couches d'une partie des calories provenant du rayonnement du sol. Ces hautes couches se refroidissent, or le froid intensifie les réactions chimiques de destruction de l'ozone3.
Perte d'ozone en Arctique
Dans l'océan Arctique, l'ampleur du phénomène n'atteint pas encore celle qui est observée dans l'hémisphère Sud.
Le fait que la perte d'ozone, si importante en Antarctique, soit moindre au-dessus de l'Arctique découle des différences climatiques entre ces deux régions. Le refroidissement de la stratosphère polaire est en effet moins intense au nord où, en moyenne, les températures sont de 15 à 20 °C supérieures à celles observées au pôle Sud.
Cette différence entre les deux pôles est d'origine géographique : le continent antarctique est isolé au milieu des océans dans l'hémisphère Sud. Dans l'hémisphère Nord, au contraire, une alternance de continents et d'océans, de zones de hautes et de basses pressions atmosphériques contribue à créer un mouvement continu des masses d'air tel que le pôle Nord ne reste jamais totalement isolé. L'air des latitudes moyennes, plus chaud, arrive donc toujours au pôle, y augmentant ainsi les températures moyennes.
En exploitant des données fournies par un satellite de la NASA chargé de la recherche de la haute atmosphère, les chercheurs ont remarqué que les nuages stratosphériques de l'Antarctique ont une durée de vie deux fois plus longue que ceux situés au-dessus de l'Arctique. Le satellite MetOp-A a observé le trou d'ozone en 2007.
En 2011, le trou dans la couche d'ozone a atteint des valeurs record dans l'Arctique, avec une perte de 80 % de l'ozone, entre 15 et 20 km d'altitude, dans la periode d'hiver 2010 - printemps 20114.
Ultraviolets sur les organismes vivants
Les ultraviolets sont des agents mutagènes : ils détériorent l'ADN des cellules, ce qui dérègle leurs activités biologiques (ex. : cancer) ou les détruit (coup de soleil). Le , au sud du Chili, la couche d'ozone qui avait perdu 50 % de son épaisseur habituelle, offrait si peu de protection contre les ultraviolets que ce jour-là, il suffisait de passer cinq minutes dehors sans protection pour attraper un coup de soleil. Le sud du Chili n'est pas la seule zone atteinte, d'autres régions de l'Australie et de la Nouvelle-Zélande ont également connu des épisodes semblables. De plus, les rayons ultraviolets perturbent les divisions cellulaires des micro-organismes aquatiques, ce qui a de graves conséquences sur la vie aux pôlesN 6. En plus des cancers de la peau, on observe aussi un affaiblissement général du système immunitaire.
https://fr.wikipedia.org/wiki/Destruction_de_la_couche_d%27ozone
La destruction de la couche d'ozone décrit ou fait référence à deux phénomènes distincts mais liés, observés depuis la fin des années 1970 : déclin significatif de 4 % toutes les décennies du volume total de l'ozone de la stratosphère terrestre (couche d'ozone), ainsi qu'une très importante exposition solaire (aux UV solaires notamment) dans les régions polaires de la terre. Le phénomène a plus tard été désigné sous l'expression « trou dans la couche d'ozone ».
Image du plus grand trou dans la couche d'ozone jamais enregistré (septembre 2006).
Histoire du phénomène
Dans les années 1960 à 1980, des analyses de la colonne d'air atmosphérique, jusque à la stratosphère — dans ce cas faites grâce aux ballons-sondes — montrent des anomalies de plus en plus importantes et saisonnières de régression de la couche d'ozone, surtout au dessus du pôle sud.
Au milieu des années 1980, alors que des travaux scientifiques cherchant à évaluer l'impact des effets des activités anthropiques sur l'ozone stratosphérique (O3) venaient de suggérer que les perturbations saisonnières sur l’ozone devraient rester faible pour au moins la prochaine décennie, les résultats des mesures faits in situ contredisent leurs conclusions.
Au vu de la réalité, c’est-à-dire des observations in situ qui montrent que les valeurs printanières pour l’ozone total en Antarctique sont au contraire alors en forte diminution, ces conclusions sont remise en question : les modèles jusqu'alors utilisés étaient très simplificateurs (à une dimension), sous estimant la complexité des réactions photochimiques à l’œuvre dans l'atmosphère polaire. Comme la circulation atmosphérique basse était a priori restée apparemment inchangée, des réactions chimiques complexes ont du être envisagées pour expliquer cette persistance du trou au printemps.
En 1985 Farman et al.1 suggèrent que les températures très basses qui règnent au cœur de l'hiver et jusqu’à plusieurs semaines après l'équinoxe de printemps montrent de la Stratosphère antarctique est uniquement (selon eux) sensible à l’augmentation saisonnière du taux de composés inorganique du chlore (CLx), principalement via l'effet de cette augmentation sur le ratio NO2/NO. Ce phénomène, combiné avec le fait que l’irradiation UV est particulièrement élevée sans la stratosphère polaire, pourrait expliquer la perte d’ozone observées.
La signature du protocole de Montréal est suivie d'un lent processus d'amélioration, mais les suivis scientifiques montrent que des anomalies persistent : la concentration d’ozone de la stratosphère arctiques s’est par exemple réduite de 40 % l'hiver 2011 (un record, expliqué par des températures inhabituellement froides en antarctique et sans doute par la persistance dans l'atmosphère de gaz destructeurs d'ozone2).
Causes de l'augmentation du trou de la couche d'ozone
La couche d'ozone est naturellement plus fine au dessus des pôles, mais elle a commencé dans les années 1950 à saisonnièrement disparaitre sur une étendue de plus en plus importante (phénomène plus connu sous le nom de trou de la couche d'ozone). Et on a admis vers 2006 qu'elle se reconstituait plus lentement qu'attendu, sans doute pour partie en raison d'une utilisation persistante de gaz interdits par le protocole de Montréal (de 1987).
Causes chimiques
Plusieurs facteurs sont à l'origine de la diminution (photochimique et catalytique) de la couche d'ozone, notamment un grand nombre de substances naturelles ou artificielles présentes dans l'atmosphère ou résultant de réactions chimiques.
Ces molécules sont regroupées sous le vocable SAO (Substances appauvrissant la couche d'ozone). Il s'agit principalement des CFC, les halons, le bromure de méthyle et des HCFC, mais les oxydes d'azote (NOx) contribuent également à cette destruction.
http://www.co2solidaire.org/fr/solidarite-climatique/reduire-nord/changements-climatiques.html
Les impacts des changements climatiques : une répartition des impacts inégale
Le réchauffement planétaire introduit un facteur supplémentaire d'inégalité et de disparité entre les différentes zones géographiques du globe. Les populations des pays les plus pauvres du monde sont les plus vulnérables face aux effets du changement climatique, alors qu'ils sont les moins responsables. Les pays en développement ne sont en effet pas en mesure de se prémunir contre les impacts du phénomène et de s'y adapter. Le changement climatique accentue les situations précaires des populations les plus démunies (sécurité alimentaire, accès aux soins, à l'eau et à l'énergie, logement...), renforçant encore un peu plus la fracture sociale et économique entre le Nord et le Sud.
En raison de leur localisation, de la faiblesse de leur revenu, de l’insuffisance de leurs ressources et capacités institutionnelles, et du fait qu’ils misent d'avantage sur des secteurs dépendants du climat tels que l’agriculture, les populations des pays les plus défavorisées sont les premières victimes des actuels et futurs changements climatiques.
https://fr.wikipedia.org/wiki/R%C3%A9chauffement_climatique
Le réchauffement climatique, également appeléréchauffement planétaire, ou réchauffement global, est un phénomène d'augmentation de latempérature moyenne des océans et de l'atmosphère terrestre, mesuré à l'échelle mondialesur plusieurs décennies, et qui traduit une augmentation de la quantité de chaleur de la surface terrestre. Dans son acception commune, ce terme est appliqué à une tendance au réchauffement global observé depuis le début du xxe siècle.
En 1988, l'ONU crée le groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) chargé de faire une synthèse des études scientifiques sur cette question. Dans son dernier etquatrième rapport, auquel ont participé plus de2 500 scientifiques de 130 pays1, le GIEC affirme que le réchauffement climatique depuis 1950 est très probablementc 1 dû à l'augmentation des gaz à effet de serre d'origine anthropique. Les conclusions du GIEC ont été approuvées par plus de quarante sociétés scientifiques et académies des sciences, y compris l'ensemble des académies nationales des sciences des grands pays industrialisés2. Dans une étude publiée fin 2012, qui a compilé et comparé des simulations issues de vingt modèles informatiques différents et des informations issues des observations satellites, une équipe de climatologues du Laboratoire national de Lawrence Livermore3 du département de l'Énergie des États-Unis (DoE) et de 16 autres organisations a conclu que les changements de température de la troposphère et de la stratosphère sont bien réels et qu'ils sont clairement liés aux activités humaines4.
Des incertitudes sur la hausse de température globale moyenne subsistent du fait de la précision des modélisations employées, et des comportements étatiques et individuels présents et futurs. Les enjeux économiques, politiques, sociaux, environnementaux, voire moraux, étant majeurs, ils suscitent des débats nombreux, à l'échelle internationale, ainsi que des controverses. Néanmoins l'impact économique, sociologique, environnemental voire géopolitique de ces projections est globalement négatif à moyen et long terme5.
Observations liées au réchauffement climatique actuel
Divers changements observés dans le monde ont conduit à la conclusion de l'existence d'un réchauffement climatique planétaire :
En France, un observatoire national sur les effets du réchauffement climatique (ONERC), créé en 2001, compile les observations ;
En Europe, la dernière évaluation (2012, par l'AEE)6 a conclu à l'imminence de nouveaux impacts négatifs, dont économiques ; comme prévu par la plupart des modèles, les températures moyennes ont augmenté en Europe, et les précipitations ont diminué au sud et augmenté au Nord. Les glaces arctiques et groenlandaises ont continué à régresser, de même que de nombreux glaciers européens (les glaciers alpins ont presque perdu deux tiers de leur masse de 1850 à 2010), alors que le permafrost s'est réchauffé et que le manteau neigeux tend à diminuer6. Les crises climatiques (pics et vagues de chaleur, inondations, sécheresses) sont de plus en plus coûteuses en Europe, et inégalement réparties (notamment car les activités humaines sont croissantes dans les zones à risque ; zones qui devraient s'agrandir avec le dérèglement climatique)6. Sans dispositifs d'adaptation, les coûts générés par des événements extrêmes attendus (plus intenses et plus fréquents) devraient régulièrement augmenter et aggraver certaines inégalités. Selon Jacqueline McGlade, directrice de l'AEE7, tous les acteurs de l’économie, dont les ménages, doivent s’adapter et réduire leurs émissions.
En Europe, la décennie 2002-2011 a été la plus chaude depuis que l'on dispose de données météo (températures moyenne du sol dépassant de 1,3 °C la moyenne « préindustrielle » et qui pourraient après 2050 dépasser de 2,5 à 4 °Cla moyenne des années 1961-1990).
Des dizaines de milliers de morts sont attribuées aux vagues de chaleur (plus fréquentes, plus longues)6. Le nombre de morts de froid en Europe devrait en revanche diminuer6. Les inondations devraient augmenter au nord et les sécheresses au sud. L'Arctique se réchauffe plus vite que les autres régions européennes, entraînant un doublement de la fonte de la calotte groenlandaise de 1990 à 2010 (250 milliards de tonnes de glace perdues/an de 2005 à 2009). La mer a monté en Europe d'environ 1,7 mm/an au cours du xxe siècle, avec une accélération (3 mm/an) au cours des dernières décennies, avec des variations isostatiques locales6. Des impacts sont attendus sur la flore (floraison plus précoce et/ou tardive, maladies des arbres..., mais aussi sur la faune (zoonoses, changement d'aire de répartition) et les maladies (tiques, certains moustiques et phlébotomes remontent plus au nord et en altitude). La saison pollinique est en 2012 plus longue d'environ dix jours qu'en 1960)6. Le plancton se modifie et - hors milieux marins - la vitesse de migration/adaptation de beaucoup d'espèces est insuffisante par rapport à la rapidité des dérèglements biogéoclimatiques, ce qui aggrave les risques de disparition. Les rendements agricoles devraient diminuer au sud et peut-être augmenter au nord6. Le chauffage hivernal est moins nécessaire, mais la climatisation estivale compense ces économies ; à la saison où les réacteurs nucléaires sont le plus à l'arrêt ou commencent parfois déjà à manquer d'eau pour leur refroidissement8. Une nouvelle stratégie d'adaptation européenne est en préparation pour mars 2013.9. Un site internet Climate-ADAPT offre de l'information et des conseils sur l'adaptation au changement climatique.
Selon Greenpeace, le réchauffement se traduit par un dérèglement climatique général déjà perceptible. Les événements météorologiques extrêmes sont de plus en plus fréquents, de plus en plus intenses : canicules, sécheresses, inondations dues à des crues exceptionnelles, tempêtes, etc10.
Précipitations
Selon le quatrième rapport du GIEC, la répartition des précipitations s'est modifiée au cours du xxe siècle. En particulier, les précipitations auraient fortement augmenté dans l'est de l’Amérique du Nord et du Sud, dans le nord de l'Europe et dans le nord et le centre de l'Asie, tandis qu'elles diminuaient au Sahel, en Méditerranée, en Afrique australe et dans une partie de l'Asie du Suda 1. D'autres experts estiment toutefois les données actuelles trop rares et incomplètes pour qu'une tendance à la hausse ou à la baisse des précipitations puisse se dégager sur des zones de cette ampleur22. On observe également depuis 1988 une diminution notable de la couverture neigeuse printanière aux latitudes moyennes de l'hémisphère nord. Cette diminution est préoccupante car cette couverture neigeuse contribue à l'humidité des sols et aux ressources en eau15.
Fonte de la banquise
En 2005 et 2007 ont été atteints les records de minimum de l'étendue de la banquise arctique.
Plusieurs études indiquent que les banquises sont en train de se réduire. La surface des glaces de mer à la fin de l'été a connu une décroissance très rapide, passant de 8,5 millions de km2 pendant la période 1950-1975 à5,5 millions de km2 en 201023. Le satellite spécialisé CryoSat-2 fut mis en orbite en 24 après l'échec du premier satellite CryoSat en 2005. Il doit fournir des informations plus précises sur les quantités de glace polaire25.
En Arctique
Un ours polaire bondissant entre deux blocs de glace de la banquisefondante, sur l'île de Spitzberg, dans l'archipel norvégien de Svalbard.
Des observations par satellite montrent que ces banquises perdent de la superficie dans l'océan Arctique26. Par ailleurs, un amincissement de ces banquises, en particulier autour du pôle nord, a été observé27.
2007 marque un minimum de la banquise en été31. Cette année-là, les observations satellitaires constatent une accélération de la fonte de la banquise arctique, avec une perte de 20 % de la surface de la banquise d'été en un an32.
Les observations menées pendant l'expédition Tara, une initiative privée sous l'égide du programme européen Damoclès (Developping Arctic Modelling and Observing Capabillities for Long-term Environmental Studies)33 de à , indiquent que les modifications entamées dans l'océan Arctique sont profondes et irréversibles34. Par ailleurs, le Groenland a vu ses glaciers se réduire de 230 à 80 milliards de tonnes par an de 2003 à 2005, ce qui contribuerait à 10 % des 3 mm actuels d'élévation annuelle du niveau des mers35.
Une étude datant de 2010 montre une anticorrélation et un basculement bipolaire entre les températures des pôles durant le xxe siècle : quand un pôle se réchauffe, l'autre se refroidit, et les phases de réchauffement/refroidissement se succèdent par cycles de quelques dizaines d'années36. Le lien entre les deux pôles serait l'océan Atlantique. Selon les auteurs, « l'accélération récente du réchauffement de l'Arctique résulte d'un renforcement positif de la tendance au réchauffement (due à l'accroissement des gaz à effet de serre et à d'autres forçages possibles[pas clair]) par la phase de réchauffement due à la variabilité climatique multidécennale (due aux fluctuations de la circulation de l'océan Atlantique ».
Dans le Guardian, du , Peter Wadhams, directeur du département de physique de l'océan polaire à l'université de Cambridge, en Angleterre, affirme que la banquise arctique pourrait avoir totalement disparu en été d'ici 201638.
Une étude de la NASA et de l'Université de Californie à Irvine publiée en dans les revues Science etGeophysical Research Letters conclut qu'une partie de l'Inlandsis Ouest-Antarctique, fondant rapidement, semble être dans un état de déclin irréversible, rien ne pouvant stopper les glaciers ; quarante ans d'observation du comportement des six plus grands glaciers de cette région de la mer d'Amundsen dans l'Antarctique occidental (Pine Island, Thwaites, Haynes, Smith, Pope et Kohler) indiquent que ces glaciers « ont passé le point de non-retour » ; ils contribuent déjà de façon significative à l'élévation du niveau de la mer, relâchant annuellement presque autant de glace dans l'océan que l'inlandsis du Groenland entier ; ils contiennent assez de glace pour élever le niveau général des océans de 4 pieds(1,2 mètres) et fondent plus vite qu'attendu par la plupart des scientifiques ; pour l'auteur principal (Eric Rignot), ces découvertes impliquent une révision à la hausse des prévisions actuelles d'élévation du niveau de la mer45.
Fonte du pergélisol
Article détaillé : Relargage du méthane de l'Arctique.
On observe un réchauffement et une fonte partielle du pergélisol arctique. Entre un tiers et la moitié du pergélisol de l'Alaska n'est plus qu'à un degré de la température de dégel. En Sibérie, des lacs issus de la fonte du pergélisol se forment, provoquant des dégagements importants de méthane. Le dégagement de méthane est de l'ordre de 14 à 35 millions de tonnes par an sur l'ensemble des lacs arctiques. L'analyse au carbone 14 de ce méthane prouve que celui-ci était gelé depuis des milliers d'années56.
Effets sur les pratiques agricoles
Le climat, et en particulier les températures, ont un effet sur la date des récoltes agricoles. Une anticipation des dates clefs du développement végétal (bourgeonnement, floraison, récolte) a été observée pour l'ensemble des cultures, sous les climats tempérés et méditerranéens. Ainsi, pour le blé, la sortie des épis a lieu 8 à 10 jours plus tôt qu'il y a vingt ans94. Dans de nombreux cas, les dates de vendanges sont régulièrement avancées, comme en Bourgogne95,96,97. De plus ces phénomènes peuvent être décrits sur plusieurs décennies car ces dates de vendanges ont été consignées dans le passé et archivées.De tels documents sont utilisés pour déterminer les températures à des périodes où lesthermomètres n'existaient pas ou manquaient de précision. Un réchauffement climatique depuis le xxe siècle est clairement établi par l'étude de ces archives (ainsi, la date de début des vendanges à Châteauneuf-du-Pape a avancé de trois semaines en cinquante ans98).
Effets sur la faune, la flore, la fonge et la biodiversité
Changements d'aires de répartition
En mer, de nombreuses espèces de poissons remontent vers les pôles99,100. Sur Terre, on observe aussi une modification de l'aire de répartition de différentes espèces animales et végétales99. Cette modification est complexe et hétérogène.
Dans certains cas, les espèces et écosystèmes reculent face à la désertification ou à la salinisation. Certaines limites d'aire de répartition montent plus haut en altitude, en particulier quand l'aire de l'espèce se déplace vers le nord (ou le sud dans l'hémisphère sud), ce qui ne doit pas cacher le fait qu'en réalité, localement au moins, l'optimum pour une espèce a pu fortement descendre en altitude (là où les milieux sont plus humides, par exemple à la suite d'une fonte accrue des glaciers). Par exemple en Californie, pour 64 espèces végétales dont l'aire de répartition a été suivies depuis 1930 à 2010, la zone d'optimum climatique de ces plantes a diminué de 80 mètres d'altitude en moyenne101. Un suivi102 fait dans 13 États européens montre que les plantes de montagne « grimpent » en altitude, mais sont alors confrontées à une concurrence accrue. Certains forestiers pensaient que le réchauffement doperait la croissance des arbres d'Alaska mais en réalité elle diminue, sans doute à cause du stress des sècheresses estivales103.
Le dérèglement climatique est souvent proposé comme expliquant des modifications écologiques globales. Paradoxalement, localement, à la suite des courants froids résultant de la fonte accélérée de la calotte glaciaire, des refroidissements hivernaux peuvent aussi affecter la faune. Ainsi au début de , 1 600 tortues vertes (espèce en danger) engourdies par une eau inhabituellement froide se sont échouées sur et autour de South Padre Island (Texas)104. Elles sont alors plus vulnérables aux collisions avec les bateaux, à leurs prédateurs et aux échouages (sur les860 premières tortues récupérées par des bénévoles, 750 ont survécu et ont pu être ensuite libérées)104. En , plus de 4 600 tortues s'étaient échouées en Floride104.
Ceci vaut aussi pour la faune terrestre. Par exemple, l'aire de répartition de la chenille processionnaire du pin est en phase d'expansion et a atteint Orléans en 1992 et Fontainebleau en 2005. La colonisation de l'espèce pourrait atteindre Paris en 2025. Selon l'INRA, cette expansion est emblématique de la propagation des bioagresseurs des espèces forestières grâce au réchauffement climatique105.
Le Muséum national d'histoire naturelle a mis en place depuis plusieurs années des systèmes de suivi des espèces. Le suivi temporel des oiseaux communs (STOC)106 montre par exemple qu'en vingt ans, les communautés d'oiseaux en France se sont globalement déplacées de 100 km vers le nord107.
Changements physiologiques des organismes
Chez de nombreuses espèces, l'insularisation écologique (qui augmente lors des glaciations (phénomène des refuges glaciaires) mais qui augmente aussi en cas de réchauffement sur les littoraux, à cause la montée des océans108, des modifications des précipitations ou de la saisonnalité109, mais aussi le réchauffement de l'aire de répartition d'une espèce animale peuvent conduire à une diminution de la taille de l'organisme110 (« nanisme adaptatif »)111. Selon lespaléontologues Philip Gingerich et ses collègues, si la tendance au réchauffement devait se poursuivre sur le long terme, une diminution de taille, voire un véritable nanisme de certains animaux sauvages (mammifères tels que primates,chevaux et cervidés notamment) pourraient réapparaitre en adaptation aux climats chauds. Un tel phénomène a déjà eu lieu lors du Maximum thermique du passage Paléocène-Eocène (ou PETM112) survenu il y a environ 56 millions d'années et ayant duré environ 160 000 ans avec une hausse des températures mondiales atteignant 9 à 14 degrés Fahrenheit à son apogée. De même lors d'un autre réchauffement global de moindre ampleur (+ 5 °F au max.) et moins long (80 000 à100 000 ans) qui est l'ETM2 (Eocene Thermal Maximum 2), survenu environ 2 millions d'années après le PETM (soit il y a 53 millions d'années). Lors de ces deux réchauffements globaux, la taille des ancêtres de nos chevaux (Hyracotherium qui avaient la taille d'un chien), avait respectivement diminué de 30 % et 19 % lors du PETm puis de l'ETM2113.
Ce phénomène concerne aussi la faune du sol114 et ceux vivant dans l'eau115 où l'augmentation de la température entraine une chute du taux d'oxygène, une augmentation du CO2 et une acidification (qui modifie la biodisponibilité du ferpour le phytoplancton marin116, et augmente partout celle de nombreux métaux toxiques). La sécheresse ou l'augmentation du métabolisme des ectothermes semble défavoriser les grands individus par rapport aux petits, et une majorité des organismes évolués semble s'adapter avec une croissance moindre, par un effet de rétrécissement en cascade (des producteurs primaires aux consommateurs) à la suite de la baisse des ressources alimentaires de la chaîne alimentaire.
Extinctions d'espèces, disparition d'habitats
Selon les scenarii et méthodologies retenues, les études publiées entre les années 1990 et 2015 concluaient à des résultats variés : certaines concluant à des changements minimes et d'autres à la disparition de jusqu'à 54% des espèces en raison du changement climatique117.
En 2015, une méta-analyse a porté sur 131 études, ayant toutes porté sur le risque de disparition de plus d'une espèce en raison des modifications du climat. Cette méta-analyse a conclu à la probabilité que « jusqu'à un sixième des espèces sur la Terre pourraient disparaître si le changement climatique reste sur sa trajectoire actuelle » (des années 2010-2015). Mais localement, dans les territoires en situation plus critique, les taux d'extinction pourront être plus élevés117.
Les facteurs d'extinction sont par exemple une lenteur naturelle de dispersion, ou l'existence d'obstacles aux migrations vers des zones plus clémentes. Ces obstacles sont par exemple les chaînes de montagnes, la déforestation, l'agriculture intensive ou le développement urbain. Dans d'autres cas, l'habitat disparaîtra entièrement, ou l'aire vitale deviendra trop petite pour assurer la survie de l'espèce117. Pour formuler ce scénario prospectif en évitant les biais liés à des extrapolations faites à partir d'études portant sur peu d'espèces ou un territoire peu étendu, les auteurs ont choisi de surpondérer la valeur des travaux concernant un grand nombre d'espèces. Les auteurs considèrent qu'en 2015, environ 2,8% des espèces sur la Terre sont déjà en danger d'extinction pour des raisons climatiques. Le réchauffement (probable) de 2 °C en 2100 devrait conduire 5,2 autres pourcents des espèces à la disparition probable117. Et si le réchauffement moyen devait atteindre 4,3 °C au-dessus des niveaux préindustriels (scénario jugé crédible par certaines études) une espèce sur six pourrait disparaitre.
En raison de la complexité des phénomènes écosystémiques, ces chiffres doivent cependant être pris avec circonspection. Sax reconnait que « Nous ne sommes que juste au début de l'évaluation de ces risques »
Réchauffement des océans et élévation du niveau de la mer
Élévation du niveau de la mer126.
On observe un réchauffement des océans, qui diminue avec la profondeur. L'élévation de température depuis 1960 est estimée à0,6 °C pour les eaux de surface, et à 0,04 °C pour l'océan dans son ensemble127.
On estime que les océans ont absorbé à ce jour 80 à 90 % de la chaleur ajoutée au système climatique15,127. Ce réchauffement contribue pour 30 % à une montée du niveau de la mer par dilatation thermique des océans, 60 % de cette montée étant due à la fonte des glaces continentales (dont la moitié provient de la fonte des calottes polaires) et 10 % à un flux des eaux continentales vers les océans127. Les données proviennent des marégraphes mis en place depuis le milieu du xixe siècle, secondés à partir des années 1990par des satellites altimétriques128. Leur analyse suggère que le niveau de la mer s'est élevé au cours du xxe siècle de quelques dizaines de centimètres, et qu'il continue à s'élever régulièrement. On estime que le niveau de la mer s'est élevé de 1,8 mm par an entre 1961 et 2003a 2,129 et de3,4 mm par an depuis 1993127,23. Cette élévation du niveau de la mer peut aussi être observée indirectement par ses conséquences sur l'environnement, comme c'est le cas au Nouveau-Brunswick130.
Article détaillé : Élévation du niveau de la mer.
Dans le cadre du système ARGO, 3 000 balises automatiques ont été réparties dans tous les océans en 2007 et permettront de suivre la température et la salinité des océans jusqu'à 2 000 mètres de profondeur. En Atlantique Nord, des chercheurs de l'Ifremer Brest ont confirmé les tendances au réchauffement dans les couches de surface131.
La courbe de la quantité de chaleur estimée dans les océans est mise à jour régulièrement par l'organisme américain de météorologie NOAA132.
L'élévation de température est également détectable dans les fleuves et les lacs. Ainsi, entre 1977 et 2006, la température moyenne annuelle du Rhône a augmenté de 1,5 °C, et les températures moyennes estivales de la Loire de 1,5 °C à 2 °C. Les eaux profondes du Lac Léman se sont réchauffées de 1 °C en quarante ans133.
Acidification des océans
Le taux d'acidité des océans a augmenté de 26 % en raison de la forte hausse des émissions de dioxyde de carbone, dont les eaux absorbent près du tiers des quantités relâchées dans l’atmosphère ; cette acidité contribue à la chute de la biodiversité134.
Une étude publiée en dans Global Environmental Change169 démontre que la plupart des prévisions du GIEC se sont avérées trop optimistes (à l'exception de celles concernant la hausse des températures) : ainsi, la hausse du niveau des océans sur la période 1993-2011 a été de 3,2 ± 0,5 mm/an, soit 60 % plus rapide que l'estimation du GIEC de de 2 mm/an ; la fonte de la banquise arctique a été beaucoup plus rapide que les pires prévisions du GIEC ; la progression des émissions des pays émergents a été largement sous-estimée (3 à 4 % par an en Chine dans les hypothèses du GIEC, 10 à 11 % en réalité) si bien que les émissions mondiales de CO2 sont alignées sur le plus pessimiste des scénarios du GIEC ; l'amplification du réchauffement causée par la fonte du pergélisol n'a pas été prise en compte dans les modèles du GIEC, etc ; l'étude attribue ce syndrome ESLD (Erring on the Side of Least Drama - Pêcher par excès de dédramatisation) à une réaction excessive aux accusations d'alarmisme lancées par les climato-sceptiques, ainsi qu'à la culture de prudence scientifique170.
L'étude du Global carbon project171, publiée le , avant le sommet de l'ONU sur le climat, annonce que les émissions de CO2 devraient atteindre 37 Gt (gigatonne = milliard de tonnes) en 2014 et 43,2 Gt en 2019 ; en 2013, elles avaient progressé de 2,3 % pour atteindre 36,1 Gt. En 2013, un Chinois émet désormais davantage qu'un Européen, avec 7,2 tonnes de CO2 par tête contre 6,8 tonnes par tête dans l'Union européenne, mais un Américain émet16,4 tonnes de CO2 ; la progression de ces émissions est très rapide en Chine (+4,2 % en 2013) et en Inde (5,1 %) alors qu'en Europe elles reculent (-1,8 %). Le Global carbon project souligne que la trajectoire actuelle des émissions de gaz carbonique concorde avec le pire des scénarios évoqués par le GIEC, qui table sur une hausse de la température mondiale de 3,2 à 5,4 °C d'ici 2100172.
Montée des eaux
Une des conséquences du réchauffement planétaire sur lesquelles s'accordent les scientifiques est une montée du niveau des océans.
Précipitations et foudre
Selon des études publiées en 2007-2008, à l'horizon 2025, un tiers de la population mondiale pourrait se trouver en état de stress hydrique173 ; le réchauffement aurait tantôt un effet positif, tantôt un effet négatif, la balance entre les deux dépendant du mode de comptage adopté174.
Selon une étude publiée en dans la revue Science, le réchauffement climatique devrait accroître de 50 % le nombre d'impacts de foudre au cours du xxie siècle ; le risque de foudre pourrait s'accroître de 12 % par degré Celsius additionnel aux États-Unis175.
Dégradation de la qualité de l'air
Le dérèglement climatique pourrait avoir des effets synergiques, aggravants et délocalisés à propos de nombreux polluants de l'air, en particulier via le risque d'une érosion hydrique et éolienne accrue et via un risque aggravé d'incendies de forêt et d'une moindre capacité des milieux à fixer les poussières. Une acidification des milieux risque aussi de rendre les métaux et métalloïdes toxiques plus mobiles (et plus bioassimilables), dont dans le compartiment atmosphérique.
Circulation thermohaline
La circulation thermohaline désigne les mouvements d'eau froide et salée vers les fonds océaniques qui prennent place aux hautes latitudes de l’hémisphère nord. Ce phénomène serait, avec d'autres, responsable du renouvellement des eaux profondes océaniques et de la relative douceur du climat européen.
En cas de réchauffement climatique, le moteur qui anime les courants marins serait menacé. En effet, les courants acquièrent leur énergie cinétique lors de la plongée des eaux froides et salées, et donc denses, dans les profondeurs de l'océan Arctique. Or, l'augmentation de la température devrait accroître l'évaporation dans les régions tropicales et les précipitations dans les régions de plus haute latitude. L'océan Atlantique, en se réchauffant, recevrait alors plus de pluies, et en parallèle la calotte glaciaire pourrait partiellement fondre (voir Événement de Heinrich)181. Dans de telles circonstances, une des conséquences directes serait un apport massif d’eau douce aux abords des pôles, entraînant une diminution de la salinité marine et donc de la densité des eaux de surface. Cela peut empêcher leur plongée dans les abysses océaniques. Ainsi, les courants tels que le Gulf Stream pourraient ralentir ou s'arrêter, et ne plus assurer les échanges thermiques actuels entre l'équateur et les zones tempérées. Pour le xxie siècle, le GIEC considérait dans son rapport 2007 comme très probable un ralentissement de la circulation thermohaline dans l'Atlantique, mais comme très improbable un changement brusque de cette circulationa 8.
Déclin de la biomasse océanique
La masse de phytoplancton décline de 1 % par an depuis quarante ans. Les zones mortes océaniques, déficitaires en oxygène dissous produit par ces organismes unicellulaires, s'étendent au rythme de 8 % par an : le Programme des Nations unies pour l'environnement en dénombrait 150 en 2003 ; elles sont plus de 500 en 2015. Les coraux sont également en danger et, avec eux, un milliard d'êtres humains sont menacés de famine : selon une étude conduite par Pascale Chabanet, chercheuse à l'Institut de recherche pour le développement (IRD) de La Réunion, sur une soixantaine de sites coralliens de l'océan Indien, la moitié a déjà disparu ; « avec l'extinction des forêts coralliennes, c'est le réservoir de biodiversité vivrière le plus riche de la planète qui est en train de s'éteindre »187.
Rétroactions
Les scientifiques nomment rétroactions les actions en retour du système climatique sur lui-même. Ces rétroactions sont positives lorsque le réchauffement climatique induit des phénomènes contribuant eux-mêmes à accentuer ce réchauffement, et négatives lorsque les phénomènes induits contribuent à réduire le réchauffement.
Les principales rétroactions, qui sont positives, sont les suivantes :
- le dégagement de méthane : le méthane (CH4, qui n'est autre que le gaz naturel, à quelques « impuretés » près), est un gaz à effet de serre 23 fois plus réchauffant que le CO2. Il se forme lorsque la décomposition de la matière organique s'effectue avec un manque d'oxygène, et sous l'action de bactéries, un processus nommé méthanisation. Les sols humides (marais) sont très propices à cette création de méthane, qui est alors libéré dans l'atmosphère (cela peut donner lieu à des inflammations spontanées et l'on peut observer des feux follets). Si le sol est gelé, le méthane reste piégé dans la glace sous la forme d'hydrates de méthane. Le sol de Sibérie est ainsi un immense réservoir de méthane (sans doute trop diffus pour être exploité industriellement) : selon Larry Smith du département de géographie de l'UCLA, la quantité de méthane présent dans le sol sibérien serait de 70 milliards de tonnes, soit un quart du méthane stocké à la surface de la planète198. Si le sol se réchauffe, la glace fond et libère le méthane déjà présent initialement, ce qui a pour conséquence un effet de serre plus marqué, et par suite un emballement du réchauffement climatique, qui fait fondre la glace encore plus vite. On parle aussi de bombe à carbone ;
- le ralentissement et la modification des courants océaniques : l'océan capte aujourd'hui le tiers du CO2 émis par les activités humaines. Mais si les courants océaniques ralentissent, les couches d'eau superficielles peuvent se saturer en CO2 et ne pourraient plus en capter comme aujourd'hui. La quantité de CO2 que peut absorber un litre d'eau diminue à mesure que l'eau se réchauffe. Ainsi, de grandes quantités de CO2 peuvent être relarguées si les courants océaniques sont modifiés. En outre, l'accumulation de CO2 dans les océans conduit à l'acidification de ces derniers, ce qui affecte l'écosystème marin et peut induire à long terme un relargage de CO2.
- Conséquences négatives pour l'humanité
Le Giec prévoit des conséquences négatives majeures pour l'humanité au xxie siècle :
- une baisse des rendements agricoles potentiels dans la plupart des zones tropicales et subtropicales ;
- une diminution des ressources en eau dans la plupart des régions sèches tropicales et subtropicales ;
- une diminution du débit des sources d'eau issues de la fonte des glaces et des neiges, à la suite de la disparition de ces glaces et de ces neiges.
- une augmentation des phénomènes météorologiques extrêmes comme les pluies torrentielles, les tempêtes et lessécheresses, ainsi qu'une augmentation de l'impact de ces phénomènes sur l'agriculture ;
- une augmentation des feux de forêt durant des étés plus chauds ;
- l'extension des zones infestées par des maladies comme le choléra ou le paludisme. Ce risque est fortement minimisé par le professeur spécialiste Paul Reiter211 mais le gouvernement du Royaume-Uni fait remarquer que ce professeur a choisi d'ignorer tous les rapports récents qui le contredisent212 ;
- des risques d'inondation accrus, à la fois à cause de l'élévation du niveau de la mer et de modifications du climat ;
- une plus forte consommation d’énergie à des fins de climatisation ;
- une baisse des rendements agricoles potentiels aux latitudes moyennes et élevées (dans l'hypothèse d'un réchauffement fort).
Accès à l'océan Arctique
Une diminution des glaces polaires arctiques a ouvert de nouvelles routes commerciales pour les navires246, et rendrait accessibles des ressources sous-marines de pétrole ou de matières premières, mais avec des conséquences néfastes sur nombre d'espèces, comme le plancton ou les poissons à haute valeur commerciale.
L'accès à ces matières premières en des zones désormais accessibles risque d'être source de conflit entre pays côtiers de l'océan Arctiqued 5. Ainsi, les États-Unis et le Canada ont-ils protesté lorsque, le , la Russie planta son drapeau au fond de l'océan sous le pôle Nord.
Économie
Le rapport établi par Nicholas Stern, économiste anglais, estime que le réchauffement climatique entrainerait un coût économique de 5 500 milliards d'euros247 en tenant compte de l'ensemble des générations (présente et futures) ayant à en subir les conséquences.
En 2007, pour la première fois, le World monuments fund (WMF, Fonds mondial pour les monuments) a introduit les modifications climatiques dans la liste des menaces pour cent sites, monuments et chefs-d’œuvre de l’architecture menacés, les autres menaces principales étant les guerres et conflits politiques, et le développement industriel et urbain anarchique.
Le rapport du réassureur Munich Re du (sur la période 1980 à 2011) estime que c'est l'Amérique du Nord qui a subi l'aggravation la plus forte de « pertes financières dues à des événements liés à la météo », avec plus de30 000 morts et 1 060 milliards de dollars (820 milliards d’euros) induits par la gestion et réparation des catastrophes climatiques. Ce même rapport a estimé que le nombre d'événements extrêmes a quintuplé dans le monde (et doublé en Europe).
En 2015, les économistes ne se risquent plus à donner des chiffres, mais jugent le coût potentiellement infini.
Santé
Des conséquences sanitaires des phénomènes climatiques sont redoutées : le quatrième rapport du Giec met en avant certains effets sur la santé humaine, tels que « la mortalité associée à la chaleur en Europe, les vecteurs de maladies infectieuses dans diverses régions et les allergies aux pollens aux latitudes moyennes et élevées de l’hémisphère nord »c 2 ou l'émergence ou réémergence de maladies infectieuses249 et [vecteur (biologie)|vectorielles]
Les changements climatiques pourront modifier la distribution géographique de nombreuses maladies infectieusesa 9. Des températures élevées dans les régions chaudes pourraient réduire l'extension du parasite responsable de la bilharziose. Mais le paludisme fait sa réapparition au nord et au sud des tropiques (Aux États-Unis, cette maladie était en général limitée à la Californie, mais depuis 1990, des épidémies sont apparues dans d'autres États, tels le Texas, la Floride, mais aussi New York ; Il est également réapparu dans des zones où il était peu fréquent, telles le sud de l'Europe et de la Russie ou le long de l'océan Indien. On constate également que les moustiques et les maladies qu'ils transmettent ont gagné en altituded 6. La fréquence de la maladie de Lyme augmente, ainsi que son extension géographique, de manière corrélée à l'augmentation de l'aire de répartition de son principal vecteur connu, la tique250 due à une bactérie spirochète.
Il est difficile de savoir quel sera le bilan global, et si une diminution de l'espérance de vie en découlera ou nond 7.
Déstabilisation géopolitique mondiale
Risques accrus de guerres
Selon un rapport de 2003 commandé par le département de la Défense des États-Unis252 et selon un rapport de 2007 du programme des Nations unies pour l'environnement (UNEP), le réchauffement climatique pourrait entraîner des phénomènes de déstabilisation mondiale, qui bouleverseraient les rapports géopolitiques entre les États, et augmenteraient les risques de guerre civile253.
Le réchauffement climatique et son influence sur les changements environnementaux, couplés à des facteurs politiques ou économiques, sont pris en compte dans l'étude254,255 d'éventuelles migrations forcées de population.
Le , les Nations unies ont adopté une résolution sur « Les Changements climatiques et leurs répercussions éventuelles sur la sécurité »256.
Les militaires occidentaux s’intéressent aux conséquences des changements climatiques. Ils sont dans l’un des rares secteurs dont le champ de vision stratégique est de l’ordre de trente à cinquante ans. À leurs yeux, la crise écologique conduira à une aggravation des catastrophes. Les institutions en place en seront fragilisées, en particulier dans les pays en développement. Certains États déjà faibles seront incapables d’assurer la stabilité sociale et économique.
L’Union européenne sera amenée à intervenir militairement dans son environnement proche (bassin méditerranéen) ou dans des zones d’intérêt stratégique telles que l’Asie du Sud-Ouest ou l’Arctique257.
Barack Obama, affirmait en mai 2015 : « Le changement climatique augmente les risques d’instabilité et de conflits. Aucune nation n’est épargnée ». Le changement climatique fait entre 20 et 30 millions de déplacés ou réfugiés chaque année. L’amiral David Titley, conseiller des agences de sécurité américaines sur le climat, explique que la menace climatique pèse autant, si ce n’est plus, sur la sécurité intérieure des États-Unis que la menace terroriste. La modification des régimes pluviométriques et les sécheresses saisonnières au Sahel, combinées à d’autres facteurs sociaux, économiques et politiques, ont poussé les peuples pastoraux à se mettre à l’agriculture ou à migrer vers le sud ou les côtes, accroissant la compétition pour l’eau et les terres arables avec les communautés de fermiers ou de pêcheurs. La guerre civile au Darfour (ouest du Soudan) ou la prolifération du mouvement terroriste Boko Haram au Nigeria ont été exacerbées par les conséquences du changement climatique sur l’accès aux ressources. Entre 2006 et 2011, la Syrie a connu la pire sécheresse jamais enregistrée de son histoire, attribuée au changement climatique ; les éleveurs ont vu mourir 85 % de leur cheptel et la production agricole s’est effondrée, affectant des millions d’habitants, qui ont dû quitter les campagnes pour vivre misérablement dans les villes et leurs périphéries, déstabilisant des zones déjà sous tension, d’où ont précisément débuté, en mars 2011, les premières manifestations contre le régime de Bachar al-Assad258.
Protocole de Kyoto
Article détaillé : Protocole de Kyoto.
La convention-cadre des Nations unies sur les changements climatiques est signée en 1992 lors du sommet de la Terre à Rio de Janeiro. Elle entre en vigueur le . Les signataires de cette convention se fixent comme objectif de stabiliser la concentration des gaz à effet de serre dans l’atmosphère à « un niveau qui empêche toute perturbationanthropique dangereuse du climat »269. Les pays développés ont comme objectif de ramener leurs émissions de gaz à effet de serre en 2010 au niveau de 1990270, cet objectif n'étant pas légalement contraignant271.
En 1997, les signataires de la convention cadre adoptent le protocole de Kyoto, dont la nouveauté consiste à établir des engagements de réduction contraignants pour les pays dits de l'annexe B (pays industrialisés et en transition) et à mettre en place des mécanismes dit « de flexibilité » (marché de permis, mise en œuvre conjointe et mécanisme de développement propre) pour remplir cet engagement272. Le protocole de Kyoto entre en vigueur le à la suite de sa ratification par la Russie273.
En , le protocole de Kyoto est maintenant ratifié par 156 États274. Les États-Unis et l'Australie (voir ci-dessous) ne sont pas signataires. Les États-Unis sont pourtant le deuxième émetteur mondial de gaz à effet de serre avec environ 20 % des émissions de gaz à effet de serre275. Les pays de l'annexe B se sont engagés à réduire leurs émissions de six gaz à effet de serre (CO2, CH4, N2O, SF6, HFC, PFC) de 5,2 % en 2008-2012 par rapport au niveau de 1990.
Après la victoire des travaillistes aux élections législatives australiennes du , le nouveau premier ministre Kevin Rudd annonce avoir ratifié le protocole de Kyoto276.
Les pays en voie de développement, y compris de gros contributeurs aux émissions comme l'Inde, 5e émetteur mondial, et la Chine, 1re émettrice275, n'ont pas d'objectifs de réduction car ils l'avaient refusé au motif que :
- leurs niveaux d'émissions ramenés au nombre d'habitants étaient faibles ;
- le stock de gaz à effet de serre d'origine anthropique présent dans l'atmosphère résulte pour l'essentiel des émissions des pays développés depuis le Modèle:S-XIX ;
- il serait injuste d'imposer des privations draconiennes à des populations à faible niveau de vie qui aspirent à rejoindre celui des pays développés.
Ces arguments, fort valables à la fin des années 1990, le sont beaucoup moins 15 ans plus tard, en particulier pour la Chine dont les émissions par habitant ont dépassé celles de la France.
https://fr.wikipedia.org/wiki/Bombe_A
La bombe A, communément appelée bombe atomique, bombe à fission ou bombe nucléaire, est un engin explosif où l'énergie est obtenue par la fission nucléaire d'une masse critique d'éléments fissibles comme l'uranium 235 ou leplutonium 239. Son procédé a été couvert par le brevet français 971-324 de 1939 à 1959.
Les bombes à fission furent les premières armes nucléaires développées ; c'est également l'explosion d'une masse critique fissile qui permet l'allumage d'une bombe H dans les engins modernes.
Dans l'histoire de l'arme nucléaire, c'est à ce jour le seul type de bombe ayant servi lors d'un conflit. Durant la Seconde Guerre mondiale, deux bombes A, baptisées respectivement Little Boy (à l'uranium) et Fat Man (au plutonium), furent utilisées par l'armée américaine pour bombarder les villes d'Hiroshima et Nagasaki en août 1945.
Explosion atomique de 14 kilotonnes lors de l'essai américain XX-27 CHARLIE dans le site d'essais du Nevada en 1951
Explosion nucléaire
Article détaillé : explosion nucléaire.
Une fois la masse critique atteinte, la réaction en chaîne est déclenchée. Dans une réaction complète, chaque noyau de la matière fissile se divise en deux noyaux plus légers (produits de fission) et libère en plus des neutrons. Ces derniers vont alors percuter d'autres atomes de matière fissile, qui à leur tour vont libérer des neutrons et ainsi de suite. La réaction en chaîne est déclenchée, et la matière dégage une énergie colossale en comparaison de la quantité de matière fissile mise en jeu. Cependant, dans une bombe atomique, seule une petite fraction (parfois très faible) du matériau fissible est effectivement consommée avant d'être dissipée par l'explosion, ce qui diminue d'autant la puissance de l'explosion au regard de l'énergie potentielle de la masse fissible.
À quantité égale de réactifs, l'énergie dégagée lors d'une réaction de fission peut être de l'ordre de la centaine de millions de fois plus grande que celle dégagée par une réaction chimique. Cette énergie se transforme très rapidement en chaleur, par freinage de ces produits de fission dans la matière avoisinante.
https://fr.wikipedia.org/wiki/Site_d%27essais_du_Nevada
Le site d'essais du Nevada (Nevada Test Site : NTS), renommé depuis août 2010 site de sécurité nationale du Nevada (Nevada National Security Site)NNSS1, est une région des États-Unis dépendant du Département de l'Énergie des États-Unis ayant servi de 1951 à 1992 pour 928 essais nucléaires, le record mondial d'essais nucléaires sur un même site2.
Historique
Les programmes de recherche sur la propulsion nucléaire telle NERVA furent testés sur le site.
Le 27 août 1957 lors de l'essai "Pascal-B" de la série de tests nucléaires souterrains de l'opération Plumbbob, une plaque en acier dont le poids est estimé à environ une tonne, qui fermait le puits du test, a été expulsée à très grande vitesse et n'a jamais été retrouvée ensuite.
Lorsque les essais ont été arrêtés en 1992, le Département de l'Énergie des États-Unis estima qu'il restait plus de 300 millions de curie sur le site, soit l'un des endroits les plus radioactivement contaminés des États-Unis. Bien que la radioactivité décroisse dans le temps, les isotopes à longue demi-vie présents sur le site seront dangereux pendant des dizaines de milliers d'années3.
Il est utilisé depuis à d'autres fins, dont des essais hydronucléaires depuis 1997 et l'entrainement de personnels et de tests de matériel pour la détection d'armes de destruction massive.
https://fr.wikipedia.org/wiki/Bombardements_atomiques_d%27Hiroshima_et_Nagasaki
Les bombardements atomiques d'Hiroshima et Nagasaki, derniers des bombardements stratégiques sur le Japon, ont eu lieu les 6 et à l'initiative des États-Unis sur les centres historiques d'Hiroshima (340 000 habitants) et de Nagasaki (195 000 habitants), deux villes sans véritables objectifs ni défenses militaires, choisies au dernier moment pour remplacer les cités historiques de Kyoto et de Kokura.
Il s'agissait, puisque les dirigeants japonais avaient rejeté certaines des conditions de l'ultimatum de la conférence de Potsdam1,2, de terroriser les populations et d'imposer au Japon un traité de reddition sans conditions comportant l'éviction de l'empereur Hirohito et l'adoption d'un régime politique occidental. Il s'agissait aussi, puisque ces deux armes nouvelles étaient enfin opérationnelles (l'une était à l'uranium, l'autre au plutonium), de les tester en vraie grandeur et de montrer aux autres pays, en particulier à l'URSS, la supériorité de feu décisive qu'elles donnaient à la puissance américaine, ce qui fait de ce bombardement l'acte inaugural de la guerre froide. Ces bombardements, que beaucoup ont placés au rang des crimes de guerre des Alliés, sont restés les seuls cas d'utilisation d'armes nucléaires contre des populations civiles.
Le nombre de personnes tuées par l'explosion, la chaleur, et l'incendie géant consécutif est difficile à déterminer et seules des estimations sont disponibles. Le Département de l'Énergie des États-Unis (DOE) avance les chiffres de 70 000 personnes pourHiroshima et de 40 000 personnes pour Nagasaki. Pour sa part, le musée du mémorial pour la paix d'Hiroshima avance le chiffre de 140 000 morts, pour la seule ville d'Hiroshima5. Selon l'historien Howard Zinn, le nombre de victimes atteint 250 0006. À ceci, s'ajoutent les décès causés ultérieurement par divers types de cancers (334 cancers et 231 leucémies sur la population suivie, moins de 2000 au total)7 et de pathologies8,9.
Les survivants des explosions, les hibakusha, sont devenus le symbole d'une lutte contre la guerre et les armes atomiques à travers le monde. Mais au Japon, ils ne furent pas reconnus comme des victimes et ne bénéficièrent d'aucune assistance de l'État.
Les armes nucléaires (bombes à l'uranium et au plutonium), développées en parallèle et en secret par les États-Unis avec l'assistance du Royaume-Uni et du Canada dans le cadre de l'Accord de Québec signé en 1943, ainsi que de nombreux savants européens, étaient respectivement la deuxième et la troisième bombe à avoir été construites, et sont restées les seules déployées depuis cette date sur un théâtre d'opérations.
Trinity
Trinity était le nom du tout premier essai d'une bombe atomique au plutonium, surnommée « Gadget » en partie parce que ce n'était pas une arme opérationnelle. Il eut lieu dans le désert du Nouveau-Mexique, le , sur la base aérienne d'Alamogordo et démontra l'efficacité d'une arme nucléaire11.
Quatre jours plus tard, les B-29 modifiés du 509e escadron de bombardement commencèrent à mener des raids d'entrainement contre des villes japonaises avec des bombes conventionnelles de la forme et du poids des bombes atomiques ; d'autres missions eurent lieu les 24, 26 et 29 juillet.
Choix des cibles
Emplacement des villes d'Hiroshima, Kokura et Nagasaki et route des bombardiers.
Les participants (le directeur adjoint du projet Manhattan Thomas Farrell (en), le capitaine William Sterling Parsons, les mathématiciens et physiciens John von Neumann et William Penney (en)13) à la réunion du « Comité des objectifs » (Target Committee) à Los Alamos les 10 et choisissent les cibles sur le territoire japonais dans l'ordre suivant14 :
- Kyoto ;
- Hiroshima ;
- Yokohama ;
- L'arsenal de Kokura ;
- Niigata ;
- Le palais impérial à Tokyo (incertain).
Les objectifs des bombardements atomiques de Kyoto, Hiroshima, Kokura et Nagasaki sont « le berceau de l'Empire du Japon » :
- Kyoto est la ville des ancêtres de la dynastie Tennō ;
- Hiroshima est la ville des ancêtres du domaine de Chōshū et a été la base du siège impérial pendant la guerre sino-japonaise (1894-1895).
La déclaration menaçait également le Japon d'un « déluge de ruines venu des airs comme il n'en a jamais été vu de semblable sur cette Terre » s'il n'acceptait pas une capitulation sans conditions41:
« La force d'où le soleil tire sa puissance a été lâchée contre ceux qui ont déclenché la guerre en Asie. (...) C'était pour épargner le peuple japonais d'une destruction totale que l'ultimatum du 26 juillet a été formulé à la Conférence de Potsdam. Ses dirigeants ont aussitôt rejeté cet ultimatum. S'ils n'acceptent pas maintenant nos conditions, ils doivent s'attendre à un déluge de destructions comme il n'en a jamais été vu de semblable sur cette Terre. Après cette attaque aérienne suivront des forces marines et terrestres en nombre et en puissance telles qu'ils n'en ont jamais vues et avec les aptitudes au combat dont ils sont déjà bien conscients. »
Le bombardement
Le champignon atomique sur Nagasaki est monté jusqu'à une altitude de 18 km.
Le second bombardement atomique eut lieu le 9 août 1945. Parti de Tinian, le bombardier B-29 Bockscar devait initialement larguer la bombe « Fat Man » sur la ville de Kokura mais son pilote, Charles Sweeney, décida de se reporter sur la cible secondaire de Nagasaki du fait de la couverture nuageuse sur la ville. Deux autres B-29 décollèrent peu après : The Great Artiste piloté par Frederick Bock etThe Big Stink piloté par le lieutenant-colonel Hopkins.
Fat Man fut alors larguée et explosa à 469 mètres d'altitude. L'explosion eut lieu entre les deux cibles potentielles : l'usine d'aciérie et d'armement de Mitsubishi au nord et l'usine de torpilles Mitsubishi-Urakami au sud.
La bombe fut larguée à 10 h 58 heure locale et l'explosion d'une puissance de 20 kilotonnes détruisit 3,8 km2 de bâtiments dans le district d'Urakami48,49.
La troisième bombe atomique
Une troisième bombe atomique devait être assemblée à la fin du mois d'août53 et huit autres bombes devaient être disponibles en novembre et le général George Marshall, le chef d'état-major de l'armée américaine, demanda qu'elles soient mises en réserve pour viser des cibles tactiques en soutien de l'invasion du Japon54.
Conséquences humaines et matérielles des deux explosions nucléaires[modifier | modifier le code]
Les victimes
À Hiroshima
Les brûlures sur le corps de cette femme suivent le motif de son kimono. Les parties foncées du tissu, qui ont absorbé le rayonnement thermique, se sont échauffées et ont brûlé la peau en contact, alors que les parties claires ont réfléchi le rayonnement et protégé la peau.
Le nombre des victimes ne sera sans doute jamais connu car les circonstances (ville en partie évacuée, présence de réfugiés venant d'autres villes, destruction des archives d'état civil, disparition simultanée de tous les membres d’une même famille, crémations de masse) rendent toute comptabilité exacte impossible, en particulier des morts survenues dans les premières heures.
- D’après une estimation de 1946 : la population au moment de l’attaque aurait été de 245 000 habitants, de 70 000 à 80 000 auraient été tués et autant blessés55
- D’après une estimation de 1956 : sur une population de 256 300 personnes,68 000 furent tuées et 76 000 blessées56.
- D’après une autre plus récente : sur une population de 310 000, de 90 000 à140 000 personnes furent tuées57.
- D'après le maire d'Hiroshima lors d'un discours en 2005, le total des morts s’élèverait à 237 062 personnes58, mais ce nombre reste hypothétique.
D'après une étude réalisée par échantillonnage en novembre 1945 par la faculté de médecine de l'université impériale de Tokyo59, 73,5 % des victimes moururent dès le bombardement ou le jour même. 11,3 % des victimes moururent avant la fin de la première semaine, et 3,4 % au cours de la deuxième semaine ; dans l'ensemble, près des neuf dixièmes des victimes (88,3%) moururent dans cette première période de deux semaines. Le reste mourut majoritairement (9,9 % des victimes) après trois à huit semaines, et quelques-uns encore (1,4 % des victimes) après trois à quatre mois.
D'après la même étude, mais sur un échantillon différent, 26,2 % des victimes moururent le premier jour de causes inconnues, 45,5 % moururent de causes « mécaniques » consécutives au souffle de l'explosion et aux incendies (écrasements, traumatismes, brûlures) ; 16,3 % de brûlures dues au « flash thermique » de l'explosion nucléaire ; et12,0 % des suites de l'irradiation. Si l'on considère que les causes inconnues sont essentiellement des causes « mécaniques », cette catégorie est donc à l'origine de plus de 70 % des décès.
À Nagasaki
De même qu'à Hiroshima, le nombre des victimes à Nagasaki a fait l'objet de plusieurs estimations. Selon les mêmes sources :
- D’après l’estimation de 1946 : 35 000 personnes auraient été tuées et un peu plus blessées.
- D’après celle de 1956 : sur une population de 173 800 habitants, 38 000 furent tuées et 21 000 blessées.
- D’après la plus récente : Sur une population de 250 000, 60 à 80 000 personnes furent tuées.
Il existe à Nagasaki quelques particularités par rapport à Hiroshima :
- l’arme utilisée étant plus puissante (une puissance équivalente à environ 20 000 tonnes de TNT) les dommages proches de l’hypocentre semblent avoir été plus importants.
- grâce aux collines, les destructions ont été moins étendues car le relief a protégé certains quartiers.
- l’habitat étant plus diffus la violence des incendies fut plus limitée, ils mirent deux heures pour prendre des proportions importantes, avec une durée de quelques heures et il n'y eut pas de conflagration généralisée.
- l’arme étant d’un modèle différent (bombe à plutonium au lieu d’une bombe à uranium) la répartition du rayonnement γ et neutrons a été différente, ce qui semble avoir modifié la fréquence des types de leucémies observées.
Blessures liées au rayonnement thermique et aux incendies
Ces types de blessures retrouvées chez 65 % des survivants blessés d'Hiroshima et Nagasaki, furent responsables peut-être de 50 % des décès60, causés par plusieurs mécanismes :
- Brûlures de la peau découverte par le rayonnement thermique émis pendant une fraction de seconde au moment de l'explosion. Le moindre obstacle opaque a pu apporter une certaine protection : le port de vêtements, en particulier clairs, l’ombre des bâtiments, le feuillage des arbres... C'est peut-être la blessure la plus caractéristique d'une explosion nucléaire.
- Des brûlures du premier degré (érythème évoquant un coup de soleil) furent observées à plus de 4 km(occasionnellement 5 km) de l'hypocentre.
- Des brûlures du troisième degré (mortelles si étendues) sur la peau nue jusqu'à 1,5 km (occasionnellement2,5 km)61.
- Les personnes proches de l'hypocentre dont les parties du corps furent exposées à l'éclair ont été instantanément carbonisées jusqu’à l'hypoderme. Elles agonisèrent de quelques minutes à quelques heures62 (le rayonnement thermique était de l'ordre de 100 c/cm² libérés en l'espace de 0,3 seconde, ce qui est quinze fois plus important que ce qui provoquerait normalement une brûlure au troisième degré).
On estime que le rayonnement thermique a été la cause directe d’environ 20 à 30 % des décès à Hiroshima et Nagasaki63.
- Brûlures par les flammes : De nombreux incendies éclatèrent dans la ville après l'explosion : en vingt minutes, les feux se réunirent en un seul foyer généralisé, provoquant l'apparition d'une colonne d'air chaud et de vents violents. Cettetempête de feu dura 16 heures et dévasta 11 km2, ce qui ne laissa que peu de chances aux victimes, souvent déjà blessées, qui y étaient piégées64. Contrairement aux bombardements incendiaires conventionnels, l'attaque d'Hiroshima limita considérablement les possibilités de fuite de la population en détruisant une vaste zone. Ce n'est que lorsque l'ensemble du combustible fut épuisé que le feu s'arrêta. Le nombre des décès liés aux incendies est sans doute très important mais impossible à estimer, car beaucoup de corps ont été détruits par les flammes.
- Un effet secondaire, mais tout aussi mortel, fut l'apparition d'une grande quantité de monoxyde de carbone. Ce gaz entraîna l'asphyxie au milieu du foyer et il y eut certainement peu de rescapés. Cependant, aucun témoignage ne confirme l'assertion d'un dégagement massif de CO65.
- Enfin, ceux qui, plus éloignés, avaient les yeux pointés vers la boule de feu eurent la rétine brûlée ou endommagée, ce qui provoqua des cécités. Elles pouvaient certes être réversibles, mais cette soudaine incapacité à se déplacer empêcha un grand nombre de personnes de trouver un abri et d'échapper à la mort alors que les incendies se développaient.
- Les « ombres » d'Hiroshima
Le Monde diplomatique d'août 2005 publie quelques extraits d'un texte du journaliste américain John Hersey paru le 31 août 1946 dans le New Yorker. Hersey fut l'un des premiers à se rendre sur place, et il décrit le phénomène des ombres d'Hiroshima : « Les premiers scientifiques japonais arrivés quelques semaines après l’explosion notèrent que l'éclair de la bombe avait décoloré le béton. À certains endroits, la bombe avait laissé des marques correspondant aux ombres des objets que son éclair avait illuminés. Par exemple, les experts avaient trouvé une ombre permanente projetée sur le toit de l’édifice de la chambre de commerce par la tour du même bâtiment. On découvrit aussi des silhouettes humaines sur des murs, comme des négatifs de photos66. »
Ce phénomène est dû aux changements de composition chimique des matériaux exposés et « grillés » par le rayonnement intense de la boule de feu nucléaire, rayonnement qui a pu être intercepté par des obstacles variés. Dans leGuichet du savoir de la bibliothèque municipale de Lyon, est indiqué qu'il s'agit d'un phénomène semblable à ce qui se produit si l'on projette de la couleur sur une main posée sur une feuille de papier, soit la technique du pochoir : la chaleur (plusieurs milliers de degré Celsius) dégagée par la bombe « a été absorbée par les corps, de sorte que le sol sous ces corps a reçu moins de chaleur et a été protégé par eux67.»
Blessures liées à l’onde de choc et à l’effet de souffle
Ces types de blessures furent retrouvés chez 70 % des survivants blessés d'Hiroshima et Nagasaki, mais elles étaient rarement graves. L’hypothèse la plus probable est qu’immobilisés les blessés graves ont été condamnés quand les incendies se sont développés dans les décombres68.
- Barotraumatisme (effet direct) : lésions internes par rupture des tympans, des sinus, des poumons ou du tube digestif dues à la variation brutale de la pression au passage de l'onde. De telles lésions ont été peu observées (on n’a retrouvé de lésion des tympans, l’organe le plus fragile, que chez moins de 10 % des survivants proche de l’hypocentre)69.
- Effet indirect, et sans doute bien plus meurtrier :
- Le passage de l'onde de choc provoqua l'effondrement des bâtiments (jusqu'à 2 km dans le cas des habitations en bois). On estime qu’un grand nombre de victimes succombèrent ensevelies sous les décombres, d'autant que des incendies s'y développèrent rapidement.
- En se brisant, le bois, le verre et les autres matériaux de construction se transformèrent en des projectiles mortels. Des blessés présentaient des lacérations jusqu'à 2 km de l'hypocentre.
- Le souffle déplaça brutalement les victimes et les blessa par chute ou écrasement.
Irradiation
Fillette de 11 ans qui avait perdu ses cheveux plus d'une semaine après l'explosion. Elle se trouvait dans une maison en bois à 2 km de l'hypocentre.
Il y a plusieurs causes d’irradiation :
- La principale cause a été l'irradiation instantanée au moment de l'explosion (irradiation externe par neutrons et rayons γ émis par les réactions nucléaires dans la bombe)70. Elle a représenté une dose létale pour 50 % des personnes exposées à l’extérieur (soit 4 Gy) à un peu plus de 1 km de distance de l’hypocentre. Les bâtiments, en particulier ceux en béton, ont apporté une certaine protection.
- Beaucoup moins importante (car la bombe a explosé loin du sol) est l'irradiation par la radioactivité induite : au moment de l'explosion, le bombardement par les neutrons a rendu les matériaux près de l'hypocentre radioactifs par formation de radionucléides. Cette radioactivité a diminué rapidement et est restée confinée à une zone où le rayonnement thermique avait normalement déjà presque tout tué. On estime qu'elle représentait le premier jour, au maximum, une dose cumulée de 0,6 Gy. Du deuxième au cinquième jour, elle représentait moins de 0,1 Gy. En quelques jours elle est devenue insignifiante71.
- Encore moins importante, l'irradiation consécutive aux retombées radioactives : c'est-à-dire irradiation par les radionucléides produits lors de l'explosion et retombant du nuage atomique sous forme de poussières ou de pluie noire. À Hiroshima, l’explosion ayant été aérienne, il y eut assez peu de retombées car le nuage s'éleva rapidement à très haute altitude où les radionucléides se dispersèrent (dose cumulée totale maximum au sol de 0,4 Gy).
Les signes d’irradiation ont été retrouvés chez 30 % des survivants blessés d'Hiroshima et Nagasaki, responsable peut-être de 5 à 15 % des décès72, souvent par syndrome d'irradiation aiguë. Le nombre exact des décès liés au syndrome d'irradiation aiguë est difficile à déterminer car la plupart de ces victimes présentaient également des brûlures thermiques étendues, rapidement fatales avec une symptomatologie générale assez semblable. Aucun effet des radiations n'a été mis en évidence au-delà de 2,4 km de l’hypocentre.
- La principale manifestation a donc été le syndrome d'irradiation aiguë: De quelques jours à quelques semaines après l’attaque, les victimes irradiées ont présenté une phase de prodromes avec asthénie, céphalées, nausées etvomissements. Après une phase de latence de quelques jours à quelques semaines au cours de laquelle l'état de santé des victimes semblait s’améliorer survenait une aggravation avec asthénie, céphalées, nausées, vomissements,diarrhées, immunodépression, perte des cheveux, hémorragies et éventuellement décès. Au bout de 4 mois et en l'absence de décès, l’évolution s'orientait vers la guérison73.
- Exposition in utero des fœtus, conséquence de l'irradiation de femmes enceintes. Il a été observé des morts in utero (avortement), des retards de croissance, des retards mentaux ou des malformations (non héréditaires)74.
Effets médicaux à long terme de l’irradiation
- Les leucémies : À partir de 1947, une augmentation de l’incidence des leucémies a été observée parmi les survivants irradiés. Un maximum fut atteint en 1951, ensuite cette incidence a décliné75 pour disparaitre en 1985. Sur49 204 survivants irradiés suivis de 1950 à 2000, il a été observé 94 cas de leucémies mortelles attribuables aux radiations76.
- Les cancers « solides » : Le suivi des survivants irradiés a montré, à partir de la fin des années 1950, une augmentation progressive de l’incidence des cancers, en particulier ceux du poumon, du tube digestif et du sein. Sur44 635 survivants irradiés suivis de 1958 à 1998, il a été observé 848 cas de cancers mortels attribuables aux radiations77.
- Effets médicaux autres que les cancers chez les survivants irradiés : survenue de cataractes, de stérilité (souvent réversible chez l'homme), d’une augmentation de la fréquence des maladies (non cancéreuses) pulmonaires, cardiaques ou digestives avec une possible diminution de la durée de vie. Le nombre de ces décès semble égal au nombre ou à la moitié du nombre de ceux dus aux cancers et leucémies (soit environ de 0,5 % à 1 %)78.
Le nombre des morts dues aux effets à long terme des bombardements nucléaires est, d'après ces chiffres, dérisoire par rapport à celui des victimes des premiers mois. En mars 2007 au Japon, près de 252 000 personnes encore vivantes sont considérées « hibakusha » (survivants de la bombe). Mais, de ce nombre, moins de 1 % (2 242 exactement) sont reconnues comme souffrant d'une maladie causée par les radiations79.
Effets sur la descendance de la population irradiée
Les résultats du suivi des descendants des victimes d'Hiroshima et Nagasaki (30 000 enfants de parents irradiés, ce qui représente une population statistiquement significative) n'a pas permis d'observer une augmentation des malformations ou des troubles génétiques80,81.
Retombées radioactives
Article détaillé : retombée radioactive.
Quelques heures après l'explosion, le nuage atomique ayant atteint un développement vertical important provoqua des chutes de pluie. Celle-ci contenait des poussières radioactives et des cendres qui lui donnaient une teinte proche du noir, et a été de ce fait désignée par le terme de « black rain » dans la littérature anglo-saxonne. Les gouttes de pluie étaient aussi grosses que des billes.
Les retombées de produits de fission entraînés par la pluie ont été relativement limitées, comparées à celles consécutives à une explosion au sol (voir le cas de Castle Bravo). Elles ont porté sur une zone de 30 × 15 km au nord-ouest du point d'explosion ; et on estime qu'elles ont entraîné une exposition externe cumulée de 1.8 à 44 rad82, c'est-à-dire de 18 à 440mGy (au plus de l'ordre de 0,5 Sievert). Ces chiffres correspondent à une exposition cumulée, c'est-à-dire que pour atteindre une telle exposition, il aurait fallu stationner dès l'heure suivant l'explosion et pendant six semaines d'affilée au point le plus radioactif détecté83.
Ces niveaux d'exposition sont insuffisants pour entraîner les effets déterministes du syndrome d'irradiation aiguë, mais pour les personnes les plus fortement exposées (plus de 0,1 Sv), ils peuvent peut être conduire à long terme à des effets stochastiques faibles (par exemple 0,5 Sv (maximum) pourrait correspondre en théorie à un risque de survenue de cancer de 2,5 %).
La majorité des victimes par irradiation l'a été par l'exposition directe aux rayonnements au moment de l'explosion (voir ci-après).
Sur les survivants, 171 000 devinrent des sans abris84.
Mais surtout, le texte insiste sur la collaboration entre Britanniques et Américains, et sur la nécessité à laquelle ils se sont trouvés confrontés de réaliser le programme sur le sol américain, et non au Royaume-Uni, trop exposé. Et enfin, le président cherche à rassurer l'opinion publique : il annonce les bienfaits de l'atome qui viendra constituer une nouvellesource d'énergie aux côtés du charbon, du pétrole et de l'eau, mais le public doit comprendre que le secret – et de nouvelles recherches – soient encore nécessaires ; néanmoins, un contrôle démocratique est annoncé, par le biais d'une commission que le Congrès des Etats-Unis sera chargé de mettre en place.
La presse américaine fait ses gros titres et ses premiers articles de ces quelques informations.
Le New York Times consacre un long article à l’évènement dans son édition du lendemain 7 août90, qui fait largement mention du communiqué présidentiel, et de la conférence de presse du Secrétaire d'État à la Guerre qui a suivi, et indique que l'on
« ignore encore ce qui s'est produit à Hiroshima. Le Département de la Guerre fait savoir qu'on ne dispose pas encore de rapport précis, car la cible est cachée aux avions de reconnaissance par un nuage impénétrable de poussière et de fumée. »
Faute d'autres éléments, le journal mentionne les informations données par le Département de la Guerre sur l'essai du Nouveau Mexique : une immense tour métallique a été vaporisée, un nuage s'est formé jusqu'à 40 000 pieds(12 000 mètres), et deux observateurs situés à 10000 yards (environ 9 km) ont été jetés à terre. Il reprend également les passages du communiqué de Truman sur les conditions d'élaboration de l'arme, et insiste sur le ton de solennité et le sérieux avec lesquels les officiels se sont exprimés. Le journal rapporte également la réaction de Churchill :
« Par la grâce de Dieu, nous avons battu les nazis dans la course à la Bombe ! »
Il reprend aussi une information donnée par l'agence United Press : selon le ministre britannique chargé de la production d'aéronefs, la bombe pèse 400 livres (moins de 200 kg) et est capable de raser une ville.
Hiroshima fait les gros titres de la presse américaine : le San Francisco Chronicle titre par exemple : Le Japon touché par une bombe atomique, l'arme la plus puissante de l'Histoire ! L'article présente Hiroshima comme une base militaire, que la bombe a entièrement détruite91. Le Washington Post écrit :
« Même si nous déplorons cette nécessité (d'attaquer avec la bombe atomique), une lutte jusqu'à la mort oblige tous les combattants à infliger un maximum de dégâts à l'ennemi et ceci dans le plus court laps de temps. (...) Nous exprimons sans réserve notre gratitude à l'égard de la science pour nous avoir donné cette nouvelle arme avant la fin de la guerre. »
Le quotidien argentin Critica du 8 août 93 explique que
« toute vie humaine, animale et végétale a disparu à Hisoshima, le gouvernement a ordonné l’évacuation des grandes villes »
et reprend une information de l'agence Reuters, selon laquelle il y a eu plus de 100000 morts, brûlés vifs ou tués par la chaleur et la pression. Le journal cite également une réaction japonaise diffusée sur Radio-Tokyo, captée en Argentine :
« L'usage de la bombe atomique contre Hiroshima est un nouvel exemple de la nature diabolique de l'ennemi, qui n'a aucun scrupule à massacrer des civils. »
Radio-Tokyo est également citée pour évoquer les effets de la bombe :
« les morts et blessés sont brûlés au point d'être méconnaissables. Les autorités sont dans l'incapacité à trouver des solutions pour les victimes civiles. »
Le journal cite en outre une émission de Radio Tokyo97, qui proteste vigoureusement contre les bombardements
« Comment les responsables militaires américains vont-ils échapper à leur avilissement, non seulement aux yeux des autres nations mais aussi à ceux du peuple américain ? Que pense le peuple américain, épris de justice, de ses dirigeants qui commettent un crime contre l'homme et contre Dieu? »
https://fr.wikipedia.org/wiki/Eau_triti%C3%A9e
Sous forme chimiquement pure, l’eau tritiée (ou eau super-lourde) est une forme d'eau dans laquelle tout ou partie des atomes d'hydrogène a été remplacé par dutritium. L'eau tritiée ne doit pas être confondue avec l'eau lourde, qui est de l'oxyde de deutérium. Le tritium étant lui-même un radioisotope de période 12,32 années, l'eau tritiée pure est très fortement radioactive.
L'eau tritiée peut désigner des substances très différentes suivant la concentration en tritium, qui peut varier sur une échelle allant de 1 à 1015. Dans le contexte de l'environnement, ce que l'on désigne par « eau tritiée » est de l'eau contaminée au tritium, à des taux de dilution inférieurs à 10-12.
Applications
L'eau tritiée est parfois employée dans le domaine des sciences du vivant comme traceur pour des études sur le cycle biologique de l'eau. En outre, le tritium injecté par les essais nucléaires atmosphériques se retrouve en quantité infinitésimale sous forme d'eau tritiée dans l'hydrosphère et la biosphère, dont le pic permet de dater des choses variées ayant été exposées à l'atmosphère de la fin du xxe siècle, comme l'âge des crus viticoles ou celui des masses océaniques.
https://fr.wikipedia.org/wiki/Centrale_nucl%C3%A9aire
Une centrale nucléaire est un site industriel destiné à la production d'électricité, qui utilise comme chaudière au moins un réacteur nucléaire alimenté en combustible nucléaire pour produire de lachaleur. L'énergie d'une centrale nucléaire provient de la fission de noyaux d'atomes lourds. L'énergie cinétique des produits de fission génère alors de la chaleur qui, comme pour toute centrale thermiqueconventionnelle, vaporise de l'eau, la vapeur d'eau entraînant en rotation une turbine accouplée à un alternateur qui produit à son tour de l'électricité. C'est la principale application de l'énergie nucléairedans le domaine civil.
Une centrale nucléaire est constituée d'un ou plusieurs réacteurs nucléaires dont la puissance électrique varie de quelques mégawatts à environ 1 500 mégawatts (860 MW en moyenne pour les réacteurs actuellement en service)1.
On compte dans le monde environ 250 centrales nucléaires qui ont produit 10,8 % de l'électricité mondiale en 20132. Ces centrales comptent en juin 2015 un total de 438 réacteurs en fonctionnement (y compris 43 réacteurs japonais à l'arrêt), dont la puissance atteint 379 GW ; 67 réacteurs sont en cours de construction1.
Années 1950 : premières centrales
Installation de la cuve du premier réacteur EBR-1 (États-Unis)
La première centrale nucléaire du monde, à avoir produit de l'électricité (puissance de quelques centaines de watts), est l'Experimental Breeder Reactor I (EBR-I), construite au laboratoire national de l'Idaho aux États-Unis. Elle entre en service le 3. Le , une centrale nucléaire civile est connectée au réseau électrique à Obninsk en Union soviétique, avec une puissance de production d'électricité de cinq mégawatts. Les centrales nucléaires suivantes furent celles de Marcoule dans la vallée du Rhône le , de Sellafield au Royaume-Uni, connectée au réseau en 1956, et le réacteur nucléaire de Shippingport aux États-Unis, connecté en 1957. Cette même année, les travaux de construction du premier réacteur à usage civil en France (EDF1) démarrèrent à la centrale nucléaire de Chinon.
De 1960 à 1986 : croissance rapide
La puissance nucléaire mondiale a augmenté rapidement, s'élevant de plus de 1 gigawatt (GW) en 1960 jusqu'à 100 GW à la fin des années 1970, et 300 GW à la fin des années 1980.
Pendant l'année 1970, la construction de 37 nouveaux réacteurs était en cours et 6 étaient mis en service opérationnel. Entre 1970 et 1990 étaient construits plus de 5 GW par an (avec un pic de 33 GW en 1984).
Plus des deux tiers des centrales nucléaires commandées après ont été annulées notamment comme conséquence de l'accident nucléaire de Three Mile Island.
1986 : Tchernobyl
En 1986, la catastrophe de Tchernobyl a conduit à plusieurs moratoires ; la baisse des prix du pétrole durant les années 1990 a renforcé cette tendance, conduisant à construire moins de nouveaux réacteurs dans le monde. Parallèlement, les centrales vieillissent : en 2006, la majorité des réacteurs avaient de 15 à 36 ans, sept ayant de 37 à 40 ans4.
Les coûts économiques croissants, dus aux durées de construction de plus en plus longues, et le faible coût des combustibles fossiles, ont rendu le nucléaire moins compétitif dans les années 1980 et 1990. Par ailleurs, dans certains pays, l'opinion publique, inquiète des risques d'accidents nucléaires et du problème des déchets radioactifs, a conduit à renoncer à l'énergie nucléaire.
Le nombre de réacteurs nucléaires en construction dans le monde a commencé à diminuer en 1986, date de la catastrophe de Tchernobyl.
Il s'est ensuite stabilisé vers 1994, année à partir de laquelle le taux de mise en construction de nouveaux réacteurs a stagné entre 2 et 3 par an5.
En 1993, la production d'électricité nucléaire a atteint un record de 17% de la production électrique mondiale, qu'elle n'a plus jamais dépassé depuis lors6.
Années 2000 : relance annoncée
Nombre et puissance des réacteurs nucléaires en service dans le monde jusqu'en 2011
Âge des réacteurs nucléaires en 2013
À partir du milieu de la décennie 2000, la croissance des besoins en énergie, associée à la remontée des prix des énergies (hausse du prix du pétrole et du gaz, taxe carbone…) a conduit certains experts à annoncer une renaissance du nucléaire en Europe, Asie et Amérique7. Par exemple, la Finlande s'est engagée dans la construction d’un réacteur pressurisé européen (EPR) à Olkiluoto depuis 2003, la construction d’un EPR à Flamanville(France) est en cours depuis 2007 et 27 réacteurs sont aussi en construction en Chine8.
En 2005, seuls 3 nouveaux réacteurs étaient mis en construction dans le monde et 4 réacteurs achevés étaient connectés au réseau. La capacité mondiale a augmenté beaucoup plus lentement, atteignant 366 GW en 2005, en raison du programme nucléaire chinois.
En 2006, mais surtout 2007, la demande repart poussée par les besoins énormes de la Chine en énergie et la hausse généralisée du prix des énergies fossiles.
2011 : accident nucléaire de Fukushima
Article détaillé : Accident nucléaire de Fukushima.
Mais la crise économique depuis 2008, et l'accident nucléaire de Fukushima ont provoqué une baisse de la production d'électricité d'origine nucléaire, de 4,3 % en 2011 par rapport à 2010. Des pays comme l'Allemagne, la Belgique, la Suisse et Taïwan, ont annoncé leur sortie du nucléaire. L'Égypte, l'Italie, laJordanie, le Koweït, et la Thaïlande ont décidé ne pas s'engager ou se réengager dans le nucléaire. Les chantiers de dix-huit réacteurs en constructions affichent plusieurs années de retard, dont neuf en construction depuis plus de vingt ans9.
À la suite de l'accident nucléaire de Fukushima en 2011, un certain nombre de pays ont revu leur politique de développement de l'énergie nucléaire. Par exemple, l'Allemagne, en continuant d'acheter de l'énergie d'origine nucléaire à ses voisins européens[réf. souhaitée], a annoncé sa décision de fermer toutes ses centrales nucléaires avant fin 202210, l'Italie a abandonné ses projets nucléaires11, la Suisse ne renouvellera pas ses centrales12, le Québec a fermé sa centrale nucléaire de Gentilly fin 201213, le précédent gouvernement du Japon a annoncé une sortie du nucléaire d'ici 203014, le gouvernement japonais issu des dernières élections est favorable à la remise en service de certaines des centrales nucléaires existantes (aucun réacteur en service actuellement) et ce malgré les résistances de la population15,16, de même la Chine après avoir gelé les autorisations pour de nouveaux réacteurs 17 a décidé, fin 2012, d'une reprise des projets de construction de centrales nucléaires18,19, etc.
Impacts environnementaux
Déchets
Article détaillé : Déchet radioactif.
À la sortie de la centrale, le combustible usé étant, en majorité soit à près de 95%34, constitué d'uranium appauvri ainsi que de plutonium (1%), peut servir après retraitement à retourner en centrale sous forme d'uranium de retraitement enrichi ou de MOX, selon le cycle du combustible du pays concerné.
Donc les déchets radioactifs, qui proviennent de différentes étapes du cycle du combustible nucléaire ne font qu'une fraction du volume des combustibles usés, soit moins de 5% après retraitement. Environ 10 % de ces déchets sont des éléments de forte activité radiologique ou de longue période radioactive35. La gestion de ces déchets est un processus complexe, en général confiée à une organisation spécifique.
Rejets d'effluents radioactifs et chimiques
En fonctionnement normal, une centrale nucléaire émet en continu des rejets contrôlés radioactifs et chimiques d’effluents liquides36 et gazeux37, il s’agit de rejets effectués dans le cadre des autorisations réglementaires de rejet38.
Lors d'incident ou d'accident une centrale peut être amenée à effectuer des rejets dépassant ceux autorisés en fonctionnement normal.
En France, l'ASN est chargée de vérifier le respect des autorisations réglementaires de rejet par les centrales nucléaires, et est également chargée d'informer le public des rejets dans l'environnement et des risques induits pour la santé des personnes et pour l'environnement39.
https://fr.wikipedia.org/wiki/Propulsion_nucl%C3%A9aire_navale
La propulsion nucléaire navale oupropulsion nucléaire maritime est un type de propulsion desnavires, sous-marinset navires de surface, lesquels sont dans ce cas équipés d'un ou plusieurs réacteurs nucléaires produisant de la chaleur transformée en vapeur pour activer une turbine ou un ensemble électrique.
Histoire
1re sortie en mer du Nautilus, 20 janvier 1955.
La technologie américaine fut la première à aboutir et fut partagée avec le Royaume-Uni. L'URSS et la Franceréalisèrent des développements séparés. L'Allemagne de l’Ouest et leJapon développèrent des prototypes uniques de cargo sans lendemain. Ce fut ensuite le tour de la Chine, puis récemment, de l'Inde, aidée par l'URSS.
Développements américains et premier sous-marin nucléaire(1955)
Article connexe : réacteurs nucléaires de l'United States Navy.
La conception, le développement et la production de réacteurs nucléaires de propulsion navale débuta dans les années 1940 aux États-Unis sous la direction de l'amiral Hyman Rickover. Le premier réacteur de test fut démarré en 1953, et deux ans plus tard en 1955, le premier sous-marin à propulsion nucléaire, l'USS Nautilus (SSN-571), fut mis à la mer. Une grande partie des premiers développements sur les réacteurs navals furent réalisés au Naval Reactor Facility américain du Laboratoire national de l'Idaho.
Ceci marqua la transition des sous-marins entre les lents bâtiments sous-marins qui existaient jusqu'alors et les navires de guerre capables de maintenir une vitesse de croisière de 20/25 nœuds tout en restant sous l'eau pendant de nombreuses semaines.
Le succès du sous-marin USS Nautilus conduisit au développement parallèle d'une nouvelle classe de sous-marins américains, la classe Skate, équipée d'un seul réacteur, et un croiseur, le USS Long Beach (CGN-9), mis en service en 1961, équipé de deux réacteurs C1W qui fut le 1er bâtiment de guerre de surface à propulsion nucléaire au monde.
Il fut rejoint par le porte-avions USS Enterprise (CVN-65), équipé de huit réacteurs en 1960, mis en service à la fin de 1961 et encore en service jusqu'en 2013, avec lequel il forma la Task Force 1 qui était composée uniquement de navires à propulsion nucléaire pour l'opération Sea Orbit. Lors de la reclassification des navires de l'United States Navy en 1975, les destroyers à propulsion nucléaire sont qualifiés de croiseurs.
En 1962, l'US Navy comptait 26 sous-marins opérationnels et 30 en construction. L'énergie nucléaire avait dès lors révolutionné la marine américaine.
Aux États-Unis, après les sous-marins américains de la classe Skate, le développement de réacteurs continua et une série unique de modèles normalisés fut construite à la fois par Westinghouse et General Electric, un réacteur de chaque fabricant équipant chaque navire bi-réacteur.
Rolls Royce construisit des modèles similaires, puis la Royal Navy développa un modèle plus évolué, le PWR-2 (« Pressurized Water Reactor » 2, Réacteur à eau pressurisée).
Le plus petit submersible à propulsion nucléaire, le NR-1, fut construit à la fin des années 1960.
Depuis les années 2000, une nouvelle génération, le réacteur A1B est développé pour les porte-avions entrant en service à partir de 2015. Les cœurs de ses réacteurs nucléaires ont une durée de vie égale à celle du navire, ce qui évitera de les changer au cours de sa carrière.
Développements russes et premier navire de surface nucléaire, civil (1957)
Article connexe : Réacteur ОК-650.
L'Union soviétique a détenu le leadership mondial pour le nombre de navires à propulsion nucléaire construits, à savoir quelque 250 sous-marins, cinq bâtiments de guerre de surface, dont plusieurs croiseurs lance-missiles et huit brise-glaces soit environ 900 réacteurs1.
Les réacteurs nucléaires navals sont majoritairement de type réacteur à eau pressurisée et diffèrent des réacteurs commerciaux produisant de l'électricité en cela que :
- ils ont une plus grande densité de puissance dans un petit volume ; certains fonctionnent avec de l'uranium faiblement enrichi (nécessitant des ravitaillements en combustible fréquents), d'autres fonctionnent avec de l'uranium hautement enrichi (plus de 20 % d’uranium 235, de 21 à 45 % dans les sous-marins soviétiques, plus de 96 % dans les sous-marins américains6) et n'ont pas besoin d'être réapprovisionnés aussi souvent tout en étant plus silencieux en opération du fait de leur cœur plus petit7) ;
- le combustible peut être soit de l'UO2 (dioxyde d'uranium) proche de celui utilisé dans les centrales civiles avec des enrichissements inférieurs à 20 % soit un alliage métallique zirconium-métal (environ 15 % U enrichi à 93 %, ou davantage d'uranium à moindre enrichissement) ;
- la conception de ces réacteurs permet d'avoir un caisson résistant de réacteur compact tout en préservant la sécurité nucléaire.
Applications militaires et civiles
Environ 400 navires à propulsion nucléaire ont été construits dans le monde, très majoritairement militaires, surtout des sous-marins, mais aussi des porte-avions et des croiseurs, et quelques navires civils (brise-glaces essentiellement).
https://fr.wikipedia.org/wiki/%C3%89nergie_nucl%C3%A9aire
Au 1er janvier 2013, le premier parc national de centrales nucléaires est celui des États-Unis (104 réacteurs nucléaires pour une puissance de 102 GW), vient ensuite la France (58 réacteurs nucléaires pour une puissance de 63 GW). La Chine qui dispose de 16 réacteurs en service totalisant une puissance installée de 12,9 GW, a lancé la construction de 29 nouveaux réacteurs soit 30 GW et envisage un parc total de 216 réacteurs (soit 225 GW) pour fin 203011.
https://fr.wikipedia.org/wiki/Turbor%C3%A9acteur
Les turboréacteurs d'aujourd'hui sont des machines d'une extrême complexité regroupant un grand nombre de sous-systèmes. Le développement d'un nouveau moteur demande des moyens humains, technologiques et financiers considérables que seules quelques rares entreprisespossèdent dans le monde : General Electric, Snecma, Rolls-Royce, Pratt & Whitney etNPO Saturn pour les plus importants. Les turboréacteurs sont utilisés sur tous les avions civils moyen et gros porteurs, car ils sont les seuls à pouvoir atteindre des vitesses transsoniques (entre mach 0,8 et mach 1) de manière économique13. Seuls les petits avions de tourisme et les ULM sont encore équipés de moteurs à explosionà pistons.
La fabrication et l'exploitation d'un turboréacteur nécessitent des connaissances techniques parmi les plus pointues de notre époque telles que la mécanique des fluides, la thermodynamique, la science des matériaux, l'automatique ou encore l'acoustique. D'ailleurs, à bord d'un avion, civil ou militaire, le turboréacteur n'est pas seulement un organe propulsif. Il fournit aussi toute l'énergie disponible à bord sous forme électrique, hydraulique et pneumatique et alimente le système depressurisation et de conditionnement d'air. Le groupe moteur est ainsi souvent appelé « générateur de puissance » ou « powerplant ». Si le rendement et la fiabilitéde ces moteurs se sont considérablement améliorés depuis leurs débuts, leur coût est très important, et représente en général pour un avion civil le tiers du coût total de l'appareil.[réf. nécessaire]
Les émissions polluantes issues de la combustion du kérosène sont l'un des problèmes majeurs du turboréacteur pris « à bras le corps »13 par les ingénieurs. Néanmoins, ils doivent être relativisés, puisque le trafic aérien ne représente que 5 % des émissions polluantes au voisinage des habitations, et que le CO2 émis ne contribue à l'effet de serre du globe terrestre qu'à hauteur de 2 %. Les effets des traînée de condensation sont essentiellement des cristaux de glace générés par la vapeur d'eau, elle-même produite par la combustion du kérosène et cristallisée par le froid[réf. nécessaire].
Toutefois, la pollution aérienne en haute altitude pourrait avoir bien plus d'impact sur l'environnement et notamment sur l'amincissement de la couche d'ozone. En effet, 75 % des émissions des turboréacteurs ont lieu en vol de croisière dans latroposphère et la basse stratosphère21.
Le carburant utilisé dans les turboréacteurs civils et militaires est principalement dukérosène, produit pétrolier obtenu par raffinage des pétroles bruts et composé de carbone à 86% et d'hydrogène à 14 % avec un point éclair pour la sécurité d'utilisation qui se situe aux alentours de 41 °C.
https://fr.wikipedia.org/wiki/Uranium_appauvri
Utilisation
Usage nucléaire : l’uranium appauvri peut être transformé en oxyde d'uranium vendu comme combustible pour réacteur à neutrons rapides.
En Russie, Atomenergoprom a annoncé fin 2009 le démarrage à Zelenogorsk (région de Krasnoïarsk) par une de ses filiales associée à AREVA et sur la base du procédé Areva NC d'une première unité de conversion d’uranium appauvri (DUF) en oxyde d’uranium 238UO2 (10 000 t/an prévues)1.
Usage non nucléaire : l’uranium appauvri est à présent employé pour la quasi-totalité des utilisations non nucléaires de l’uranium car ses propriétés physiques sont très voisines de celles de l’uranium naturel.
Autrefois, l’uranium appauvri servait de contrepoids dans les parties mobiles de la queue et des ailes d'avions, avant d'être supplanté dans cet usage dans les années 1980 par le tungstène. On trouve, par exemple, un peu moins de 400 kg d'UA dans les premières versions du Boeing 747 2.
https://fr.wikipedia.org/wiki/Tungst%C3%A8ne
Le tungstène pur est un métal dur de couleur allant du gris acier au blanc étain. On peut le couper à l'aide d'une scie à métaux lorsqu'il est très pur, mais il est cassant et difficile à travailler lorsqu'il est impur, et on le travaille normalement par forgeage, extrusion, ou étirement. Cet élément a le plus haut point de fusion (3 422 °C) de tous les métaux, la plus faible pression de vapeur et la plus grande résistance à la traction de tous les métaux à une température supérieure à1 650 °C, son module de Young est de 406 GPa. Du fait de sa très haute température de fusion, le tungstène n'est pas fondu mais fritté à haute température ainsi que certains de ses composés comme le carbure de tungstène8. Sa résistance à la corrosion est excellente et il ne peut être que légèrement attaqué par les acides minéraux.
Tous les isotopes naturels du tungstène sont considérés d'un point de vue théorique comme devant être radioactifs émetteur alpha avec des demi-vies très élevées mais cela n'est établi que pour le tungstène 180. Le tungstène naturel est donc stable pour les applications courantesNote 1.
Production et réserves
La production annuelle de tungstène était en 2008 de 55 900 t9.
Les réserves sont estimées à 2 800 000 t9, ce qui représente 50 ans de production annuelle.
On trouve du tungstène dans la wolframite qui est un tungstate de fer et de manganèse, (FeWO4/MnWO4),scheelite (tungstate de calcium, CaWO4), ferbérite et hübnérite. On trouve d'importants dépôts de ces minéraux au Pérou10, en Bolivie,Californie, Chine, Colorado (É.-U.), Portugal, Russie, et Corée du Sud.
La Chine produisait en 2006, 84 % de l'approvisionnement mondial11. Le métal est produit commercialement par réduction de l'oxyde de tungstène par de l'hydrogène ou du carbone.
Toxicologie, écotoxicologie
La controverse sur les conséquences toxicologiques et écotoxicologiques de l'utilisation d'uranium appauvri dans les munitions de la guerre du Golfe et la guerre des Balkans a conduit à évaluer d'autres matériaux lourds utilisés dans les munitions perforantes, dont les alliages de tungstène (HMTAs12), qui étaient présentés comme des « alternatives non toxiques » à l'uranium13.
Il a alors été montré en laboratoire que l'injection (intramusculaire) de microparticules de HMTAs (contenant 91,1% de tungstène, 6% de cobalt et 2.9% nickel) chez des rats de laboratoire a rapidement causé l'apparition de cancers avec tumeurs métastatiques agressives sur le site d'implantation, sans que l'on ait toutefois compris les mécanismes cellulaires et moléculaires en cause. Or les militaires durant les exercices ou en situation de combat et les civils durant les guerres peuvent inhaler de telles particules (émises à l'impact).
L'instillation intratrachéale (inhalation forcée) chez des groupes de rats d'un mélanges homologue de poudres métalliques de WNiCo (92% de tungstène, 5% de nickel et 3% de cobalt), de WNiFe (92% de tungstène, 5% de nickel et 3% de fer), de métaux purs, ou d'un produit neutre (solution saline) par voie intratrachéale chez le rat a également montré une toxicité pulmonaire (évaluée par analyse cytologique, par l'activité de la lactate déshydrogénase, la teneur en albumine et le taux de cytokines inflammatoire dans le fluide de lavage broncho-alvéolaire 24 h après l'instillation). Ces produits ont induit une inflammation pulmonaire et l'expression de marqueurs de stress oxydatif et métabolique, avec production de radicaux libres toxiques et lésions pulmonaires.
Discours de Vladimir Poutine à l'ONU – 29 septembre 2015 – Traduction E&R
https://www.youtube.com/watch?v=KvOC2go_yq4
Ajouter un commentaire