Overblog Suivre ce blog
Administration Créer mon blog
19 avril 2016 2 19 /04 /avril /2016 21:16

Plein d'informations au sujet des impacts du champ magnétique terrestre...et surtout sur la façon dont il protège les espèces vivantes de notre belle planète.

Le champ magnétique terrestre, cette force invisible qui nous protège

Mathieu Rancourt, le 19 avril 2016, 10h27

Grâce à l’énergie qu’il nous transmet, le Soleil rend possible l’émergence de la vie sur Terre. Paradoxalement, son rayonnement a aussi le pouvoir d’éradiquer la vie qu’il a fait naître. Par chance, une force invisible nous protège.

Cliquer sur la photo pour agrandir

Notre étoile jaune nous bombarde sans cesse d’un vent solaire. Ce vent s’échappe en permanence de la haute atmosphère du Soleil et se propage très rapidement dans tout le système solaire. Sans une protection, ce vent mortel nous traverserait le corps et briserait notre ADN causant des maladies mortelles. L’univers étant un milieu hostile à la vie, il nous faut un bouclier.

Le champ magnétique terrestre

Le champ magnétique terrestre nous protège du vent solaire et des rayons cosmiques. Il forme un écran protecteur contre les particules en provenance du cosmos. Ce champ fait partit d’un vaste ensemble qui entoure la Terre et que l'on appelle la magnétosphère.

Il est sans cesse déformé par la force du vent solaire. Ainsi, face au soleil, il se trouve aplati sur une altitude d’environ 65 000 km. Du côté opposé au Soleil, il s’étend sur plusieurs millions de kilomètres de la Terre en formant une queue.

Pour comprendre comment le champ magnétique est généré, il faut descendre dans les entrailles de notre planète.

Le noyau terrestre

Le centre de la Terre est constitué d’un noyau interne et d’un noyau externe. Le noyau interne est l’endroit le plus profond de notre planète. D’un rayon de 1 200 km, le coeur interne est solide et est constitué d’alliage de fer.

Le noyau externe est une couche liquide qui entoure le noyau solide. Avec un rayon de 2 300 km, il est principalement constitué de fer, de nickel et de quelques autres éléments.

Le noyau solide tourne à l’intérieur du noyau liquide. On pense qu’il tourne un peu plus rapidement que la rotation de la Terre.

On croit aussi que la Terre se refroidit et que le noyau interne s’accroit aux dépens du noyau externe. En se refroidissant, le noyau interne grandit d’environ 1 mm par année. Ainsi, la paroi profonde du noyau liquide, celle qui touche au noyau solide, se solidifie.

C’est dans le noyau externe liquide que le champ magnétique est généré par des mouvements de convection. Le noyau externe étant en perpétuel mouvement, le brassage du métal liquide génère d’abord un courant électrique, et ensuite, un champ magnétique.

Le pôle Nord magnétique

C’est grâce au champ magnétique que les aiguilles de nos boussoles s’alignent en direction nord-sud. À noter que le pôle Nord magnétique ne coïncide pas exactement avec le pôle Nord géographique. C’est pour cette raison que les cartographes calculent un angle de déclinaison magnétique. La déclinaison magnétique est l'angle qui sépare le Nord magnétique du Nord géographique.

Le pôle Nord magnétique se trouve présentement à l’extrême Nord du Canada et il se déplace non plus vers la Sibérie, mais plutôt vers l’Angleterre. Aussi surprenant que cela puisse paraitre, une étude de la NASA suggère que le pôle Nord magnétique change de cap en raison des changements climatiques. En effet, la fonte de la glace polaire modifie la masse de la Terre et cela aurait un impact sur la direction du pôle Nord magnétique. On constate également qu’il se déplace de plus en plus rapidement.

Les aurores boréales

Avez-vous déjà aperçu une aurore boréale ? L’aurore boréale est un spectacle nocturne qui illumine le ciel des régions nordiques. Elle survient lorsqu’un intense vent solaire interagit avec les particules de la haute atmosphère terrestre. Plus les tempêtes solaires sont violentes, plus les aurores sont importantes. Quand ce moment survient, nous assistons alors au combat du Soleil et de la Terre dans le ciel nordique. Dans l’hémisphère sud, ce même phénomène existe et est appelé les aurores australes.

L’affaiblissement du champ magnétique

Notre précieux bouclier s’affaiblit et cela pourrait engendrer un accroissement de la quantité de rayonnement en provenance de l'espace. Étant donné qu’il n’est pas appelé à disparaitre complètement, on n’envisage pas de conséquences graves sur la santé humaine. Ce sont nos infrastructures technologiques qui risquent d’en souffrir le plus. En effet, nos satellites et nos technologies terrestres pourraient en être grandement affectés.

L'éruption solaire de 1989

Par exemple, le 10 mars 1989, un puissant vent solaire quitte le Soleil en direction de la Terre. Le 13 mars suivant, le Québec subit une panne générale d’électricité en raison de cette tempête solaire. La province manque de courant pendant plus de neuf heures.

Le Québec est vulnérable à ce genre de situation, car il repose sur un bouclier rocheux qui empêche le courant de circuler à l’intérieur du sol. Résultat, le courant grimpe dans les nombreuses lignes électriques du territoire et cause plusieurs dommages. Cet incident est peut-être un avant-gout de ce qui pourrait survenir dans les prochaines années si le champ magnétique terrestre continue de diminuer.

L’anomalie de l’Atlantique Sud

Au large du Brésil, les chercheurs ont détecté une zone où le champ magnétique est très faible. Dans cette région du monde, la force du champ magnétique ne cesse de baisser d’année en année. La cause de cette anomalie reste à ce jour mal comprise. Cela n’affecte pas moins la station spatiale internationale ainsi que les satellites qui passent à cet endroit du globe. Ils reçoivent alors davantage de particules en provenance de l'espace.

L’inversion des pôles

On pense que le champ magnétique s’affaiblit, car il est proche d’une inversion magnétique. Le champ magnétique de la Terre s’inverse en moyenne tous les 250 000 ans. Lorsque ce phénomène survient, le pôle Nord magnétique bascule au Sud et vice-versa. Des inversions se sont déjà produites à plusieurs reprises dans le passé. Depuis 50 millions d’années, on calcule que le champ magnétique terrestre s’est inversé plus de 100 fois. La dernière inversion remonte à environ 780 000 ans. Cela laisse croire que nous pourrions être sur le point de vivre une nouvelle inversion.

Inutile toutefois de nous alarmer sur le sujet. Cet évènement n’est pas encore parfaitement compris par les géophysiciens. De plus, aucune inversion des pôles n’a causé d’extinction massive par le passé.

À notre échelle de temps, une inversion des pôles se produit lentement et cela nous donne l’occasion de nous y préparer adéquatement. Une inversion prend probablement quelques milliers d’années à se réaliser.

Enfin, il est tout de même important de poursuivre les recherches en la matière et de rester vigilant en raison de notre infrastructure technologique vulnérable au vent solaire. Il serait bien difficile pour nous de devoir revenir à l’âge de la pierre.

Repost 0
Published by Denis sur les changements climatiques.
commenter cet article
16 avril 2016 6 16 /04 /avril /2016 17:40

Mon intuition irait plutôt dans le sens de l'avènement d'un mouvement de contraction de notre Univers qui nous mènerait directement vers un Big Crunch, ce qui compléterait un cycle. Forcément un nouveau cycle débuterait avec un nouveau Big Bang. Bien malin celui qui pourrait dire si un cycle complet expansion-contraction s'étire sur quelques dizaines, quelques centaines ou quelques milliers de milliards d'années.

La nature de l’énergie noire, que l’on peut décrire en ajoutant aux équations de la relativité générale un terme baptisé « constante cosmologique », fascine probablement plus les théoriciens que celle de la matière noire. C’est d’elle que dépend le destin ultime de notre univers observable parce que c’est elle qui contrôle son expansion.

L’hypothèse la plus naturelle, peut-être la plus économe, consiste à l’interpréter comme la manifestation de l’état d’énergie minimale des champs de matières et de forces quantiques. Elle se comporte alors comme une vraie constante dans les équations d’Einstein, ce qui veut dire que sa valeur ne devrait pas changer dans l’espace ni dans le temps. Si tel est le cas, l’univers devrait continuer son expansion accélérée à tout jamais et, d’ici 3.000 milliards d’années, il sera méconnaissable. Ce ne sera peut-être pas sa fin si l’on croit à la théorie de la cosmologie conforme cyclique proposée par Roger Penrose.

Mais si l’énergie noire est la manifestation d’une nouvelle physique, avec par exemple un ou plusieurs champs scalaires variables, sa valeur peut évoluer dans le temps et peut-être dans l’espace. Il se peut alors que l’expansion se change en contraction et que le cosmos observable finisse par un Big Crunch, et éventuellement que celui-ci s’accompagne d’un rebond pour une nouvelle phase d’expansion

La constante de Hubble dépend de la nature de l'énergie noire

Or, plusieurs modèles dans lesquels l’énergie noire est variable prédisent que la fameuse constante de Hubble, qui est en quelque sorte une mesure de la vitesse d’expansion de l’univers, doit elle-même varier selon des lois précises, reflétant la nature de l’énergie noire. Cette constante ne l’était d’ailleurs pas vraiment, même en l’absence d’une constante cosmologique, mais c’est en mesurant ses variations dans le temps à l’aide des supernovae que Saul Perlmutter, Adam Riess et Brian Schmidt ont découvert avec leurs collègues la fameuse expansion accélérée de l’univers, et donc la présence de l’énergie noire.

Pour faire le tri entre toutes les lois possibles d’évolution dans le temps de la constante de Hubble, et donc les modèles admissibles d’énergie noire, il faut pouvoir mesurer précisément cette constante. C’est à cette tâche que s’est attelé Adam Riess. Le prix Nobel de physique a pour cela utilisé le télescope Hubble et, comme il l’explique avec ses collègues dans un article déposé sur arXiv, il est tombé sur une énigme.


Les éditions De Boeck ont proposé à l’astrophysicien Richard Taillet d’expliquer dans cette vidéo ce qu’est l’expansion de l’univers et pourquoi les cosmologistes y croient. On apprend ainsi que si l’un de ses principaux découvreurs, Edwin Hubble, ne croyait pas vraiment à l’explication de cette expansion dans le cadre de la théorie de la relativité générale d’Einstein, les observations modernes ne permettent plus d’en douter. L’espace entre les amas de galaxies est bien en expansion à la façon d’une feuille de caoutchouc que l’on étire. © DeBoeckEditions

Une accélération anormalement élevée de l'expansion de l'univers

Rappelons qu’en astrophysique, plus précisément en cosmologie, les échelles de distance sont déterminées à l’aide d’une série de méthodes qui prennent appui les unes sur les autres, de sorte que les différentes erreurs de mesures s’additionnent quand les distances des astres considérés augmentent. On utilise notamment des étoiles variables, les Céphéides, pour déterminer les distances des galaxies les plus proches. Cela permet d’étalonner en particulier d'autres « chandelles standards », en l’occurrence, des supernovae SN Ia. Très lumineuses, elles sont visibles à des milliards d’années-lumière. Ces explosions gigantesques sont censées avoir à peu près toutes la même puissance. Par conséquent, moins elles apparaissent lumineuses, plus elles sont loin. En mesurant les luminosités apparentes de plusieurs SN Ia, on a donc déterminé des distances. Leur décalage spectral vers le rouge indique la date de leur occurrence dans l’histoire de l’univers. Des mesures de date et de distance, cela nous donne des vitesses et, finalement, des changements de vitesses, c'est-à-dire des accélérations.

Les cosmologistes viennent d’affiner les mesures de distances de Céphéides dans des galaxies où ils ont observé des SN Ia. En complétant par d’autres mesures, ils ont alors pu déterminer de façon un peu plus précise la constante de Hubble. Les chercheurs n’ont plus qu’une erreur de 2,4 % sur sa valeur alors qu’elle était de 3,3 % il y a encore quelques années. L’amélioration semble faible mais elle suffit déjà pour mettre en évidence, à défaut de vraiment prouver, une accélération anormalement élevée de l’expansion de l’univers, non prédite à partir des analyses actuelles du rayonnement fossile observé par Planck dans le cadre du modèle cosmologique standard.

Les analyses des données de Planck semblent robustes. Donc, à moins d’un biais systématique quelconque dans les mesures réalisées par Riess et ses collègues (par exemple des chandelles standards qui ne le seraient pas), les données de Planck sont en désaccord avec celles de Hubble. Pour les accorder, il faudrait modifier le modèle cosmologique standard, c'est-à-dire nos idées sur l’énergie noire ou la matière noire. Jusqu’à aujourd’hui, les observations semblaient indiquer que l’énergie noire était bien décrite par une vraie constante cosmologique. Peut-être n’est ce pas le cas...

Une autre possibilité est qu’il existe une quatrième famille de neutrinos dans l’univers. Des neutrinos massifs dit stériles sont proposés depuis un certain temps comme des candidats crédibles au titre de particules de matière noire. Les données de Planck ne sont cependant pas très favorables à cette hypothèse, bien qu’elles ne puissent pas l’exclure selon les chercheurs. Dans tout les cas de figure, si cette accélération anormale existe vraiment, elle pointe vers de la nouvelle physique.


Alain Blanchard est un célèbre cosmologiste français. Membre de l'Institut universitaire de France, il est aussi professeur à l'université Paul Sabatier. Ses travaux concernent les amas de galaxies, le rayonnement fossile et la formation des structures en cosmologie. © IUF

Erreurs de mesure ou bien neutrinos stériles ?

L’année dernière, le cosmologiste Alain Blanchard nous avait expliqué que le catalogue des amas de galaxies dressé grâce aux observations de Planck entrait peut-être déjà en contradiction avec le modèle cosmologique standard. Pour lui, « c'est un des rares résultats de Planck qui pose question. Soit les masses des amas ont été correctement estimées par les observateurs et alors il faut revoir le modèle standard, par exemple en ajoutant des neutrinos massifs, soit les masses sont plus grandes et tout rentre dans l'ordre. Il y a donc deux tendances chez les cosmologistes : ceux qui ont confiance dans les estimations antérieures de masse des amas et qui sont prêts à revoir le modèle (la publication XX de la collaboration Planck en 2013 est un peu dans cet esprit) et ceux qui croient au modèle standard, pensant qu'il faut revoir les estimations de masse des amas (ce qui est l'esprit de la publication Planck 2013 XVI) ».

Contacté par Futura-Sciences, Alain Blanchard confirme qu’effectivement : « soit on croit aux mesures de la constante de Hubble par Riess, et aux mesures de Planck, et alors on a le signe d'une nouvelle physique, soit il y a une des données qui est un peu biaisée... Moi et mes collègues avions été confrontés au même problème avec l'abondance des amas de Planck, une situation que nous avions en fait déjà rencontrée (et titrée !) il y a une dizaine d'années, mais nous n’avions pas bénéficié de la publicité d'un prix Nobel... ».

Pour le chercheur, cette problématique, nouvelle physique ou biais dans les analyses, va probablement être très présente en cosmologie dans les années à venir.

Repost 0
Published by Denis sur les changements climatiques.
commenter cet article
16 avril 2016 6 16 /04 /avril /2016 16:40

A l'occasion de son assemblée plénière réunie à Nairobi (Kenya) du 11 au 13 avril sous la présidence de M. Hoesung Lee, le Groupe intergouvernemental d'experts sur l'évolution du climat (Giec) a lancé les travaux de son prochain rapport sur les changements climatiques.

Ce sixième rapport d'évaluation décrira les évolutions les plus récentes du climat. Il scénarisera les changements futurs attendus et leurs impacts, ainsi que les réponses possibles pour réduire les émissions de gaz à effet de serre et les stratégies d'adaptation, dans le cadre des objectifs de l'Accord de Paris. Les résultats de ce rapport contribueront en particulier à informer les gouvernements en amont du premier bilan mondial des politiques climatiques prévu en 2023.

Trois rapports spéciaux viendront compléter ce 6ème cycle. En 2018, un rapport spécial sur l'impact d'un réchauffement global de 1,5°C au-dessus des niveaux pré-industriels et sur les trajectoires d'émission de gaz à effet de serre correspondantes. Ce rapport répondra à une demande de la COP 21 et permettra d'informer les gouvernements en amont du "dialogue facilitateur", qui fera un premier bilan en 2018.

Un autre rapport viendra éclairer les liens entre le changement climatique, les océans et la cryosphère, comme l'avaient demandé la France et plusieurs pays, notamment la Principauté de Monaco, l'Espagne, la Chine et les Etats-Unis.

Un troisième rapport spécial traitera des liens entre le changement climatique, la désertification, la dégradation et la gestion des terres, la sécurité alimentaire, et les flux de gaz à effet de serre dans les écosystèmes terrestres.

Enfin, l'assemblée plénière du Giec s'est engagée à traiter en profondeur la question des villes dans le sixième rapport et à produire un rapport spécial sur les villes au cours du prochain cycle.

Agnès Sinaï, journaliste

Repost 0
Published by Denis sur les changements climatiques.
commenter cet article
8 avril 2016 5 08 /04 /avril /2016 22:07

Accueil du site > Actualités > Environnement > Le réchauffement climatique accéléré par la croissance démographique

Le réchauffement climatique accéléré par la croissance démographique

par Chirita-Bobic Nicolae (son site)
jeudi 7 avril 2016

16 Réactions

0

Recommandé

Sujet tabou, la croissance démographique enregistrée dans le dernier demi-siècle est fort responsable du réchauffement climatique. Rappelons à ce titre, qu’environ 80% de la couverture forestière mondiale originelle avait disparu pendant les dernières 50 ans, ce qui a fortement aggravé le réchauffement climatique. Or, cette déforestation concerne particulièrement les pays qui ont fait l’objet récemment d’une explosion démographique.

Il convient de préciser de l’emblée, que la perspective d’associer systématiquement et exclusivement la déforestation au modèle de consommation occidentale semble peu pertinente, vu qu’elle n’avait pas connu des proportions d’ampleur avant les années ’80. Elle a pris des proportions après, s’accélérant entre 1990 et 2000, lorsqu’environ 14 millions d'hectares de forêts ont disparu, puis, entre 2000 et 2013, avec la disparition d’autres 23 millions d’hectares. Or, justement cette période est caractérisée par une explosion démographique dans les pays du sud.

Notons en effet, que les images satellite rendent très visible l’étroite corrélation entre le phénomène de déforestation et la croissance démographique, car cela concerne principalement l'Amazonie, l'Afrique équatoriale et l’axe Malaisie/Indonésie, régions qui ont enregistré dernièrement une explosion démographique.

Il est important de préciser ensuite, que cette déforestation massive relève d’une action conjointe entre les gouvernements locaux pour de raisons de souveraineté alimentaire, et les diverses multinationales pour de raisons purement économiques.

Certes, on considère que cette action est légitime. Elle est légitime pour les responsables politiques, car ils doivent répondre aux besoins de la population en forte croissance. Elle est légitime pour les entreprises, car elles doivent trouver continuellement des solutions afin de faire face à la compétition internationale. Néanmoins, vu d’une manière globale, cette action conjointe est peu efficace à court terme, et potentiellement dangereuse à long terme.

Elle est peu efficace, car en réalité les bénéfices dégagés ne parviennent pas aux populations démunies. Puis, elle est peu efficace car la déforestation se fait souvent au détriment des populations indigènes. Enfin, elle est peu efficace, parce qu’on constate que toute augmentation du niveau de vie, si minime soit-elle, est soldée par une augmentation du taux de fécondité.

C’est un constat récurrent et contradictoire. On rappelle que l’industrialisation et l’augmentation du niveau de vie avaient amorcé en Occident une baisse du taux de natalité, mis à part bien entendu les Trente Glorieuses qui fut une période particulière de relance. Or, la tendance observable dans les pays du sud c’est l’augmentation du taux de natalité dès qu’il y a une maigre croissance économique, rendant cette dernière inefficace.

Mais surtout cette action conjointe à l’origine de la déforestation s’avère potentiellement fatale à long terme. Cela du fait, que la forêt c’est le garant de l’équilibre entre les divers composants de l’atmosphère. Etant le principal absorbant de dioxyde de carbone et le principal émetteur d’oxygène la forêt assure la qualité de l’air nécessaire à la vie.

Notons, que la variation du taux de dioxyde de carbone dans l’air – respectivement 278 ppmv (partie par million en volume) avant la révolution industrielle, 315 en 1958, 330 en 1974, 353 en 1990, et 384 en 2008 – prouve que l’impact de la déforestation sur le réchauffement climatique est considérable.

On constate que pendant la forte industrialisation qu’ont connue les Trente Glorieuses, le taux en question n’a pas pris de l’ampleur grâce à une couverture forestière suffisante pour absorber un maximum d’émissions. Puis, si on tient compte qu’en Occident les principaux émetteurs de dioxyde de carbone sont les transports et le bâtiment, et sachant que depuis 1974 ces secteurs ont connu une nette amélioration, l’augmentation de 31 unités entre 1990 et 2008 contre 23 unités entre 1974 et 1990, est redevable davantage à la déforestation. Tout simplement, parce que la couverture forestière actuelle ne parvient plus à absorber les grosses quantités de dioxyde de carbone émises.

Dès lors, sachant que cette déforestation répond à la demande alimentaire relevant d’une population mondiale de plus en plus croissante, il revient à dire que la croissance démographique est de nos jours, forte responsable du réchauffement climatique.

En somme, si sur le fond la déforestation semble légitime, elle devient moins légitime lorsqu’elle atteint le seuil maximal, au-delà duquel le déséquilibre entre le dioxyde de carbone et l’oxygène dans l’atmosphère se déclenche. Il y a donc un seuil à partir duquel la déforestation atteint un droit fondamental de l’homme, celui de respirer un l’air de qualité. Cela signifie, qu’il y a également un seuil, au-delà duquel, la croissance démographique est potentiellement nuisible pour l’homme, et pour les générations futures.

Repost 0
Published by Denis sur les changements climatiques.
commenter cet article
1 avril 2016 5 01 /04 /avril /2016 20:20

Alors, qu'adviendra-t-il par la suite?

Deux chercheurs détaillent les efforts à réaliser pour atteindre les objectifs fixés par la COP 21. Inatteignables, estiment-ils. A moins de décarboner le système énergétique et d’absorber une partie du CO2 présent dans l’atmosphère.

C’est le genre de calcul qui fait froid dans le dos. Dans un article publié ce vendredi 1er avril par Energy Policy, Glenn Jones et Kevin Warner font un peu de prospective énergétique et climatique.

En s’appuyant sur les projections démographiques de l’ONU, les tendances d’évolution de la consommation d’énergie par tête calculées par BP, l’association d’anciens ingénieurs pétroliers Aspo et de chercheurs, les deux scientifiques de l’université de Galveston (Etats-Unis) estiment la quantité de CO2 énergétique que relâchera l’humanité entre 1900 et 2100.

Démographie et énergie

Résultat des courses: la stabilisation à 2°C, voire 1,5°C, promise par l’accord de Paris s’annonce des plus délicates. D’ici la fin du siècle, la population devrait passer de 7 à 11, voire 12 milliards d’habitants. Reprenant la tendance observée depuis le début du siècle, les auteurs considèrent que la demande d’énergie doublera d’ici 2100.

Avec un bouquet énergétique proche de celui que nous connaissons aujourd’hui, ces besoins nous amènent dans le mur à grande vitesse. Oublié le scénario du Giec[1] RCP 2,6, seul à même de stabiliser le réchauffement à des niveaux comparables à ceux préconisés par l’accord de Paris. Glenn Jones et Kevin Warner estiment que les émissions tendancielles cumulées atteindront 4.700 milliards de tonnes de CO2 en 2100. On est très au-delà de la limite des 2.900 Mdt préconisée par le Giec dans son dernier rapport.

Tout l’investissement dans les renouvelables

Le réchauffement de 2,5 à 3°C, comme l’estime probable les deux chercheurs, est-il inéluctable? En théorie, non. Mais les moyens à mettre en œuvre sont considérables et la (vraie) transition énergétique doit immédiatement démarrer. Jugez plutôt. D’une façon générale, l’utilisation des énergies fossiles doit être considérablement réduite. Le tiers des réserves de pétrole, la moitié de celles de gaz naturel et la quasi-totalité des filons de charbon devront rester sous terre.

Tout l’investissement doit, dès à présent, être fléché vers les énergies décarbonées, en général, et renouvelables, en particulier. Car pour freiner les ardeurs inflationnistes du mercure du thermomètre planétaire, les renouvelables devront fournir la moitié de l’énergie mondiale en… 2028. Soit le triple de leur production actuelle. Excusez du peu.

13 millions d’éoliennes

A supposer que les banquiers trouvent les fonds nécessaires, que les politiques votent les lois adéquates, que les ensembliers disposent de tous les matériaux nécessaires, un tel effort est-il imaginable? Disons-le tout de suite: non. Pour satisfaire notre appétit énergétique tout en le décarbonant au niveau des 2°C, c’est près de 13 millions d’éoliennes de 5 mégawatts qu’il faudrait mettre en batterie (et changer tous les 20 ans), une superficie de 600.000 kilomètres carrés de panneaux photovoltaïques (plus étendue que la surface de la France). Sans oublier les 2 millions de km2 de bassins où seront cultivées les algues qui produiront les carburants liquides de demain.

Actuellement, les énergéticiens prévoient de construire ou de mettre en service 1.500 centrales au charbon dans le monde. Or, révèle une étude de l'université d'Oxford, on devra arrêter la construction de telles installations dès 2018 pour avoir une chance sur deux de stabiliser le réchauffement à 2 °C.

Faut-il s’en étonner? Sûrement pas. «Cette étude est en ligne avec ce que pensent les économistes pour qui les scénarios 2°C doivent généralement faire appel à des procédés permettant de ‘pomper’ du CO2 de l’atmosphère dans la seconde moitié du siècle (ou avant). Cette difficulté est implicitement reconnue dans la COP 21 qui note qu’en 2030 nous en serons à 55 Mdt équivalent CO2 alors qu’il faudrait être à 40», rappelle le climatologue Jean Jouzel.

De fait, dans son article 4, l’accord de Paris souligne qu’il faudra «parvenir à un équilibre entre les émissions anthropiques par les sources et les absorptions anthropiques par les puits de gaz à effet de serre au cours de la seconde moitié du siècle». Dit autrement, la décarbonation massive de notre système énergétique ne suffira pas pour stabiliser le réchauffement. L’humanité devra aussi recourir à des moyens (la forêt) et des techniques (à développer) pour réduire sensiblement la concentration de gaz carbonique dans l’atmosphère en quelques décennies. La partie est bien loin d’être gagnée.

[1] Giec: Groupe intergouvernemental d’experts sur l’évolution du climat

Repost 0
Published by Denis sur les changements climatiques.
commenter cet article
31 mars 2016 4 31 /03 /mars /2016 19:32

Augmentation du niveau des mers selon 3 scénarios de concentration des gaz à effet de serre (GES) dans l'atmosphère terrestre.

--Rythme actuel d'émissions de GES :

1 mètre d'ici 2100,

13 mètres d'ici 4 siècles.

--Émissions réduites de GES, de façon à limiter le réchauffement climatique à 2 degrés Celsius:

20 cm d'ici 4 siècles et très peu de changement d'ici 2100.

--Hypothèse intermédiaire:

32 cm d'ici 2100,

5 mètres d'ici 2500.

Repost 0
Published by Denis sur les changements climatiques.
commenter cet article
10 janvier 2016 7 10 /01 /janvier /2016 20:15

En plus de représenter l'un des plus importants produits agricoles voués à l'exportation canadienne, la culture des légumineuses présente des avantages environnementaux. Les légumineuses ont la propriété de fixer l'azote atmosphérique dans le sol, ce qui résulte en une diminution des besoins en engrais qui provoquent un dégagement de gaz à effet de serre. Or, on sait que ces GES sont une importante cause de réchauffement climatique.

Repost 0
Published by Denis sur les changements climatiques.
commenter cet article
13 décembre 2015 7 13 /12 /décembre /2015 17:26

Un papier de Roméo Bouchard : ~~Ce serait bête de bouder l'énorme reconnaissance du drame du réchauffement climatique et de l'enjeu des hydrocarbures qu'a produit cette conférence, reconnaissance qui pour une première fois s'étend à l'ensemble des pays de la planète. De toute évidence, les gens qui y ont participé ont senti cette prise de conscience à l'oeuvre tant chez les politiciens que les hommes d'ffaires et les citoyens, et l'ont vue s'inscrire jour après jour dans le texte de l'entente qui a été unanimement adopté. C'est un pas énorme. Et nous en sentons déjà les effets chez nous avec le chemin de Damas du premier ministre Couillard: après la victoire de Cacouna, on peut parler déjà de la victoire d'Anticosti, et la table est mise pour la bataille finale sur l'oléoduc Énergie-Est. Nous entrons dans l'ère de la décarbonisation, tardivement, peut-être trop, mais nous y sommes. Il ne faut pas rêver pour autant. Cette euphorie risque de nous faire oublier que la décarbonisation souhaitée par l'entente ne résout pas à elle seule la menace qui pèse sur notre planète et notre espèce. 1. Les contributions prévues par les pays signataires sont bien en-deçà de celles requises pour atteindre la limite de 2 et surtout 1.5 degrés dans les faits. La décarbonisation de la planète est une révolution industrielle et culturelle sans précédent. On n'a qu'à penser chez nous aux sables bitumineux et au pétrole de l'ouest, au pétrole de schiste des Américains et au charbon un peu partout.. 2. Les grands investisseurs, même quand ils tournent au vert, pensent bien davantage à sauver leur mise qu'à sauver la planète. L'économie verte et les énergies vertes peuvent vite devenir un piège. 3. Les hydrocarbures ne sont pas les seuls responsables du réchauffement du climat: il ne faut pas oublier le reste: les élevages intensifs, la déforestation, la transformation des océans, le dérèglement des écosystèmes, etc. 4. Surtout, le réchauffement du climat n'est pas le seul facteur qui menace l'avenir de la Terre et des Humains: dans le contexte d'une population mondiale en croissance et en demande de confort, la croissance économique, indispensable au système actuel, implique un épuisement rapide des ressources naturelles, une pollution et un dérèglement des écosystèmes qui dépassent déjà les limites de la capacité de support de la Terre. La décarbonisation n'est donc qu'un élément, central sans doute, de la mutation rapide de notre économie et de notre civilisation requise si nous voulons survivre comme espèce. Et il faudrait être naïf pour croire que nos dirigeants, c'est-à-dire les riches et leurs agents publics, n'essaieront pas de saigner cette planète jusqu'à la dernière goutte aussi longtemps qu'ils pourront s'enrichir.

Repost 0
Published by Denis sur les changements climatiques.
commenter cet article
12 décembre 2015 6 12 /12 /décembre /2015 17:05

~~ Quel avenir pour la croissance économique? 12 décembre 2015 |Éric Desrosiers | Actualités économiques Au coeur de notre conception du progrès depuis 250 ans, la croissance économique serait irrémédiablement compromise par les simples limites de notre planète. Ou pas. Les temps sont durs pour la croissance économique. La Grande Récession a laissé une sorte de morosité dont les pays riches ont encore du mal à se débarrasser même six ans après la fin officielle de la crise. Longtemps d’une insolente vigueur, les économies émergentes commencent aussi à marquer le pas, notamment en Chine. Selon certains experts, il faut s’attendre à une « stagnation prolongée » causée entre autres par l’endettement des ménages et des gouvernements, le vieillissement de la population, la panne de productivité, le plafonnement des gains en éducation et la croissance des inégalités. Selon d’autres, nous avons simplement épuisé le potentiel des innovations technologiques exceptionnelles apparues entre la Révolution industrielle et la fin des années 60. Tout cela se produit alors qu’on semble de plus en plus convenir que la croissance économique et sa fameuse mesure du produit intérieur brut (PIB pour les intimes) ne reflètent pas nécessairement une amélioration du bien-être des peuples. Mais peut-être plus encore, alors que la crise des changements climatiques nous ramène brutalement aux limites de notre planète en termes de quantité de ressources naturelles disponible et de capacité à supporter la vie face à la pollution. L’économiste américain Kenneth Boulding disait : « Quiconque croit que la croissance exponentielle peut continuer sans fin dans un monde fini est soit un fou soit un économiste. » Un gros mot qui commence par « d » L’économiste de l’Université York, en Ontario, Peter Victor, s’est prêté, il y a quelques années, à un exercice de simulation dans lequel il comparait le niveau d’émissions de gaz à effet de serre (GES) de l’économie canadienne d’ici 2035 selon trois scénarios : une poursuite de la trajectoire actuelle, une croissance presque nulle de l’économie ou une décroissance jusqu’à un niveau de GES soutenable. Il est arrivé à la conclusion que la seule façon efficace de réduire les GES (-80 % par rapport à 2005) était de ramener le PIB par habitant à ce qu’il était au pays en 1976. Les Canadiens ne s’en porteraient pas plus mal, assurait-il, et verraient même diminuer la pauvreté et le chômage, mais à condition de parvenir à arrêter la croissance de la population (baisse de la natalité et de l’immigration), de trouver le moyen de réduire le temps de travail de 75 % et de composer avec une taxe sur le carbone de 550$ la tonne alors qu’elle est actuellement à 12 $ au Québec. Parler de décroissance économique est presque sacrilège dans nos sociétés tellement l’idée d’une longue et irrésistible expansion de l’économie, ponctuée de rares intermèdes aussi vite oubliés (crises), y est considérée, depuis toujours, comme la normalité. Depuis toujours ? Non, corrigent les historiens. Avant la révolution industrielle, la normalité était plutôt faite de successions de hauts et de bas qui, au fil des siècles, tendaient à s’annuler. Ce monde était bien différent du nôtre, observait la semaine dernière le chroniqueur économique du New York Times Eduardo Porter. Comme la richesse totale disponible restait la même, l’enrichissement des uns s’y traduisait par l’appauvrissement des autres. Fatalement, les plus forts et les plus puissants tendaient à accaparer les richesses, alors que les autres devaient se contenter des miettes. Un tel monde conviendrait mal à nos démocraties, poursuivait Eduardo Porter. On aime à penser que l’économie n’a pas à être un jeu à somme nulle et que tous — mais particulièrement les plus démunis — devraient pouvoir améliorer leur sort sans être obligés de faire chaque fois la guerre contre les riches et puissants. Tout cela est vrai aussi en ce qui concerne les relations entre les pays sur la scène internationale. Croissance verte On n’a pas à choisir entre croissance économique et protection de l’environnement, estiment d’autres experts. « Une forte croissance économique qui soit faiblement émettrice de carbone peut devenir la nouvelle normalité », a martelé cet été l’économiste britannique Nicolas Stern lors du dévoilement d’un volumineux rapport de la Global Commission on the Economy and the Climate, qu’il copréside. On y a estimé, en effet, qu’il ne coûterait, d’ici 2030, que de 1 % à 4 % de croissance mondiale pour faire de 50 % à 90 % du chemin nécessaire pour respecter la cible des deux degrés de réchauffement climatique, soit l’équivalent d’atteindre le même niveau de PIB six à douze mois plus tard. Pour ce faire, il faudrait cependant fortement accélérer le virage en cours vers des sociétés plus vertes. Le rapport formule dix recommandations qui vont de la révision de la façon de construire les villes à la restauration de forêts et de terres agricoles, en passant par la mise en place d’un prix du carbone et des investissements massifs dans l’innovation et les énergies renouvelables. On comprend tout de suite qu’on a affaire à une révolution au moins aussi ambitieuse que celle que proposent les partisans de la décroissance. Reste à voir maintenant laquelle est la plus emballante et a la plus de chances de nous sauver de la catastrophe environnementale.

Repost 0
Published by Denis sur les changements climatiques.
commenter cet article
10 novembre 2015 2 10 /11 /novembre /2015 01:07

~~ Agence France-Presse LONDRES À moins d'un mois de la conférence de Paris sur le climat (COP21), l'Institut météorologique britannique a estimé lundi qu'en 2015, la hausse des températures mondiales aura atteint +1 °C par rapport à l'ère préindustrielle. «Sur la base des données récoltées entre janvier et septembre, le programme HadCRUT opéré conjointement par le Met Office et l'unité de recherche sur le climat de l'Université d'East Anglia montre que les températures moyennes globales en 2015 sont 1,02 °C (±0,11 °C) supérieures par rapport à l'ère préindustrielle», soit 1850-1900, écrit l'institut dans un communiqué. L'accord espéré lors de la COP21, qui se tient du 30 novembre au 11 décembre à Paris, doit permettre de contenir la hausse du thermomètre mondial sous la barre des +2 °C par rapport au niveau préindustriel. «Nous avons vu un fort El Niño se développer dans le Pacifique cette année et cela aura eu un impact sur les températures mondiales», explique Stephen Belcher, directeur du Met Office Hadley Centre. «Nous avons eu des évènements similaires par le passé, mais c'est la première fois que nous atteindrons la barre des 1 °C et il est clair que c'est l'influence humaine qui conduit notre climat moderne en territoire inconnu». Le phénomène climatique El Niño, qui se produit tous les cinq ans environ, se traduit par un réchauffement des eaux de surface de l'océan Pacifique central et oriental et entraîne diverses perturbations climatiques dans plusieurs régions du monde. «Cette année marque une importante première, mais cela ne veut pas dire que la température chaque année à partir de maintenant sera un degré ou plus au-dessus des niveaux préindustriels, car les variations naturelles joueront toujours un rôle dans la détermination des températures chaque année», précise Peter Stott, chargé de la surveillance du climat au centre Hadley. «Toutefois, alors que le monde continuera à se réchauffer dans les prochaines décennies, nous verrons de plus en plus d'années passer la barre des 1 °C et cela finira par devenir la norme», ajoute-t-il. Le Met Office pointe ainsi que 2016 devrait être une année aussi chaude que 2015.

Repost 0
Published by Denis sur les changements climatiques.
commenter cet article

Présentation

  • : Le blog de Denis Laforme.
  • Le blog de Denis Laforme.
  • : Vise à mieux faire comprendre les changements climatiques, leurs causes et les amorces de solutions possibles. En ce sens, on étudie le réchauffement climatique, le climat, l'effet de serre, les cycles glaciaires-interglaciaires, les économies renouvelables, les économies d'énergie et d'autres sujets connexes.
  • Contact

Recherche

Articles Récents

Liens