14/07/2010
Jean-Louis Borloo : l’État à la botte des chasseurs
Jean-Louis Borloo : l’État à la botte des chasseurs
par Luce Lapin
Le 2 juin dernier, la FNC (Fédération nationale des chasseurs) reproche, dans un communiqué de presse, à Jean-Louis Borloo de n’avoir pris « aucune mesure tangible […] contre les saboteurs de chasse ».
Seulement deux jours plus tard, le 4 juin, le gouvernement français, sous l’impulsion du ministre de l’Écologie et des Fusils (contrairement à ce que l’on pourrait logiquement supposer, l’un n’empêche absolument pas l’autre), cède au lobby des chasseurs à courre en édictant, par décret, une contravention de cinquième classe, passible de 1 500 euros d'amende, pour « obstruction à un acte de chasse ».
CPNT (Chasse, Pêche, Nature, Traditions, 7 juin), le parti de l’extrême chasse allié à la droite dure, est content : « Grâce au partenariat CPNT – UMP, les chasseurs obtiennent une grande victoire, attendue depuis longtemps, contre les anti-chasse. »
En primeur dans le numéro 739 de Charlie Hebdo, la réaction inédite de Gérard Charollois président de CVN (Convention Vie et Nature pour une écologie radicale), dans un entretien qu’il a donné aux « Puces ». Trois autres associations de protection animale nous font également part ici de leur ressenti.
Pour moi, quoi qu’il en soit, je n’y dérogerai pas : l’objectif, c’est tolérance zéro. Ni chasse à courre, ni chasse tout court !
Document Charlie Hebdo
10:55 Publié dans Environnement-Écologie | Tags : chasse, protection de la nature | Lien permanent | Commentaires (0) | Facebook | | |
Massacre de blaireaux : Côte-d’Or, côte d’horreur
Massacre de blaireaux : Côte-d’Or, côte d’horreur
par Pierre Athanaze, président de l’ASPAS

L’ASPAS, Association pour la protection des animaux sauvages, vient d’adresser une lettre ouverte, cosignée par 71 associations, au préfet de Côte-d’Or pour lui demander de «mettre fin à la plus grande destruction de blaireaux qui ait été entreprise en France».
« En mars dernier, le préfet de la Côte d’Or a pris des arrêtés ordonnant la capture et la “régulation” de blaireaux sous le prétexte de dépister et lutter contre la tuberculose bovine, pouvant être véhiculée par le mustélidé. À ce jour, ce sont plus de 2 050 individus qui auraient été exterminés par les chasseurs, piégeurs, déterreurs et lieutenants de louveterie du département. 71 associations de protection de la nature s’insurgent contre cette véritable opération de destruction massive en adressant une lettre ouverte au préfet, en cette année déclarée “année nationale de la biodiversité”. Certes, le problème de la tuberculose bovine doit être résolu. Cependant, en France, cette maladie n’est qu’anecdotique chez le blaireau. Des études scientifiques (1) ont démontré que non seulement la destruction de blaireaux n’enraye en rien la maladie, mais qu’au contraire, elle augmenterait l’incidence de la tuberculose bovine sur le cheptel bovin ! Le Conseil de l’Europe (2), pour sa part, a indiqué qu’“On peut douter que l’élimination des blaireaux ait une utilité, et l’on ne devrait certainement pas y recourir” et qu’“On ne doit jamais procéder à l’élimination générale des blaireaux.”
Vu la vitesse d’éradication de l’espèce sur le département, l’avenir du Blaireau en Côte-d’Or est indiscutablement en péril. La période de destruction a débuté lors de la saison de reproduction et s’est même poursuivie pendant la période de sevrage des jeunes. Suite à un tel recul des effectifs, comment rétablir une densité de population normale et viable de l’espèce alors que la dynamique de population est connue pour être faible ? Si des mesures qui semblent disproportionnées ont été prises à l’encontre du blaireau, il n’en est pas de même vis-à-vis d’autres usages qui pourtant sont de très forts vecteurs de la tuberculose bovine. En effet, les entrailles des chevreuils laissés dans la nature par les chasseurs (animaux abattus et dépecés sur place) ou la libre circulation de vaches et de taureaux de troupeaux en troupeaux représentent une menace bien plus importante.
Précisons aussi que le Blaireau, inscrit à l'annexe III de la Convention de Berne, est une espèce protégée dans la plupart des autres pays d’Europe. Au lieu de confier cette mission aux services vétérinaires en lien avec les scientifiques et les associations de protection de la nature dans le but de lutter pacifiquement et efficacement contre la tuberculose bovine, ce sont les chasseurs (dont les motivations sont certainement tout autres...) qui se voient autoriser à tuer, sans limites, les blaireaux.
Aussi, nos 71 associations demandent instamment au préfet de la Côte d’Or de bien vouloir mettre fin à la plus grande destruction de blaireaux qui ait été entreprise en France. La lutte contre la tuberculose bovine n’en sera pas affectée si les vraies mesures prophylactiques sont réellement mises en place. »
Pierre Athanaze, président de l’ASPAS
30 juin 2010
(1) Christl A. Donnelly et al., 2003. Impact of localized badger culling on tuberculosis incidence in British cattle. Nature 426 : 834-837
(2) Huw I. Griffiths & David H. Thomas, 1998. La conservation et la gestion du blaireau d’Europe (Meles meles). Sauvegarde de la nature n°90, Conseil de l’Europe : 84p
Associations signataires
À Pas de Loup, Adeo Animalis, APIE, ASPAS, Association I.D.A.E., Association MELES, Association SEVE, Association Végétarienne de France, Autun Morvan Ecologie, AVES France, Borda, Centre Athénas, CHENE, CLAM, Code Animal, Combactive, Comité Ecologique Ariégeois, Connaissance & Protection de la Nature du Brabant, Convention Vie et Nature, CORA Faune Sauvage, CORA-Rhône, CPEPESC, Dignité Animale, Doubs Nature Environnement, Droits Des Animaux, FERUS, Fondation 30 Millions d’Amis, Fondation Assistance aux Animaux, Fondation LFDA, Fourrure Torture, France Nature Environnement Hautes-Pyrénées, Franche-Comté Nature Environnement, Groupe Mammalogique Normand, JardinRefuge, Jura Nature Environnement, L214, LausAnimaliste, Le Pic Vert, L'empreinte, Les Naturalistes Rhodaniens, Loiret Nature Environnement, LPO Drôme, Maison de l'Espoir, Mayenne Nature Environnement, Mille-Traces, Natagora, Naturalistes Chapellois, Nature et Humanisme, Notre Dame de Toute Pitié, Oiseaux-Nature, One Voice, OUSIA, Perche Nature, Philippe Hervieu au nom du groupe Europe écologie au conseil régional de Bourgogne, Rassemblement Anti Chasse, Refuge de l'Arche de Noé, Respect et Défense des Animaux, Sauvegarde de la Faune Sauvage, SECAS, Secourisme Animalier, Serre Vivante, SFEPM, SHNPM, SNDA, Société Nationale de Protection de la Nature, SOS Rivières Et Environnement, SPA Marseille Provence, Territoire de Belfort Nature Environnement, Ultimathera 21, VegAsso.
10:19 Publié dans Environnement-Écologie | Tags : blaireau, chasse, écologie, protection de la nature, régulation des populations, dynamique de population | Lien permanent | Commentaires (0) | Facebook | | |
05/07/2010
Mort annoncée de l'écologisme défensif et militant
Coup dur : une fondation pour l’agonie de Gaïa
ou la mort annoncée de l’écologisme défensif et militant
par Michel Tarier (écologue, écosophe)
La fondation Claude Allègre Écologie d’avenir, qui deviendra bien vite, purement et simplement pour semer le trouble, la fondation Écologie d’avenir, dit vouloir rassembler tous ceux qui pensent que "seuls les progrès de la connaissance et les innovations techniques permettront de résoudre les problèmes qui se posent à la planète".
On retrouve derrière ce projet nombre de poids lourds du CAC 40 et bien des personnalités ralliées au climato-scepticisme, non pas par pure et louable opinion scientifique (Kokopelli est relaxé !), mais par souci strictement cupide d’être du bon côté. On peut désormais parier que le noyau dur et fondateur sera rejoint par d’innombrables opportunistes.
Voici donc une nouvelle opération pompe à blé, montée par des gens pour lesquels les écosystèmes et la biodiversité ne représentent qu’une inépuisable banque. Dans ce ralliement, vous ne trouverez aucun chercheur de terrain, aucun écologue expérimenté, le club n’étant formé que de VRP d’économie verte atteints du déni de réalité, fidèles serviteurs des transnationales, rompus aux combines les plus sournoises, dont la niche écologique n’est pas le sanctuaire de la Nature mais les corridors des ministères et les grandes tables des mégapoles.
Décidément, notre avenir ne sent pas bon. L’écologi(sm)e, de plus en plus dévoyé(e), est en passe de sortir définitivement de sa dimension originelle, celle principielle et spirituelle des forces de la vie, pour devenir le nouveau fer de lance d’une économie de marché en plein délabrement. Il ne fait plus aucun doute que nos enfants seront les esclaves d’une planète-poubelle.
De fil en aiguille
Après un premier tour de passe-passe, par l’entremise non-innocente de l’homme du pacte qui… empaqueta l’écologisme dans l’écologie, puis l’écologie dans l’environnement anthropocentriste, pour remettre le kit complet entre les mains de l’ami de la Terre éco-vertueux et de grande conviction qu’est Sarkozy, voici l’ultime menace, celle de l’habile récupération de la cause par la frange pure et dure du système, symbolisée par l’ex-Monsieur le ministre pro-amiante de Jussieu.
De René Dumont à une économie verte ultralibérale, d’un souci de consommer écoconsciemment à l’imposture d’un développement annoncé comme durable paradoxalement à la finitude du monde, il ne fallu pas un demi-siècle pour rendre exsangue la substantifique moelle de la contre-culture écologique. On oubliera, entre-temps, les insultes d’Allègre à l’endroit de Hulot, et le rôle de vierge effarouchée de ce dernier, tout cela pouvant relever d’un numéro de duettistes. Du cirque, encore du cirque, rien que du cirque. Ceci pour la France grenellienne, évidemment centre du monde et des équilibres écosystémiques !
Par ses positions favorables à l’establishment de l’écologiquement correct et le réajustement d’une écologie qui se devait coercitive en une écologie aléatoire, domestiquée, qui flatte et peu rapporter encore plus gros que prévu, ce type (Claude Allègre) risque bien d’accéder aux plus hautes fonctions. À nous les OGM, à nous la pétrochimie et son agroterrorisme, à nous les cancers environnementaux, à nous les Tchernobyl à l’Américaine avec des océans englués de pétrole. Adieu bienveillante écosophie, adieu principes de précaution susceptibles de ralentir la machine à massacrer le peu qui reste de paradis sur Terre.
L’auteur de livres mensongers et qui se vendent à la criée cherche à remettre les clés de l’écologie au pouvoir des marchands. Pour l’instant, ceux-ci feignaient de faire la fine gueule. Vous allez voir comme ils vont sauter sur l’occasion, faisant passer Allègre pour un nouveau Galilée. Beau cadeau pour la planète, joli coup de pouce pour notre avenir. Et son ami démographe Hervé Le Bras vous ferra oublier le troisième enfant occidental carboné contre lequel Yves Cochet nous mettait judicieusement en garde.
Pour élargir le plan, j’en suis à me demander si des instances comme le GIEC, tout compte fait elles-mêmes inspirées par des requins verts de la trempe d’un Al Gore (douteux le brillantissime déclencheur d’alerte…) ne sont pas à l’origine d’un frenchy Allègre. Localement en ce monde sans foi ni loi, d’autres Allègre doivent simultanément voir le jour et donner "l’orientation qu’il faut" à ce satané souci écologique décidemment trop inquiétant pour les banques, y compris pour celles d’Attali. Les maîtres du monde dénoncent ainsi eux-mêmes les misères qu’ils créent et gardent la barre en instaurant un juteux marchés des apparences. Ce ne sont pas les ONG qui manquent pour les crédibiliser de leurs sceaux immaculés à l'effigie lénifiante d'animaux sympathiques (les autres pouvant crever...). C’est qu’en ces temps d’amalgames, de mensonges et de dénis, "ils" nous rendraient facilement paranos… Le très cynique sponsoring du film Home du très photographe YAB avait déjà eu le courage d’aller très loin dans l’association des milliardaires et de leurs firmes à la dénonciation des disparités Nord-Sud, des pollutions et de la déconstruction des écosystèmes. Quand Pinault sort ses griffes, c’est des marques dont il s’agit !
Il serait peut-être urgent d’envisager le sauvetage de quelques éléments sains, non contaminés par miracle ou étanchéité à toute épreuve, colibris instrumentalisés à leur insu dans ce grand guignol de charognards véreux ! Ou et en d’autres termes, "Pierre Rabhi existe-t-il vraiment ? !".
Gargarismes, cosmétiques, vernis et badigeons…
Dans sa version contrition écologique, pour s’assurer l’exclusivité du thème de la crainte planétaire et climatique, pour désamorcer d’avance toute tentative de remise en question, pour renforcer ses positions et continuer à ronger les ressources jusqu'à l’agonie finale, le capitalisme ne cesse d’accoucher de monstres. Nous, infiniment naïfs et de bonne volonté, écosujets indûment baptisés écocitoyens aux gestes salvateurs tant dérisoires, nous plongeons dans la combine et nous nous regardons dans la glace : avec notre compost et notre petit vélo, nous nous trouvons beaux ! Ainsi, et pour l’écologisme à la française, un Borloo et son Grenelle nous embellissent l’âme. Ils ne font rien d’autre que leur propre cuisine, avec Bouygues & Co en arrière-boutique. L’autocritique parodique et l’auto-dénonciation sont les meilleures tactiques qui soient. Elles permettent, qui plus est, d’apporter les solutions dans une pochette surprise, d’en faire déballage et étalage comme ça, innocemment, un après-midi chez n’importe quel Drucker aux courbettes obligées. C’est en fait le coup des pièces jaunes version écologie. La pathétique grenouille de bénitier tire des larmes de crocodiles au bon populo tandis que son si sympathique président de mari vaque à de biens sordides affaires, comme l’affaire Karachi pour ne citer que celle qui fait l’actualité.
La fondation Claude Allègre Écologie d’avenir :
http://www.mediapart.fr/article/offert/2f106b2fad1f691b7d69c837e1226573
http://effetsdeterre.fr/2010/06/30/le-mammouth-du-deni-cl...
Ce juteux marché des apparences :
http://www.lesechos.fr/info/analyses/020621365231-les-deu...
Home story (génial !) :
Partie 1 : http://www.dailymotion.com/video/xbqyr7_home-12_news
Partie 2 : http://www.dailymotion.com/video/xbr0bm_home-22_news
09:26 Publié dans Environnement-Écologie | Tags : écologie, écologisme, climat, climatosceptique, michel tarier, claude allègre | Lien permanent | Commentaires (0) | Facebook | | |
Menaces sur le Doubs franco-suisse
Menaces sur le Doubs franco-suisse
Les associations françaises et suisses de protection de l’environnement (CPEPESC, Pro Natura Jura, FCNE, DNE, SDV, ANPER-TOS), les associations de pêche (Fédération de Pêche du Doubs, la Franco-Suisse, la Gaule, l’Hameçon, la Truite de Grand’Combe des Bois) refusent que la rivière soit sacrifiée au bénéfice de l’hydroélectricité.
C’est un règlement d’eau datant du 5 février… 1969 qui régit le fonctionnement en principe coordonné des trois usines hydroélectriques situées sur le Doubs franco-suisse : le Châtelot, le Refrain et la Goule. Si la synergie dans le fonctionnement des trois ouvrages est nécessaire pour atténuer l’impact sur le milieu aquatique, la réalité depuis les années 2000 est tout autre : les marnages (variations de hauteur d’eau sous l’action des éclusées) autorisés à l’époque avaient été revus à la baisse en 2003
suite à une catastrophe survenue un an plus tôt. En effet, en raison du comblement de la Retenue de Biaufond, il avait été reconnu que la poursuite des anciennes valeurs de marnage conduisaient à la mise à sec de plusieurs hectares de zones peu profondes, les plus riches en biodiversité, provoquant de considérables mortalités. Dès lors la retenue de Biaufond dont le comblement s’est encore accentué (jusqu’à 10
cm par an au niveau du parking) ne peut plus jouer son rôle de régulation des éclusées du Châtelot, telles qu’elles sont programmées aujourd’hui.
Cette situation est devenue insupportable sur tout le linéaire de la rivière en aval de ces ouvrages, et l’on apprend aujourd’hui que l’un des essais parmi ceux proposés aurait une incidence écologique majeure.
Cet essai consisterait à descendre en dessous du marnage utilisé actuellement et ceci
dans le but d’être pérennisé.
C’est un inacceptable retour à l’incident de 2002 qui pourrait réduire à néant ce haut lieu de biodiversité aquatique, mais aussi ornithologique.
Si on démodulait les éclusées du Châtelot de cette manière au niveau de Biaufond, cela équivaudrait à continuer de condamner le Doubs neuchâtelois à subir de plein fouet ces éclusées.
Aucune étude et mesure d’accompagnement n’est prévue aujourd’hui pour détecter et analyser les paramètres extérieurs (températures, qualité physico-chimique et oxygénation de l’eau) dans les cas extrême d’utilisation de la retenue.
Cette démarche pourrait d’ailleurs à court terme tuer la biodiversité des zones à salmonidés situées à l’aval et déjà fragilisées.
De plus, une vidange de la retenue de Biaufond aurait des conséquences dramatiques sur le cours d’eau à l’aval, avec une augmentation de la turbidité, une surcharge organique, une remise en suspension des toxiques piégés dans les sédiments et une élévation de la température sur un milieu déjà fortement stressé.
Les essais, tels qu’ils sont envisagés sont tout à fait incompatibles avec les exigences de la réglementation française sur l’eau et de la DCE (Directive Cadre européenne sur l’Eau). Le SDAGE (Schéma Directeur d’Aménagement et de Gestion des Eaux) Rhône-Méditerranée exige que le principe de non-dégradation de l’état écologique du Doubs soit pris en compte et respecté par toute décision concernant les eaux.
A cet endroit, le lit du Doubs et donc les eaux, sont en grande partie sur le territoire français (mitoyen jusqu’à la borne 66, puis complètement français). Son assèchement doit nécessairement obtenir le feu vert des autorités françaises qui viennent d’approuver le SDAGE fin 2009.
Il serait particulièrement mal venu par ailleurs que, profitant d’installations situées en Suisse, alors que ce pays entretien de constructives et amicales relations de partenariat avec l’Union Européenne, que les objectifs de l’Union Européenne en matière d’eau soient remis en cause de façon spectaculaire par les conséquences inévitables.
La solution passe par le changement des pratiques. On ne peut plus faire fonctionner les ouvrages comme par le passé avec des lâchers d’eau et des coupures brusques qui font crever la rivière. La seule façon de concilier production d’énergie et respect de l’environnement passe par le fonctionnement « au fil de l’eau » des ouvrages.
Les associations de protection de l’environnement et de pêcheurs signataires s’opposent avec fermeté et détermination au projet d’essai de « démodulation » des éclusées du Châtelot.
Elles en appellent aux pouvoirs publics tant français que suisses, pour qu’une telle aberration écologique soit abandonnée. Elles restent extrêmement vigilantes et n’hésiteront pas à saisir les autorités judiciaires compétentes, de part et d’autre de la frontière, pour que le Doubs et les milieux aquatiques qui lui sont associés soient préservés.
Elles informent de cette démarche la Commission Environnement du Parlement Européen.
Contact presse : CPEPESC au 03.81.88.66.71
CPEPESC
AAPPMA La Franco-Suisse
Saône et Doubs Vivant
Pro Natura Jura (CH)
Doubs Nature Environnement (DNE)
Association des pêcheurs La Gaule
Anper-Tos
AAPPMA La Truite de Grand’Combe des Bois
Société de pêche neuchâteloise L’Hameçon
Plateforme franco-suisse pour le Doubs
07:49 Publié dans Environnement-Écologie | Lien permanent | Commentaires (0) | Facebook | | |
03/07/2010
Structure du globe terrestre
Structure du globe terrestre
par André Guyard et Serge Warin
(dernière mise à jour du 12 février 2018)
Ajout du 12 février 2018
L'article principal est consacré à la structure du globe terrestre. Mais avant de plonger dans les profondeurs de la terre, on peut jeter un coup d'œil sur l'atmosphère, cette couche gazeuse qui nimbe le globe terrestre proprement dit.Cette couche gazeuse est subdivisée en plusieurs enveloppes qu'on classe en partant du sol :
— de 0 à 12 km : la troposphère ;
— de 12 à 50 km : la stratosphère ;
— de 50 à 80 km : la mésosphère ;
— 80 à 600 km : la thermosphère ;
— plus de 600 km : l'exosphère.
Stratification de l'atmosphère terrestre
Cet article s'articule après celui qui présente les techniques d'exploration des profondeurs de la terre. Il sert de préambule à une série de sept articles concernant les volcans de l'Arc antillais, en présentant quelques généralités sur la structure du globe terrestre.
L'existence du volcanisme s'explique par la structure du globe terrestre et dans le cadre de la théorie de la tectonique des plaques.
On trouvera sur le web de bonnes animations vidéo sur la structure interne de la Terre et sur la tectonique des plaques et, publié par notre-planète.info un document récent sur la structure de la Terre (ajout du 30 janvier 2017).
Ajout du 10/09/2016: La subduction contrôle la distribution et la fragmentation des plaques tectoniques terrestres par Claire Mallard,, Nicolas Coltice, Maria Seton, R. Dietmar Müller & Paul J. Tackley
La croûte terrestre est morcelée en un ensemble de grandes et de petites plaques. Cette structure serait le fruit de l'interaction entre les mouvements convectifs du manteau et la résistance de la croûte.
La croûte terrestre est un puzzle de 53 pièces, les plaques tectoniques. Ces pièces se classent en deux catégories, les petites et les grandes. Ces dernières sont seulement au nombre de sept, correspondant à l'Amérique du Nord, l'Amérique du Sud, l'Afrique, l'Eurasie, le Pacifique, l'Australie et l'Antarctique. Ensemble, ces grandes plaques couvrent 94 % de la surface du globe. Entre ces grandes plaques, on trouve 46 petites plaques complémentaires. Pourquoi une telle répartition et quels mécanismes ont conduit à ce découpage ?
Claire Mallard, du Laboratoire de géologie de Lyon, et ses collègues ont réalisé des simulations numériques de Terres fictives en 3D pour comprendre comment la croûte se découpe.
La surface de la Terre est en perpétuel mouvement. Cette idée fut avancée pour la première fois par Alfred Wegener au début du XXe siècle, mais la communauté des géophysiciens mit des décennies à accepter sa théorie de la dérive des continents.
Dans les années 1950-1960, la théorie a été reformulée en termes de tectonique des plaques : la lithosphère — la croûte et la partie supérieure du manteau terrestre — se compose de plaques qui se forment au niveau des dorsales océaniques et disparaissent en s'enfonçant dans le manteau dans les zones de subduction. On peut reconstituer le mouvement des plaques grâce aux anomalies magnétiques enregistrées dans la croûte océanique. Mais celle-ci a une courte durée de vie, si bien qu'il est difficile de reconstruire l'histoire géologique au-delà de 100 millions d'années et d'en déduire les mécanismes sous-jacents.
Les simulations des planètes Terre fictives tridimensionnelles effectuées par l'équipe de Claire Mallard incluent une description des mouvements de convection dans le manteau. Ces calculs prennent en compte de nombreux paramètres, tels que la viscosité et la plasticité du manteau.
Les chercheurs ont retrouvé dans leurs simulations une répartition entre grandes et petites plaques équivalente à celle constatée. Cela confirme que la répartition des plaques tectoniques est liée aux interactions entre la convection mantellique et la lithosphère. En particulier, les chercheurs ont montré que les dimensions des cellules de convection sont comparables à la taille des grandes plaques et que les petites plaques se forment préférentiellement près des zones de subduction, là où les plaques, en s'enfonçant dans le manteau, subissent de fortes contraintes.
Jusqu'à présent, les reconstructions de l'histoire géologique étaient fondées sur des approches statistiques. Elles suggéraient que la lithosphère était principalement composée de grandes plaques, il y a 200 millions d'années. Les plaques se seraient morcelées par la suite. D'autres chercheurs pensaient qu'il devait y avoir plus de zones de subduction dans le passé avec davantage de petites plaques, mais sans pouvoir le prouver.
Cette nouvelle étude appuie cette seconde hypothèse et montre que la répartition entre petites et grandes plaques est restée assez stable sur plusieurs centaines de millions d'années. Les précédents modèles surestimaient, pour le passé, le nombre de grandes plaques au détriment des petites.
C. Mallard et al. (2016) — Nature, vol. 535, pp. 140-143, 2016
Structure en oignon du globe terrestre
Grâce à l'étude de la propagation des ondes sismiques à travers la planète on a pu démontrer que la Terre a une structure en oignon, les couches concentriques étant composées de différents matériaux.


LA CROÛTE (jusqu'à 35 km de profondeur ; 1% du volume de la terre)
Les continents en partie immergés sous les océans, sont constitués de diverses roches relativement légères, dont l'âge atteint plusieurs milliards d'années. Ils flottent ainsi sur le manteau plus dense. La croûte océanique, formée de roches basaltiques, est un peu plus dense. Elle se forme à partir de matériau du manteau qui émerge au niveau des dorsales sous-marines et qui finit par y retourner en coulant après 100 millions d'années en moyenne.
LE MANTEAU (de 35 à 2900 km ; 83% du volume de la terre)
Sous la croûte terrestre se trouve le manteau, masse de roches maintenues sous très haute pression (le magma). Cette masse subit des mouvements de convection. La convection dans le manteau de composition dominée par les silicates est le moteur du volcanisme et de la tectonique des plaques. La chaleur interne est en partie le résidu de la formation planétaire, et en partie produite par la radioactivité du manteau. Le manteau chauffé par le bas, subit des mouvements de convection : la matière froide descend et la matière chaude monte. De sorte que les bords des plaques tectoniques plus froids, vont plonger sous les autres, entraînant activement les plaques et les écartant au niveau des dorsales, constituant ainsi le moteur de la tectonique des plaques. Contrairement à l'idée reçue, ce n'est pas la dorsale qui écarte les plaques. À ce niveau, une simple remontée passive de magma chaud se produit pour combler le vide causé par l'écartement des plaques.
À environ 1500 km de la surface du sol, il y aurait une couche rigide au sein du manteau terrestre. Sa composition est la même que celle du manteau, mais sa viscosité est cent à mille fois supérieure. Cette couche permet d'expliquer pourquoi dans les zones de subduction, là où une plaque tectonique s'enfonce dans le manteau (1), ses fragments ne peuvent aller au-delà de 1500 km (2) : ils butent contre cette région visqueuse, ce qui provoque des tensions et des ruptures et donne naissance à des séismes à foyer profond. C'est la première fois qu'on trouve une explication à ce phénomène. Source : Hauke Marquardt, Université de Bayreuth, Allemagne.
D'après Michel Detay, l'idée que la matière constituant le manteau terrestre (les 2 885 kilomètres séparant la croûte du noyau de la Terre) est en fusion est fausse. Nous ne marchons pas sur un océan de magma, et il n'y a pas de « feu central », car les roches qui constituent le manteau sont à l'état solide. Étant donné l'augmentation de la pression et de la température avec la profondeur, la fusion, même partielle, des roches du manteau — des péridotites, formées de silicates de fer (10 %) et de magnésium (90 %) — est impossible.
Pour autant, une énorme masse d'eau, estimée à l'équivalent de deux à trois hydrosphères, soit deux ou trois fois 1021 kilogrammes – est dissoute dans le manteau. Cette eau s'y trouve soit sous sa forme moléculaire habituelle (H2O), soit sous la forme d'ions hydroxyles (OH–) attachés aux silicates des roches.
Ainsi, l'eau peut faire partie de la formule chimique de certains minéraux, où l'ion OH– est intégré dans la structure cristalline. C'est le cas dans les amphiboles, la lawsonite, la chlorite, etc. Ces deux derniers minéraux contiennent ainsi 14 % d'eau. La présence de cette eau et des gaz dissous dans le magma va jouer un rôle considérable dans le style éruptif des volcans (voir article suivant).
Variation de la température
dans le manteau avec la profondeur
(d'après Thomas, 2010)
On sait maintenant que la vitesse avec laquelle une plaque tectonique plonge sous une autre est proportionnelle à la largeur de cette plaque. Cette relation a été découverte par Woutter Schellart de la Monash University (Melbourne, Australie) à l'aide d'un modèle numérique reproduisant en 3D des zones de subduction. Elle permet de comprendre par exemple pourquoi la plaque de Farallon, qui plongeait sous l'Amérique du Sud à une vitesse de 10 cm par an il y a 50 millions d'années, ne s'enfonce plus que de 2 cm par an aujourd'hui. Car, dans le même temps, la zone de subduction qui s'étendait sur 14 000 km du nord au sud, s'est réduite à 1400 km. La relation mise en évidence par Woutter Schellart modifie ainsi la vision classique de la tectonique des plaques selon laquelle le déplacement des plaques est le reflet en surface des mouvements de matière au sein du manteau terrestre. Cette nouvelle étude révèle qu'en fait la plaque elle-même exerce un contrôle sur sa propre dynamique (Science & Vie, n° 1120, janvier 2011).
La convection dans le manteau
(d'après Thomas, 2010)
Au niveau de la dorsale médio-atlantique, se produit un mouvement ascendant de magma sous forme d'éruptions généralement sous-marines. Ce magma est principalement constitué de silicium, d'oxygène et de magnésium (bridgmanite). Ces roches nouvelles se déforment au cours des temps géologiques en produisant des courants de convection qui animent le manteau tout entier. Cette convection qui transporte la chaleur interne de la Terre est le moteur de la dérive des continents. Elles alimentent constamment la croûte en formant une sorte de tapis roulant divergeant de part et d'autre de la dorsale et qui repousse les plaques océaniques américaines vers l'Ouest et les plaques océaniques euroasiatique et africaine vers l'Est.

En fait, ce sont les anomalies de certaines roches qui rendent possible les mouvements de convection du manteau. Pour que l'immense manteau terrestre, fait entièrement de roches, se déplace de quelques centimètres par an (entre 2 et 9 cm) et permette le mouvement des plaques tectoniques, il faut impérativement qu'il existe de microscopiques aspérités entre les millions de grains composant les roches (image ci-dessous). C'est la surprenante conclusion d'une équipe conjointe de plusieurs universités françaises (Lille-I, Nancy, Metz, Montpellier), publiée dans la revue Nature en avril 2014.
Les aspérités entre les grains composant l'olivine donnent des propriétés de plasticité au manteau.
Cette « plasticité » du manteau était à ce jour une énigme. En effet, les propriétés physiques du minéral le plus abondant dans le manteau, l'olivine, empêchent théoriquement ces mouvements. Sa structure, très régulière et très ordonnée, est incompatible avec l'idée selon laquelle un matériau doit avoir des défauts (se traduisant par des faiblesses mécaniques) pour que son comportement soit plastique. Mais les scientifiques ont observé pour la première fois des défauts au niveau des joints de grains du minéral, appelés « désinclinaisons ». Et lorsqu'ils les ont intégrés dans la modélisation mathématique du comportement de la roche, ils ont conclu que ces défauts sont capables à eux seuls d'expliquer les mouvements dans le manteau.
Dynamique de la dorsale médio-atlantique
(d'après Briais et all 2010)
LE MANTEAU SUPÉRIEUR (35 à 660 km ; 27% du volume de la terre)
À mesure que les pressions et les températures augmentent avec la profondeur, les éléments constitutifs du manteau s'arrangent en différentes structures cristallines (les minéraux) qui forment des couches distinctes. Trois minéraux, - l'olivine, la spinelle modifiée et la spinelle – donnent aux couches du manteau supérieur leur nom respectif.
LE MANTEAU INFÉRIEUR (660 à 2900 km ; 56% du volume de la terre)
Il est formé de deux couches : la pérovskite et la postpérovskite.
Couche de pérovskite. Le minéral qui domine cette couche (70% de la masse) est un silicate de magnésium appartenant à une famille de structures cristallines nommées pérovskites ou "(Mg,Fe)SiO3-pérovskite". C'est le matériau le plus abondant sur terre (38% de la masse du manteau et 70% de la masse du manteau inférieur) et connu depuis 2014 sous le nom de bridgmanite en hommage au minéralogiste Bridgmann. Existant à plus de 660 km de profondeur et sous des pressions énormes de l'ordre de 230 000 bars, la bridgmanite est inaccessible aux forages et hautement instable sous les conditions naturelles de surface. Ses propriétés physico-chimiques due à sa structure en feuillets déterminent une grande partie de la dynamique planétaire : les mouvements de convection qui la traversent sont à l'origine de la tectonique des plaques.
Couche de postpérovskite. Dans les conditions de pression et de température régnant dans les 300 derniers kilomètres du manteau avant le noyau, la pérovskite (1) se transforme en une nouvelle structure : la postpérovskite dont la structure cristalline est encore plus dense que celle de la pérovskite de 1 à 1,5 %.
(1) La pérovskite intéresse beaucoup les chercheurs en photovoltaïque. Il semble que l'avenir du solaire passera par la pérovskite. Ce minéral cristallin n'a révélé ses vertus énergétiques qu'en 2012. Mais depuis, il révolutionne le secteur. Ce matériau absorbe en effet la lumière dix fois mieux que le silicium qui équipe 85 % des panneaux solaires.
Son rendement énergétique, de 19 % en laboratoire, talonne son concurrent (à 26 %), mais il serait cinq fois moins cher à produire. Ce matériau devrait s'imposer dans le secteur des énergies renouvelables d'ici à la fin de la décennie. Et permettre d'accélérer la transition énergétique.
LE NOYAU (2900 à 6400 km ; 16% du volume de la terre)
Le noyau de la Terre est principalement composé de fer, liquide dans le noyau externe et solide dans le noyau interne (la graine, 0,5% du volume de la terre). Comme dans le manteau, la convection brasse le noyau externe, mais en raison de la densité beaucoup plus élevée du noyau, il y a très peu de mélange avec le manteau. Une couche plus dense s'intercale entre la base du manteau liquide et la graine. On pense que c'est la convection dans le noyau externe de fer liquide qui engendre le champ magnétique terrestre, lequel contribue à protéger la vie des rayons cosmiques et du vent solaire.
On peut se demander pourquoi la graine dont la température dépasse les 6000°C présente une structure solide. Ce phénomène est dû à la structure hexagonale compacte de ses molécules de fer comme l'ont démontré des géophysiciens suédois en 2017.
Mais quel est le processus qui explique le champ magnétique terrestre ? (Science & Vie, n° 1171, avril 2015 p. 26)
Longtemps on n'a pu expliquer ce phénomène. Et c'est tout récemment (2014) qu'une équipe américaine a proposé une hypothèse : en fait, le champ magnétique terrestre naîtrait des chocs d'électrons.
Si les physiciens ne parvenaient pas à reproduire la naissance du champ magnétique de la Terre, c'est parce qu'ils avaient sous-estimé la violence des chocs entre électrons. Ronald Cohen et son équipe de la Carnegie Institution de Washington (États-Unis) ont modélisé le comportement du fer à haute température au niveau atomique et se sont aperçus que les électrons ne cessent de s'éjecter les uns les autres, s'opposant à la formation d'un courant électrique... Dans le noyau terrestre, les électrons du fer fondu ralentissent ainsi les transferts de chaleur et provoquent la formation de mouvements de convection : des courants ascendants et descendants qui donnent naissance à un champ magnétique. Jusque-là, les modèles qui ne tenaient compte que des vibrations des atomes et des interactions moyennes des électrons ne parvenaient pas à former le moindre tourbillon de métal... et par conséquent, pas la moindre ligne de champ magnétique.
En fait, le fer du noyau remonterait dans le manteau comme semblent l'avoir montré (Nature, année 2012) par des expériences de laboratoire deux géophysiciens de l'université Yale (États-Unis). Ils ont réussi à montrer que la couche D" (prononcez « D seconde ») qui sépare, à 2900 km sous nos pieds, le manteau terrestre solide du noyau liquide et dont l'épaisseur serait inférieure à 200 km, ne serait pas totalement étanche : elle présenterait des remontées du noyau, des « blob » de fer liquide qui viendraient pénétrer les interstices de la roche sur 50 à 100 km.
Ces intrusions de fer pourraient jouer un rôle important dans les variations du champ magnétique terrestre. En effet, la présence de fer - métal conducteur d'électricité - influe sur la conductivité électrique du noyau, et ce sont les courants électriques du noyau qui alimentent et entretiennent le champ magnétique (voir plus haut l'ajout de mars 2015).
Pour parvenir à ce résultat rapporté par la revue Sciences et Avenir n° 792 (février 2013), les géophysiciens ont pris un cristal analogue à ceux que l'on suppose abondants dans le manteau de la Terre, à base de silicates de magnésium et de fer. Ils l'ont soumis à la pression et à la température qui règnent au niveau de la couche D" (135 gigapascals. Soit 1 350 000 fois la pression atmosphérique, et plus de 3200°C). Au bout de quelques minutes, les géophysiciens ont constaté la présence de bulles de fer liquides dans la roche solide (en médaillon). Les chercheurs supposent qu'il se passe la même chose à grande échelle dans la couche D".
Mouvements de convection au sein du globe terrestre
(d'après D. Sasselov & D. Valencia, Pour la Science, oct. 2010)
Chose étonnante, dans toutes ces sphères emboîtées et concentriques, la graine présente une structure asymétrique qu'on appelle la translation de la graine. Les couches superficielles de ses hémisphères "Ouest" (par convention sous l'Amérique) et "Est" (par convention sous l'Asie) n'ont pas les mêmes propriétés sismiques : les ondes sont plus lentes et moins atténuées à l'Ouest. Marc Monnereau & all. (Science, en ligne, 15 avril 2010) ont montré que cette dissymétrie était due à une différence de taille des cristaux de fer formant la graine, elle-même expliquée par un "vent de matière" orienté d'Ouest en Est.
L'hémisphère Ouest, froid et dense, décale vers lui le centre de masse de la graine. De ce fait, la rotation de celle-ci est décalée par rapport à son centre géométrique, et ses frontières Est et Ouest se décalent par rapport à la région sphérique (en pointillé sur la figure) où, étant donné la température et la pression, le fer est solide. Il en résulte une cristallisation du fer à l'Ouest, une fusion à l'Est et un déplacement progressif des couches de fer de l'Ouest vers l'Est. À mesure de ce déplacement, les cristaux de fer croissent en "absorbant" leurs voisins, pour atteindre une taille de cinq à dix kilomètres au niveau de la frontière Est. Arrivé à cette frontière, le fer fond et retourne au noyau liquide. Ainsi, la graine se renouvelle en continu. Reste à expliquer pourquoi l'hémisphère Ouest est froid et dense. Et à trancher avec d'autres modèles qui expliquent la dissymétrie des propriétés sismiques par un couplage thermique entre la graine et le manteau via le noyau liquide, ou par une interaction avec le champ magnétique de la Terre.
Ainsi, alors que son âge dépasse les 4,5 milliards d'années, la Terre renouvellerait son cœur en à peine 100 millions d'années.
La théorie de la translation de la graine expliquerait l'existence de la couche dense entre graine et base du noyau liquide, l'anisotropie élastique démontrée par le fait que les ondes sismiques voyagent plus vite dans la direction nord-sud que dans la direction ouest-est ainsi que l'asymétrie hémisphérique entre l'ouest et l'est. (voir également Science & Vie, nov. 2010).
En outre, la graine tourne à vitesse variable, de sorte que les battements du cœur de la Terre ne sont pas réguliers (Science & Vie, juillet 2013, p. 30).
Depuis les années 1990, les sismologues soupçonnent la "graine" de tourner sur elle-même plus vite que le reste du globe. Mais sans parvenir à s'accorder sur sa vitesse de rotation. Et pour cause : Hrvoje Tkalcic (université de Canberra, Australie) a découvert que cette vitesse n'est pas constante !
Pour l'affirmer, il a analysé des doublets de séismes, ces tremblements de terre "jumeaux" qui se produisent à des semaines ou des années d'intervalle, générant des ondes sismiques qui empruntennt le le même chemin au sein du globe. En étudiant les infimes différences de temps de parcours des ondes qui ont traversé la graine, le géophysicien en a conclu que la vitesse de rotation varie au cours du temps. Elle a accéléré dans les années 1970, ralenti dans les années 1980, puis repris da la vitesse dans les années 1990 et 2000.

La graine solide de la Terre tourne autour de son centre de masse (0), décalé par rapport à son centre géométrique (C). De ce fait, elle se décale par rapport au domaine où le fer devrait être solide (en pointillés). Cela crée une cristallisation à l'Ouest et une fusion à l'Est, et un flux de matière vers l'Est. Les couleurs représentent l'âge des couches (Pour la Science, n° 392, juin 2010).
La rotation du noyau terrestre enfin comprise ? (Pour la Science, n° 434, décembre 2013)
La Terre tourne sur elle-même vers l'Est en quasiment 24 heures. Il n'en va pas de même de son noyau. Le noyau interne (la graine), en fer solide, tourne dans le même sens, mais plus vite. Le noyau externe, constitué de fer liquide, tourne pour sa part en sens inverse, vers l'Ouest ! Philip Livermore, de l'Université de Leeds, en Grande-Bretagne, et ses collègues ont montré que ces mouvements du noyau sont liés et contrôlés par le champ magnétique terrestre.
La circulation du fer dans le noyau liquide engendre, par effet dynamo, le champ magnétique terrestre (de l'ordre de 10-4 tesla à la surface de la planète). Les géophysiciens ont observé depuis longtemps que ce champ se décale vers l'Ouest, ce qui suggère que le noyau liquide est animé d'un mouvement similaire. En outre, l'analyse de l'aimantation rémanente des roches montre que sur les 3 000 dernières années, le champ magnétique s'est déplacé vers l'Ouest à une vitesse variable, mais aussi vers l'Est. Rappelons qu'en se refroidissant après avoir été chauffées, certaines roches enregistrent l'orientation du moment magnétique : c'est l'aimantation rémanente.
L'étude des ondes sismiques qui se propagent dans tout le globe terrestre a par ailleurs révélé que le noyau interne (la graine) tourne vers l'Est et devance en moyenne le mouvement de la surface de la planète de quelques degrés par an.
P. Livermore et ses collègues se sont intéressés à l'interaction des composantes du noyau et du champ magnétique. Ils ont mis au point une simulation en trois dimensions du centre de la planète qui permet d'étudier des scénarios où la viscosité du fer liquide (qui n'est pas précisément connue) est 100 fois inférieure à celle des simulations précédentes. Cette viscosité joue un rôle crucial dans la dynamique du fluide ferreux et, par conséquent, sur l'effet dynamo et la structure du champ magnétique.
Avec leur simulation, les géologues ont ainsi mis en évidence que, dans des régimes de faible viscosité, certains couples de forces deviennent importants. Ces couples d'axe Nord-Sud agissent, les uns sur la partie la plus externe du noyau liquide, les autres dans le noyau solide. Ils ont la même intensité, mais des sens opposés. De quoi expliquer les mouvements opposés des noyaux interne et externe ?
P. W. Livermore et al., PNAS, en ligne, 16 septembre 2013
Ajout du 5 juin 2016 : Le noyau de la terre est plus jeune que sa surface (Sciences et Avenir n° 832, juin 2016, p. 56.)
En appliquant la relativité générale à l'intérieur de la Terre, une équipe danoise a conclut que son cœur serait plus jeune que sa surface de deux ans et demi. Une conclusion publiée dans l'édition de mai 2016 de l'European Journal of Physics. Mais comment imaginer que l'intérieur de la Terre se soit formé quelque temps après la croûte, sur laquelle nous marchons ?
Ce paradoxe s'explique par la théorie de la relativité générale qui veut qu'à proximité d'une masse très dense comme la graine de la Terre, le temps s'écoule plus lentement. Il s'agit en fait d'un paradoxe connu de longue date. Richard Feynman — lauréat du prix Nobel de physique en 1965 et décédé en 1988 —, l'enseignait déjà. Mais Feynman avait estimé la différence d'âge entre superficie et profondeur à un jour ou deux. Le calcul de l'équipe danoise montre un écart bien plus important. En fait, ce paradoxe ne remet aucunement en question les connaissances des géophysiciens sur la formation de la Terre, une planète dont l'âge est estimé aujourd'hui à 4,56 milliards d'années, et qui a grossi progressivement par accrétion — c'est-à-dire grâce à l'agglomération de grains de matière. Mais en revanche, si l'on tient compte des conséquences étonnantes de la relativité générale d'Einstein, il faut considérer que la masse modifie l'espace et le temps.
La densité des roches s'accroît avec la profondeur
À proximité d'une masse importante comme un astre dense, l'espace se courbe, un peu comme si, en deux dimensions, un tissu élastique se tend sous le poids d'une boule de métal. Quant au temps, il s'écoule plus lentement. Or, les géophysiciens ne cessent d'améliorer leur modèle de l'intérieur de la Terre. Ils savent que la densité des roches augmente avec la profondeur. La matière y présente un arrangement compact que l'on ne rencontre pas en surface. Ainsi, la graine, cette sphère centrale très dense de 1200 km de rayon, développe un champ de gravité important. Près de la graine, le temps devrait donc s'écouler plus lentement. La relativité générale n'ayant jamais été prise en défaut, si une horloge était placée à la profondeur de la graine, elle marquerait moins de secondes au cours du même laps de temps qu'une horloge placée à la surface. Et c'est ainsi que l'on parvient à estimer l'intérieur de la Terre plus jeune que sa surface. Même si en pratique, deux ans et demi ne sont pas significatif par rapport à l'âge de la planète.
Quant à l'écart entre ce qu'enseignait Richard Feynman et ce qu'ont découvert les Danois, il s'explique par le fait que ces derniers ont rigoureusement utilisé le dernier modèle de l'intérieur de la Terre où la densité de matière n'est pas homogène à une même profondeur.
Il y a de la vie dans les profondeurs (Sciences et Avenir, août 2016, p. 33)
Des chercheurs français et italiens ont mis en évidence pour la première fois, en 2012, l'existence d'une vie intra-terrestre le long de la ride médio-atlantique : ces roches de la croûte terrestre se sont révélé abriter une vie diverse et active, qui pourrait bien représenter l'habitat microbien le plus important de notre planète ! La lithosphère, poreuse et fracturée, est affectée par d'intenses circulations hydrothermales, soit un environnement semblable à celui de notre Terre il y a plus de 3,8 milliards d'années. Les bactéries pourraient être des descendants des premières formes de vie terrestre.
20:00 Publié dans Géologie-hydrogéologie-Climatologie, Volcanologie-Sismologie | Tags : structure de la terre, géologie, croûte océanique, manteau, volcanisme, tectonique des plaques, subduction, dorsale médio-atlantique, bridgmanite, mouvements de convection du manteau, désinclinaisons des joints de grains du minéral, pérovskite, postpérovskite, graine terrestre, champ magnétique terrestre, translation de la graine, vent de matière, vie dans les profondeurs | Lien permanent | Commentaires (0) | Facebook | | |
Le volcanisme dans l'Arc antillais (1)
Rappels de la structure du globe terrestre. Différents types de volcans et d'éruption.
19:26 Publié dans Volcanologie-Sismologie | Tags : volcanisme, arc antillais, subduction, dorsale, points chauds | Lien permanent | Commentaires (1) | Facebook | | |
Roches volcaniques de l'Arc antillais
Roches volcaniques dans l'Arc antillais
12:49 Publié dans Géologie-hydrogéologie-Climatologie, Volcanologie-Sismologie | Tags : antilles, volcanisme, martinique, guadeloupe, arc antillais, pétrographie, minéralogie | Lien permanent | Commentaires (6) | Facebook | | |
La Soufrière de Guadeloupe
La Soufrière de Guadeloupe avant, pendant et après l'éruption phréatique de 1976
10:26 Publié dans Géologie-hydrogéologie-Climatologie, Volcanologie-Sismologie | Tags : arc antillais, volcanisme, éruption volcanique, éruption phréatique, soufrière de guadeloupe | Lien permanent | Commentaires (0) | Facebook | | |
La Soufrière de Guadeloupe : séismes 1975-1977
Séismes associés à l'éruption phréatique de la Soufrière de Guadeloupe de 1976
10:00 Publié dans Géologie-hydrogéologie-Climatologie, Volcanologie-Sismologie | Tags : soufrière de guadeloupe, feuillard, séisme, volcanisme, lahars, éruption phréatique, éruption volcanique, antilles, arc antillais | Lien permanent | Commentaires (0) | Facebook | | |
01/07/2010
La Montagne Pelée (Martinique)
La Montagne Pelée (Martinique) et l'éruption catastrophique de 1902
11:38 Publié dans Géologie-hydrogéologie-Climatologie, Volcanologie-Sismologie | Tags : volcanisme, arc antillais, martinique, montagne pelée | Lien permanent | Commentaires (0) | Facebook | | |
28/06/2010
La Soufrière de Saint-Vincent
La Soufrière de Saint-Vincent et l'éruption de 1979
17:44 Publié dans Géologie-hydrogéologie-Climatologie, Volcanologie-Sismologie | Tags : arc antillais, antilles, caraïbe, volcanisme, saint-vincent | Lien permanent | Commentaires (0) | Facebook | | |
Soufrière à Sainte-Lucie
Manifestations volcaniques de Sainte-Lucie et de la Dominique
08:05 Publié dans Géologie-hydrogéologie-Climatologie, Volcanologie-Sismologie | Tags : volcanisme, arc antillais, antilles, dominique, sainte-lucie | Lien permanent | Commentaires (0) | Facebook | | |
25/06/2010
La Soufrière de Montserrat
La Soufrière de Monserrat et les éruptions successives de 1995 à 2010
21:03 Publié dans Géologie-hydrogéologie-Climatologie, Volcanologie-Sismologie | Tags : volcanisme, arc antillais, montserrat, éruption volcanique | Lien permanent | Commentaires (0) | Facebook | | |
24/06/2010
Islande : geysers et autres manifestations volcaniques
Geysers, fumerolles, solfatares, hordinos et mares de boue d'Islande
par André Guyard
(dernière mise à jour : 20 novembre 2015)
En juillet 2008, un groupe de randonneurs appartenant à l'USN Sports Loisirs a parcouru les paysages désolés de l'Islande à la découverte de phénomènes volcaniques actifs.
Le groupe va découvrir un univers de glace, d'eau et de feu.




Orgues basaltiques
Cliché Orsolya & Erlend Haarberg
Mais comment se forment les orgues basaltiques ?
Il s'agit, bien sûr, d'une conséquence du refroidissement d'anciennes coulées de lave. En 2015, Martin Hofmann, de l'université technique de Dresde, en Allemagne, et ses collègues ont modélisé la formation de tels motifs hexagonaux qu'on appelle orgues basaltiques.
Lorsque de la lave se refroidit ou lorsque de la boue sèche, la partie supérieure se contracte et se fissure, ce qui libère de l'énergie liée à la tension mécanique. Ces failles sont disposées, a priori, de façon aléatoire. Cependant, comme elles libèrent surtout la tension perpendiculaire à leur direction, elles se connectent en général à angle droit : on parle de jonction T.
Dans des milieux qui sont asséchés ou gelés périodiquement, on observe que les jonctions T se déforment et se déplacent, ce qui les transforme en jonctions Y aux angles de 120°. Les motifs hexagonaux en résultent.
Dans le basalte, des jonctions T se forment en surface, mais la transition entre jonctions T et Y se produit en profondeur, alors que les fractures se propagent dans la lave se refroidissant.
Martin Hofmann et ses collègues ont calculé l'énergie libérée lorsqu'une fracture se propage. Ils ont supposé que la forme des jonctions pouvait changer. Ils montrent ainsi que si la jonction se déforme de T vers Y, l'énergie libérée augmente de 7%. La tension dans le basalte est ainsi mieux dissipée et la configuration plus stable. Des simulations numériques ont confirmé les résultats des chercheurs.
Phys. Rev. Lett., vol. 115, 154301, 2015





Parmi les différentes manifestations volcaniques rencontrées : fumerolles, solfatares, sources chaudes, hordinos, mares de boue, etc. les plus spectaculaires sont certainement le fait des geysers.
Qu'est-ce qu'un geyser ?
Un geyser est une source qui jaillit par intermittence en projetant de l'eau chaude et de la vapeur à haute température. Le terme geyser provient de Geysir, le nom du plus célèbre geyser islandais, dont l'étymologie est liée au verbe islandais gjósa (en français jaillir).
Or le grand geyser de Geysir ne fonctionne plus de façon naturelle. Seuls des visiteurs illustres ont droit à sa manifestation dopée par l'usage de détergents précipités dans le conduit. Mais les touristes ordinaires peuvent admirer son voisin le Strokkur qui se manifeste toutes les 8-10 min.
Comment ça marche ?
L'activité des geysers, comme celle de toutes les sources chaudes, est liée à une infiltration d'eau en profondeur.
Dans les régions volcaniques, l'eau est chauffée au contact des roches, elles-mêmes chauffées par le magma en fusion.
Dans les régions non volcaniques, l'eau est chauffée par l'action du gradient géothermique, la température et la pression augmentant avec la profondeur.
Par convection, l'eau chauffée et mise sous pression rejaillit alors vers la surface. Les geysers diffèrent des simples sources chaudes par la structure géologique souterraine. L'orifice de surface est généralement étroit communiquant par des conduits étroits et résistants qui mènent à d'imposants réservoirs d'eau souterrains.
L'eau de surface s'infiltre par gravité dans le réservoir du geyser où elle s'accumule et monte dans le conduit. La pression dépend de la longueur de la cheminée. Plus la pression est grande, plus la température d'ébullition est élevée. L'eau du conduit va faire pression sur l'eau du réservoir et augmentera la température d'ébullition. Au bout d'un certain temps, la poche magmatique sera portée à une température suffisante pour entraîner la vaporisation d'une partie de l'eau et créant ainsi une bulle de vapeur. Cette bulle emprunte la seule issue qui lui est offerte : la cheminée où elle s'engouffre, refoulant vers le haut l'eau du conduit qui n'exercera plus de pression sur l'eau du réservoir. Cette dernière va entrer en ébullition et pousser toute l'eau du geyser à l'extérieur.


La bulle est prête à éclater

Le Strokkur en pleine action
En fait, il existe deux types de geysers. Le geyser dit « fontaine » est terminé par un cône étroit, avec un conduit très fin. Lorsqu'une éruption se produit et qu'une colonne d'eau jaillit, elle est en fait expulsée par la pression due à l'étroitesse du conduit. C'est le cas par exemple d'Old Faithful à Yellostone.
L'autre type de geyser est le geyser dit « gazeux ». Il s'agit généralement d'une source chaude qui, lorsque du gaz est expulsé, fait remonter les bulles d'eau qui explosent au contact de la surface et qui créent une large colonne d'eau, souvent de courte durée. C'est le cas du Strokkur que nous avons pu observer ici.
Fumerolles et solfatares
Les fumerolles sont des émanations de gaz, en particulier de la vapeur d'eau ou de dioxyde de carbone qui s'échappent de crevasses ou de cavités d'origine volcanique.
Les solfatares sont des fumerolles rejetant du soufre.
Mares de boues
Une mare de boue est un type de source d'eau chaude ou de fumerolle, brassant des sédiments (argile d'origine volcanique, oxyde de fer, soufre...) à sa surface, et caractérisée par de perpétuelles remontées de bulles de gaz à sa surface.
Mofettes
Les mofettes sont de petites émanations de dioxyde de carbone qui s'échappent de fissures et des trous d'origine volcaniques d'où s'échappe du gaz carbonique. Parfois, les mofettes brassent des sédiments à leur surface.
Hornitos
Les hornitos sont des cônes volcaniques de dégazage, créés lors de retombées de fragments de laves incandescents entre eux.
Ces différents phénomènes sont visibles sur la vidéo ci-dessous :
Phénomènes volcaniques
Les Islandais ont su profiter de toute cette chaleur interne et exploitent cette source d'énergie pour procurer aux habitants de l'eau chaude, alimenter des serres avec production de fleurs, de légumes et de fruits. Eh, oui ! il pousse des bananiers en Islande. D'une façon plus importante, la géothermie permet la génération d'électricité pour les industries métallurgiques et la consommation domestique.

Centrale géothermique du volcan Krafla
(© Schutterstock/Darren Baker)
L'Islande est située à l'extrémité nord de la dorsale médio-atlantique qui court sur 15 000 km au milieu du plancher de l'océan Atlantique et dont l'île constitue la seule partie émergée. Le long des dorsales océaniques, deux plaques tectoniques s'écartent et le manteau terrestre sous-jacent va se figer pour former une jeune croûte océanique, la lithosphère. La dorsale médio-atlantique forme ainsi une chaîne continue de volcans sous-marins émettant une lave visqueuse (plus riche en silice) de type andésite. Ainsi l'Islande est déchirée par la séparation des deux plaques : la plaque nord-américaine qui s'éloigne vers l'ouest et la plaque eurasienne qui s'éloigne vers l'est à la vitesse de 2 cm par an.
À ce phénomène de l'écartement des deux plaques océaniques, un point chaud s'y superpose.
Un point chaud est marqué par la remontée d'un panache volcanique issu de la base du manteau inférieur, c'est-à-dire à près de 2900 km. La lave des volcans de point chaud est très fluide et formée de basalte (pauvre en silice). Ces points chauds sont fixes et indépendants du mouvement des plaques. Et, au fur et à mesure de l'avancée de la plaque tectonique océanique, celle-ci est perforée par un nouveau volcan à l'aplomb du panache volcanique.
L'Islande résulte ainsi de la superposition de ces laves andésitiques ou basaltiques. Pas moins de 130 volcans coexistent en Islande, dont certains sont recouverrts par des glaciers (volcans sous-glaciaires).

13:48 Publié dans Géologie-hydrogéologie-Climatologie, Volcanologie-Sismologie | Tags : geyser, islande, volcanisme, solfatares, hordinos, orgues basaltiques | Lien permanent | Commentaires (0) | Facebook | | |
23/06/2010
Éruption du volcan islandais Eyjafjöll
Éruption du volcan islandais Eyjafjöll
par André Guyard
(dernière mise à jour 23/08/2014)
L'Islande est située au milieu de l'Atlantique sur la dorsale médio-océanique, à la divergence des plaques tectoniques océaniques eurasiatique et américaine. Cette situation exceptionnelle en fait l'une des régions tectoniques les plus actives du monde avec 130 volcans et 600 sources d'eaux chaudes ! L'île se situe aussi au niveau d'un point chaud qui émerge entre deux plaques tectoniques. Ainsi, elle se trouve soumise à deux influences volcaniques superposées. (voir dans ce même blog : Islande, geysers et autres manifestations volcaniques.)
Qu'est-ce qu'un point chaud ? Il s'agit d'une anomalie thermique située dans les profondeurs du manteau terrestre, qui fait remonter du magma en surface. C'est ce qu'on appelle le panache profond dans le cas de l'Islande de 2900 km et qui remonte en surface déchirant la croûte terrestre. L'originalité du cas islandais, c'est que cette déchirure se produit justement là où les deux plaques nord-américaine et eurasiatique s'écartent au niveau de la dorsale médio-atlantique.
En juillet 2008, j'ai eu l'occasion d'arpenter ce beau pays avec les randonneurs de l'US Novillars : voir Islande, geysers et autres manifestations volcaniques dans ce même blog.
Profitant de la présence de ce chauffage central naturel, l'Islande exploite ses ressources géothermiques pour produire son électricité et alimenter son réseau de chaleur. Mais le volcanisme a souvent un revers : une nouvelle éruption fissurale à proximité du glacier Eyjafjallajökull inquiète les volcanologues.

(cliché Google Earth)
Le volcan islandais Eyjafjöll (ou Eyafjalla) situé dans le sud de l'île, à seulement 160 km au sud-est de la capitale Reykjavik est un strato-volcan composé d'un empilement d'une alternance de couches de cendres, de lave et de roches éjectées par les éruptions antérieures. Il est entré en éruption dans la nuit du samedi 20 mars 2010. Recouvert par une calotte glaciaire : l'Eyjafjallajökull, ce volcan culmine à 1 666 mètres d'altitude. Au cours des 1100 dernières années, le volcan ne s'est réveillé que trois fois, la dernière éruption de l'Eyjafjöll remontant à 1821. Elle avait alors duré plus d'un an.

Précédée par toute une série de secousses sismiques sous le glacier Eyjafjallajökull, (près de 3000 entre le 3 et le 5 mars), la première phase éruptive fut effusive avec une lave de basalte à olivine d'origine profonde (25 km). Après un arrêt temporaire de la migration du magma vers 6 à 8 km de profondeur, le magma a émergé par une dizaine de fontaines de lave de style hawaïen, d'une hauteur d'une centaine de mètres, le long d'une fissure latérale au col de Fimmvördu.

Le volcan est entré le 14 avril dans une deuxième phase explosive caractérisée cette fois par un magma acide, de type trachyandésitique résultant d'un mélange de basalte à olivine et de dacites plus superficielles. Ce mélange serait ensuite remonté dans le cratère historique de l'Eyjafjöll. Le contact de la lave à plus de 1000 °C et de la glace a provoqué des explosions et l'émission jusquà 11 000 m d'altitude d'immenses volutes de vapeur d'eau et de gaz chargés de poussières magmatiques. qu'on appelle téphras. C'est la confluence de deux anticyclones, l'un positionné entre Terre Neuve et l'Islande et l'autre localisé sur l'Europe occidentale qui a entraîné lles masses d'air dans le sens des aiguilles d'une montre. Poussé par ces vents, le panache s'est dirigé vers l'Europe.
Le caractère explosif d'un volcan est lié au dégazage et à la viscosité du magma trachyandésitique. Quand le magma monte dans le cheminée du volcan, le mélange de gaz et de magma se dilate, ce qui accélère son ascension, accroît la pression jusqu'à faire passer l'éruption en régime explosif. Dans le cas de l'Eyjafjöll, les explosions sont dues à la fois à la nature acide du magma que la présence de silice rend visqueux et au contact magma-glace.

Schéma de l'éruption d'un volcan sous-glaciaire

Le samedi 17 avril 2010 , l'instrument ALI du satellite EO-1 a pris une image infrarouge du glacier islandais Eyjafjallajökull qui cache le volcan (image ci-dessus). Un léger nuage surmonte le glacier.



Les cendres émises se mêlent à la vapeur d'eau




Soumise à une pluie de cendres et de bombes,
la surface du glacier a changé de couleur

Afin de protéger les populations, 600 personnes demeurant entre la localité agricole de Hvolsvollur et le village de pêcheurs de Vik ont été évacuées hâtivement.

Quelques villages sont menacés
Les risques encourus sont multiples :
* projections de cendres et de lave pouvant affecter notamment le transport aérien (voir plus bas),
* émanations gazeuses mortelles (notamment pour le bétail),
* inondations brutales et importantes, conséquence de la fonte du glacier qui recouvre le volcan.
Ce dernier risque, de loin le plus inquiétant, est un lahar ou jökulhlaup en islandais, ce qui signifie "course de glacier". La fonte du glacier sous l'effet de la chaleur engendre une coulée de matériaux volcaniques (débris, boue). On parle alors de lahars syno-éruptifs appelés aussi lahars primaires ou lahars chauds. On se rappelle que la formation d'un lahar suite à l'éruption du volcan Nevado del Ruiz en 1985 dans la Cordillère des Andes avait entraîné la mort de 25 000 personnes. C'est pourquoi, un état d'urgence a été déclaré dans la zone, même si aucun blessé ou dégât n'est à déplorer.

Le nuage de cendres

Photos du volcan Eyjafjöll prise le samedi 17 avril 2010
En haut, une photo en infrarouge.
En bas, une photo du volcan tel qu'il est visible depuis le ciel.
(Crédit photo : © Nasa)
On distingue sur ces clichés le nuage de cendres, au centre, la neige des glaciers (en blanc en bas et en violet en haut) ainsi que les dépôts de cendres, visibles en gris en haut. Ces cendres sont chargées électriquement, ce qui entraînent la formation de nombreux éclairs au-dessus du volcan.
Mais ce qui inquiète les Européens, c'est ce nuage de cendres volcaniques, poussé par les vents d'Ouest qui se répand sur l'Europe entraînant la suspension des vols à partir et en direction de nombreux aéroports.

Le réveil du volcan Katla suscite l'inquiétude
Pour le moment, les volcanologues sont prudents car cette petite éruption fissurale, qui ne montre aucun signe d'affaiblissement, pourrait déclencher celle du volcan voisin, le Katla. Dix fois plus important que l'Eyjafjöll, il a la réputation d'être un des volcans les plus dangereux d'Islande. Caché sous le glacier Myrdalsjökull dans le Sud de l'île, le Katla est entré pour la dernière fois en éruption en 1918. Une éruption du volcan Katla et le contact du magma avec la glace déclencherait une éruption explosive qui émettrait un énorme nuage de cendres et surtout une débâcle glaciaire, c'est-à-dire un gigantesque lahar. Ce déferlement d'eau, de glace et de boue représente un risque majeur car une population relativement dense vit à ses pieds.

Comment les cendres volcaniques menacent les aéronefs
Parce que les nuages de cendres sont secs, ils sont invisibles sur les radars météorologiques.
Pour comprendre le risque, rappelons-nous de la mésaventure d'un Boeing 747 de la British Airways survenue le 24 juin 1982. Le Boeing 747 avait décollé de Londres pour Auckland (Nouvelle-Zélande). L'équipage ignorait que le volcan Mount Galunggung à l'ouest de Java (Indonésie) était entré en éruption et crachait des cendres à son altitude de vol.
Quelque part au sud de Java à 1 h 40, heure locale, l'équipage remarqua que le verre des fenêtres du poste de pilotage devenait brillant, phénomène aussitôt suivi par une lueur au niveau des moteurs et une odeur de gaz sulfureux envahissant la cabine. En quelques minutes, les quatre moteurs furent coupés et le jumbo-jet dut parcourir en planeur 11 kilomètres au-dessus de l'océan. À l'altitude de 4 kilomètres, cependant, certains des moteurs purent être remis en marche et l'avion atterrit en toute sécurité à Jakarta.
Comme nous l'avons dit plus haut, les cendres volcaniques ou téphras se composent de particules de roche pulvérisée vitreuse de diamètre inférieur à 2 millimètres et extrêmement corrosives. Quand un avion vole en altitude à sa vitesse de croisière, les fenêtres du poste de pilotage subissent un jet de téphras, obscurcissant la vue des pilotes. Les moteurs aspirent la poussière qui fond dans la chambre de combustion et ce magma se dépose sur les aubes de turbine bloquant ainsi le flux d'air du moteur, s'immisçant également dans les tubulures. Heureusement quand le magma se refroidit et se solidifie alors que l'avion plonge en planeur, il arrive qu'il se détache et permette un redémarrage du moteur.
En outre, le nuage chargé de cendres est appauvri en oxygène. Si un aéronef le traverse, la combustion du kérosène s'en trouve gênée et le rendement des réacteurs minoré pouvant aller jusqu'à l'extinction.
En ce qui concerne le Eyjafjöll, tant que le risque lié au nuage de cendres volcaniques a subsisté, les transports aériens de l'Europe du Nord, y compris la moitié nord de la France et la Suisse ont été suspendus.
Remarque (11/06/2011) : une décision justifiée par des études en laboratoire
En fait, la décision de bloquer au sol les avions pendant l'éruption du volcan islandais était la bonne, affirme le département de chimie de l'université de Copenhague (Danemark). Les cendres émises pouvaient bel et bien perturber les moteurs, selon les essais réalisés en laboratoire.
Une étude publiée dans les Pnas a montré que les cendres de l'Eyjafjoll étaient abrasives et le sont restées durant plusieurs semaines. D'une taille variant d'une dizaine de nanomètres au millimètre près du volcan, les particules, associées à de la vapeur d'eau, étaient composées d'andésite, de cristaux de plagioclases (silicates), de pyroxènes et d'olivine. Les risques pour les avions étaient multiples : abrasion du pare-brise, vitrification sur certaines parties des réacteurs.
Les chercheurs annoncent par ailleurs dans les Pnas avoir mis au point une méthode pour déterminer en 24 heures la dangerosité des cendres.
Remarque (24/05/2011) : Peut-on protéger les avions des cendres volcaniques ?
L'éruption de l'Eyjafjöll, en avril 2010, a projeté dans l'atmosphère une grande quantité de cendres, ce qui a paralysé le trafic aérien en Europe. Un peu plus d'un an après, un autre volcan sous-glaciaire islandais, le Grimsvötn, est entré en éruption projetant également un panache de cendres qui a atteint 20.000 mètres de hauteur le samedi 21 mai 2011, premier jour de l'éruption.
En quelques, jour, le panache de cendres dégagé par le Grimsvötn s'est réduit aux alentours de 2000 mètres de hauteur et l'éruption pourrait prendre fin avant la fin du mois de mai.
Le trafic aérien a été perturbé en Islande et dans les Îles britanniques.
Le risque couru par les aéronefs est dû au fait que les cendres sont susceptibles de fondre dans les réacteurs des avions, et dégradent les céramiques isolantes.
La céramique utilisée en aéronautique est composée d'un mélange d'oxydes de zirconium (ZrO2) et d'yttrium (Y2O3) ; elle isole le réacteur des pièces situées à proximité. Sa structure poreuse la rend flexible : elle peut se déformer sans se rompre lors des changements de température.
Nitin Padture, de l'Université de l'Ohio et ses collègues américains et russes ont étudié son comportement quand elle est chauffée à 1200 °C en présence des cendres, riches en silice, prélevées sur l'Eyjafjöll. Ils ont montré que les cendres fondent et constituent une phase vitreuse peu visqueuse qui pénètre dans les pores. En refroidissant, la silice durcit, diminuant la flexibilité de la céramique, qui risque de se détacher du réacteur. Les chercheurs ont mis au point une nouvelle céramique d'oxyde de zirconium et de gadolinium (Gd2Zr2O7), imperméable aux cendres fondues dès que son épaisseur est supérieure à dix micromètres. À haute température, cette céramique réagit partiellement avec les cendres et forme de petits cristaux qui colmatent l'entrée des pores. Ainsi, la silice vitreuse ne pénètre plus profondément dans la céramique, et le matériau conserve à peu près sa structure et ses propriétés isolantes.
Ces nouveaux matériaux doivent encore subir des tests pour que l'on sache s'ils conservent leurs propriétés après plusieurs cycles d'élévation de la température. Les avions devraient pouvoir alors voler à travers des nuages de cendres volcaniques.
Source : J. Drexler et al., Advanced Materials, en ligne, 8 avril 2011
Le système AVOID (6 novembre 2013)
Grâce à ce système mis au point par des chercheurs norvégiens, les avions ne seront plus bloqués par les volcans. Pour éviter que les avions restent cloués au sol par les panaches de cendres, des chercheurs norvégiens associés à une compagnie aérienne ont développé le système AVOID. Ce système va permettre aux avions de déceler ces infimes particules à une centaine de kilomètres de distance. Assez loin pour pouvoir adapter leur plan de vol ! Son efficacité a été testée avec succès en octobre 2013. Ce dispositif exploite la loi de Planck, qui lie la température d'un corps à son rayonnement : un nuage de cendres étant plus chaud qu'un cumulonimbus, par exemple, il n'émet pas les mêmes ondes, ce qui permet de le repérer. Captées à l'aide de deux caméras thermiques à infrarouge fixées sur l'avion, les données sont transmises en temps réel à l'ordinateur de bord ainsi qu'au centre de contrôle aérien. Des cartes de dispersion des cendres sont ainsi établies. Encore au stade de développement, le système intéresse déjà de nombreuses compagnies aériennes. Easy Jet envisage de l'intégrer dès 2015 sur une dizaine d'appareils.
Surveillance des panaches de cendres volcaniques (octobre 2011)
L'éruption de l'Eyjafjoll a entraîné une longue et très coûteuse fermeture de l'espace aérien. Pour éviter que cette situation de crise ne se reproduise, experts, chercheurs et météorologues des VAAC (Volcanic Ashes Advisory Centers) unissent désormais davantage leurs efforts et leurs moyens pour prédire l'avancée des panaches de cendres. En combinant étude directe et détection par satellites, photomètres et lidars (télédétection par laser), parfois transformés pour l'occasion, ils cumulent des informations sur la composition, l'altitude ou la densité des cendres et obtiennent en quelques heures des cartes prévisionnelles fiables du trajet de ces nuages afin de renseigner au plus vite les compagnies aériennes. Un travail qui reste cependant difficile compte tenu des incertitudes naturelles (caprices du volcan, conditions météorologiques, etc.) mais aussi en raison de l'absence d'un réseau d'observation européen spécifique.
1. Par une étude directe
Échantillonnage des cendres au sol ou dans le nuage, par avion (ATR 42 M55 Geophysica) pour connaître leurs propriétés microphysiques (granulométrie, forme...) et leur composition chimique.
2. Au sol
Surveillance de l'atmosphère via des réseaux de radars, lidars, interféromètres, photomètres... Ces derniers mesurent l'intensité de la lumière qui leur parvient du Soleil, plus basse en présence de cendres, permettant d'évaluer l'épaisseur du nuage. Ces mesures sont rendues difficiles en présence de pollution.
3. Par satellites
Utilisation de radiomètres, interféromètres, lidars, etc., embarqués dans des satellites d'observation de l'atmosphère (Parasol, Calipso, Météosat, Envisat, Metop, Terra, Aqua...) pour déterminer la surface, l'altitude, l'épaisseur du nuage et certaines de ses caractéristiques.
4. Par avion
16 avril 2010 : le CEA à Saclay détecte des cendres de l'Eyjafjoll au nord de la France puis à 6 km au-dessus de Paris. Afin de pouvoir renseigner les compagnies aériennes, il embarque un lidar dans un avion Falcon 20 de l'unité Satire (CNRS, Cnes, Météo-France). Cet appareil, aussi utilisé au sol ou par satellite, émet un faisceau laser vers l'atmosphère et analyse la lumière qui lui revient. En dépolarisant cette lumière, les cendres signent leur présence dans l'atmophère.
Source : Marion Sabourdy, Sciences et Avenir, n° 776, octobre 2011, p. 16-17.
Destin des cendres
Que vont devenir ces cendres ? Soumises aux pluies et aux vents, elles ont rejoint les couches basses de la troposphère et se sont fondus dans la masse des polluants urbains et industriels.
À la suite de l'éruption de l'Eyjafjöll, un groupe de travail international dirigé par l'Autorité de l'Aviation Civile (CAA) du Royaume-Uni a défini trois zones pour le trafic aérien.
- Zone 1, moins de 0,2 mg de cendres par m3 d'aire : aucune restriction de vol.
- Zone 2, concentration comprise entre 0,2 et 2 mg par m3 d'air : les vols sont possibles, mais les contrôles de maintenance et d'inspection des appareils sont renforcés.
- Zone 3 : concentration supérieure à 2 m par m3 d'air : les vols sont interdits.
Selon la météo, des vols de durée limitée peuvent cependant être autorisés jusqu'à 4 mg par la CAA.
Comment la vie peut reprendre le dessus
Ce problème rejoint celui des biotopes soumis aux incendies. Après incendie ou éruption volcanique, la biodiversité se recompose grâce aux espèces opportunistes. Sur la terre carbonisée, les quelques espèces survivantes, mais surtout celles qui vivaient en lisière profitent de la situation pour recoloniser le milieu. Et cela rapidement. L'ampleur et la rapidité de la recolonisation dépendent de l'intensité de la brûlure, du lieu et du moment de la catastrophe, ainsi que des espèces présentes sur et autour du site anéanti.
Sur le lieu-même de la catastrophe, la nature transforme un sol devenu invivable en un support capable à nouveau d'accueillir la vie en quelques années et la recolonisation s'enclenche avec la dispersion de nouvelles espèces venues de l'extérieur. Ce processus dépend tout de même de certaines conditions. Le lieu de la zone à recoloniser et sa distance par rapport aux différentes populations sources susceptibles de le conquérir sont deux éléments primordiaux. Plus il est aisé et rapide de coloniser un territoire, plus le nombre d'espèces qui l'envahiront sera important.
Un bel exemple de cette recolonisation est donné par l'île Surtsey apparue au sud-ouest de l'Islande entre 1963 et 1967.
Sur cette île volcanique sortie stérile de l'océan, entre 1963 et 1967, seules les graines capables d'être transportées par les flots ou par les vents parvinrent à s'installer. Puis des oiseaux nichèrent sur l'île et apportèrent avec eux quantités de nouvelles espèces végétales mais aussi animales. Quarante-cinq ans plus tard, on compte 91 espèces d'oiseaux, 354 espèces d'invertébrés et 69 espèces de plantes !
C'est probablement au mont Saint-Helens, dans le Nord-Ouest des États-Unis, que ces processus ont été les plus étudiés. Aujourd'hui, une forêt de conifères entoure les pieds de ce jeune volcan et sur ses flancs s'étalent des prairies vertes. Pourtant, en mai 1980, l'éruption du volcan transforma plus de 500 km2 de vie exubérante en un désert de cendre et de désolation.
"Au mont Saint-Helens, la recolonisation de la vie a surpris tout le monde par sa vitesse et par ses mécanismes", confie Virginia Dale, qui fait partie des premiers écologues américains à s'être rendus sur place, puis à effectuer un suivi de la nature autour du volcan.
Un des résultats les plus étonnants de ce suivi a révélé l'importance des espèces survivantes. De fait, malgré les coulées de lave et les tonnes de poussières ardentes, des poches de vie ont survécu dans certains endroits, autorisant la mise en route de la première phase de la recolonisation via l'expansion d'espèces existantes. Un phénomène que l'on retrouve dans la plupart des incendies et des éruptions volcaniques, mais de façon plus ou moins marquée.
Chez les végétaux, les graines les plus légères et les spores de fougères ou de mousses débarquées par le vent représentaient les premiers colons, Les graines ont aussi été transportées par les animaux. C'est ainsi qu'en l'espace de neuf ans, la végétation autour de ce jeune volcan recouvrait déjà environ 10 % des territoires qu'elle occupait autrefois. Aujourd'hui, les chercheurs estiment qu'elle recouvre environ 80 % des zones, avec toutefois de grandes disparités selon les endroits.
Pour le mont Saint-Helens, on peut dire que la nature établie autour du volcan a eu de la chance ce 18 mai 1980 : il restait une couverture neigeuse suffisamment importante pour protéger quelques espèces des éjections incandescentes. Et ces endroits furent ensuite de véritables îlots de végétation d'où la nature puisa la force de reconquérir le terrain perdu.
Par ailleurs, certains animaux migrateurs n'étaient pas sur les lieux au moment de l'éruption, comme les saumons dont certains sont revenus l'été suivant. Tandis que d'autres animaux étaient encore bien enfouis dans leur terrier, notamment les rongeurs. Sur les 32 espèces de petits mammifères connus pour vivre autour du volcan, 14 ont ainsi survécu. De même que plusieurs végétaux dont la germination n'avait pas encore eu lieu, comme les lupins. Ces pionnières végétales ont joué un rôle déterminant car elles ont l'avantage de fixer et retenir l'azote, ce qui permet de fertiliser les sols. Et donc de faciliter l'installation d'autres plantes.
De fait, l'état du sol à la suite d'une catastrophe de ce type constitue un des freins majeurs au retour des végétaux. Après avoir grillé à plus de 300 °C, les cellules des organismes du sol et des végétaux sont détruites, les nutriments brûlés. Et la terre devient stérile. Elle ne retrouvera sa capacité d'accueil que grâce aux apports des zones voisines moins touchées. Les plantes survivantes jouent ici un rôle clé en fournissant une matière organique capable d'accueillir d'autres espèces.
Toutefois, les plantes survivantes ne sont pas les seules à restaurer la fertilité des terres brûlées. Les nuages de cendre alimentent aussi le sol en minéraux, ainsi que les pluies, les fientes d'oiseaux ou encore le bois mort. Enfin, les "pluies d'insectes" ont également un rôle important, dans des proportions plus ou moins grandes selon la richesse et la distance de la source d'insectes. Durant l'été, de nombreux juvéniles d'insectes et d'araignées se disséminent par la voie des airs. C'est l'essaimage aérien. Sur chaque hectare autour du volcan, environ 90 kg d'insectes sont ainsi déposés durant les quatre mois d'été, d'après les estimations des scientifiques ! Or en plus d'apporter la vie et d'amorcer une chaîne alimentaire, ces insectes dont beaucoup meurent rapidement, alimentent également le sol en matière organique (matière carbonée issue des êtres vivants et composée essentiellement de carbone et d'eau mais aussi d'oxygène, d'hydrogène, d'azote, de phosphore, etc.).
Quelques photos magnifiques sur l'éruption
Voir également : les volcans d'Islande (Vu du Ciel France 3)
Ajout du 23/08/2014
Été 2014 : le Bardarbunga, situé sous le plus grand glacier d'Islande et dont l'altitude dépasse 2 000 mètres, est entré en activité le samedi 16 août. voir l'article : un volcan islandais menaçant
Sources bibliographiques :
Observatoire de Physique du Globe de Clermont-Ferrand
Detay M. (2010) - L'Eyjafjöll, radiographie d'un volcan qui a du panache. Pour la Science, n° 392 - juin 2010, 70-76.
Incendies : la biodiversité se recompose avec opportunisme. Science & Vie, n° 1114, juillet 2010. pp 58-61.
19:50 Publié dans Géologie-hydrogéologie-Climatologie, Volcanologie-Sismologie | Tags : islande, volcan, éruption volcanique, eyjafjöll | Lien permanent | Commentaires (3) | Facebook | | |
22/06/2010
Le Kawa Ijen, un volcan de Java (Indonésie)
Le Kawa Ijen est un volcan dont le cratère est occupé par un lac acide. Il se caractérise par une exploitation à dos d'homme d'une solfatare qui produit du soufre.
14:46 Publié dans Géologie-hydrogéologie-Climatologie, Limnologie-hydrobiologie, Volcanologie-Sismologie | Tags : kawah ijen, indonésie, java, volcanologie, ceinture de feu du pacifique, soufre, exo-ploitation du soufre | Lien permanent | Commentaires (0) | Facebook | | |
Séismes
Séismes 2010
par André Guyard
Le début de l'année 2010 a été marqué par une série de tremblements de terre qui ont affecté Haïti en janvier et le Chili en février.
Haïti

L'île d'Hispaniola (que se partagent Haïti et la République dominicaine) se trouve dans une zone sismiquement active, entre deux plaques tectoniques : la plaque nord-américaine au nord et la plaque caraïbe au sud. Dans cette zone, les failles sont des décrochements sénestres et des failles de compression (failles inverses) ou chevauchements.
Au départ, on a cru que le séisme avait été provoqué par la rupture d'une faille, orientée ouest-est, sur une longueur de cinquante à cent kilomètres. Il s'agit de la faille d'Enriquillo, qui est un décrochement sénestre qui traverse l'île d'Ouest en Est et passe à 5 km au sud de la capitale Port-au-Prince et qui autorise un mouvement horizontal de 7 mm/an.
Selon Éric Calais, de l'université Purdue (États-Unis), le séisme a été occasionné par une faille alors inconnue. L'observation des récifs coralliens émergés près de l'épicentre ainsi que les données récoltées par satellites radar et CPS ont montré que ce séisme avait causé des déformations de la surface terrestre incompatibles avec le comportement de la faille d'Enriquillo. En utilisant un modèle informatique pour simuler ces déformations, le chercheur a montré qu'elles ne pouvaient s'expliquer que par l'existence d'une faille secondaire jusqu'alors non identifiée, et baptisée faille de Léogâne. Et le géologue de prévenir que la faille d'Enriquillo menace donc toujours Haïti puisqu'elle n'a pas libéré l'énergie accumulée.

Ce tremblement de terre est un séisme crustal dont le foyer serait à une profondeur relativement faible de 10 km (d'où la dénomination de séisme crustal). Sa magnitude est de 7,0 à 7,3. Il est survenu le 12 janvier 2010 à 16 heures 53 minutes, heure locale. Son épicentre (18° 27′ 25″ Nord - 72° 31′ 59″ Ouest) est situé approximativement à 25 km de Port-au-Prince, la capitale d'Haïti. Une douzaine de secousses secondaires de magnitude s'étalant entre 5,0 et 5,9 ont été enregistrées dans les heures qui ont suivi dont le deuxième d'une magnitude de 6,1 est survenu le 20 janvier 2010 à 6 heures 3 minutes, heure locale avait un hypocentre situé approximativement à 59 km à l'ouest de Port-au-Prince, et à moins de 10 kilomètres sous la surface. L'Institut géologique américain a annoncé le 24 janvier avoir enregistré 52 répliques d'une magnitude supérieure ou égale à 4,5.

Selon le CNRS (19 janvier 2010), le glissement cosismique de 1 à 2 m se serait produit sur 70 km de long.
Le premier séisme a causé de nombreuses victimes, : 230 000 morts, 300 000 blessés et 1,2 million de sans-abris. 211 rescapés ont été extraits des décombres par les équipes de secouristes venues du monde entier.
Carte des intensités du séisme, estimées, selon l'échelle de Mercalli


Comment les satellites aident-ils à évaluer les dégâts causés par un séisme?
Deux heures à peine après le séisme survenu en Haïti le 12 janvier, la Sécurité civile française, première à réagir, a activé la charte internationale "Espace et Catastrophes majeures". Cet accord, signé il y a dix ans, prévoit que les 12 principales agences spatiales s'engagent à mettre gratuitement en commun les données acquises par leurs satellites d'observation juste après une catastrophe naturelle majeure.
Objectif : éditer des cartes de terrain les plus actualisées possibles afin d'aider les secours sur place. Le Gnes (Centre national d'études spatiales), à Toulouse, a dirigé les opérations financées par une initiative européenne, le GMES (Global Monitoring for Environnement and Security).
Un peu plus de vingt-quatre heures après le séisme, une première carte des dégâts était envoyée sur place. D'autres ont suivi. « C'est la première fois que nous parvenons à exploiter aussi efficacement les données satellitaires car les conditions météo très favorables ont permis de faire des images sans nuages », précise Catherine Proy, du Cnes.
La charte avait déjà été mise en œuvre lors du tremblement de terre au Sichuan (Chine) en mai 2008, mais la couverture nuageuse n'avait pas permis d'utiliser les images. Autre point fort en Haïti : des satellites chinois, sud-coréen et indien - pays récemment signataires de la charte - ont participé à l'opération, ainsi que deux satellites commerciaux (GeoEye et QuikBird).
C'est ainsi que dix satellites ont participé à l'opération. En orbite basse (600 à 800 km d'altitude). ils font le tour de la Terre en quelques heures. Il a fallu attendre que chacun d'entre eux survole Haïti après le séisme pour mettre en commun les données. Ci-dessous, un tableau des différents satellites qui ont participé à l'élaboration des cartes de sinistres en Haïti.
Satellites |
résolution |
champ de vue |
SPOT 5 (France) |
2,5 m |
60 km x 60 km |
WORLD VIEW (États-Unis) |
50 cm |
60 km x 110 km |
GEOEYE (États-Unis) |
40 cm à 1,3 m |
15 km x 9,5 km |
QUIKBIRD (États-Unis) |
2,44 à 2,88 m |
16,5 km x 16,5 km |
CARTOSAT (Inde) |
2,5 m |
30 km |
HJ1A (Chine) |
30 m |
50 km |
KOMPSAT 2 (Corée du Sud) |
1 m |
50 km |
ALOS (Japon) |
2,5 m |
70 km |
Satellites radars : RADARSAT, TERRASAT |
|
|
Une infographie publiée dans le numéro d'avril 2010 de Sciences et Avenir décrit la chronologie de l'élaboration de ces cartes de terrain.
13 janvier + 18 h 25
TOULOUSE
L'antenne, située à Toulouse, réceptionne les données des dix satellites, sous forme d'un tableau de nombres, entre 0 et 255. Chaque nombre représente la part de l'énergie réfléchie par un point de la surface du sol, très différente pour une surface lisse et un tas de gravats.
13 janvier + 19 h 57
STRASBOURG/MUNICH
Ces tableaux sont envoyés à deux centres de traitement : le Sertit (Service régional de traitement d'images et de télédétection) à Strasbourg et le DLR (Centre spatial allemand) à Munich. Leur tâche est de rendre exploitables ces données issues de satellites ayant des champs de vision et des résolutions différents pour en extraire des cartes. Pour ce faire, deux méthodes sont utilisées.
L'orthorectification
La première étape consiste à irriger l'effet du relief, celui de la rotondité de la Terre et d'une éventuelle prise de vue oblique du satellite afin d'élaborer une carte en 2D.
Le géoréférencement
La seconde étape, délicate, consiste à mettre toutes les cartes « orthorectifiées » à la même échelle puis à les caler sur un système de coordonnées géographiques (longitude et latitude), de manière à pouvoir superposer cette image satellitaire au modèle numérique de terrain (MNT) élaboré par l'IGN (Institut géographique national). C'est ainsi que l'on appelle une représentation numérique du relief d'une région. Cette superposition permet d'inclure le relief dans les cartes satellitaires.
14 janvier + 25 h 52
Les extractions thématiques
La carte obtenue après orthorectification et géoréférencement est comparée à la même image réalisée par des méthodes similaires avant le séisme et d'établir une carte des dégâts, définir les zones de rassemblement des populations sinistrées, les zones de pollution et les points d'eau de surface accessibles.
L'étape finale consiste à envoyer les cartes vers les zones sinistrées par les moyens de communication encore disponibles.
Sources pour Haïti :
http://fr.wikipedia.org/wiki/Tremblement_de_terre_d%27Ha%...
Azar Khalatbari, Chili : deux régions sous surveillance Sciences et Avenir avril 2010 n° 758 p. 18-19.
Le Chili
Un puissant séisme de magnitude 8,8 , l'un des plus violents des cent dernières années, est survenu samedi 27 février au large du Chili et plus de 20 répliques ont été enregistrées. La dernière, de magnitude 6,1, a eu lieu vers 14 h heure française. La plus puissante, de magnitude 6,9, a été enregistrée au large des côtes chiliennes à 8 h 01 GMT, soit environ une heure et demie après la première secousse. La secousse a été ressentie jusqu'à Santiago, la capitale, qui se trouve pourtant à quelque 400 km de l'épicentre, et en Argentine. Une vague de tsunami de 2,34 mètres s'est ensuite abattue samedi matin sur la ville côtière chilienne de Talcahuano. Et des vagues de tsunami traversaient samedi l'ensemble de l'océan Pacifique à la suite de ce séisme et le phénomène devait s'achever au Japon avec des vagues de 30 cm, selon un responsable de la Météo nationale américaine.
Le Chili s'organisait lundi après avoir découvert l'ampleur des dégâts provoqués sur ses côtes par ce tsunami qui a détruit des villes balnéaires entières après le séisme, dont le bilan atteignait au moins 711 morts depuis samedi.
Le sud du pays est le plus touché, offrant un spectacle de désolation sur le littoral, où des maisons ont été broyées, des bateaux projetés à l'intérieur des terres.
À l'heure où le Chili se relève de ce séisme, les experts se tournent vers deux "lacunes sismiques" menaçantes : il s'agit de segments de faille n'ayant pas rompu depuis longtemps et qui ont connu des tremblements de terre meurtriers dans le passé. D'abord, la région d'Arica (voir la carte ci-dessous), où le dernier séisme date de 1877. "Mais je suis aussi très inquiet pour celle de La Serena, déclare Raùl Madariaga, de l'Ecole normale supérieure à Paris. Cette région a bien connu des séismes, mais ils se sont produits hors de la zone de subduction et n'ont pas pu libérer les contraintes accumulées." La sismicité du Chili est due à la zone de subduction entre la plaque océanique Nazca et le continent sud-américain : la première s'enfonce d'environ 6,5 cm/an sous le second. La plaque sud-américaine doit absorber la déformation accumulée, ce qui provoque des séismes. Plus ceux-ci sont espacés, plus la probabilité d'une rupture violente est forte. Celui du 27 février, qui a déplacé la ville de Concepcion de 3 mètres, "était attendu depuis longtemps, explique Christophe Vigny, du même laboratoire, car le dernier séisme survenu dans la lacune de Concepcion, décrit par Darwin, remontait à 1835."

Conflit entre la plaque Nazca et la plaque sud-américaine
(infographie : laboratoire de géologie -ENS/CNRS à partir des données USGS)
Sources pour le Chili :
Azar Khalatbari, Chili : deux régions sous surveillance Sciences et Avenir avril 2010 n° 758 p. 22.
Peut-on prévoir les séismes ?
Existe-t-il des signes avant-coureurs annonçant l'imminence d'un séisme ?
Georges Charpak, prix Nobel de physique (1992) s'est intéressé au radon, ce gaz radioactif produit par la désintégration de l'uranium. Avec d'autres spécialistes, Charpak tente de mettre au point un détecteur de radon qui s'échappe en infime quantité des fissures du sol peu avant un séisme. D'après Charpak, il serait possible d'équiper ces micro-failles de centaines de détecteurs pour prédire l'imminence d'un séisme. Charpak a présenté un prototype de détecteur dans la revue Physicsworld qui identifie les particules alpha et les rayons gamma avec une limite de détection de 420 Bq/m3 , un becquerel (Bq) équivalant à une désintégration par seconde. L'appareil d'un faible coût, pourrait être testé par le CEA (Commissariat à l'Energie Atomique) dans son laboratoire souterrain du Beaufortain (Savoie) à proximité de la retenue de Roselend, dont la mise en eau saisonnière provoque des contraintes mécaniques aboutissant à des émissions de radon.
Récemment, Shih-Chieh Hsu de Taïwan a mis en évidence une concentration multipliée par 10 de dioxyde de soufre dans l'atmosphère quelques heures avant deux séismes. Ce SO2 serait libéré par des failles.
On trouvera dans la revue Pour la Science de janvier 2012, pp 62-67, l'annonce de la mise au point par les géophysiciens américains d'un système d'alerte rapide capable d'avertir plusieurs dizaines de secondes à plusieurs minutes à l'avance qu'une violente secousse va se produire.
Quand la terre gronde
Un guide pédagogique gratuit mis à disposition des enseignants du 1er degré pour sensibiliser leurs élèves aux risques naturels du monde.
« Quand la terre gronde » a été développé par la Fondation La Main à la Pâte, en partenariat avec la CASDEN, le Ministère de l’Education nationale, l’Agence spatiale européenne, Universcience et l’Association Prévention 2000.
Ce projet a été réalisé avec l’appui d’enseignants et de scientifiques pour disposer d’un ouvrage simple, pratique et permettre aux enfants d’apprendre à vivre avec le risque de la façon la plus responsable possible. Conforme aux programmes scolaires, il s’inscrit pleinement dans le cadre de l’éducation au développement durable.
Cet ouvrage s’adresse aux enseignants ayant une connaissance scientifique ou non sur le sujet. Ce guide propose une progression complète, clé en main et modulable, composée de 4 séances indépendantes (les volcans, les séismes, les tsunamis et ma commune face aux risques), avec des éclairages scientifiques et pédagogiques, des fiches documentaires et des outils d’évaluation.
Pour disposer gratuitement de cet outil, les enseignants de l’école primaire sont invités à effectuer une demande sur le site* : www.quand-la-terre-gronde.fr
*Dans la limite des stocks disponibles.
08:00 Publié dans Géologie-hydrogéologie-Climatologie, Volcanologie-Sismologie | Tags : séisme, tremblement de terre, haïti, chili, géologie, satellite, sismographie, caraïbe, antilles | Lien permanent | Commentaires (2) | Facebook | | |
Sismologie dans la région de Thise (Doubs)
Sismologie dans la région de Thise (Doubs)
par André Guyard
(article modifié le 2 mars 2013)
L'activité sismique particulièrement intense au cours des deux dernières années (2010 et 2011) nous interpelle. Quels sont les séismes qui ont secoué la région bisontine et particulièrement la commune de Thise au cours des siècles derniers ?
L'échelle de Richter indique la magnitude, c'est-à-dire l'intensité du séisme. La magnitude est l'énergie libérée par un séisme, indépendamment des dégâts provoqués. Elle est définie par une échelle logarithmique, où chaque unité ajoutée correspond à une multiplication par 32 de l'énergie libérée. Ainsi, un séisme de magnitude 9 libère, non pas 3 fois plus, mais 1 milliard 74 millions de fois plus d'énergie qu'un séisme de magnitude 3.
Carte du risque sismique en Franche-Comté © Géoportail)
(Cliquez sur la carte pour zoomer)
Le tableau ci-dessous répertorie l'ensemble des séismes qui ont affecté notre région au cours des derniers siècles.
Nous reprendrons plus en détail, les séismes dont l'épicentre se trouvait à proximité de notre commune.
Tableau des séismes ayant affecté
le Nord-Est de la France
et les régions voisines
Surlignés en jaune : séismes ayant affecté la Franche-Comté.
Surlignés en rouge : séismes d'intensité (= magnitude) supérieure ou égale à 7 ayant affecté les contrées voisines.
Date |
Heu- re |
Choc |
Localisation épicentrale |
Région ou pays de l'épicentre |
Inten- sité épi- centrale |
12/11/ 2005 |
19h 31 |
|
JURA SUISSE (N-E. AARAU) |
SUISSE |
5 |
8/09/ 2005 |
11h 27 |
|
MASSIF DU MONT-BLANC (VALLORCINE) |
ALPES SAVO- YARDES |
5 |
12/05/ 2005 |
1h 38 |
|
JURA SUISSE (N.E SOLOTHURN) |
SUISSE |
4 |
5/12/ 2004 |
1h 52 |
|
BADEN-WURTEMBERG (WALDKIRCH) |
ALLEMAGNE |
6 |
28/06/ 2004 |
23h 42 |
|
JURA SUISSE (N-E. AARAU) |
SUISSE |
|
21/06/ 2004 |
23h 10 |
|
JURA SUISSE(BALE) |
SUISSE |
5 |
23/02/ 2004 |
17h 31 |
|
JURA (S. BAUME-LES-DAMES) |
FRANCHE- COMTE |
5,5 |
22/02/ 2003 |
20h 41 |
|
PAYS FORESTIER SOUS-VOSGIEN (RAMBERVILLERS) |
VOSGES |
6,5 |
30/04/ 1989 |
3h 38 |
|
AVANT-PAYS JURASSIEN (FROIDEVAUX) |
FRANCHE- COMTE |
4,5 |
29/12/ 1984 |
11h 03 |
R |
HAUTES-VOSGES (ELOYES-REMIREMONT) |
VOSGES |
|
29/12/ 1984 |
11h 02 |
|
HAUTES-VOSGES (ELOYES-REMIREMONT) |
VOSGES |
6 |
13/10/ 1984 |
21h 23 |
|
AVANT-PAYS JURASSIEN (BESANCON) |
FRANCHE- COMTE |
4 |
5/09/ 1984 |
5h 16 |
|
ZURICH |
SUISSE |
6 |
21/06/ 1983 |
15h 03 |
|
JURA (ORNANS) |
FRANCHE- COMTE |
4,5 |
5/02/ 1983 |
16h 19 |
R |
AVANT-PAYS JURASSIEN (RANDEVILLERS) |
FRANCHE- COMTE |
|
3/02/ 1983 |
2h 48 |
|
AVANT-PAYS JURASSIEN (RANDEVILLERS) |
FRANCHE- COMTE |
4 |
18/07/ 1980 |
23h 03 |
E |
PLAINE DE HAUTE-ALSACE (HABSHEIM) |
ALSACE |
|
16/07/ 1980 |
15h 50 |
E |
PLAINE DE HAUTE-ALSACE (HABSHEIM) |
ALSACE |
4,5 |
15/07/ 1980 |
12h 17 |
|
PLAINE DE HAUTE-ALSACE (HABSHEIM) |
ALSACE |
6,5 |
3/07/ 1979 |
21h 13 |
|
PLATEAU SUISSE (MORAT) |
SUISSE |
|
3/09/ 1978 |
7h 08 |
|
JURA SOUABE (ONSMETTINGEN) |
ALLEMAGNE |
7,5 |
8/01/ 1975 |
9h 12 |
|
PLATEAUX JURASSIENS (SALINS-LES-BAINS) |
FRANCHE- COMTE |
|
8/03/ 1968 |
4h 01 |
|
PLAINE DE HAUTE-BOURGOGNE (PONTAILLER/SAONE) |
BOURGOGNE |
4,5 |
16/07/ 1967 |
14h 04 |
|
PLAINE DE HAUTE-BOURGOGNE (AUXONNE) |
BOURGOGNE |
5 |
10/07/ 1966 |
3h 45 |
|
AVANT-PAYS JURASSIEN (MONTAGNEY) |
FRANCHE- COMTE |
|
2/07/ 1966 |
6h 15 |
|
PLATEAU DE HAUTE-SAONE (FAUCOGNEY ?) |
FRANCHE- COMTE |
4 |
14/03/ 1964 |
2h 37 |
|
UNTERWALD (SARNEN) |
SUISSE |
7 |
25/04/ 1962 |
4h 44 |
|
VERCORS (CORRENCON-EN-VERCORS) |
DAUPHINE |
7,5 |
28/04/ 1961 |
20h 48 |
|
FORET NOIRE (LORRACH) |
ALLEMAGNE |
5,5 |
23/03/ 1960 |
23h 08 |
|
VALAIS (BRIG) |
SUISSE |
7 |
23/11/ 1955 |
6h39 |
E |
AVANT-PAYS JURASSIEN (MONTARLOT-LES-RIOZ) |
FRANCHE-COMTE |
6 |
21/11/ 1955 |
17h45 |
|
AVANT-PAYS JURASSIEN (CUSSEY) |
FRANCHE-COMTE |
|
3/11/ 1955 |
14h27 |
E |
AVANT-PAYS JURASSIEN (MONTARLOT-LES-RIOZ) |
FRANCHE-COMTE |
6 |
28/10/ 1955 |
7h19 |
E |
AVANT-PAYS JURASSIEN (MONTARLOT-LES-RIOZ) |
FRANCHE-COMTE |
|
29/07/ 1954 |
4 h 42 |
|
VALAIS (MONTANA) |
SUISSE |
6,5 |
19/05/ 1954 |
9 h 34 |
|
VALAIS (N-W. SION) |
SUISSE |
7 |
30/05/ 1946 |
4 h 41 |
R |
VALAIS (CHALAIS) |
SUISSE |
7 |
26/01/ 1946 |
3 h 15 |
R |
VALAIS (CHALAIS) |
SUISSE |
|
25/01/ 1946 |
21 h 39 min |
R |
VALAIS (CHALAIS) |
SUISSE |
|
25/01/ 1946 |
17 h 32 |
|
VALAIS (CHALAIS) |
SUISSE |
7,5 |
31/05/ 1936 |
5 h 39 |
|
AVANT-PAYS JURASSIEN (SELONCOURT) |
FRANCHE-COMTE |
4 |
30/12/ 1935 |
3 h 36 |
|
VALLEE DU RHIN (OFFENBURG) |
ALLEMAGNE |
7 |
30/12/ 1935 |
3 h 07 |
P |
VALLEE DU RHIN (OFFENBURG) |
ALLEMAGNE |
|
27/06/ 1935 |
17 h 19 |
|
JURA SOUABE (KAPPEL) |
ALLEMAGNE |
7,5 |
8/02/ 1933 |
7 h 07 |
|
VALLEE DU RHIN (RASTATT) |
ALLEMAGNE |
7 |
11/01/ 1931 |
23 h 50 |
E |
AVANT-PAYS JURASSIEN (HERIMONCOURT) |
FRANCHE-COMTE |
|
11/01/ 1931 |
20 h 20 |
E |
AVANT-PAYS JURASSIEN (HERIMONCOURT) |
FRANCHE-COMTE |
|
11/01/ 1931 |
19 h |
E |
AVANT-PAYS JURASSIEN (HERIMONCOURT) |
FRANCHE-COMTE |
|
11/01/ 1931 |
16 h 45 |
E |
AVANT-PAYS JURASSIEN (HERIMONCOURT) |
FRANCHE-COMTE |
4 |
10/01/ 1931 |
1 h |
E |
AVANT-PAYS JURASSIEN (HERIMONCOURT) |
FRANCHE-COMTE |
|
23/12/ 1930 |
2 h |
E |
AVANT-PAYS JURASSIEN (HERIMONCOURT) |
FRANCHE-COMTE |
|
20/12/ 1930 |
17 h 30 |
|
AVANT-PAYS JURASSIEN (HERIMONCOURT) |
FRANCHE-COMTE |
|
28/06/ 1926 |
22 h |
|
VALLEE DU RHIN (KAISERSTUHL) |
ALLEMAGNE |
7 |
8/01/ 1925 |
2 h 44 |
|
JURA SUISSE (ORBE-LIGNEROLLE) |
SUISSE |
6,5 |
19/11/ 1924 |
17 h 55 |
|
JURA SUISSE (ORBE) |
SUISSE |
|
1/03/1916 |
20 h 53 |
|
AVANT-PAYS JURASSIEN (DOLE) |
FRANCHE-COMTE |
5 |
15/12/ 1912 |
22 h 15 |
|
AVANT-PAYS JURASSIEN (HERIMONCOURT) |
FRANCHE-COMTE |
|
28/10/ 1911 |
22 h 17 |
|
AVANT-PAYS JURASSIEN (ECHENOZ-LE-SEC ?) |
FRANCHE-COMTE |
4 |
16/11/ 1911 |
21 h 26 |
|
JURA SOUABE (EBINGEN) |
ALLEMAGNE |
8,5 |
26/05/ 1910 |
7 h 12 |
|
JURA SUISSE (LAUFEN) |
SUISSE |
6 |
29/04/ 1905 |
1 h 59 |
|
MASSIF DU MONT-BLANC (LAC D'EMOSSON) |
SUISSE |
7,5 |
6/05/ 1898 |
13 h 10 |
|
OBERLAND (S. THUN) |
SUISSE |
6,5 |
22/02/ 1898 |
11 h 45 min |
|
JURA SUISSE (GRANDSON) |
SUISSE |
6,5 |
28/12/ 1892 |
6 h |
|
JURA (MAICHE, ST-HIPPOLYTE) |
FRANCHE-COMTE |
5 |
28/12/ 1892 |
2 h |
P |
JURA (MAICHE, ST-HIPPOLYTE) |
FRANCHE-COMTE |
|
27/12/ 1892 |
21 h |
P |
JURA (MAICHE, ST-HIPPOLYTE) |
FRANCHE-COMTE |
|
27/12/ 1892 |
13 h |
P |
JURA (MAICHE, ST-HIPPOLYTE) |
FRANCHE-COMTE |
|
25/12/ 1892 |
21 h 15 |
P |
JURA (MAICHE, ST-HIPPOLYTE) |
FRANCHE-COMTE |
|
10/09/ 1883 |
4 h |
R |
JURA (SANCEY-LE-GRAND) |
FRANCHE-COMTE |
|
7/09/ 1883 |
23 h 30 |
|
JURA (SANCEY-LE-GRAND) |
FRANCHE-COMTE |
|
22/07/ 1881 |
2 h 45 |
|
BELLEDONNE-PELVOUX |
ALPES SAVOYARDES |
7 |
8/10/ 1877 |
5 h 12 |
|
FAUCIGNY (LA ROCHE-SUR-FORON) |
ALPES SAVOYARDES |
7 |
2/04/ 1876 |
|
JURA SUISSE (NEUCHATEL-BIENNE ?) |
SUISSE |
5,5 |
|
10/11/ 1873 |
19 h 30 |
|
JURA (ORNANS) |
FRANCHE-COMTE |
|
14/09/ 1866 |
5 h 10 |
|
BRENNE (AZAY-LE-FERRON) |
BERRY |
7 |
23/10/ 1865 |
7 h 15 |
|
AVANT-PAYS JURASSIEN (BESANCON) |
FRANCHE-COMTE |
|
17/04/ 1862 |
8 h 10 |
|
PLAINE DE HAUTE-BOURGOGNE (SELONGEY) |
BOURGOGNE |
5 |
17/06/ 1858 |
10 h |
|
TERRITOIRE DE BELFORT (BEAUCOURT) |
FRANCHE-COMTE |
4,5 |
14/02/ 1857 |
|
PAYS DE MONTBELIARD |
FRANCHE-COMTE |
5 |
|
26/07/ 1855 |
14 h |
R |
VALAIS (VISP) |
SUISSE |
|
26/07/ 1855 |
10 h |
R |
VALAIS (VISP) |
SUISSE |
8 |
25/07/ 1855 |
12 h 50 |
|
VALAIS (VISP) |
SUISSE |
9 |
11/07/ 1852 |
|
|
TERRITOIRE DE BELFORT (BEAUCOURT) |
FRANCHE-COMTE |
|
24/08/ 1851 |
2 h |
Z |
OBERLAND (S-W. THUN ?) |
SUISSE |
|
16/05/ 1848 |
5 h |
|
PLATEAUX JURASSIENS (NOZEROY) |
FRANCHE-COMTE |
5,5 |
17/08/ 1846 |
7 h 40 |
|
PLATEAU SUISSE (YVERDON) |
SUISSE |
6,5 |
6/09/ 1843 |
9 h 28 |
|
VALLEE DU DOUBS (SOULCE) |
FRANCHE-COMTE |
|
24/01/ 1837 |
2 h |
Z |
VALAIS (BRIG) |
SUISSE |
7 |
27/08/ 1831 |
0 h 5 |
Z |
AVANT-PAYS JURASSIEN (BESANCON) |
FRANCHE-COMTE |
|
30/10/ 1828 |
7 h 20 |
|
AVANT-PAYS JURASSIEN (BESANCON) |
FRANCHE-COMTE |
7 |
26/10/ 1828 |
11 h 30 |
P |
AVANT-PAYS JURASSIEN (BESANCON) |
FRANCHE-COMTE |
6 |
16/12/ 1823 |
|
|
AVANT-PAYS JURASSIEN (BESANCON) |
FRANCHE-COMTE |
|
19/02/ 1822 |
8 h 45 |
Z |
BUGEY (BELLEY) |
BRESSE ET JURA BRESSAN |
7,5 |
11/03/ 1817 |
21 h 25 |
|
MASSIF DU MONT-BLANC (CHAMONIX) |
ALPES SAVOYARDES |
7 |
29/11/ 1784 |
22 h 10 |
|
SUNDGAU (ALTKIRCH ?) |
ALSACE |
6 |
15/10/ 1784 |
12 h 03 |
|
LAC DU BOURGET (AIX-LES-BAINS) |
ALPES SAVOYARDES |
6,5 |
6/07/ 1783 |
9 h 56 |
|
VALLEE DE L'OUCHE (BLIGNY) |
BOURGOGNE |
6 |
10/09/ 1774 |
16 h 30 |
|
LAC DES 4 CANTONS (LUCERNE) |
SUISSE |
8 |
18/01/ 1757 |
5 h 52 |
|
VOSGES COMTOISES (PLANCHER-LES-MINES) |
FRANCHE-COMTE |
6 |
18/02/ 1756 |
7 h 45 |
|
HAUTES-FAGNES (STOLBERG) |
ALLEMAGNE |
8 |
9/12/ 1755 |
14 h 45 |
|
VALAIS (BRIG) |
SUISSE |
8,5 |
26/02/ 1685 |
|
|
JURA SUISSE (AARAU ?) |
SUISSE |
|
12/05/ 1682 |
2 h 30 |
|
HAUTES-VOSGES (REMIREMONT) |
VOSGES |
8 |
12/12/ 1672 |
14 h |
|
JURA SUISSE (BALE ?) |
SUISSE |
|
24/01/ 1653 |
23 h |
|
JURA SUISSE (BALE) |
SUISSE |
|
21/09/ 1650 |
3 h |
|
JURA SUISSE (BALE) |
SUISSE |
6,5 |
15/06/ 1630 |
10 h |
|
JURA (PONT-DE-ROIDE ?) |
FRANCHE-COMTE |
|
30/05/ 1621 |
15 h |
|
JURA SUISSE (NEUCHATEL) |
SUISSE |
|
5/10/ 1614 |
1 h 45 |
|
FORET NOIRE (S. SCHOPFHEIM ?) |
ALLEMAGNE |
|
18/09/ 1601 |
1 h 45 |
|
LAC DES 4 CANTONS (LUCERNE) |
SUISSE |
8 |
13/11/ 1592 |
22 h |
|
AVANT-PAYS JURASSIEN (BESANCON) |
FRANCHE-COMTE |
|
11/03/ 1584 |
11 h 30 |
|
LAC LEMAN (MONTREUX) |
SUISSE |
7 |
18/10/ 1356 |
22 h |
|
JURA SUISSE (BALE) |
SUISSE |
9 |
18/10/ 1356 |
17 h |
P |
JURA SUISSE (BALE) |
SUISSE |
7,5 |
1/02/ 1267 |
2 h |
|
AVANT-PAYS JURASSIEN (BESANCON) |
FRANCHE-COMTE |
|
3/01/ 1117 |
17 h |
|
LOMBARDIE (VERONE) |
ITALIE |
|
Quelques explications sur la nomenclature employée dans ce tableau :
Nature du choc :
- C : choc principal
- R : Réplique
- E : Secousse individualisée d'un essaim
- P : Précurseur
- Z : Groupe de secousses d'un essaim
Degrés de l'intensité épicentrale :
- 4 : secousse modérée, ressentie dans et hors les habitations, tremblement des objets,
- 5 : secousse forte, réveil des dormeurs, chutes d'objets, parfois légères fissures dans les plâtres,
- 6 : dommages légers, parfois fissures dans les murs, frayeur de nombreuses personnes,
- 7 : dommages prononcés, larges lézardes dans les murs de nombreuses habitations, chutes de cheminées,
- 8 : dégâts massifs, les habitations les plus vulnérables sont détruites, presque toutes subissent des dégâts importants,
- 9 : destructions de nombreuses constructions, quelquefois de bonne qualité, chutes de monuments et de colonnes,
- 10 : destruction générale des constructions, même les moins vulnérables (non parasismiques),
- 11 : catastrophe, toutes les constructions sont détruites (ponts, barrages, canalisations enterrées...).
Remarques : le 18 octobre 1356, deux séismes de magnitudes estimées par le site du BRGM à 9 et 7,5 ont affecté la région bâloise à proximité de la centrale nucléaire de Fessenheim (Haut-Rhin).
En ce qui concerne cette centrale de Fessenheim, la plus vieille du parc français, il s'agit du séisme de référence. Sa magnitude a été estimée à partir des registres notariaux et des annales religieuses. En fait, les avis divergent : EDF évalue sa magnitude à 6,1 ; l'Institut de radioprotection et de sûreté nucléaire (IRSN) à 6,8 ; et une étude suisse de 2009 à 7,1, ce qui est 30 fois plus violent que l'estimation de l'exploitant !
EDF a beau ajouter une marge de sûreté d'un demi-degré de magnitude au séisme historique de référence, la centrale de Fessenheim n'a pas été construite pour lui résister...
Le 19 février 1822, un séisme d'intensité 7,5 a affecté le Bugey où se situe la centrale nucléaire du Bugey.
Les séismes ayant affecté plus spécialement notre région
En partant du plus récent au plus ancien :
1. Vallorcine : 8 septembre 2005
Ce séisme a produit quelques légères secousses dans la région bisontine (voir carte ci-dessous).
2. Dammartin les Templiers (23/02/2004)
Séisme bien ressenti dans la région bisontine (voir carte ci-dessous).
3. Séisme de Rambervillers (22/02/2003)
Séisme faiblement ressenti dans la région bisontine (voir carte ci-dessous).
5. Séisme de Thise (30/10/1828)
Ce séisme d'intensité 7 a produit des dégâts dans la région bisontine et notamment à Thise. Une douzaine de cheminées et des pans de murs entiers se sont écroulés. La tourelle jouxtant le clocher de l'église "s'en est séparée d'un pouce environ". L'eau de la fontaine publique s'est troublée une demi-heure après la secousse.
6. Séisme de Thise (26/10/1828)
Ce séisme d'intensité 6 a produit également des dégâts dans la région bisontine et notamment à Thise et à Miserey. À Thise, des cheminées s'écroulent et l'église en reconstruction est endommagée.
7. Séisme de Bâle (18/10/1356)
Le séisme de Bâle a été violemment ressenti dans la région. À Besançon, la Tour de Vaite ne résistera pas à la réplique survenue dans la soirée.
Pour en savoir plus : Site du BRGM
Le tsunami qui a noyé Genève en 583
On peut rapprocher de ces phénomènes sismiques intéressant la région le tsunami qui a noyé Genève en 563. Cette année-là, une vague gigantesque a balayé les rives du Léman atteignant huit mètres à Genève et treize à Lausanne selon les simulations de Katrina Kremer de l'université de Genève (décembre 2012).
Si l'existence d'un raz-de-marée en l'an 563 était déjà établie par des témoignages historiques, son origine demeurait controversée. Pour y voir plus clair, l'équipe de Katrina Kremer a sondé le lac et repéré, au plus profond, une vaste couche de sédiments - 250 millions de mètres cubes - qui se seraient déposés brutalement à cette époque. Une observation qui leur permet de conforter l'un des scénarios envisagés : l'effondrement d'un pan de la montagne dans le Rhône, en amont du lac, aurait entraîné un déplacement massif de sédiments, provoquant ainsi le tsunami. Quinze minutes après l'effondrement, la vague touchait Lausanne. Cinquante-cinq minutes plus tard, c'était au tour de Genève. Une catastrophe qui pourrait bien se reproduire, menaçant le million de riverains du lac. La cause de ce tsunami n'était donc pas un séisme, mais un glissement de terrain.
L'Arc jurassien sous surveillance GPS
Le laboratoire Chrono-environnement de l'Université de Franche-Comté est à l'origine d'un projet d'installation de six stations permanentes GPS de surveillance de l'Arc du Jura. Ces six stations seront progressivement installées au cours du second semestre 2013 et au cours de l'année 2014.
Les vingt séismes les plus violents en métropole depuis 1900
Le magazine Sciences et Avenir publie sur son site une carte interactive concernant les séismes les plus violents concernant la métropole depuis 1900.
06:01 Publié dans Environnement-Écologie, Géologie-hydrogéologie-Climatologie, Volcanologie-Sismologie | Tags : séisme, franche-comté, thise, besançon, bâle, fessenheim | Lien permanent | Commentaires (0) | Facebook | | |
21/06/2010
La pomme de terre OGM "Amflora" interdite au Luxembourg
Le Luxembourg interdit la pomme de terre OGM "Amflora" !
par Greenpeace Luxembourg
Le 16 juin 2010, lors du colloque "La sécurité dans mon assiette" sur la sécurité de la chaîne alimentaire, le Ministre de la Santé luxembourgeois Mars Di Bartolomeo, en présence de Romain Schneider ministre de l’Agriculture, a interdit la culture de la pomme de terre OGM Amflora de BASF au Luxembourg.

L’interdiction de la pomme de terre OGM au Luxembourg a été annoncée quelques mois à peine après son autorisation par la Commission européenne et ceci devant des hauts représentants de l’autorité en charge de la sécurité alimentaire en Europe (EFSA).
C’est d’ailleurs au même endroit (Centre Culturel de rencontre Abbaye de Neumünster) que le Luxembourg avait déjà interdit le maïs transgénique MON810 en 2009.
Le message politique est courageux et sans appel possible : Le Luxembourg clame haut et fort qu’il n’est pas prêt à se laisser dicter un menu OGM par la Commission européenne. Après l’Autriche, c’est le deuxième état membre de l’Union européenne à prendre la décision de protéger les consommateurs et l’agriculture des conséquences négatives d’Amflora.
Greenpeace et les organisations partenaires de l’Initiative Luxembourg sans OGM (1) félicitent le Ministre de la Santé d’avoir pris ses responsabilités dans l’intérêt du consommateur et encouragent le Gouvernement à continuer de s’opposer résolument à la politique pro-OGM de la Commission européenne.
Une procédure d’évaluation qui doit être profondément réformée en Europe
Le 2 mars 2010, la Commission européenne avait autorisé la culture, l’utilisation dans les matières fourragères et la présence jusqu’à 0,9% dans l’alimentation humaine de la pomme de terre OGM Amflora développée par le géant allemand de la chimie BASF. Cette décision avait été prise malgré les évidences scientifiques relatives au risque de résistances aux antibiotiques.
Greenpeace et les organisations de l’initiative Luxembourg sans OGM tiennent à rappeler que procédure d’évaluation et d’autorisation des OGM dans l’Union européenne est défaillante et doit être réformée.
Les effets à long terme des OGM sur l’environnement et sur la santé, ainsi que leurs coûts socio-économiques pour toute la filière agricole ne sont actuellement pas pris en compte. « Nous demandons au Gouvernement luxembourgeois de continuer son engagement en faveur réforme de la une procédure d’évaluation et d’autorisation des OGM qui protège directement au niveau européen les consommateurs, l’environnement et l’agriculture des effets négatifs des OGM », déclare Maurice Losch de Greenpeace Luxembourg.
(1) : Les 29 organisations de l’Initative "Luxembourg sans OGM" :
Aide à l’Enfance de l’Inde, Association Solidarité Luxembourg Nicaragua, ASTM, Attac Luxembourg, Bauerenallianz, bioLABEL Lëtzebuerg, BIONA, Caritas Luxembourg, Demeter Bond Lëtzebuerg, Église Catholique de Luxembourg, Ëmweltberodung Lëtzebuerg asbl. (EBL), FCPT – SYPROLUX, FNCTTFEL – Landesverband, Fondation Hëllef fir d’Natur, Frères des Hommes, GREENPEACE Luxembourg, Haus vun der Natur, Initiativ Liewensufank, LCGB, Lëtzebuerger Natur- a Vulleschutzliga, Lëtzebuerger Landesverband fir Beienzuucht, Life asbl., Mouvement Écologique, OGBL, Slow Food Lëtzebuerg, SOS Faim Luxembourg, Stroossekanner Sao Paulo a.s.b.l., TransFair – Minka a.s.b.l., Union Luxembourgeoise des Consommateurs (ULC).
17:22 Publié dans Biologie, Environnement-Écologie, Nature et santé | Tags : greenpeace, ogm, santé, pomme de terre, luxembourg | Lien permanent | Commentaires (0) | Facebook | | |
20/06/2010
Le désastre pétrolier dans le Golfe du Mexique
Le désastre pétrolier dans le Golfe du Mexique
(Dernière mise à jour : 2 janvier 2016)
Les faits :
La plateforme Deepwater Horizon avant la catastrophe
20 avril 2010 : À la suite d’une explosion, un incendie ravage Deepwater Horizon, la plateforme exploitée par BP à 80 kilomètres des côtes de la Louisiane, faisant 11 morts. Deux jours plus tard, elle sombre dans l’océan.
Vue satellite de la fuite de pétrole

Deepwater Horizon en feu - Le 21 avril 2010, l’incendie fait toujours rage sur la plateforme de BP dans le golfe du Mexique. Elle sombrera le lendemain
25 avril : Selon les estimations des gardes-côtes américains, la nappe d’hydrocarbures s’échappant du puits situé à 1 500 mètres de profondeur s’étend sur une surface de 32 kilomètres carrés. Au total, trois fuites sont repérées. BP envoie quatre robots sous-marins pour tenter de fermer la valve de sécurité des puits, en vain.
Des navires capturent "au lasso" des nappes de pétrole
28 avril : Les premières opérations de brûlage de la nappe de pétrole sont lancées.
29 avril : Le pétrole atteint les marais proches du delta du Mississippi, un écosystème particulièrement fragile.
Des barrages flottants ont été mis en place
près de la côte pour protéger les pêcheries
Barrages flottants destinés à protéger
les sites de nidification des oiseaux marins
Les marais côtiers de la Louisiane constituent
un sanctuaire pour la faune,
en particulier les oiseaux aquatiques
30 avril : Après la Louisiane, la Floride, l’Alabama et le Mississippi décrètent l’état d’urgence. Le gouvernement américain déclare cette marée noire "catastrophe nationale".
1er mai : La nappe d’hydrocarbures s’étend à présent sur environ 1 500 kilomètres carrés.
2 mai : Interdiction de la pêche dans les eaux touchées par la marée noire.
3 mai 2010 : la Garde nationale construit une barrière Hensco sur l'île Dauphin, Alabama
5 mai : Des robots sous-marins parviennent à colmater l’une des trois fuites, mais le volume de pétrole qui s’échappe du puits reste colossal (5 000 barils, soit 800 000 litres par jour, selon les estimations de BP).
8 mai : BP pose sur la fuite principale un couvercle de confinement, un dôme de 12 mètres de hauteur et pesant 100 tonnes. Mais des cristaux similaires à de la glace se forment et empêchent le pompage du pétrole jusqu’à la surface. Le dispositif est retiré.
16 mai : BP parvient pour la première fois à pomper du pétrole en introduisant un tuyau de 15 centimètres de diamètre dans le puits.
Un énorme silo blanc d'une centaine de tonnes a été
embarqué à bord d'une barge partie de Louisiane
26 mai : Lancement de "Top Kill", l’opération la plus ambitieuse de BP. Le géant pétrolier tente d’injecter des boues lourdes dans le puits pour stopper l’écoulement de brut. Après trois jours de travaux, BP annonce que la tentative est un échec.
3 juin : Un dôme en forme d’entonnoir est installé sur la fuite principale, permettant de siphonner le pétrole jusqu’à un navire stationné en surface. Le nouveau dispositif comporte des soupapes pour éviter la formation des cristaux. Près de 15 000 barils de brut sont récupérés chaque jour. Selon le directeur général de BP, Tony Hayward, ce volume représenterait la « grande majorité » du pétrole qui s’échappe du gisement. Ce que réfute le responsable des gardes-côtes américains, Thad Allen, qui pencherait plutôt pour le tiers ou la moitié de la fuite.

Premières victimes : les oiseaux (cliché Géo)
Le Pélican marron, qui habite dans les marécages de la Louisiane, est devenu le symbole du désastre écologique qui frappe le golfe de Mexique. Cette région de marais et de bayous abrite une grande biodiversité, protégée par des réserves naturelles. Celle de Breton National Wildlife Refuge, située sur les îles Breton et Chandeleur, au sud de la Louisiane, a été gravement touchée par la nappe de pétrole. Et ceci au plus mauvais moment : en pleine période de reproduction et de nidification des oiseaux.
Près de 600 oiseaux, 250 tortues de mer et 30 dauphins figurent parmi les premières victimes. Les oiseaux mazoutés sont amenés au centre vétérinaire de Fort Jackson, mais ils n’ont que 50 % à 70 % de chances de survie, estiment les vétérinaires. Le pétrole qu’ils ont ingéré leur cause des dégâts dans les poumons et le foie.

Le delta du Mississippi asphyxié (cliché satellite Géo)
Cette image satellite en fausses couleurs prise le 24 mai 2010 montre de manière spectaculaire à quel point la marée noire a envahi tout le delta du Mississippi. En rouge : la végétation, et en gris... le pétrole.
À ce jour, environ 200 kilomètres de côtes de quatre états – Louisiane, Mississippi, Alabama et Floride – sont touchés. D’après les spécialistes, les dégâts sont si importants que, dans certaines zones, il n'y a plus aucune trace de vie. L’amiral Thad Allen, responsable des gardes-côtes américains, estime que restaurer l’écosystème dévasté prendra des années.
Enfin, il est probable que la marée noire aura un impact sur d’autres états, tels que le Mexique, les Bahamas, les Bermudes ou Cuba dans les mois à venir.

Un écosystème ravagé (cliché aérien Géo)
Le 29 avril, le pétrole a atteint les marais proches du delta du Mississippi, un écosystème foisonnant et particulièrement fragile. De nombreuses espèces de poissons et de crustacés vivent dans cette zone humide, qui constitue aussi une étape importante pour les oiseaux migrateurs, qui y nidifient. Au large des côtes, les eaux du golfe du Mexique abritent également une riche faune marine (dauphins, tortues marines, baleines, crevettes, plancton…).
La marée noire aura inévitablement des conséquences à long terme sur cet écosystème. L’un des risques est le phénomène de bioaccumulation des hydrocarbures dans les tissus des organismes vivants, c’est-à-dire la transmission de substances toxiques entre les maillons de la chaîne alimentaire, le prédateur ingérant les polluants présents dans sa proie.
Serpent toxique (cliché aérien Géo)
Comme un serpent empoisonné qui fraierait dans le golfe du Mexique, une traînée orange flotte à la surface de l’eau. La composition de cette nappe aux couleurs chatoyantes ? Du pétrole coagulé par les dispersants et du brut fraîchement échappé du puits, situé à 14 kilomètres de là.


Incendie provoqué d'une nappe (cliché Coast Guards)
Chargé des opérations de nettoyage, BP est critiqué pour l’utilisation de ces dispersants qui permettent de réduire le pétrole à de petites particules. Depuis le début de la catastrophe, plus de 4 millions de litres de produits ont ainsi été déversés dans les eaux territoriales américaines. Le Coredit 9500, l’un des dispersants utilisés, est susceptible de provoquer des problèmes de santé.

Le serpent pollue le delta du Mississipi (cliché aérien Greenpeace)
Voir la suite dans : "Deepwater Horizon : autopsie d'une catastrophe"
Voir également : Vidéos Greenpeace et Diaporama Greenpeace
Ajout du 25 août 2014
Un article de presse pêché dans Humanité et Biodiversité : Quand les forages pétroliers menacent les 55 derniers dauphins maui de la planète.
Ajout du 2 janvier 2016
La dispersion du pétrole de Deep Water Horizon a été néfaste (Sciences & Avenir, n° 827, janvier 2016)
Des bactéries gloutonnes en pétrole ont été supprimées par les produits chimiques déversés pour nettoyer la surface de l'eau en 2010.
Le remède aura été pire que le mal : des expériences de l'université de Géorgie (États-Unis) montrent que si les dispersants chimiques déversés par avion après la catastrophe de Deep Water Horizon (lire Sciences & Avenir n° 763, septembre 2010 et n° 778, décembre 2011) ont bien nettoyé la surface de l'eau, ils ont en revanche détruit une population de bactéries naturellement gloutonnes en pétrole. Du coup, l'huile noire et lourde tapisserait désormais une grande partie des fonds du golfe du Mexique.
Retour en 2010. La fuite d'un puits de forage en eau profonde de BP provoque le déversement de 172 millions de litres d'hydrocarbure dans l'océan. En réponse, près de 7 millions de litres de Corexit 9500 sont largués pour "dégrader le pétrole en surface et dans les eaux profondes". Le hic, selon la spécialiste des sciences marines Samantha Joye, qui a testé en laboratoire les différents panaches océaniques et leurs effets sur 50 000 bactéries, c'est que ce dispersant — autorisé — ne dégrade pas entièrement le pétrole. Pis, il favorise l'expansion des micro-organismes Colwellia qui "effilochent" le pétrole, tout en limitant sévèrement la prolifération des Marinobacter qui dégradent le mieux le brut lourd. Les résultats sont maintenant sur le bureau de l'Agence de protection environnementale américaine.
10:08 Publié dans Environnement-Écologie, Océanographie | Tags : marée noire, dispersants, deepwater horizon, coredit 9500, golfe du mexique, bp, british petroleum, plateforme pétrolière, pétrole offshore, floride, louisiane, bayous, oiseaux marins | Lien permanent | Commentaires (0) | Facebook | | |
DeepWater Horizon : marée noire, autopsie d'une catastrophe
Marée noire, autopsie d'une catastrophe
(Suite de désastre pétrolier dans le Golfe du Mexique)
(Dernière mise à jour : 16/12/2011)
Avec l'explosion du puits DeepWater Horizon, c'est un désastre à long terme qui a touché le golfe du Mexique. Enfin, dans les derniers jours de juillet, la pose d'un nouvel entonnoir a permis de stopper la quasi-totalité des écoulements. Enfin BP a annoncé être enfin parvenu à boucher le puits lors de l'opération Static kill. Il a été définitivement colmaté le 19 septembre 2010.
L'ampleur de la mobilisation a été sans égale pour une marée noire : 45 000 intervenants, 4000 bateaux ont été mobilisés pour combattre la catastrophe. De leur côté, des centaines de scientifiques et d'experts se mobilisent pour en mesurer l'ampleur. Contrairement à celle de l'Exxon Valdez, qui souilla durablement les côtes de l'Alaska en 1989 et dont l'impact est encore visible à l'heure actuelle, celle-ci affecte directement le territoire des États-Unis : le golfe est une destination touristique majeure et la pêche locale fournit 20 % des produits de la mer d'origine nationale consommés sur le marché intérieur. Sans compter un patrimoine naturel unique au monde : les bayous c'est-à-dire les marais côtiers et intérieurs de Louisiane représentent 40 % des marais américains. Ils se rencontrent aussi sur les côtes d'Alabama, du Mississippi et de Floride. Rien d'étonnant à ce que les deux agences fédérales en charge de la mer et de la recherche, NOAA (National Oceanic and Atmospheric Administration) et NSF (National Science Foundation), aient débloqué des moyens d'urgence pour permettre aux universités américaines de travailler sur ce désastre imprévu.
Infographie "Sciences et Avenir", septembre 2010
De nombreux navires océanographiques appartenant aux universités ont été réquisitionnés pour des campagnes dans le golfe. L'objet principal de leur mission : évaluer l'étendue et la composition chimique des panaches de pétrole flottant entre deux eaux notamment la quantité de méthane dissous retenu dans l'eau ou émis dans l'atmosphère. Les spécialistes ont en effet signalé dès le début l'importante concentration en méthane de ce pétrole brut : plus de 40 % comparés aux 5 % d'un pétrole ordinaire extrait à terre. C'est la raison des flammes au-dessus de la fuite : grâce à l'entonnoir placé jusqu'à la mi-juillet sur le puits, l'énorme navire Discoverer Enterprise captait entre 20 et 40 % de la fuite (estimée mi-juillet à 60 000 barils/jour) et séparait le gaz qu'il brûlait sur place. Il était aidé dans cette tâche par un second navire géant qui, lui, brûlait le reste du méthane et un maximum du pétrole flottant, aspiré sur l'eau environnante par environ 50 "navires écrémeurs".
Au-delà de l'embouchure du Mississipi, les dégâts sont bien visibles sur les roselières émergeant de l'eau, noires et gluantes sur 30 centimètres de hauteur, révélant l'insidieuse pénétration de la marée noire dans les tréfonds du marais. En dépit de la pose de milliers de kilomètres de boudins absorbants destinés à protéger ce milieu fragile et de la construction pharaonique d'îles artificielles de sable face aux passes conduisant aux lacs intérieurs, l'huile pénètre partout, poussée par les vents violents. Dans le golfe, ces marais amortissent habituellement l'impact des tempêtes sur les côtes, ralentissent l'érosion, capturent et absorbent les nutriments en excès avant que ceux-ci n'atteignent les eaux vives. Tout cela est menacé. Car il ne suffira pas que le pétrole ait disparu de la surface de la mer pour que la vie reprenne. Les sédiments imprégnés vont relarguer pendant des années des "éclats" de pétrole concentrant métaux, dispersants et autres composés toxiques. En mer, toute la chaîne alimentaire sera touchée à commencer par le phytoplancton et les larves d'invertébrés et de poissons. Difficile de savoir comment résisteront les habitants des marais, notamment les plus emblématiques, tortues, serpents et alligators. Selon la quantité de pétrole, ils seront plus ou moins affectés. Les adultes survivront mieux que les jeunes.
Le montant total des dommages pour la compagnie BP s'élevait à 8,1 milliards d'euros au 29 septembre 2010. On ne saura jamais combien de pétrole s'est écoulé dans le golfe. Le chiffre de 780 millions de tonnes de pétrole est avancé. Si la nappe est désormais peu visible sur la côte, seulement 20 % du pétrole répandu aurait été retiré de l'océan, estime la Woods Hole Océanographie Institution (WHOI) de l'université de Géorgie dans Science. Le reste serait coincé à environ 1100 mètres de profondeur sur 35 kilomètres de large, selon des prélèvements effectués dans la colonne d'eau à proximité du lieu de la catastrophe.
Ce panache de faible concentration se déplace de six à sept kilomètres par jour et fluctue selon les marées. « Il fait 200 m de haut et ne varie que de quelques dizaines de mètres », précise Richard Camilli, directeur de l'équipe du WHOI. Nous voilà loin des propos optimistes tenus le 4 août par la conseillère pour l'énergie et le climat de l'administration Obama ! Carole Browner claironnait alors que les trois quarts des 780 millions de litres de pétrole déversés dans le golfe se seraient évaporés sous l'effet du rayonnement solaire, ou auraient été absorbés par la vie bactérienne ou encore brûlés à la surface. La question qui se pose est de savoir comment vont évoluer les molécules d'hydrocarbures coincées à ces profondeurs.
En fait, dans une étude plus récente (septembre 2011) comparant la composition du pétrole échappé du puits de 1500 m de fond à celle du pétrole retrouvé en surface, Christopher Reddy, de l'Institut océanographique de WoodsHole (États-Unis), a montré que seuls les composés insolubles sont remontés à la surface. Les composés (benzène, éthylbenzène, toluène, xylènes...), hautement toxiques, demeurent à 1100 m de profondeur. L'immense nappe de pétrole répandue dans le Golfe du Mexique n'était donc que la partie émergée de l'iceberg.
Des bactéries pourraient-elles venir à bout de ce pétrole profond ?
Science a publié une étude rassurante du Berkeley National Laboratory (Californie). Cette équipe a en effet repéré dans l'eau prélevée dans le panache profond plusieurs espèces de protéobactéries gamma (l'un des cinq groupes de protéobactéries), qui seraient capables de digérer des composés du pétrole sans utiliser d'oxygène. Ces bactéries inconnues, révélées par analyse génétique, sont stimulées par les milieux froids et devraient donc dégrader les molécules à cette profondeur. En cuves de laboratoire, en tout cas, elles ont réduit de moitié en moins de six jours la concentration en pétrole. Cette performance est-elle la même à – 1000 m ? De nombreux microbiologistes sont sceptiques. Ils se demandent par ailleurs si ces micro-organismes sont capables d'absorber les composants des hydrocarbures connus pour être les plus difficilement assimilables par les êtres vivants. Le suivi du panache dans les prochains mois est donc essentiel.
Quoiqu'il en soit, une observation de très long terme sera nécessaire pour tirer le bilan de cette marée noire qui n'a jamais eu de précédent par son ampleur. S'il est encore trop tôt pour prédire l'impact précis de cet accident industriel sur l'écosystème, les scientifiques s'accordent sur un point : il sera majeur.
Deepwater Horizon mai 2011 : où est le pétrole ?
Début mai 2011, le site Internet du pétrolier BP dédié à la catastrophe de Deepwater Horizon répercutait que 68 très rares tortues de Kemp avaient nidifié sur des plages du Texas. Une preuve, semblait dire le pétrolier, que la nature reprend ses droits, un an après la destruction de la plate-forme Deepwater Horizon, le 21 avril 2010. Le puits a été rebouché le 19 septembre et entre temps 800 millions de litres de brut se sont répandus dans le golfe du Mexique. Les scientifiques sont bien plus prudents quant à la santé retrouvée de l'océan. Le mystère demeure sur ce qu'est devenue la masse d'hydrocarbures relâchée à 1500 m de profondeur : absorbée par les bactéries, flottant entre deux eaux, déposée sur le benthos, l'ensemble des organismes vivant dans le fond des mers ? Personne ne peut non plus prédire l'impact des sept millions de litres de dispersants chimiques injectés. Le Conseil de défense des ressources naturelles a de son côté calculé que 6000 oiseaux, 600 tortues de mer et une centaine de cétacés ont péri. De nombreux endroits de la côte de la Louisiane restent pollués même si les dernières zones de pêche fermées ont réouvert le 19 avril. BP a décidé le 22 avril d'octroyer 680 millions d'euros supplémentaires pour la restauration des milieux. La catastrophe va lui coûter au moins 28 milliards d'euros.
Dans un article publié dans le n° de Sciences et Avenir de décembre 2011, Hélène Crié-Wiesner fait le point sur la situation dans le Golfe du Mexique.
Comme si le golfe du Mexique, où s'est déversée cette gigantesque marée noire, n'avait pas assez souffert, il a également dû absorber au printemps 2011 la plus importante crue du Mississippi jamais enregistrée dans l'histoire américaine. Cet afflux brutal de millions de litres d'eau charriant une quantité vertigineuse de polluants venus du continent a accru la fragilité des zones côtières, qui n'avaient pas récupéré depuis la marée noire.
Travaillant sur les problèmes d'impact sur l'environnement de cette marée noire, les chercheurs indépendants décrivent une situation désastreuse : plus de 26 000 hectares de délicats marais côtiers « semblent malades » ; le système immunitaire de certains poissons « paraît compromis » ; la croissance des algues et du plancton a « ralenti » dans certains endroits ; « une couche de boue noire et gluante » recouvre les fonds aux alentours du puits accidenté ; des créatures vivant en eaux profondes - coraux, étoiles de mer, vers... - ont été photographiées gisant mortes à plus de mille mètres sous l'eau ; des millions de poissons et de crustacés, des milliers d'oiseaux et des centaines de tortues et de dauphins sont régulièrement trouvés morts, leurs tissus imprégnés de pétrole. Ces renseignements ne sont pas contestés par les rapports officiels. Mais l'enjeu est désormais de fournir des preuves pour affirmer que c'est bien le pétrole issu de la plate-forme gérée par BP qui est à l'origine de ces dégâts.
Qu'est-il advenu du pétrole déversé à jet continu pendant tous ces mois ? Dans son rapport, la NOAA donne des estimations : 25 % s'est évaporé ou a été absorbé par les innombrables bactéries utilisant le pétrole pour leur métabolisme; 17 % a été récupéré ; 16 % a été traité par le dispersant chimique qui a « cassé » les molécules du brut en fines gouttelettes réparties ensuite dans l'eau en panaches discrets ; 13 %, violemment projeté à la sortie du puits, s'est aussi divisé en fines gouttelettes ; 5 % a été brûlé à la surface de la mer et 3 % a été « épongé » à terre et en mer par les nettoyeurs et les boudins flottants. La NOAA évalue entre 11 et 30 % le « pétrole résiduel », dont personne ne sait exactement où il se trouve ni sous quelle forme. Le seul désormais visible est celui qui englue encore les côtes de Louisiane et que l'on ne collecte plus. En février, les gardes-côtes ont en effet demandé à ce que l'on interrompe le nettoyage systématique exigé de BP par certains politiques locaux, notamment sur les plages : ces dernières sont écologiquement handicapées par ce grattage qui empêche tout renouvellement de l'écosystème. Les opérations se poursuivent en revanche dans certains marais. Pour Nancy Rabalais, spécialiste des organismes marins au Louisiana Universities Marine Consortium, « on peut très difficilement se faire une idée de la quantité de pétrole dans les marais intérieurs et côtiers, dans les mangroves, ainsi que dans certaines "îles barrières" qui défendent l'entrée des passes. Mais certains dégâts sont invisibles : le pétrole a été recouvert par des sédiments. L'huile empêche le travail des bactéries, l'oxygène n'arrive plus aux racines et il y a forcément une perte de la masse racinaire. On a vu des marais mourir ici et là, mais repousser ailleurs directement à travers le pétrole. Il est trop tôt pour savoir comment les choses vont évoluer. »
Il faut noter que l'exploitation a continué comme si de rien n'était. On comptait 10 % de plates-formes supplémentaires dans le golfe du Mexique en février 2011 par rapport à l'été 2010. En additionnant les structures en place depuis 1910 actives ou à l'abandon, le nombre total de plates-formes gazières et pétrolières se monte à plus de 3858, dont 3000 dans les seules eaux louisianaises, selon le dernier chiffre officiel communiqué en 2006 par la NOAA (National Oceanic and Atmospheric Administration). Le gouvernement avait bien décidé d'un moratoire sur les forages en eaux profondes, mais il l'a levé en octobre 2010, exigeant en contrepartie de nouvelles règles de sécurité.
Plus de 4000 plates-formes dans le golfe
(document BOEMRE, Secretary of Interior)
L'Europe risque-t-elle d'être touchée ?
Infographie "Sciences et Avenir", septembre 2010
Le Gulf Stream, qui naît entre la Floride et les Bahamas, pourrait emporter le pétrole, dilué, jusqu'en Europe. Une fois embarquées par le courant, les nappes vont remonter vers le Nord. En général, le Gulf Stream ne s'approchant guère des côtes américaines, les nappes devraient épargner les rivages du Sud-Est des États-Unis. Mais des vents locaux peuvent toutefois pousser des nappes diluées ici et là. Le pétrole peut effectivement arriver en Europe, mais alors il sera très dilué et détectable seulement en laboratoire. Pour autant, ce sera toujours du pétrole, avec un impact sur les écosystèmes.
Sources :
- Chauveau Loïc, Sciences & Avenir, octobre 2010, p. 32.
- Crié-Wiesner Hélène, Marée noire, autopsie d'une catastrophe, Sciences et Avenir sept 2010.
- Crié-Wiesner Hélène, Marée noire, un tiers du pétrole porté disparu, Sciences et Avenir déc 2011.
- La tête au carré, émission de France Inter du 14 septembre 2010.
09:34 Publié dans Environnement-Écologie, Océanographie | Tags : marée noire, dispersants, deepwater horizon, coredit 9500, golfe du mexique, bp, british petroleum, plateforme pétrolière, pétrole offshore, floride, louisiane, bayous, oiseaux marins | Lien permanent | Commentaires (0) | Facebook | | |
19/06/2010
Non à la destruction du site de Malbouhans !
Non à la destruction du site de Malbouhans !
Le Tarier des prés menacé !

Le projet de création d’une ZAC porté par le Syma Arémis-Lure (et soutenu par le Conseil Général de la Haute-Saône) est toujours d’actualité !
La demande de la LPO Franche-Comté adressée en septembre 2008 au préfet de la Haute-Saône afin de désigner le site dans le réseau Natura 2000 est restée pour l’heure sans réponse.
Une ZAC à cet endroit fera disparaître la population de Tariers des prés (espèce inscrite sur la Liste Rouge des oiseaux menacés de Franche – Comté dans la catégorie « Vulnérable ») ainsi que la plupart des surfaces de pelouses acidiclines du Violion caninae, habitat d’intérêt communautaire, prioritaire en matière de conservation (inscrit à l’annexe I de la directive « Habitats »).
Considérant que ce dommage n’est pas compensable du fait de la rareté de certains habitats et des menaces de disparition très fortes pesant sur le Tarier des prés, la LPO Franche-Comté demande l’abandon de ce projet sur ce site et la préservation intégrale du site de Malbouhans avec mise en place d’une gestion conservatoire par le Conseil Général de la Haute-Saône (propriétaire des terrains).
A l’heure où la préservation de la biodiversité est reconnue comme une priorité internationale (rappelons que l’année 2010 a été déclarée année internationale de la biodiversité), la LPO Franche-Comté considère que la destruction d’un tel site par une collectivité territoriale, qui plus est avec l’aide de financements publics, est aujourd’hui inacceptable et en totale contradiction avec nos engagements européens et avec ceux pris au niveau national lors du Grenelle de l’Environnement.
A l’heure actuelle, ce projet de ZAC est probablement le projet le plus « grenello-incompatible » de Franche-Comté.
Merci de soutenir l’action de la LPO Franche-Comté pour la préservation intégrale du site de Malbouhans : signez et faites signez la pétition en ligne sur le site de la LPO Franche-Comté.
Pour signer la pétition en ligne, consultez le lien suivant :
17:17 Publié dans Environnement-Écologie, Ornithologie | Tags : écologie, habitats, malbouhans, haute-saône, tarier des prés, ornithologie, oiseaux, lpo | Lien permanent | Commentaires (2) | Facebook | | |
18/06/2010
La forêt de la Serre en danger
La forêt de la Serre en danger
La Serre constitue un massif de roches cristallines, une singularité dans le massif calcaire du Jura, ce qui lui vaut son classement en zone Natura 2000.
Une menace plane sur ce massif et fait l'objet de la cyberaction ci-dessous : un projet d’ouverture d’une carrière au cœur du massif de la Serre.
Les visiteurs de ce blog sont invités à participer à la pétition qui s'oppose à ce projet.
Cyber @ction 364
18 juin L’appel de la forêt, agir pour la biodiversité
Pour participer 1 simple CLIC ICI suffit
http://www.cyberacteurs.org/actions/presentation.php?id=118
Le 15 avril 2010, le Ministère de l’écologie rappelait dans une circulaire aux préfets les conditions d’évaluation des incidences environnementales en site NATURA 2000. Voici l’heure de passer du discours à la pratique en dénonçant le projet d’ouverture d’une carrière au cœur du massif de la Serre dans le Jura !
Biodiversité en danger : Avec France Nature Environnement et ses associations locales fédérées (La Commission de Protection des Eaux, du Patrimoine, de l'Environnement, des Sous-sols et des Chiroptères (CPEPESC), Franche-Comté Nature Environnement, Jura Nature Environnement et Serre Vivante) protégeons un site NATURA 2000…
Rappel : le massif de la Serre : une faune et une flore d’exception
La forêt de la Serre, au nord du Jura, est le seul grand affleurement cristallin dans une région calcaire. Elle présente une végétation acidiphile contrastant avec la végétation des lisières et des vallées calcaires voisines et abrite de nombreuses espèces et habitats d’intérêt communautaire. Cette « île » cristalline joue aussi le rôle de connectivité entre les Vosges et le massif central pour des centaines d’espèces incapables de se développer dans l’océan calcaire Franc-Comtois. Ceci a entraîné sa désignation au réseau Natura 2000 (http://natura2000.environnement.gouv.fr/sites/FR4301318.html). Exploitée par les communes riveraines, c’est aussi un site de loisirs et de détente pour les habitants de la région.
Bouygues s’entête à vouloir exploiter une carrière au cœur du Massif !
Mais ce site est menacé par l’exploitation de la roche très dure de cet affleurement. Malgré plusieurs rejets du dossier au cours des années écoulées, la « Société des Carrières de Moissey », filiale à 50% du groupe Bouygues, s’obstine à demander l’autorisation d’ouvrir pour les 15 (ou même 30 ?) années à venir une carrière en plein cœur du site Natura 2000. Et ce, alors même que le Jura n’utilise pas 20% du tonnage sollicité pour ses routes ! L’État s’est engagé lors du Grenelle de l’environnement à limiter le développement des autoroutes. Des techniques de substitution existent et peu à peu le recyclage des routes devrait s’imposer.
Agissons pour la biodiversité
2010 est proclamée par les nations unies année internationale de la biodiversité pour rappeler à tous que le temps est venu de mettre en actes les discours. L’exploitation de cette carrière n’est pas compatible avec les objectifs de conservation des sites Natura 2000 et ne justifie pas d’un intérêt public majeur qui permettrait de déroger à la protection des espèces et de leurs habitats.
Pour agir, les associations signataires vous invitent à envoyer cet « appel de la forêt » :
COMMENT AGIR ?
Sur le site
Cette cyber @ction est signable en ligne
http://www.cyberacteurs.org/actions/presentation.php?id=118
Par courrier électronique
C'EST FACILE : A VOUS DE SUIVRE LES 6 ETAPES SUIVANTES :
1- Copiez LE TEXTE À ENVOYER ci-dessous entre les ############
2- Ouvrez un nouveau message et collez le texte
3- Signez le : prénom, nom, adresse, ville
4- Rajouter l'objet de votre choix : appel de la forêt
5- Adressez votre message aux adresses suivantes :
jean-francois.carenco@developpement-durable.gouv.fr
nacer.meddah@doubs.gouv.fr
prefecture@jura.gouv.fr
pierre.azzopardi@jura.pref.gouv.fr
cyberacteurs@wanadoo.fr
6- Envoyez le message
Par cette action, vous ferez connaître votre opinion au ministre de l’Écologie, au préfet de la Région Franche-Comté et à la préfète du Jura et à Cyber@cteurs pour nous permettre d'évaluer l'impact de cette action.
############
Prénom, Nom
Profession :
Adresse :
code postal Localité :
M. Jean-Louis Borloo, ministère de l’écologie, de l’Énergie, du Développement durable et de la Mer,
M. Nacer Meddah, Préfet de la Région Franche Comté,
Mme Joëlle Le Mouel, préfète du Jura
M. Pierre Azzopardi, sous préfet de Dole
Madame, Messieurs,
Le massif forestier de la Serre est un site Natura 2000 (site FR4301318) dont l’intégrité est aujourd’hui menacée par un projet de carrière de roches éruptives. Ce projet impacterait plus de 50 espèces animales ou végétales protégées, dont plusieurs d’intérêt communautaire. Leurs habitats sont pour la plupart protégés également.
En espérant que comme nous, élus locaux, responsables associatifs, Vttistes, randonneurs, mycologues, botanistes, ornithologues, chasseurs, amis de la Serre, riverains, vous saurez entendre l’urgence de cet appel de la forêt et rejeter la demande d’autorisation d’exploiter une carrière au cœur du massif de la Serre, recevez, Madame, Messieurs, l’expression de mes sincères salutations.
############
16:37 Publié dans Environnement-Écologie, Pollution | Lien permanent | Commentaires (0) | Facebook | | |
17/06/2010
Un coton OGM favorise l'invasion de punaises
Un coton OGM favorise l'invasion de punaises
Dans les champs de coton transgénique chinois, les punaises ont remplacé les chenilles. Résultat : on a à nouveau recours aux pesticides.
La culture d'un coton transgénique en Chine, depuis 1997, était censée faire chuter l'usage d'insecticides. C'est raté ! Une étude menée entre 1992 et 2008 dans huit provinces du nord du pays par Yanhui Lu, de l'Institut pour la protection des plantes de Pékin, rapporte en effet que les populations de punaises ont considérablement augmenté avec l'expansion des surfaces de coton OGM.
Car, contrairement au coton conventionnel, aspergé d'un insecticide tuant à la fois des chenilles ravageuses et les larves de ces punaises, le coton génétiquement modifié pour produire la toxine Bt ne cible que les chenilles... Les punaises sont donc libres de proliférer dans les champs de coton, mais aussi dans d'autres cultures. Ainsi, 3 millions d'hectares de coton, et 26 millions d'hectares de cultures adjacentes sont concernés par ces infestations ! "Les exploitations de pommes, de jujubes ou de raisin sont aussi touchées", expliquent les chercheurs, qui estiment que l'utilisation du coton transgénique a inversé le rôle écologique de cette culture.
"Depuis, les champs de coton sont devenus des sources de punaises." Ce qui explique que d'autres insecticides, ciblant cette fois les punaises, soient "de plus en plus utilisés depuis 1997..." soulignant l'urgence, pour les auteurs, "d'estimer les risques d'impact des OGM sur les écosystèmes avant d'en cultiver".
Source : Science et Vie, n° 1114, juillet 2010
12:50 Publié dans Environnement-Écologie, Nature et santé | Tags : ogm, coton, chenilles, punaises, lépidoptères, hémiptères, insectes parasites, coton transgénique | Lien permanent | Commentaires (0) | Facebook | | |
16/06/2010
Cycle et bilan de l'oxygène en milieu aquatique
Cycle et bilan de l'oxygène
par Guy BARROIN
INRA, station de Thonon les Bains
1. L'oxygène, un précieux déchet
Dans un univers essentiellement composé d'hydrogène, règle à laquelle ne déroge pas le système solaire, la présence d'oxygène libre en abondance dans l'atmosphère terrestre constitue une anomalie. La plus ancienne source d'oxygène terrestre a été la photolyse de la vapeur d'eau par les radiations solaires les plus énergétiques (λ < 200 nm). Strictement abiotique, cette réaction produit également de l'hydrogène qui s'échappe vers l'espace ; actuellement elle est localisée dans la haute atmosphère et sa contribution est parfaitement négligeable. Une autre source, tout aussi négligeable, est la photolyse de l'oxyde nitreux qui provient de la dénitrification bactérienne.
Il reste que la quasi totalité de l'oxygène atmosphérique est une conséquence directe de l'activité photosynthétique des organismes vivants, terrestres ou aquatiques. Ceux-ci utilisent l'eau comme donneur d'électrons pour réduire le gaz carbonique en matière organique, réaction de synthèse dont l'oxygène moléculaire est le sous-produit. L'accumulation de ce déchet métabolique est d'un intérêt tout particulier pour les organismes aérobies, végétaux et animaux. Consommé en permanence par les uns comme par les autres, il n'est produit que par les végétaux sous réserve qu'il y ait assez de lumière et de sels nutritifs.
Abondant dans l'air, sa disparition totale n'y est qu'un phénomène local et rare. En revanche, dans l'eau, où sa concentration n'excède pas 5% de ce qu'elle est dans l'air, il en est tout autrement. S'il n'est pas renouvelé, ce qui arrive fréquemment dans les écosystèmes limniques, l'oxygène finit par être totalement consommé par les phénomènes de respiration et de décomposition.
Le fait que la plus totale anoxie puisse s'installer aussi aisément concerne en premier lieu tous les organismes à respiration aérobie, influençant leur distribution, leur comportement et leur croissance physiologique, quelle que soit l'étape de leur développement. Mais la concentration en oxygène affecte aussi très fortement la solubilité de nombreuses substances et par conséquent la disponibilité des nutriments et des composés toxiques, ce qui n'est pas sans conséquence sur la biocénose.
Il n'est donc pas étonnant que l'oxygène soit, après l'eau, bien entendu, le constituant le plus fondamental et le paramètre le plus étudié des écosystèmes limniques.
2. Les termes du bilan
2.1 Un bilan en perpétuel déséquilibre
Fondamentalement, la présence de l'oxygène dans l'eau, régie par la solubilité de l'oxygène atmosphérique, tend à un certain équilibre. Elle détermine, entre autres, les états et les processus d'oxydo-réduction auxquels participent finalement peu d'éléments : C, N, O, S, Fe, Mn. Dans une eau en équilibre avec l'oxygène atmosphérique, tous ces éléments devraient théoriquement exister sous leur état d'oxydation le plus élevé : CO2, HCO3- ou CO32- pour le carbone, NO3- pour l'azote, SO42- pour le soufre, FeOOH ou Fe2O3 pour le fer et MnO2 pour le manganèse. En fait, il n'en est rien : dans une eau qui contient de l'oxygène dissous on trouve communément du carbone à l'état de matière organique et de l'azote à l'état de gaz N2. C'est que la présence d'un élément est moins le reflet exact d'un équilibre statique que la résultante d'un ensemble de réactions d'oxydo-réduction et de processus de diffusion et de mélange aux vitesses fort différentes.
En ce qui concerne les réactions d'oxydo-réduction, la situation de déséquilibre est entretenue par deux types d'activité. D'une part, l'activité photosynthétique qui, piégeant l'énergie lumineuse pour la convertir en énergie chimique, produit de la matière organique, véritable accumulateur d'états réduits. D'autre part l'activité respiratoire et minéralisatrice de tous les organismes, à commencer par celle des organismes non-photosynthétiques, qui tend à rééquilibrer la situation en catalysant l'oxydation de cette matière organique et en utilisant l'énergie ainsi libérée pour maintenir en vie les cellules en place et pour en synthétiser de nouvelles.
Finalement, la situation d'équilibre à laquelle l'oxygène aboutirait sous la seule contrainte de lois physiques est perpétuellement remise en question par la photosynthèse, par la respiration, la décomposition ainsi que par quelques réactions chimiques.
2.2 La dissolution de l'oxygène atmosphérique
L'air est un mélange de gaz qui contient environ 20,95% d'oxygène en volume (tableau 1). Quand l'air est au contact de l'eau, celle-ci dissout une certaine quantité d'oxygène en fonction des caractéristiques intrinsèques de solubilité du gaz mais aussi en fonction des conditions de milieu qui règnent dans l'atmosphère (pression atmosphérique, humidité) et dans l'eau (température, pression hydrostatique, salinité).
Effet de la pression atmosphérique
D'après la loi de Henry, à l'équilibre et à une température donnée, la concentration en oxygène dissous de l'eau est proportionnelle à sa pression partielle dans la phase gazeuse.
À 10°C et sous 1 atm. (760 mm de Hg), 1 litre d'eau pure en contact avec de l'oxygène pur en dissout 38,46 ml (54,94 mg).
Mis en contact avec de l'air sec, il n'en dissout plus que 38,46 x 0,2095 soit 8,06 ml (11,51 mg), 0,2095 atm. représentant la pression partielle d'oxygène dans l'air (20,95% d'oxygène) sous 1 atm. (tableau I).
Comme la pression atmosphérique diminue avec l'altitude et varie avec les conditions météorologiques, il en est de même de la pression partielle, donc de la solubilité de l'oxygène. À 2000 m d'altitude, l'eau pure contient 22% d'oxygène en moins qu'au niveau de la mer à température égale (tableau II). Une chute de la pression atmosphérique de 30 mm de Hg entraîne une diminution de solubilité d'environ 4%.
Effet de la température
La solubilité des gaz diminue avec la température, mais la détermination précise de la solubilité de l'oxygène dans l'eau n'a pas été une opération facile. Depuis la fin du XIXe siècle, de nombreux chercheurs s'y sont employés, obtenant des résultats dont les discordances résultèrent autant du manque de fiabilité des méthodes de dosage que de la diversité des conditions expérimentales, notamment de l'humidité de l'air. En effet, si l'air est humide, c'est-à-dire comme dilué par de la vapeur d'eau, la pression partielle de l'oxygène doit être calculée par rapport à la pression barométrique diminuée de la pression partielle de vapeur d'eau, cette dernière augmentant avec la température d'environ 1 mm de Hg/°C (tableau 3). Les standard methods (1971) donnent la formule :
OD =(P-u). 0,678 / (35 + t)
OD = oxygène dissous (mg.l-1)
P = pression barométrique (mm Hg)
u = pression de vapeur d'eau saturante (mm Hg)
t = température (°C) valable pour 0°C < t < 30°C.
Une autre formule, plus simple, valable pour 4°C < t < 33°C, au niveau de la mer, à ± 0,04 mg.l-1 est proposée par Montgomery et al (1964) :
OD = 468 / (31,6 + t)
Hitchman (1978) finit par dresser un tableau à partir de la moyenne des résultats obtenus par 11 auteurs différents (tableau III).
Compte tenu de ces difficultés, Monod et al. (1984) estiment plus prudent de ne pas garantir la seconde décimale.
Effet de la pression hydrostatique
Tout dépend si l'oxygène est évalué en termes de pression partielle ou en termes de solubilité. La pression partielle augmente avec 1a profondeur : par 10 000 m de fond, elle est 3,55 fois celle de la surface, à température égale. Par contre la solubilité est indépendante de la pression hydrostatique dans l'eau pure et diminue légèrement dans l'eau salée : par 10 000 m de fond dans une eau salée de densité 1,023, elle est inférieure de 3% à celle de la surface à température égale. Pratiquement, si l'on évalue la concentration en oxygène par voie titrimétrique, il n'y a pas lieu de tenir compte de la pression hydrostatique. Par contre, si l'on utilise une sonde à oxygène, qui mesure la pression partielle, il faut effectuer une correction qui atteint -5% pour 400 m de profondeur (Hitchman 1978).
Effet de la salinité
Les sels minéraux dissous dans l'eau ont pour effet de diminuer légèrement la pression de vapeur d'eau saturante et par conséquent la solubilité de l'oxygène (tableau IV). La diminution de cette dernière est exponentielle et atteint presque 20% pour une eau de mer de densité 1,035. On peut négliger le phénomène en eau douce, mais il peut avoir son intérêt en eau salée ou même saumâtre.
11:35 Publié dans Environnement-Écologie, Limnologie-hydrobiologie | Tags : limnologie, cycle de l'oxygène, oxygène dissous | Lien permanent | Commentaires (0) | Facebook | | |
L'échantillonnage
L'ÉCHANTILLONNAGE
Dans un espace donné, il est rarement possible de dénombrer tous les individus composant une population biologique. D'où la nécessité d'effectuer un échantillonnage au sein de cet espace.
I. L'ÉLÉMENT D'ÉCHANTILLONNAGE
L'élément ou unité d'échantillonnage est une entité sur laquelle on observe la variable étudiée. L'élément est souvent lié à l'instrument de récolte ou d'observation.
Ex : pour dénombrer les populations de Melanoides tuberculata, mollusque compétiteur dans les cressonnières de Martinique de Biomphalaria glabrata, vecteur de la Bilharziose, on procède par carottage à l'aide de boîtes à base carrée (pots-pièges). L'élément correspond à la surface de la boîte et la variable au nombre de mollusques yi présents dans chaque boîte.
Ex : dans le cas de la pêche aux filets verticaux sur les lacs du Jura, l'unité d'échantillonnage est constituée par une batterie de 6 filets verticaux. La variable est le nombre de corégones capturés dans chaque batterie.
L'élément d'échantillonnage est une prise d'information sur le terrain qui peut requérir plusieurs formes :
1. Le relevé
est une prise directe sans prélèvement concret d'objets sur le terrain : relevé climatologique, topographique, phytosociologique sur des placettes ou quadrats, enregistrements sur analogiques…
2. Le prélèvement
retire les données du terrain (prélevat) pour l'analyse et suppose la destruction de la prise, produit du prélèvement.
Selon leurs caractéristiques spatiales, les prélevats peuvent être :
- euclidiens : cotés en unités de volume. Ils permettent des inférences (extrapolations ou interpolations) à un espace euclidien de dimensions supérieures au prélevat.
- Souvent, la composante verticale (hauteur) du champ écologique est négligée : on parle alors de prélevats cartésiens liés exclusivement à des cotes horizontales (surface) et de durée.
- Parfois les prélevats sont linéaires : l'information est alors acquise le long d'un transect, les autres dimensions euclidiennes étant ignorées.
- Ils peuvent être ponctuels, et dans ce cas organisés en séries dans le champ écologique et dans le temps selon un plan d'échantillonnage défini. Ils peuvent être informes (régime alimentaire d'un prédateur, individu-compartiment) ou cotés.
- L'association des prélevats en série peut être synchronique avec des caractéristiques de temps simultanées ou diachronique (mêmes lieux, dates différentes).
3. L'interception
est le mode d'obtention des données-cinèses par opposition aux données d'état. Une interception-relevé permet d'obtenir directement une donnée ou un analogique cinétique (anémomètre, rhéomètre, comptage d'oiseaux passant un col, lecture radar de papillons ou de poissons). Il y a traduction en débit effectif/temps (ex : nombre d'oiseaux par heure) parfois exprimé en tant que vitesse en considérant la section du passage : il s'agit alors de flux (vitesse/surface).
4. La prise
est un objet concret qui n'est plus dans le champ écologique mais qui fournira après analyse des données sur ce champ : prises de prélèvement, analogiques de relevés (photos), d'interception-relevé (bande d'un thermo-hygrographe) et les produits de l'interception-prélèvement (pot-piège).
II. ÉCHANTILLONS ET PLAN D'ÉCHANTILLONNAGE
L'ensemble des unités d'échantillonnage possibles dans le champ écologique étudié constitue la population statistique sur laquelle s'appliqueront les calculs relatifs au traitement des données.
On appelle échantillon, un groupe d'unités d'échantillonnage de même dimension tiré d'une population statistique préalablement définie, conformément à un plan de sondage et sur lesquelles porteront les observations prévues par l'enquête. Dans le cas d'un échantillonnage pour dénombrement, l'information de base est obtenue par dénombrement des individus de tous les éléments de l'échantillon. Le nombre d'individus par élément est la variable yi à étudier.
À la notion d'échantillon est étroitement associée la notion de plan d'échantillonnage. La planification de l'échantillonnage est une pratique courante dans les enquêtes sociologiques, économiques ou d'opinion. Les sondages effectués avant les élections s'appuient sur une planification très rigoureuse des protocoles d'enquête dont dépendra la présentation et le traitement des données.
La planification de l'échantillonnage apporte divers bénéfices :
- elle permet notamment de minimiser le coût de la collecte des données, ou, à coût fixe, d'optimiser la précision des résultats ;
- elle constitue un préalable indispensable au traitement statistique des données ;
- elle oblige à un effort de réflexion qui facilite l'organisation du travail sur le terrain.
Sous le terme de plan d'échantillonnage, on entend les divers protocoles mis en œuvre lors de la collecte des données sur le terrain en vue d'assurer l'objectivité des observations et l'économie des moyens.
La population statistique est une collection d'éléments :
- possédant au moins une caractéristique commune permettant de la définir ;
- de laquelle on extrait un échantillon représentatif ;
- sur laquelle porteront les calculs statistiques.
Dans le premier exemple, la population statistique N est la somme des surfaces de base du pot-piège contenue sur l'ensemble de la cressonnière (c'est-à-dire la surface de la plate-bande). L'échantillon n est le nombre de pots-pièges retenus (10 par plates-bandes de 50 m2). La variable yi est le nombre de mollusques par pot.
Dans le second exemple, la population statistique est le volume du lac.
La population-cible est la population à laquelle on pourra appliquer les conclusions de l'enquête.
Dans le premier exemple, la population-cible est la population de M. tuberculata présente dans la cressonnière au moment de l'intervention.
Dans le second cas, la population-cible sera la population de corégones présents dans le lac à la date d'intervention et accessible à la capture.
Dans le cas du saturnisme des canards par suite d'ingestion de grains de plomb,
- la population statistique est l'ensemble des canards colverts ayant avalé des plombs ;
- la population-cible est l'ensemble des colverts ;
- la population biologique est l'ensemble des colverts ou des anatidés fréquentant les lacs ou étangs étudiés.
En médecine, dans le cas du SIDA,
- la population statistique est l'ensemble des porteurs du virus HIV accessible au chercheur ;
- la population-cible est l'ensemble des personnes séro-positives.
En élevage, la population statistique se confond avec la population-cible et la population biologique (ex : rats, souris, lapins).
Le statisticien applique ses conclusions à la population statistique. La généralisation des résultats à la population-cible se fait aux risques et périls du biologiste.
III. QUELQUES TYPES DE PLANS D'ÉCHANTILLONNAGE
De nombreux types de plans d'échantillonnage ont été mis au point par de nombreux auteurs. On trouvera ci-dessous quelques plans d'échantillonnage universellement reconnus.
1. Échantillonnage aléatoire simple (EAS)
1.1. Définition
C'est une méthode qui consiste à prélever au hasard et de façon indépendante n unités d'échantillonnage d'une population statistique comportant N unités. Ainsi, chaque élément de la population statistique présente la même probabilité de faire partie d'un échantillon de n unités et chacun des échantillons possibles de taille n présente la même probabilité d'être constitué.
1.2. Protocole de sélection des unités d'échantillonnage
Pour que nulle erreur systématique ne s'introduise dans la constitution de l'échantillon, il faut dresser la liste complète et sans répétition des éléments de la population statistique, les numéroter de 1 à N puis procéder au tirage au sort de n unités différentes à l'aide d'un dispositif de génération de nombres aléatoires.
Ces opérations de prélèvements se révèlent assez faciles si la population statistique n'est pas trop grande et si les éléments sont facilement identifiables ou repérables. Elles sont assez commodes s'il s'agit de positionner dans l'espace ou dans le temps une station de prélèvement, un itinéraire-échantillon (transect) ou un quadrat puisque l'énumération des coordonnées géographiques ou temporelles ne nécessite pas un inventaire fastidieux des éléments. Toutefois, il est difficile de réaliser en écologie un échantillonnage aléatoire simple qui se conforme scrupuleusement à la définition.
1.3. Avantages du plan
• Le plan EAS est universellement reconnu et accepté.
• Aucune préinformation n'est requise pour sa mise en application, contrairement à la majorité des autres plans. La préparation du protocole n'exige en effet aucune pré-enquête et les différentes estimations sont calculées à partir des données recueillies sur l'échantillon sans faire appel à d'autres renseignements.
• Les estimateurs ne sont pas biaisés, leur calcul est facile, la majorité des programmes informatiques se prêtent à ce plan et les techniques statistiques multidimensionnelles sont applicables.
1.4. Inconvénients du plan
• L'inventaire des éléments de la population statistique est souvent une opération difficile et parfois impossible surtout si la population statistique correspond à une population biologique. Par exemple, l'échantillonnage des animaux et des plantes sauvages se heurte à l'abondance, la mobilité, la dispersion, le cryptisme des éléments qui ne peuvent être énumérés.
Ex : Ingestion de plombs de chasse ingérés par les Anatidés.
Les canards ingèrent des plombs de chasse avec les graviers qu'ils utilisent dans leur gésier et sont atteints de saturnisme.
Population statistique : nombre de colverts abattus.
Variable : nombre de plombs ingérés par canard.
Population-cible : population de colverts sur l'étang/ou de canards/ou de sauvagine.
Population biologique : anatidés/ou canards.
• Quand les unités d'échantillonnage sont constituées par des animaux, la sélectivité des moyens de capture ne permet pas un prélèvement au hasard et introduit un biais dans l'échantillonnage dont il faut apprécier l'importance et le sens (sur- ou sous-estimation). Par exemple, si des engins de capture sont répartis aléatoirement dans un espace donné, les spécimens récoltés ne sont pas pour autant prélevés selon les principes de l'EAS car la majorité des pièges s'avèrent sélectifs. Le plan peut éventuellement prétendre être correct pour la sélection des unités de la population statistique (ici les unités territoriales) mais pas pour la population animale-cible.
• L'efficacité du plan EAS est souvent médiocre car toute expérience antérieure ou concomittante est ignorée. On ne collecte pas préférentiellement des éléments privilégiés dont l'accès ou l'examen est plus commode ou plus économique. On ne module pas la probabilité de sélection des éléments en fonction de leur poids ou de leur importance relative. Ainsi le coût de l'échantillonnage n'est pas optimisé relativement à la précision des résultats.
2. Échantillonnage systématique (SYS)
1.1. Définition

C'est une technique qui consiste à tirer au hasard un i-ième élément situé entre le premier et le p-ième de la population statistique, puis à prélever systématiquement le (i + p)-ième, le (i + 2p)-ième, le (i + 3p)-ième… élément de la population (fig. 1 et 2). On obtient finalement n unités collectées selon un classement fondé sur une progression arithmétique dont la base est un nombre aléatoire i et la raison un nombre p calculé de telle sorte que l'échantillon se répartisse uniformément sur toute la population statistique. Contrairement à l'EAS, les unités ne sont pas prélevées indépendamment les unes des autres puisque le choix de i et de p détermine la composition de tout l'échantillon.
1.2. Protocole de sélection des unités d'échantillonnage
Il est simple quand les éléments de la population statistique sont accessibles et en nombre connu. On choisit n en fonction de l'effort d'échantillonnage consenti ; on calcule la raison p = N/n et on tire au hasard l'élément i compris entre 1 et p ; on effectue ensuite un prélèvement toutes les p unités.
Lorsque N est inconnu et qu'il est difficile d'en estimer l'ordre de grandeur, p est fixé arbitrairement. Il n'est donc plus possible de choisir l'effectif n. C'est au cours du déroulement des opérations qu'on jugera si la raison p est trop grande ou trop petite.

1.3. Avantages du plan
• Il est plus commode à mettre en œuvre que l'EAS. Ainsi, la répartition d'un ensemble de relevés dans un intervalle de temps ou au sein d'une population statistique linéaire (lit d'une rivière, lisière d'une forêt, route d'un navire) est facile à réaliser avec SYS.
• Si l'on est assuré que tous les éléments de la population statistique se présentent dans un ordre aléatoire, alors ce plan est équivalent à l'EAS dont il cumule les avantages avec les siens propres.
• Si la population biologique présente des phénomènes d'autocorrélation positive, c'est-à-dire si les descriptions yi et yj sont d'autant plus semblables que les éléments i et j sont proches, SYS est plus efficace que EAS. En effet, par le fait du hasard, l'EAS comporte des relevés rapprochés qui apportent une information redondante et d'autres éloignés entre lesquels la variable étudiée est mal représentée. Les phénomènes d'autocorrélation ne sont pas rares en écologie. Par exemple, les variations dans l'espace et dans le temps des conditions météorologiques sont corrélées positivement. Mattern (1960) a montré que les stations d'échantillonnage corrélées positivement devaient être disposées spatialement en quinconce, disposition qui maximise la distance entre relevés.
• Si les éléments de la population statistique présentent une tendance linéaire au niveau de la variable étudiée, SYS est alors plus efficace que EAS. Un tel type de variations est fréquent en écologie : gradient d'altitude, de profondeur d'eau, de salinité, d'émersion, de hauteur de végétation, évolution temporelle d'un phénomène naturel : recrutement d'une population…
1.4. Contraintes et inconvénients du plan
• Si la population présente une structure périodique et que la période p de prélèvement est proche de la longueur d'onde des variations du phénomène à étudier ou d'un multiple entier de celle-ci (harmonique), alors une importante erreur systématique est créée.
• Or en écologie, les phénomènes cycliques sont fréquents : rythmes saisonniers, lunaires, circadiens ; fluctuations d'abondance de certaines populations animales ou végétales (fig. 3). Par exemple, ce n'est pas avec des prises espacées de 24 heures qu'on mettra en évidence les migrations à rythme nycthéméral du plancton ou les émergences des furcocercaires des Schistosomes.

Dans le cas de plantations régulières ou dans le cas de rookeries (colonies d'individus regroupés), SYS peut générer un biais difficile à détecter lorsque les éléments de la périphérie diffèrent de ceux du centre.
• Comme l'EAS, SYS n'utilise pas des relevés antérieurs ou concomittants. Il ne permet pas de collecter préférentiellement des éléments privilégiés dont l'accès ou l'examen serait plus commodes. Enfin, il n'ajuste pas la probabilité de sélection des éléments en fonction de leur poids ou de leur importance relative.
3. Échantillonnage stratifié (STR)
1.1. Définition
L'échantillonnage stratifié (STR) est une technique qui consiste à subdiviser une population statistique hétérogène en sous-populations ou strates plus homogènes, mutuellement exclusives et collectivement exhaustives. La population statistique hétérogène d'effectif N est ainsi découpée en k strates plus homogènes d'effectif Nk tels que N = N1 + N2 + N3 + … + Nk. Un échantillon indépendant est ensuite prélevé au niveau de chaque strate en appliquant un plan d'échantillonnage au choix de l'opérateur.
1.2. Protocole de sélection des unités d'échantillonnage
L'application de ce plan soulève deux questions principales :
- comment construire les strates ?
- quels efforts et plans d'échantillonnage adopter dans chaque strate pour obtenir le plein bénéfice de la stratification ?
• Critères de stratification
Le choix du meilleur critère semblerait être la variable étudiée puisque le découpage de sa distribution de fréquence en différentes classes ou strates réduit automatiquement la variance intra-strates et augmente par le fait même, l'homogénéité au sein des strates. Ce critère n'est pas réaliste car il suppose la connaissance a priori du phénomène à étudier.
En pratique, on utilise une autre variable x, appelée stratificateur. Le stratificateur doit être corrélé le mieux possible avec la variable étudiée car plus la corrélation est étroite, plus le gain de précision apporté par la stratification est élevé.
Cependant le critère de stratification peut être qualitatif, ouvrant alors la porte à de multiples possibilités. Par exemple, dans un lac, on étudiera la répartition de telle espèce benthique en fonction de la profondeur ou de la nature du substrat : vase, sable, graviers, galets, blocs, litières, hydrophytes, bryophytes, algues, etc…, chaque substrat ou chaque profondeur constituant autant de strates plus homogènes que ne l'est l'ensemble du lac.
Le critère de stratification n'est pas forcément unique. Il peut y en avoir deux ou trois. On parle alors de double ou de triple stratification. Ex : profondeur et substrat, vitesse du courant et substrat…
• Nombre de strates
L'augmentation du nombre de strates améliore la précision mais accroît la lourdeur du protocole. Au delà de 5 à 6 strates, l'expérience montre que le gain de précision est généralement faible par rapport au surcroît de travail. Souvent le choix du nombre de strates est guidé par la nature de l'échantillonnage, notamment lorsque le critère est qualitatif : limites géographiques ou administratives, typologie de la végétation, nature des fonds d'un lac ou d'une rivière, etc… Même lorsque le critère est quantitatif, on peut préfixer le nombre de strates : 8 cases S-V dans l'IBGN ; structure d'âge d'une population déjà distribuée en classes de taille qui constituent autant de strates.
• Limites des strates
Si le critère de stratification est qualitatif, il faut et il suffit de définir clairement les frontières entre chaque strate de façon à éviter les ambiguïtés. Par exemple, vases, sables, graviers, galets, blocs seront définis par une échelle granulométrique.
Si le critère de stratification est quantitatif, les limites des strates peuvent être définies par des contraintes préalables (cf plus haut : classes d'âge et classes de taille).
Si le critère de stratification est quantitatif, sans contraintes préalables, on doit fixer des limites minimisant la variance des estimateurs.
• Effort d'échantillonnage dans chacune des strates
Il s'agit de déterminer l'effectif des échantillons dans chaque strate. Trois stratégies d'allocation peuvent être développées à cet égard.
- L'allocation proportionnelle consiste à prélever un échantillon dont l'effectif nh est directement proportionnel à l'effectif Nh de la strate h. Ce type d'allocation a l'avantage de conduire à un protocole d'échantillonnage simple à mettre en œuvre.
- L'allocation optimale consiste à moduler l'effort d'échantillonnage afin de minimiser le coût total de l'opération pour une précision données ou de maximiser la précision pour un coût total fixé. L'effectif nh de l'échantillon doit être d'autant plus élevé que la variance de la strate est grande, que son effectif Nh est élevé, que le coût unitaire d'échantillonnage ch est faible.
- L'allocation de compromis consiste à fixer un nombre minimal d'éléments dans chaque strate (règle du butoir), puis à effectuer intuitivement l'effort résiduel dans chaque strate en fonction des mêmes règles que précédemment, à savoir que nh sera d'autant plus élevé que Sh (richesse spécifique dans la strate h) et Nh seront grands et ch petit.
L'allocation optimale et, en principe, l'allocation de compromis supposent des informations prérequises sur chaque strate. Il est rare que l'on dispose a priori de telles informations. La règle est donc de procéder à une enquête préalable souvent sous la forme d'un double échantillonnage, ce qui malheureusement alourdit le protocole. Mais quand on s'adresse à une macrofaune ou à une macroflore, l'homogénéité d'une strate est souvent appréciée par l'observation directe, même si elle ne peut pas être rigoureusement planifiée. Dans ce cas, l'allocation proportionnelle, voire une allocation largement intuitive sont recevables.
• Choix du plan d'échantillonnage dans chaque strate
Dans la mesure où l'échantillonnage d'une strate est totalement indépendant de celui d'une autre, il n'est pas nécessaire de choisir le même plan d'échantillonnage dans chaque strate. N'importe quel plan est donc recevable sous réserve d'en tenir compte pour les traitements statistiques ultérieurs. Dans la majorité des cas, le choix d'un EAS qui consiste à prélever un échantillon aléatoire dans chacune des strates est le plus judicieux.
Mais on peut procéder à une stratification de 2e ordre dans tout ou partie des strates de 1er ordre. Par exemple, si dans une population de poissons, on étudie la relation taille-poids et que les caractères sexuels sont visibles sur les 2+ (animaux dans leur 3e année), il est recommandé de faire deux sous-strates, l'une des mâles, l'autre des femelles dans chacune des strates de 1er ordre où le sexe est reconnaissable.
1.3. Avantages du plan
• Même très rudimentaire, la stratification apporte des gains de précision appréciables. C'est la méthode adoptée dans l'IBGN, les pêches en lac, l'étude des sédiments lacustres.
• Ce plan permet de profiter de situations particulières, chaque situation s'identifiant à une strate. C'est le cas quand des divisions naturelles facilitent le découpage du domaine à échantillonner, lorsque plusieurs équipes se partagent le travail…
• Ce plan constitue une solution avantageuse au problème de l'optimisation de l'effort d'échantillonnage.
1.4. Inconvénients du plan
• STR nécessite une planification rigoureuse des protocoles et entraîne des calculs laborieux.
• Une erreur d'appréciation des strates (rapport Nh/N) entraîne un biais considérable.
• Un critère de stratification qualitatif doit être judicieusement choisi.
• Un critère quantitatif sans contraintes préalables nécessite souvent un double échantillonnage et, par conséquent, un grand nombre de prélèvements. Il faut donc choisir un critère de stratification simple.
• Ce plan restreint le champ d'application des techniques habituelles de statistiques multidimensionnelles.
4. Échantillonnage avec régression (REG)
1.1. Définition
C'est une méthode qui consiste à corriger l'estimation Ŷ de la moyenne d'un échantillon aléatoire en fonction des résultats obtenus sur une variable auxiliaire x. Cet ajustement, qui repose sur la corrélation existant entre les variables y et x et sur la connaissance ou l'obtention de la moyenne X de la population, s'exprime dans le second terme du modèle de régression linéaire suivant :



1.2. Exemples
• Étude portant sur les réserves lipidiques des oiseaux migrateurs
La capacité migratoire d'un oiseau est fonction des réserves lipidiques qu'il accumule. La détermination de la quantité totale de graisse d'un oiseau entraîne le sacrifice de l'animal et un ensemble d'opérations réclamant plusieurs heures par animal.
Une autre méthode plus approximative consiste à apprécier visuellement la quantité de graisse sous-cutanée déposée dans la fosse claviculaire. L'indice d'adiposité qui en résulte s'évalue en quelques secondes et l'oiseau examiné peut poursuivre sa migration. Le double échantillonnage en vue de l'estimation par régression est particulièrement bien indiqué dans ce cas, car l'indice d'adiposité, facilement mesurable sur un grand nombre n' d'oiseaux peut alors servir de variable auxiliaire x et la quantité yi de graisse, difficile à mesurer, peut être déterminée sur quelques-uns (n) des n' oiseaux capturés. Scherrer (1972) trouve une corrélation élevée (0,9) entre les deux variables sur une population de mésanges. Il montre que, dans ce cas et compte tenu du coût estimé des différentes opérations (durée et frais de déplacement), le gain de précision maximal est obtenu pour un rapport de n = 94 oiseaux sacrifiés pour n' = 1492 oiseaux examinés puis relâchés.
• Étude des sédiments lacustres du Jura
Il existe une corrélation de 0,95 entre la réflectance (ou albedo) du sédiment et sa teneur en carbonate de calcium et de -0,95 entre la réflectance et la teneur en matière organique. Bien que la régression ne soit pas linéaire, l'utilisation d'une abaque permet de remplacer de longues et coûteuses analyses chimiques par la simple mesure d'un paramètre physique qui sert de variable auxiliaire.
1.3. Avantages du plan
• REG s'impose quand la variable étudiée impose le sacrifice d'éléments qui doivent être préservées pour des raisons éthiques en raison de la rareté de l'espèce ou du rôle des individus dans la poursuite de l'expérience. Cette situation est courante en biométrie.
1.4. Inconvénients du plan
• REG ne s'emploie qu'avec des variables qualitatives simples. Il est inutilisable avec les pourcentages ou les variables quotients.
• La relation entre x (transformé ou non) et y doit être linéaire. Sinon, il faut stratifier et la contrainte relative à l'effectif devient importante (chaque nh ≥ 50).
• La majorité des programmes informatiques ne sont pas conçus pour ce plan.
5. Échantillonnage par degrés (DEG)
1.1. Définition
Cette méthode regroupe toute une batterie de plans d'échantillonnage caractérisés par un système ramifié et hiérarchisé d'unités (fig. 6-9).
Chacune des N unités de la population statistique appelées unités primaires ou grappes, se compose de Mi sous-unités plus petites appelées unités secondaires qui elles-mêmes peuvent comporter Kij unités tertiaires… À chaque niveau, un EAS peut être effectué. Si l'on en fait qu'un, on parle d'échantillonnage du 1er degré ; si l'on en fait deux, d'échantillonnage du 2e degré, si l'on en fait trois, d'échantillonnage du 3e degré…

L'échantillonnage du 1er degré (échantillonnage par grappes) consiste à prélever aléatoirement n unités primaires ou grappes parmi les N unités primaires de la population et à mesurer les Mi sous-unités c'est-à-dire toutes les unités secondaires des n grappes sélectionnées.



L'échantillonnage du 3e voire du 4e degré constitue une extension de ce principe de sous-échantillonnage.

Les unités primaires, secondaires, etc… ne sont pas obligatoirement de la même taille. Si elles le sont, on pratique EAS et SYST.
1.2. Exemple
Pour étudier les caractéristiques des populations de poissons récoltés par des pêcheurs sportifs dans les parcs naturels du Québec, les biologistes du service de la faune utilisent l'échantillonnage du 3e degré. C'est de cette façon que la structure d'âge de la population de brochets est étudiée.
n lacs (unités primaires) sont choisis aléatoirement parmi les N lacs du parc ;
mi barques (unités secondaires) sont choisies parmi les Mi barques du i-ième lac échantillonné ;
kij brochets (unités tertiaires) des Kij brochets de la j-ième barque du i-ième lac sont prélevés aléatoirement en vue de l'extraction d'une écaille qui permettra la détermination de l'âge par scalimétrie.
1.3. Protocole de sélection des unités d'échantillonnage
• Définition des unités
Il s'agit de préciser quels sont les éléments, les grappes qui décomposent la population. En pratique,
- les grappes correspondent souvent aux structures de la population : pontes, nids, colonies, troupeaux ou bancs de poissons…
- les grappes peuvent être liées à la technique de récolte : prise d'un bateau, d'un filet, à plancton, d'une benne, d'un carottier…
- les grappes peuvent se rapporter à des entités naturelles composées d'éléments de dimensions arbitraires : bassin-versant ou lac.
Après avoir précisé la nature des différentes unités à tous les degrés de l'échantillonnage, il faut s'assurer que les grappes sont mutuellement exclusives et collectivement exhaustives. Ce qui revient à vérifier que le système d'unités qui se ramifie inclut toutes les unités élémentaires de la population et que chacune de ces dernières n'apparaît qu'une fois au sein des unités du niveau supérieur. L'exhaustivité est souvent difficile à apprécier en raison de la sélectivité des engins de capture. Ainsi, les filets à poissons ou à oiseaux, les pièges à insectes… constituent les grappes de la population capturée et non de l'ensemble de la population biologique puisque l'ensemble des pièges installés ne capture par la totalité de la population.
• Choix de la taille des éléments
Quand les éléments de la population sont naturels, la question ne se pose pas.
Il peut s'agir de quadrats, de périodes d'observation… dont on ne peut modifier la surface, le volume, la durée, c'est-à-dire la taille. Cette taille peut être déterminée par des méthodes normalisées.
En général, les plus petites unités sont les meilleures car elles autorisent la constitution de grands échantillons qui ont pour effet de diminuer le biais de certains estimateurs et d'accroître la robustesse de la majorité des tests. Ainsi, il sera préférable que le rapport de la surface ou du volume de l'entité examinée à la surface ou au volume de l'unité élémentaire d'échantillonnage soit inférieur ou égal à 0,05 (Green, 1979).
• Choix de la taille des grappes
Lorsque les grappes correspondent à des regroupements naturels, évidents ou obligatoires (lacs, barques), le problème du choix ne se pose pas.
Les grappes qui correspondent à des regroupements artificiels d'éléments sont construites soit intuitivement, soit à l'aide de méthodes d'optimisation. On tient compte des considérations suivantes :
- construire des grappes de même taille ;
- tenir compte des coûts engendrés par le passage d'une grappe à l'autre ou de l'exploration de grappes trop grandes ;
- choisir une unité fonctionnelle qui facilite le travail.
• Répartition de l'effort d'échantillonnage
Cette répartition se fait en tenant compte
- des coûts unitaires d'échantillonnage ;
- de la variabilité des données aux différents niveaux d'unités.
1.4. Avantages du plan
• DEG est peu contraignant car il ne requiert pas la liste complète ou un agencement particulier des éléments de la population statistique.
• Sur le terrain, DEG se révèle économique, facilement adaptable aux conditions particulières de chaque étude et peu perturbant sur l'ensemble étudié.
• DEG se combine facilement avec STR avec lequel il présente des convergences méthodologiques.
1.5. Inconvénients du plan
• DEG est moins efficace que EAS et SYS lorsque le coefficient de corrélation intra-grappe se révèle très élevé, c'est-à-dire quand les grappes se composent d'éléments qui se ressemblent beaucoup.
• Le calcul des estimateurs, l'application de certains tests d'hypothèses et de différentes techniques d'analyse multidimensionnelle est difficile.
• DEG nécessite une planification très élaborée. L'harmonisation de l'ensemble des opérations pour arriver à un protocole d'échantillonnage commode est complexe et longue.
V. CONCLUSION
Les quelques plans d'échantillonnage exposés ici ne sont pas exhaustifs. Il est possible de concevoir d'autres plans ou d'autres combinaisons de plans d'échantillonnage[1]. L'échantillonnage est une opération décisive et délicate qui demande certaines précautions.
Le traitement statistique des données (calcul des estimateurs, analyse des données) devra être effectué sur des exemples.
La réflexion sur l'échantillonnage doit toujours précéder la récolte des données. Planifier un échantillonnage, c'est répondre à trois questions :
- la manière d'observer est-elle pertinente pour ce que je veux observer ;
- les coûts consentis pour l'échantillonnage sont-ils répartis de manière à optimiser les observations ?
- les données recueillies sont-elles susceptibles d'être traitées par telle analyse statistique qui en facilitera l'interprétation ?
C'est en fonction des réponses à ces trois questions que chaque opérateur élaborera pour chaque étude son plan d'échantillonnage.
Source : Cours d'écologie de André Guyard
[1] Voir Scherrer B. dans Frontier S. (1983). - Stratégies d'échantillonnage en écologie. Masson Ed.
11:30 Publié dans Environnement-Écologie | Lien permanent | Commentaires (0) | Facebook | | |
La pêche en Franche-Comté aux XIIIe-XVe siècles
La pêche en Franche-Comté aux XIIIe-XVe siècles
De l'eau à la bouche
un ouvrage de Pierre Gresser
À la fin du Moyen Âge, les poissons d'eau douce jouaient, dans l'alimentation des Comtois, un rôle beaucoup plus important qu'en ce début du XXIe siècle. Provenant des eaux vives, des lacs, des étangs et des viviers, ils étaient pêchés dans des conditions juridiques, économiques et techniques relativement bien connues, certains instruments et procédés préfigurant ceux de l'époque contemporaine.
Si la majorité des pêcheurs s'adonnaient à leur activité légalement, d'autres fraudaient en braconnant. Par ailleurs, la documentation médiévale, ayant conservé les noms des espèces vendues et mangées, rend possible la comparaison avec la faune halieutique actuelle, pour constater permanences et changements.
Alors que les propriétaires, dont les princes, s'approvisionnaient directement dans les eaux qu'ils possédaient, les poissons faisaient aussi l'objet d'un commerce, surtout perceptible dans les villes, qui alimentait toutes les couches de la société. Les temps forts de la consommation correspondaient aux jours où la viande était proscrite par les prescriptions alimentaires de l'Église, le carême étant la période la plus célèbre.
Au total, une étude qui nous introduit dans un aspect méconnu de l'économie rurale et de l'alimentation en Franche-Comté, aux trois derniers siècles du Moyen Âge.
Né à Lons-le-Saunier, agrégé d'histoire, docteur en histoire du Moyen Âge, Pierre Gresser est actuellement professeur émérite à l'université de Franche-Comté. Toute sa recherche porte sur les propriétés des comtes de Bourgogne aux XIVe et XVe siècles et, en particulier, l'administration et la gestion des eaux et forêts. Auteur de plusieurs ouvrages individuels et collectifs, ainsi que de nombreux articles personnels, Pierre Gresser a reçu, en 2005, le grade de docteur ès lettres honoris causa de l'université de Neuchâtel.

Illustration de couverture : Le brochet, la perche et l'anguille : trois carnassiers appréciés au Moyen Âge. LA CÉPÈDE (comte de), Histoire naturelle des poissons, Plassans, 1793-1803 (11 volumes). Planche répertoriée au Musée Denon (réserves) de Châlon-sur-Saône sous la cote 2001-8-1.
La pêche en Franche-Comté aux XIIIe-XVe siècles, paru en avril 2010, est édité chez Cêtre.
Contact :
Pierre Gresser - Université de Franche-Comté
Tél. (0033/0) 3 81 56 82 91
p.gresser@wanadoo.fr
11:00 Publié dans Actualité des Sciences, Livres, Poissons | Tags : pêche, franche-comté, histoire | Lien permanent | Commentaires (2) | Facebook | | |
La pêche électrique
Description du dispositif de pêche. Principe de fonctionnement. Précautions d'utilisation. Applications à la pêche scientifique.
10:30 Publié dans Limnologie-hydrobiologie, Poissons | Tags : pêche, poissons, échantillonnage | Lien permanent | Commentaires (6) | Facebook | | |
Échantillonnage des poissons lacustres
Échantillonnage des poissons lacustres :
les filets verticaux à enroulement
par André Guyard
Un système de filets verticaux à enroulement permet une meilleure prospection de tout le volume d'eau avec l'exploration différentielle des habitats-poissons. La confrontation des résultats obtenus dans des conditions similaires montre l'efficacité de la méthode par rapport aux systèmes classiques. Déterminée avec ce protocole, la distribution d'abondance des quinze espèces de poissons capturés montre que l'ichtyofaune de la retenue de Vouglans est dominée par les espèces les plus euryèces : Gardon, Brèmes, Ablette et Perche.
L'échantillonnage de l'ichtyofaune s'effectue traditionnellement à l'aide de filets professionnels usuels : filets emmêlants de type tramail ou filets maillants (araignées, pics ou filets de surface).
Du point de vue méthodologique, les auteurs (C.E.M.A.G.R.E.F, 1986, E.P.R. Franche-Comté, 1986 et VERNEAUX, 1986) soulignent l'insuffisance de ce mode d'échantillonnage pour plusieurs raisons :
— l'emploi de filets de type traditionnel de hauteur limitée interdit l'exploration simultanée de toute la tranche d'eau, notamment en zone centrale ;
— les dimensions et le mode de relevage des filets pélagiques ne permettent pas un repérage précis des prises dans l'espace aquatique ;
— pour des raisons pratiques, il est difficile de disposer dans le même biotope une batterie de filets comportant une gamme suffisante de maillages, ce qui accroît la sélectivité du système ;
— enfin, les classes de tailles les plus faibles sont très peu capturées.

Le dispositif des filets verticaux à enroulement pallie le mieux possible ces différents inconvénients et permet d'associer protocole de capture et cartographie habitationnelle.
Inspirée de la méthode de BARTOO et al. (1973), est utilisée comme unité d'effort de pêche une batterie de six filets verticaux, d'une largeur de 2 m, et d'une gamme de mailles s'échelonnant de 10 mm à 60 mm. Ce dispositif expérimenté pour la première fois au lac de Saint-Point, est décrit par CUINET & VAUDAUX (1986) puis par PÉNIL, HEIDMANN et RAYMOND (1987).

Chaque filet est enroulé sur un tube en PVC étanche servant de flotteur. L'enrouleur étant posé sur deux potences solidaires de l'embarcation, un système de manivelle permet à l'exécutant de dérouler le filet lors de la tendue sur toute la hauteur de la tranche d'eau.

Le filet est constitué d'une nappe monofilament de couleur vert pâle invisible dans l'eau. Afin d'éviter le vrillage provoqué par le vent, les courants ou les captures les plus importantes, des raidisseurs en polyéthylène translucide de densité voisine de 1, jalonnent le filet tous les dix mètres. La ralingue de fond, lestée de plomb, est également munie d'un raidisseur.





Les ralingues de bordure sont munies d'une graduation métrique dont la lecture indique, lors du relevage du filet par enroulement sur le flotteur-enrouleur, la distance au fond de chaque capture.
Pour des raisons de commodité lors de l'échantillonnage des profondeurs inférieures à 2 m, ce dispositif est remplacé par une petite araignée d'une largeur constante de 2 m et utilisée sur toute la tranche d'eau comme un filet vertical dont le flotteur-enrouleur serait remplacé par une ralingue de flotteurs en balsa gainé.
Pour en savoir plus :
BARTOO, N.W., HANSEN, R.G. et WYDOVSKI, R.S. (1973) — A portable vertical gillnet System. Progr. Fish-Cutt. 35 ; 231-233.
C.E.M.A.G.R.E.F., (1986) — Étude des populations ichtyologiques des grands plans d'au : La retenue de Vouglans (Jura). Rapport dactylogr. : 21 p. + 2 annexes.
CUINET, A. et VAUDAUX, P. (1986) — Contribution à la mise au point d'un nouveau protocole d'échantillonnage de la faune ichtyologique des lacs. Mém. D.E.S.S. Hydrobiol. Univ. Fr.-Comté : 138 p. + annexes.
GRANDMOTTET, J.-P. (1983) — Principales exigences de 30 Téléostéens dulcicoles vis-à-vis de l'habitat. Ann. Sc. Univ. Fr.-Comté. Biol. anim. 4(4) : 3-32.
GUYARD A., GRANDMOTTET J.-P. & VERNEAUX J. (1989) — Utilisation de batteries de filets verticaux à enroulement : nouvelle technique d'échantillonnage de la faune ichtyologique lacustre. Application à l'étude du peuplement pisciaire de la retenue du barrage de Vouglans (Jura). Ann. Sc. Univ. Fr.-Comté. Biol. anim. 5(1) : 59-70.
10:00 Publié dans Limnologie-hydrobiologie, Poissons | Tags : échantillonnage, lacs, poissons lacustres, filets verticaux | Lien permanent | Commentaires (0) | Facebook | | |
Qu'est-ce qu'un lac ?
Un lac est une étendue d'eau libre stagnante remplissant une dépression naturelle des continents, sans contact direct avec les océans. On le caractérise par différents paramètres morphologiques. Il occupe une dépression due à différents agents tectoniques, géologiques ou géographiques. La morphologie du lac dépend de son origine, de son mode d'alimentation et de son âge.
09:56 Publié dans Géologie-hydrogéologie-Climatologie, Limnologie-hydrobiologie | Tags : lac, eaux douces, eaux stagnantes, limnologie | Lien permanent | Commentaires (0) | Facebook | | |