ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

ASTROPHYSIQUE

 

 

 

 

 

 

 

Paris, 16 mars 2016

Au centre de la Voie Lactée, une source accélère des rayons cosmiques galactiques à des énergies inégalées

L'analyse détaillée des données recueillies par l'observatoire H.E.S.S, en Namibie, a permis de localiser une source de rayonnement cosmique à des énergies jamais encore observées dans notre Galaxie : le trou noir supermassif situé en son centre. H.E.S.S, auquel contribuent le CNRS et le CEA, détecte indirectement le rayonnement cosmique depuis plus de dix ans et a dressé une cartographie, en rayons gamma de très haute énergie, des régions centrales de notre Galaxie. L'identification de cette source hors du commun est publiée ce 16 mars 2016 dans Nature.

Des particules du rayonnement cosmique jusqu'à des énergies d'environ 100 téraélectronvolts (TeV)1 sont produites dans notre Galaxie par des objets comme les vestiges de supernova et les nébuleuses à vent de pulsar. Divers arguments théoriques, couplés aux observations directes des rayons cosmiques atteignant la Terre, indiquent que les "usines" galactiques de rayons cosmiques devraient être capables de produire des particules jusqu'à des énergies d'au moins un pétaélectronvolt (PeV)2, énergies 100 fois plus élevées que celles jamais atteintes par l'Homme. Alors que ces dernières années ont vu la découverte de nombreux accélérateurs au TeV et à quelques dizaines de TeV, les sources de plus haute énergie restaient inconnues.

L'analyse détaillée de la région du centre galactique observée pendant près de dix ans par le réseau de télescopes H.E.S.S. (High Energy Stereoscopic System), en Namibie, auquel contribuent le CNRS et le CEA., est publiée aujourd'hui dans la revue Nature. Lors de ses trois premières années d'observation, H.E.S.S a permis de découvrir une source ponctuelle et très puissante de rayons gamma au centre galactique, ainsi qu'une émission diffuse provenant des nuages moléculaires géants qui l'entourent dans une région d'environ 500 années-lumière de large. Ces nuages moléculaires, lorsqu'ils sont bombardés par des protons de très haute énergie, émettent des rayons gamma produits lors de l'interaction des protons avec la matière des nuages. La correspondance spatiale entre l'émission diffuse observée et la quantité de matière dans les nuages (déduite d'autres observations) indiquait la présence d'un ou plusieurs accélérateurs de rayons cosmiques (en particulier de protons) tapis quelque part dans cette région, mais cette source restait inconnue. 

Les observations plus approfondies, obtenues par H.E.S.S. entre 2004 et 2013, apportent un nouvel éclairage sur cette question. Le volume record de données récoltées ainsi que les progrès effectués dans les méthodes d'analyse permettent de mesurer la répartition spatiale des protons et leur énergie et de localiser l'origine de ces rayons cosmiques. Il s'agit d'une source cosmique située au centre exact de la Voie Lactée, capable d'accélérer des protons jusqu'à des énergies voisines du pétaélectronvolt. Les chercheurs pensent qu'elle émet sans interruption depuis au moins mille ans. Elle constituerait ainsi le premier "Pévatron"3 jamais observé.

Le centre de notre Galaxie abrite de nombreux objets susceptibles de produire des rayons cosmiques de très haute énergie, dont en particulier un reste de supernova, une nébuleuse à vent de pulsars mais aussi un amas compact d'étoiles massives. Cependant, le trou noir supermassif localisé au centre de la Galaxie, Sagittarius A*, est de loin le candidat le plus vraisemblable. Plusieurs régions d'accélération sont envisageables : soit le voisinage immédiat du trou noir soit une région plus éloignée, où une fraction de la matière tombant sur le trou noir est réinjectée dans l'environnement et peut initier de l'accélération de particules.

L'observation des rayons gamma permet de mesurer indirectement le spectre en énergie des protons accélérés par le trou noir central. Ce spectre indique que Sagittarius A* accélèrerait encore maintenant des protons jusqu'au PeV. L'activité actuelle de la source ne permet pas d'expliquer à elle seule l'intensité du rayonnement cosmique observé sur Terre. Mais si le trou noir central avait été encore plus actif dans le passé, il a pu produire à lui seul la quasi-totalité du rayonnement cosmique galactique observé à ces énergies. Un argument décisif au débat centenaire sur l'origine des rayons cosmiques galactiques !

La détection des rayons cosmiques par H.E.S.S

La Terre est bombardée en permanence par des particules de haute énergie (protons, électrons et noyaux atomiques) en provenance du cosmos, particules qui constituent ce que l'on appelle le "rayonnement cosmique". Ces particules étant chargées électriquement, elles sont déviées par les champs magnétiques du milieu interstellaire de la Galaxie et il est impossible d'identifier directement les sources astrophysiques responsables de leur production. Ainsi, depuis plus d'un siècle, l'identification de l'origine du rayonnement cosmique reste l'un des plus grands défis de la science.
Heureusement, les particules cosmiques interagissent avec la lumière et le gaz au voisinage de leur source et produisent alors des rayons gamma qui, eux, se déplacent en ligne droite, permettant ainsi de remonter à leur origine. Ceux d'entre eux qui atteignent la Terre, au contact de la haute atmosphère, produisent une gerbe de particules secondaires émettant une lumière très brève et ténue4. De nombreuses sources du rayonnement cosmique ont donc pu être identifiées ces dernières décennies en détectant cette lumière à l'aide de grands télescopes munis de caméras à haute définition temporelle comme le réseau de télescopes H.E.S.S. .Ce réseau, le plus performant au monde dans son domaine, est géré par une collaboration de 12 pays regroupant des scientifiques de 42 organismes.


H.E.S.S : dix laboratoires français impliqués

Centre d'études nucleaires de Bordeaux Gradignan (CENBG, CNRS/Université de Bordeaux)
Centre de physique des particules de Marseille (CPPM, CNRS/Aix Marseille Université)
Institut de planétologie et d'astrophysique de Grenoble (IPAG, CNRS/Université Grenoble Alpes)
Institut de recherche sur les lois fondamentales de l'univers (Irfu, CEA)
Laboratoire AstroParticule et cosmologie (APC, CNRS/CEA/Université Paris Diderot/Observatoire de Paris)
Laboratoire d'Annecy-le-Vieux de physique des particules (Lapp, CNRS/Université Savoie Mont Blanc)
Laboratoire Leprince-Ringuet (LLR, CNRS/Ecole Polytechnique)
Laboratoire physique nucléaire et hautes énergies (LPNHE, CNRS/Université Pierre et Marie Curie/Université Paris Diderot)
Laboratoire Univers et particules de Montpellier (LUPM, CNRS/Université de Montpellier)
Laboratoire Univers et théories (Luth, CNRS/Observatoire de Paris/Université Paris Diderot)
 
 
 
 
 
 
 

NANOSCIENCES

 

Paris, 28 juin 2016

Première pierre du Centre de nanosciences et de nanotechnologies

Le Centre de nanosciences et de nanotechnologies (C2N, CNRS/Université Paris-Sud), créé au 1er juin 2016, regroupe deux laboratoires franciliens leaders dans leur domaine : le Laboratoire de photonique et de nanostructures (CNRS) et l'Institut d'électronique fondamentale (CNRS/Université Paris-Sud). La première pierre de ce nouveau laboratoire a été posée le mardi 28 juin 2016 sur le campus de l'université Paris-Saclay, en présence de Thierry Mandon secrétaire d'État chargé de l'Enseignement supérieur et de la Recherche. Cette nouvelle structure, qui hébergera la plus grande centrale de nanotechnologie francilienne du réseau national Renatech1, se place dans une perspective ambitieuse : constituer, en France, un laboratoire phare de niveau mondial pour la recherche en nanosciences et en nanotechnologies. Le C2N, avec son bâtiment de 18 000 m², représente le plus grand projet immobilier du CNRS depuis 1973. Conduit conjointement par le CNRS et l'université Paris-Sud depuis 2009, ce projet s'inscrit dans l'opération d'intérêt national Paris-Saclay portée par l'Etablissement public d'aménagement Paris-Saclay.

L'implantation du Centre de nanosciences et de nanotechnologies (C2N) au cœur du plateau de Saclay, dans le quartier de l'école Polytechnique, a été initiée dans le cadre du plan Campus en 2009. Elle permet de renforcer la dynamique de l'écosystème scientifique des nanosciences et nanotechnologies en Ile-de-France. 

Le C2N mène ses recherches dans de nombreux domaines innovants dont la science des matériaux, la nanophotonique2, la nanoélectronique3, les nanobiotechnologies et les microsystèmes, ainsi que dans ceux des nanotechnologies (voir des exemples de travaux de recherche en fin de texte). Structuré en quatre départements scientifiques, le C2N aborde des recherches à la fois fondamentales et appliquées. Il représentera le pôle de référence en matière de nanosciences et nanotechnologies de l'université Paris-Saclay. Plus largement, à l'échelle européenne, il constituera l'un des plus grands centre académique de nanophotonique et, avec les acteurs locaux, l'un des plus grands consortiums en spintronique. Le C2N participe donc au rayonnement de la communauté à l'international. Ainsi l'université Paris-Sud vient d'être reconnue 42e établissement mondial en science des matériaux par le dernier classement de Shanghai en ingénierie (juin 2016). 

Au cœur du projet du C2N, la salle blanche (2800 m²) de la centrale de technologie sera la plus grande plateforme de ce type à l'échelle nationale. Elle constituera le pôle francilien du réseau national des grandes centrales académiques Renatech, réseau d'infrastructures et de moyens lourds en micro et nanotechnologie. Cette centrale sera ouverte à l'ensemble des acteurs académiques et industriels du domaine des nanosciences et des nanotechnologies afin qu'ils puissent y développer leurs technologies. Un espace sera ainsi réservé à l'accueil d'entreprises, notamment des start-up et des PME, pour des développements technologiques spécifiques. La formation à la recherche sera également au centre des priorités du C2N, avec notamment la mise en place d'une salle blanche d'entraînement, en conditions réelles, réservée à la formation pratique d'étudiants, stagiaires, ingénieurs et chercheurs désireux d'apprendre.

Ce projet immobilier d'environ 92 millions d'euros a été financé à hauteur de 71 millions d'euros par le Programme d'investissements d'avenir, 12,7 millions d'euros par le CNRS, qui contribuera également au déménagement des deux laboratoires et au raccordement des équipements à hauteur de 4,3 millions d'euros. Le foncier s'élevant à 4,32 millions d'euros a été acquis par le CNRS en 2014. La conception du bâtiment a été confiée au groupement ARTELIA (structure ingénierie et bureau d'étude) et à l'atelier d'architecture Michel Rémon et le chantier à Bouygues Ouvrages Publics, Engie Axima, GER2I, Engie Ineo et Eurovia. 

Les travaux ont débuté en novembre 2015 et se termineront à l'automne 2017. Les 18 000 m² du bâtiment, regroupant les laboratoires expérimentaux (3400 m²), les bureaux (2900 m²) et la salle blanche (2800 m²), accueilleront fin 2017 entre 410 et 470 personnes, réparties entre personnels permanents (chercheurs et enseignant-chercheurs, ingénieurs, techniciens et administratifs) et non permanents (doctorants, post doctorants, étudiants, techniciens stagiaires, visiteurs, etc.).

 

 DOCUMENT       cnrs        LIEN

 
 
 
 

« Le monde numérique simplifie la pensée »

 


« Le monde numérique simplifie la pensée »

Marina Julienne dans mensuel 484
daté février 2014

LA RECHERCHE : Votre dernier ouvrage s'intitule L'Homme simplifié. Cela ne s'oppose-t-il pas à la notion d'homme augmenté, au coeur de votre précédent ouvrage paru en 2010 ?


JEAN-MICHEL BESNIER : Non, car ces deux notions sont les deux faces de la même médaille. Dans mon précédent livre Demain les posthumains, j'expliquais de quelle façon les avancées scientifiques en génétique, en intelligence artificielle et en robotique sont censées permettre l'avènement d'un homme aux performances cognitives ou physiques améliorées. J'évoquais le transhumanisme, un courant de pensée qui a émergé à l'université de Californie, à Los Angeles, dans les années 1980. Les membres de ce courant imaginent sans ciller la fabrication d'un « homme parfait », connecté et quasi immortel. Ils espèrent qu'un être humain d'une santé physique et d'une intelligence hors norme va se développer grâce à l'administration d'une grande variété de molécules ou en utilisant des prothèses conçues initialement pour des personnes malades ou âgées.


Vous dénoncez cette perspective ?


J.-M.B. Effectivement, car dès aujourd'hui des individus pourtant en bonne santé ont recours à certains psychostimulants, par exemple pour dormir moins longtemps, mémoriser davantage, et peut-être vivre plus longtemps. Ils sont assurément dans le plus, mais leur pensée n'est pas devenue pour autant plus élaborée. Il me semble que, à défaut de favoriser la réflexion, l'extension sans précédent des technologies numériques, dites « intelligentes », risque de réduire nos comportements à une logique de pur fonctionnement. L'homme soi-disant « augmenté » masque en fait « l'homme simplifié », que je décris dans mon dernier ouvrage.


Que voulez-vous dire par homme simplifié ?


J.-M.B. Toutes ces technologies numériques nient la complexité qui est au coeur de l'humain et fait sa richesse. Prenons les logiciels dits « éducatifs » qui se limitent à des questionnaires à choix multiples. Ils risquent de développer une pensée automatique proche du réflexe. C'est le contraire de ce qu'on attend d'outils pédagogiques destinés à développer le jugement et l'aptitude à transférer les savoirs d'un domaine à l'autre. Autre exemple : le Web met à notre disposition une sorte d'encyclopédie universelle. Mais le fait d'accéder à des milliers d'informations ne suffit pas à produire du savoir. Encore faut-il comprendre comment organiser ces informations pour en extraire des connaissances. Considérons aussi les serveurs vocaux, censés simplifier la vie des utilisateurs : ils vont à l'encontre de la communication qu'ils devraient permettre et marginalisent toute une catégorie de la population. Imaginez une personne âgée qui a des problèmes de vue : si elle ne peut pas trouver la touche étoile de son téléphone, elle est privée de l'accès à une majorité de services publics. Et que dire des personnes ne parlant pas parfaitement français qui énoncent le mot-clé attendu en vain, car, souvent, il n'est pas reconnu par ces nouvelles machines.
Intéressons-nous enfin aux « robots compagnons » très prisés au Japon : en croyant grâce à eux affronter le vieillissement de leur population, les Japonais font-ils autre chose qu'ouvrir la porte à une société sans âme ? Ce qui me surprend, c'est notre tendance à être euphoriques devant n'importe quelle innovation technologique, en faisant l'économie de la démarche réflexive la plus élémentaire sur ses conséquences pour l'être humain.


Faut-il rejeter ces technologies en bloc ?


J.-M.B. Non, mais il ne faudrait pas oublier qu'elles relèvent du « pharmakon », comme disaient les Grecs, c'est-à-dire à la fois du remède et du poison. Elles sont bénéfiques pour les personnes qui sont diminuées à la suite d'un handicap physique ou qui souffrent d'une situation politique opprimante. Ainsi, certains tétraplégiques communiquent grâce à une tablette numérique. Et les victimes de dictatures trouvent le moyen de s'organiser grâce aux réseaux sociaux. Mais est-ce une raison pour méconnaître la servitude volontaire à laquelle se soumettent tant de gens « ordinaires », en se laissant assujettir par leurs machines ? Entre technophobie et technophilie, il s'agit non pas de choisir mais de savoir positionner le curseur.


Serions-nous plus assujettis aux machines aujourd'hui que dans le passé ?


J.-M.B. Jusqu'au milieu du XXe siècle, les ingénieurs ont créé des machines ou des technologies permettant une meilleure adaptation aux exigences du monde environnant et facilitant le bien-être : l'électricité, l'automobile, l'avion les machines à laver, etc. Mais progressivement, les laboratoires ont commencé à mettre au point des objets innovants dont la seule justification est d'être soumis à la sélection par le marché : chacun de ces objets s'impose ou disparaît, non pas parce qu'il satisfait un besoin, mais parce qu'il bénéficie d'un rapport de forces favorable dans la compétition économique. La stratégie marketing a pris la relève de l'analyse des attentes. Nous sommes ainsi passés du téléphone fixe au mobile, puis au mobile intelligent ; et demain ce seront les implants intracérébraux pour augmenter notre mémoire. Dans ce système, on innove pour innover. Ainsi, les lunettes de Google (connectées à Internet, avec GPS et caméra intégrés) ont déjà été jugées sans intérêt par ceux qui les ont testées. Google en inondera quand même le marché parce qu'il en sortira peut-être quelque chose d'inédit, qui en consacrera la valeur après coup. Et plus personne ne pourra alors s'en passer ! À un autre niveau, la biologie de synthèse cherche à produire des créatures vivantes qui n'existent pas dans la nature, avec l'idée que l'on trouvera peut-être une efficacité, un intérêt à ces artefacts biologiques. L'innovation est devenue une fin en soi. Voilà pourquoi les technologies nous donnent le sentiment qu'elles s'emballent et nous submergent.


Nous serions soumis à la technologie ?


J.-M.B. Notre apathie devant ce déferlement d'objets et de technologies est un peu inquiétante. Au XIXe siècle, la révolution industrielle a provoqué au Royaume-Uni la révolte des luddistes (qui brisaient les métiers à tisser mécaniques) contre le risque d'aliénation de l'homme par la machine. De Karl Marx à Charlie Chaplin, on s'est interrogé sur l'inhumanité de ces temps modernes. Aujourd'hui, certains d'entre nous s'énervent contre les serveurs vocaux qui nous coupent la parole, mais une majorité de citoyens achète toujours plus de machines dites « intelligentes » sans s'inquiéter qu'on ait désormais dissocié l'idée d'« intelligence » de celle de conscience ou d'intention d'agir.


Qualifier ces machines d'intelligentes vous semble stupide ?


J.-M.B. On ose parler d'« objets intelligents », acceptant ainsi que l'intelligence se réduise à la simple aptitude d'un organisme ou d'une machine à donner de bonnes réponses à des stimuli considérés comme des informations ! Beaucoup s'émerveillent qu'un enfant de 7 ans n'ait pas besoin d'un mode d'emploi comme son grand-père pour utiliser un ordinateur. Mais cela révèle justement les progrès de nouvelles procédures de pensée, dominées par les automatismes : elles sont efficaces parce qu'elles ne se laissent pas arrêter par une démarche de mentalisation ou une réflexion désormais perçue comme encombrante. L'idée que, pour utiliser les machines, on a plus recours à l'instinct et à la réactivité qu'aux tâtonnements de l'intelligence disqualifie les exercices d'approfondissement jadis associés à l'instruction. Cette défaite de la pensée profonde risque de conduire peu à peu à un affaiblissement des capacités d'apprentissage de notre cerveau.


L'intelligence humaine serait-elle menacée ?


J.-M.B. L'hominisation s'est faite essentiellement par le langage et par l'outil, qui ont jusqu'ici avancé de pair. Les encyclopédistes du XVIIIe siècle l'avaient compris : l'homme grandit en dominant la nature grâce à ses outils et, simultanément, en organisant son environnement social grâce à son langage. Fondés sur le langage, les « arts libéraux », « ouvrages de l'esprit » selon Diderot, stimulaient et orientaient les « arts mécaniques », lesquels apportaient en retour de quoi perfectionner l'exercice des premiers. Aujourd'hui, notre langage, de plus en plus dicté par des impératifs techniques, se réduit comme peau de chagrin. Le Web (les textos, les tweets...) nous contraint à épurer le lexique et la syntaxe de notre langue. Google a proposé de supprimer l'apostrophe de la langue anglaise, au motif qu'elle est peu commode sur les claviers ! Nous faisons sciemment violence aux adjectifs, aux propositions relatives... Nous sommes quotidiennement invités à décoder et à faire circuler des signaux, et non plus à échanger des signes.


En quoi les signaux sont-ils simplificateurs ?


J.-M.B. Un signal est un message destiné à prescrire un comportement, alors qu'un signe s'inscrit toujours dans une démarche de conversation, un espace de dialogue. Le langage humain ne se réduit pas au traitement du signal des ingénieurs en télécommunication, il est intrinsèquement équivoque, ambigu, complexe... Mais les technologies de la communication veulent la transparence et l'univocité des messages et nous nous plions à leurs exigences. Formater les esprits avec des catégories sémantiques épurées, c'est réduire la pensée.
Nous ne sommes plus très loin de la langue décrite par George Orwell dans 1984, le « novlang », où le mot « liberté », par exemple, ne désignait plus que la suppression d'un obstacle (l'eau est « libre » de circuler dans la rivière), mais ne faisait plus référence à la Révolution française, ni à l'idée d'autonomie. Naturellement, cette simplification du langage s'accompagne d'une simplification de l'écriture. Symptôme parmi d'autres de l'offensive contre le langage humain, aux États-Unis, plusieurs États viennent de supprimer l'enseignement de l'écriture cursive à l'école. Par commodité, sans s'aviser que c'est dans une écriture personnalisée que l'on projette le mieux des sentiments et des émotions.


Pourquoi allez-vous jusqu'à parler de dépression de l'homme devant la machine ?


J.-M.B. Les machines entament globalement notre disposition à communiquer avec les autres. Elles provoquent d'abord un sentiment d'impuissance, car la compréhension de leur fonctionnement nous échappe. Lorsqu'un objet connecté (ordinateur, système de pilotage automatique, téléphone mobile, etc.) se bloque, nous sommes presque honteux de notre incapacité à le remettre en route. Le philosophe allemand Günther Anders identifiait déjà au milieu du XXe siècle cette « honte d'être soi » qu'alimentaient le perfectionnement et l'autonomie des machines. Ensuite, les machines jouent le rôle d'anxiolytiques : leurs automatismes calment nos angoisses. D'où l'addiction qu'elles provoquent parfois. Si certains usagers frénétiques d'Internet aimeraient presque fusionner avec leurs ordinateurs, c'est probablement pour échapper aux affres d'une vie intérieure vécue sur le mode dépressif. Loin de nous pousser à utiliser le temps qu'elles nous font gagner pour nous permettre d'aller au musée ou de lire plus de philosophie, les machines saturent notre « temps de cerveau disponible », en multipliant ces armes de distraction massive que sont les jeux vidéos, les portables, les réseaux sociaux : tout ce qui capture la concentration, favorise le zapping et nourrit la dépression. Car la dépression dans ce cas, c'est la soumission à une machine et l'incapacité à affronter le conflit en direct avec l'autre. Tel est bien le sort de l'homme simplifié, victime de ces machines qui limitent sa réflexion et rendent sa vie indolore. Il délègue sans état d'âme son existence à des avatars - ceux que lui permet de créer un site comme Second Life - et plus généralement à ceux qu'il endosse au quotidien dans les personnages interchangeables que l'univers des réseaux le pousse à jouer sans qu'il s'en rende toujours compte.


Comment reprendre le contrôle de nos innovations ?
J.-M.B. Pour cela, il faut reprendre goût à ce qui est humain, même trop humain, accepter par exemple la fragilité qui est la nôtre, souhaiter innover sans s'imposer d'en finir avec ce que nous sommes. Reprendre le contrôle imposerait de réévaluer la vieillesse et d'être capable d'y voir une ressource en humanité, d'admettre que la souffrance psychique (sans aller jusqu'au masochisme !) fasse partie de ce qu'il y a de profond en nous, de se demander par exemple jusqu'à quel point on pourrait se priver des techniques de procréation médicalement assistée... Si nous redevenions capables de penser les techniques comme des instruments destinés à composer avec la vulnérabilité et non à l'éliminer, nous pourrions encore en faire des outils de convivialité. Il faut se rappeler que, à l'origine, le micro-ordinateur relevait d'un projet de convivialité révolutionnaire : il était censé nous permettre d'échapper au centralisme des pouvoirs politiques et bureaucratiques. De même, les réseaux informatiques envisagés dans les années 1960 par le biologiste Steward Brand, chef de file de la contre-culture américaine, étaient accueillis par les hippies comme un moyen d'assurer l'entraide au sein de leurs microcommunautés !


* Jean-Michel Besnier est agrégé de philosophie et docteur en sciences politiques. Il est professeur de philosophie à l'université Paris-Sorbonne. Il y occupe la chaire de philosophie des technologies de l'information et de la communication, et dirige l'équipe de recherche « rationalités contemporaines ». De 1989 à 2012,il a été membre du Centre de recherche en épistémologie appliquée, laboratoire du CNRS et de l'École polytechnique axé sur les sciences cognitives.

 

 DOCUMENT   larecherche.fr    LIEN

 
 
 
 

PRÉVISION DES SÉISMES

 


 

 

 

 

 

Paris, 8 juillet 2016
Prévision des séismes : une technique innovante pour observer les failles sous-marines

Pour surveiller un segment de la faille sismique nord-anatolienne près d'Istanbul, une équipe internationale de chercheurs, notamment du CNRS et de l'université de Bretagne occidentale, a déployé un réseau de balises au fond de la mer de Marmara. Objectif : mesurer les mouvements des fonds marins de part et d'autre de ce segment. Les données récoltées lors des six premiers mois révèlent que la faille serait bloquée au niveau de ce segment, suggérant une accumulation progressive d'énergie susceptible d'être libérée brusquement. Ce qui pourrait provoquer un séisme de forte magnitude à proximité d'Istanbul. Cette étude, issue d'une collaboration entre des chercheurs français, allemands et turcs, vient d'être publiée dans Geophysical Research Letters.
La faille nord-anatolienne, responsable de tremblements de terre destructeurs en 1999 en Turquie, est comparable à la faille de San Andreas en Californie. Elle constitue la limite des plaques tectoniques eurasiatique et anatolienne, qui se déplacent l'une par rapport à l'autre d'environ 2 cm par an. Le comportement d'un segment sous-marin de cette faille, situé à quelques dizaines de kilomètres au large d'Istanbul, en mer de Marmara, intrigue particulièrement les chercheurs, car il semble exempt de sismicité depuis le 18e siècle. Comment se comporte ce segment ? Glisse-t-il en continu, cède-t-il régulièrement, provoquant de petits séismes épisodiques de faible magnitude ou est-il bloqué, laissant présager une future rupture et donc un fort séisme ?

Observer in situ le mouvement d'une faille sous-marine sur plusieurs années est un vrai défi. Pour le relever, les chercheurs testent une méthode de télédétection sous-marine innovante, à l'aide de balises acoustiques actives, autonomes et interrogeables à distance depuis la surface de la mer. Posées sur le fond marin de part et d'autre de la faille à 800 mètres de profondeur, ces balises s'interrogent à tour de rôle par paire et mesurent le temps aller-retour d'un signal acoustique entre elles. Ces laps de temps sont ensuite convertis en distances entre les balises. C'est la variation de ces distances dans le temps qui permet de détecter un mouvement des fonds marins et la déformation du réseau de balises, de déduire les déplacements de la faille. Concrètement, un réseau de dix balises françaises et allemandes a été déployé lors d'une première campagne en mer1 en octobre 2014. Les six premiers mois de données (temps de parcours, température, pression et stabilité)2 confirment les performances de la méthode. Après calculs, les données ne révèlent aucun mouvement significatif de la faille surveillée, dans la limite de résolution du réseau. Les distances entre balises, séparées de 350 à 1700 mètres, sont mesurées avec une résolution de 1,5 à 2,5 mm. Ce segment serait donc bloqué ou quasi-bloqué, et accumulerait des contraintes susceptibles de générer un séisme. L'acquisition d'information sur plusieurs années sera cependant nécessaire pour confirmer cette observation ou caractériser un fonctionnement plus complexe de cette portion de faille.

Si, au-delà de cette démonstration, cette approche dite de « géodésie acoustique fond de mer » s'avère robuste sur le long terme (ici 3 à 5 ans sont envisagés dans la limite d'autonomie des batteries), elle pourrait être intégrée dans un observatoire sous-marin permanent en complément d'autres observations (sismologie, émission de bulles, …) pour surveiller in situ et en temps réel l'activité de cette faille en particulier, ou d'autres failles actives sous-marines dans le monde.

Ces travaux sont menés par le Laboratoire Domaines océaniques3 (LDO, CNRS/Université de Bretagne occidentale), en collaboration avec le laboratoire Littoral environnement et sociétés (CNRS/Université de La Rochelle), l'institut Geomar à Kiel (Allemagne), le Centre européen de recherche et d'enseignement de géosciences de l'environnement (CNRS/Collège de France/AMU/IRD), le Laboratoire Géosciences marines de l'Ifremer, l'Eurasian Institute of Earth Sciences de l'Université Technique d'Istanbul (Turquie) et le Kandilli Observatory and Earthquake Research Institute de l'Université Bogazici d'Istanbul. Cet article est dédié à la mémoire d'Anne Deschamps, chargée de recherche CNRS au LDO, initiatrice et responsable du projet, décédée peu après avoir conduit avec succès le déploiement de ces balises.


 DOCUMENT         cnrs        LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google