ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

Le calcul et l'ordinateur quantiques

 


 

 

 

 

 

Le calcul et l'ordinateur quantiques

Publié le 18 mai 2021
       
Si l'on ne dispose pas encore d’une véritable technologie d’ordinateur quantique, qui permettrait d'exploiter toute la puissance du calcul quantique, de nombreuses routes sont néanmoins explorées aujourd’hui. Toutes font encore face à des difficultés sans solution viable. Mais l’histoire du domaine a montré que des verrous considérés comme infranchissables finissaient par être levés. C’est pourquoi la recherche mondiale est plus active que jamais et les annonces publiques se multiplient, dans le cadre de ce qui est appelé aujourd’hui la "deuxième révolution quantique".

Le calcul quantique ambitionne d'utiliser les propriétés quantiques ultimes de la matière (la superposition, l'intrication et la non-localité) pour effectuer massivement des opérations sur des données grâce à l'ordinateur quantique. Il permettrait de ce fait de dépasser très largement les capacités offertes par les ordinateurs classiques.

LES QUBITS, AU COEUR DU CALCUL QUANTIQUE
Le calcul quantique s’appuie sur des qubits, pendants quantiques des bits classiques. D’un point de vue physique, les qubits sont des systèmes matériels pouvant être mis dans deux états quantiques distincts. Conformément aux lois de la physique quantique, le qubit peut être placé dans un ensemble continu de superpositions de ses deux états de base, contrairement au bit classique qui ne peut prendre que deux valeurs (0 ou 1).
Comme les bits classiques, les qubits peuvent être utilisés pour encoder une information et soumis à des portes quantiques (équivalents des portes logiques). 

QU'EST-CE QU'UN BIT QUANTIQUE ?
Dans un ordinateur classique, l’information est stockée dans un ensemble (registre) de cases mémoires, les bits, dont la valeur est soit 0, soit 1. Un bit quantique (qubit) a, quant à lui, deux états quantiques |0> et |1>, séparés par une différence d’énergie définissant sa fréquence (fQB), et peut être à la fois dans ces deux états. Au cours d’un algorithme (succession d'opérations dites « portes logiques »), le registre de qubits se trouve dans une superposition quantique de tous ses états possibles (|00...0>, |10...0>, |11...1>, |10...1>), permettant un calcul massivement parallèle.



Etats quantiques d'un bit quantique. © CEA/F. Mathé


Le fonctionnement d'un ordinateur quantique
    

Atouts et difficultés de la recherche sur le calcul quantique
La promesse d’un parallélisme massif
Grâce à ses propriétés quantiques (superposition et intrication), un registre de N qubits se trouve à un instant donné dans une superposition de ses 2N configurations de base. Un registre de N bits ne peut, lui, se trouver que dans une seule d’entre elles à la fois.

Toute opération appliquée à un registre de N qubits s'effectuerait donc en parallèle sur les 2N états, là où un ordinateur classique doit traiter l’opération de façon séquentielle. Ce parallélisme massif ouvre des horizons extrêmement prometteurs, laissant espérer une résolution beaucoup plus rapide de certains problèmes ou l’identification d’une solution à des problèmes aujourd’hui insolubles.


L'INTRICATION QUANTIQUE
L’intrication quantique est un phénomène dans lequel deux particules (ou groupes de particules) forment un système unique, et présentent des états quantiques dépendant l'un de l'autre quelle que soit la distance qui les sépare.


Décohérence et correction d’erreurs
De très nombreux obstacles physiques et technologiques se dressent toutefois sur la route du calcul quantique, à commencer par la fragilité de l’état de superposition qui lui est nécessaire. Toute interaction, aussi minime soit-elle, avec l’extérieur (que ce soit par le biais d’interactions environnementales ou de mesures effectuées sur le système) a pour effet de détruire la superposition quantique : c’est la décohérence. La difficulté s’aggrave à mesure que le nombre de qubits intriqués augmente : le temps de cohérence d’un état intriqué de N qubits est en effet environ N fois plus court que celui d’un seul qubit.

Or, les interactions avec l’environnement ne peuvent par ailleurs être réduites à zéro, car elles sont nécessaires pour appliquer des opérations logiques sur les qubits et en effectuer la lecture. En pratique, il faut donc corriger les erreurs.

L'histoire de l'ordinateur quantique

Au début des années 1980, le Nobel de physique Richard Feynman est le premier à pressentir les possibilités faramineuses d’un ordinateur capable de tirer parti des lois quantiques.
Dès les années 1990, plusieurs théoriciens démontrent que certains calculs verraient leur résolution accélérée dans des proportions inouïes s’il était possible de les implémenter sur des bits quantiques, aussi appelés qubits, plutôt que sur des bits classiques. À condition, bien sûr, de disposer d’un processeur quantique pour les utiliser, processeur dont personne ne sait à l’époque à quoi il pourrait ressembler.


Molécules en phase liquide, ions piégés par des faisceaux laser, impureté dans les solides… les idées commencent à fuser dans les laboratoires de physique pour définir ce qui pourrait devenir les briques de base d’un futur ordinateur quantique, à l’instar des transistors de la microélectronique classique.

    
QUELS SONT LES ENJEUX DE LA RECHERCHE SUR LE CALCUL ET L'ORDINATEUR QUANTIQUES ?

Au XXe siècle, la mise au jour de la physique quantique a révolutionné notre conception du monde mais aussi notre mode de vie avec ses applications : lasers, transistors, circuits intégrés.
Une deuxième révolution quantique advient à l’aube du XXIe siècle. Elle regroupe des recherches visant à concevoir et à réaliser des dispositifs de rupture qui exploitent les phénomènes physiques de la superposition et de l’intrication quantique. C’est un domaine en pleine expansion avec de très forts enjeux scientifiques et technologiques. En particulier, la réalisation d’un ordinateur quantique, dont le calcul est intrinsèquement parallèle et permet de traiter en un temps très réduit de grandes quantités d’information, avec des performances inaccessibles au calcul classique, permettrait des approches révolutionnaires pour résoudre certaines classes de problèmes. Parmi les applications possibles :


*         La chimie : simuler, in silico, de manière exacte, la structure et le fonctionnement de grosses molécules d’intérêt pour la pharmacologie ou pour l’agronomie. Avec les plus puissants ordinateurs actuels, il est possible de simuler des petites molécules mais il est souvent nécessaire de recourir à de fortes approximations dès que la taille du système étudié augmente.
*         Le Data Mining : Accélérer la recherche d’une information spécifique dans une vaste base de données.
*         L’optimisation de procédés de l’industrie 4.0 : trouver une solution optimale dans un système complexe multiparamétrique, comme par exemple la tournée la plus rapide d’un camion de livraison ou ajuster l’offre à la demande sur un réseau électrique très décentralisé.

*         L’intelligence artificielle : au cours de la phase d’apprentissage d’un système d’IA, telle qu’une reconnaissance d’images, les informations pourraient être simultanément reconnues et non de façon séquentielle comme c’est le cas avec des processeurs classiques (examiner une situation, puis une autre, etc.).
*        
OÙ EN EST LA RECHERCHE DANS LE DOMAINE DU CALCUL QUANTIQUE ?

La recherche fondamentale dans le domaine de l'information quantique a connu un essor important cette dernière décennie. Les enjeux dans ce domaine et la rupture technologique que présenterait un ordinateur quantique ont incité de grandes entreprises à investir d'importants moyens, en s'associant à des communautés scientifiques, ou en créant leurs propres laboratoires de recherche.
L'association de Google avec l'Université de Californie de Santa Barbara ou la collaboration annoncée sur dix ans du groupe lntel avec l'université technologique de Delft illustrent l'engouement pour cette thématique de recherche et la nécessité de construire un véritable partenariat public-privé sur le long terme. Atos-Bull, leader européen du calcul intensif, s'est aussi positionné activement sur la feuille de route de l'ordinateur quantique en réalisant un émulateur d'ordinateur quantique intégrant finement mémoire et calcul dans un serveur classique optimisé, et en créant une équipe spécialisée en logiciel adapté au quantique.


4 pistes de qubits en compétition dans le monde

Actuellement, 4 types de qubits sont à l’étude dans le monde : le qubit supraconducteur, le qubit silicium, le qubit à ions piégés et le qubit photonique.
*         Le qubit supraconducteur est pour le moment la technologie la plus avancée. Il correspond à l’état d’un courant supraconducteur qui traverse une barrière très fine grâce à l’effet Josephson (c’est-à-dire l’apparition d’un courant entre deux matériaux supraconducteurs séparés par une couche d’un matériau non supraconducteur). L’objectif est de créer, à très basse température, une superposition de deux états distincts d’un courant qui oscille à haute fréquence et traverse la barrière en une boucle supraconductrice. Cette technique est utilisée notamment par IBM, Google, Intel, D-Wave et le CEA.
*         Le qubit silicium, utilise, également à très basse température, la superposition (provoquée par un champ magnétique) du spin (une propriété quantique des particules qui n’a pas d’équivalent en physique classique) d’un électron. De petite taille (généralement 30 nanomètres), les qubits silicium pourraient ainsi être intégrés par millions voire milliards sur une même puce. Ils sont en outre compatibles avec les technologies CMOS (Complementary Metal Oxide Semiconductor : technologie de fabrication des composants électroniques), largement utilisées dans l’industrie microélectronique, ce qui leur donne un avantage compétitif pour la production en série. Cette approche est développée notamment par Intel et le CEA.<
*         Le qubit à ions piégés correspond à des orientations magnétiques d’ions, généralement de calcium, maintenus sous vide. Il fonctionne lui aussi à très basse température. Un laser sert à la mesure et exploite le phénomène de fluorescence des ions excités par le laser. Le magnétisme est utilisé pour l’activation des portes quantiques (qui sont les briques élémentaires d’un circuit quantique, fonctionnant sur quelques qubits). Certes difficilement industrialisables, les ions piégés peuvent s’intriquer plus librement et donc résoudre des calculs complexes plus facilement.
*         Enfin, le qubit photonique est, quant à lui, lui codé sur de nombreux paramètres indépendants servant à décrire l’état d’un photon (aussi appelés degrés de liberté) : polarisation, couleur, forme spatiale ou temporelle. Les portes quantiques sont réalisées à l’aide de dispositifs optiques avec des filtres à deux couleurs ou polarisants. Il faut un grand nombre de lasers pour piloter l’ensemble, ce qui est contraignant. L’avantage de cette option est que ces qubits fonctionnent à température ambiante.


Une accélération mondiale et un grand nombre d’initiatives publiques et privées
Plusieurs actions majeures à l'étranger (Etats-Unis, Royaume-Uni, Pays-Bas, Danemark) impliquent dès aujourd'hui de très grands industriels (Google, Intel…) et mobilisent des financements de plusieurs dizaines de millions d'euros.
Au niveau européen, un flagship sur l'ingénierie quantique a été décidé en 2016 et a démarré en 2018 avec l'ambition d'amener les technologies quantiques sur le marché. Le financement annoncé est d'au moins un milliard d'euros, apporté par la Commission européenne et les Etats membres sur dix ans.
A l'échelle nationale, Emmanuel Macron a présenté le 21 janvier 2021 le Plan quantique français, dont le Programme et équipements prioritaires de recherche dédié est coordonné par le CEA, le CNRS et l'INRIA.


Un grand nombre de voies à explorer pour espérer lever les verrous conceptuels et technologiques

Un grand nombre de voies de réalisation physique est développé en parallèle. Aucun consensus ni aucun argumentaire robuste n’existe aujourd’hui sur la solution la plus adaptée pour réaliser un ordinateur quantique comprenant plus d’une dizaine de qubits. Tous les systèmes étudiés jusqu’à présent se sont en effet heurtés aux problèmes de décohérence et de complexité rapidement croissante des dispositifs quand le nombre de qubits augmente : le temps de cohérence d’un état intriqué de N qubits est en effet environ N fois plus court que celui d’un seul qubit.
Or, les interactions avec l’environnement ne peuvent par ailleurs être réduites à zéro, car elles sont nécessaires pour appliquer des opérations logiques sur les qubits et en effectuer la lecture. En pratique, il faut donc corriger les erreurs. La seule architecture connue pour ce faire, appelée « code de surface », demande un très grand nombre de qubits physiques par qubit logique.
Ce problème de la correction d’erreurs est donc plus qu’ardu car ses difficultés sont d’ordre à la fois conceptuel et technologique, liant degrés de liberté, interactions, complexité, méthode d’adressage, méthode de mesure, décohérence. A ces questions s’ajoute la vaste problématique de l’algorithmique et de son implémentation pratique dans une architecture donnée (traitement des erreurs, langage de programmation…).

 

  DOCUMENT     cea         LIEN

 
 
 
 

LE BOSON DE HIGGS

 

 

 

 

 

 

 

Le mécanisme de Brout-Englert-Higgs

Dans les années 1970, les physiciens ont compris qu’il y avait des liens étroits entre deux des quatre forces fondamentales, la force faible et la force électromagnétique. Ces dernières peuvent être décrites dans le cadre d’une théorie unifiée, qui constitue la base du Modèle standard. On entend par « unification » le fait que l’électricité, le magnétisme, la lumière et certains types de radioactivité sont tous des manifestations d’une seule et même force appelée force électrofaible.

Les équations fondamentales de la théorie unifiée décrivent de façon correcte la force électrofaible et ses particules porteuses de force associées, à savoir le photon et les bosons W et Z. Mais il y a un hic. Dans ce modèle, toutes ces particules paraissent dépourvues de masse. Or si le photon a effectivement une masse nulle, nous savons que les particules W et Z ont une masse non nulle, équivalente à près de 100 fois la masse d'un proton. Heureusement, les théoriciens Robert Brout, François Englert et Peter Higgs ont proposé une théorie qui devait résoudre ce problème. Ce que nous appelons à présent mécanisme de Brout-Englert-Higgs donne une masse au W et au Z lorsqu'ils interagissent avec un champ invisible, dit « champ de Higgs »,  présent dans tout l’Univers.

Le 4 juillet 2012 au CERN, les collaborations ATLAS et CMS ont présenté dans leurs données du LHC la preuve de l’existence d’une particule compatible avec un boson de Higgs, la particule liée au mécanisme proposé dans les années 1960 pour expliquer pourquoi les particules W, Z et d’autres particules ont une masse.(Image: Maximilien Brice/Laurent Egli/CERN)

Juste après le Big Bang, le champ de Higgs était nul, mais, lorsque l’Univers a commencé à se refroidir, et que la température est tombée en dessous d’une certaine valeur critique, le champ s’est développé spontanément, si bien que toutes les particules interagissant avec ce champ ont acquis une masse. Plus une particule interagit avec ce champ, plus elle est massive. Les particules comme le photon, qui n’interagissent pas avec le champ, se retrouvent totalement dépourvues de masse. Comme tous les champs fondamentaux, le champ de Higgs est associé à une particule, le boson de Higgs. Le boson de Higgs est la manifestation visible du champ de Higgs, un peu comme la vague à la surface de la mer.

L’insaisissable particule

Événements candidats au boson de Higgs issus de collisions entre protons dans le LHC. L’événement du haut, obtenu par l’expérience CMS, montre une désintégration en deux photons (lignes jaunes en pointillés et lignes vertes). L’événement du bas, obtenu par l’expérience ATLAS, montre une désintégration en quatre muons (traces rouges). (Image: CMS/ATLAS/CERN)
Pendant de nombreuses années, le problème a été qu’aucune expérience n’avait observé le boson de Higgs, ce qui aurait permis de confirmer la théorie. Le 4 juillet 2012, les expériences ATLAS et CMS auprès du Grand collisionneur de hadrons (LHC) ont annoncé qu'elles avaient toutes deux observé une nouvelle particule dont la masse se situait dans la région des 126 GeV.
Le 8 octobre 2013, le prix Nobel de physique a été attribué conjointement à François Englert et Peter Higgs « pour la découverte théorique du mécanisme contribuant à notre compréhension de l’origine de la masse des particules subatomiques et récemment confirmée par la découverte, par les expériences ATLAS et CMS auprès du LHC du CERN, de la particule fondamentale prédite par cette théorie ».

Ce qu’il faut savoir sur le boson de Higgs
Comment les particules élémentaires acquièrent-elles leur masse ? Comment le champ de Brout-Englert-Higgs fonctionne-t-il ? Pourquoi est-il si particulier ? Comment son existence a-t-elle été démontrée au LHC ? Cette vidéo donne les explications de base sur le boson de Higgs et son champ associé en 4 minutes, avec des infographies.

 

   DOCUMENT  cern   LIEN

 
 
 
 

PUCES ET BIOPUCES

 

 

 

 

 

 

 

PUCES ET BIOPUCES

La puce est un carré en silicium (seul matériau avec lequel on soit arrivé à faire des semiconducteurs), plus petit que l’ongle du petit doigt, avec de très nombreuses petites pattes qui font penser à une puce. On peut se faire une idée de la révolution qu’a introduit la puce, en consultant par exemple Internet, qui est de loin la manifestation la plus spectaculaire des possibilités. Il y a des microprocesseurs partout, c’est à dire l’intelligence ; il y a des mémoires. Je n’ai inventé que la carte à puces. Les biopuces sont une sorte de fantasme journalistique : il n’y en a pas qui fonctionne. Les grands de l’informatique comme Intel, Texas Instrument ne travaillent pas dessus. C’est trop différent des circuits intégrés.

Il y a une différence spectaculaire entre mémoire informatique et mémoire humaine.
Comment se fait-il qu’il est si difficile d’apprendre ? Qu’il soit impossible d’oublier sur commande ? Aujourd’hui j’ai une veste jaune, si demain vous voulez chasser cette image de votre mémoire, ça vous sera complètement impossible. Il n’y a pas d’intersection entre la volonté et la mémoire. La mémoire artificielle la plus simple : une feuille de papier, une vitre embuée sont des mémoires, au sens où l’on peut inscrire une information et elle reste. Toutes ces mémoires sont effaçables. Il suffit de frotter avec un chiffon et l’information s’évapore. Rien de tel n’est concevable avec notre mémoire. La mémoire humaine est infinie ; ce soir ayant déjà dans notre tête tout ce que nous avons, nous allons voir un film d’action, on sort avec le film dans la tête mais ça n’a pas chassé de précédent souvenir. Les mémoires artificielles sont finies, elles ont un espace délimité. Une cassette de magnétoscope, une fois remplie, ne peut prendre une seconde d’images supplémentaires. Sur cet étonnement, j’ai voulu créer une mémoire artificielle ayant les traits de fonctionnement de la mémoire humaine, son irréversibilité. Une information enregistrée est irréversiblement enregistrée. Les informaticiens adorent ce type de situation stable...

Texte de la 251e conférence de l'Université de tous les savoirs donnée le 7 septembre 2000.
PUCES ET CARTES A PUCES par Roland MORENO
La puce est un carré en silicium (seul matériau avec lequel on soit arrivé à faire des semi- conducteurs), plus petit que l’ongle du petit doigt, avec de très nombreuses petites pattes qui font penser à une puce. On peut se faire une idée de la révolution qu’a introduit la puce, en consultant par exemple Internet, qui est de loin la manifestation la plus spectaculaire des possibilités. Il y a des microprocesseurs partout, c’est à dire l’intelligence ; il y a des mémoires. Je n’ai inventé que la carte à puces.
Les biopuces sont une sorte de fantasme journalistique : il n’y en a pas qui fonctionne. Les grands de l’informatique comme Intel, Texas Instrument ne travaillent pas dessus. C’est trop différent des circuits intégrés.
Il y a une différence spectaculaire entre mémoire informatique et mémoire humaine. Comment se fait-il qu’il est si difficile d’apprendre ? Qu’il soit impossible d’oublier sur commande ? Aujourd’hui j’ai une veste jaune, si demain vous voulez chasser cette image de votre mémoire, ça vous sera complètement impossible. Il n’y a pas d’intersection entre la volonté et la mémoire.
La mémoire artificielle la plus simple : une feuille de papier, une vitre embuée sont des mémoires, au sens où l’on peut inscrire une information et elle reste. Toutes ces mémoires sont effaçables. Il suffit de frotter avec un chiffon et l’information s’évapore.
Rien de tel n’est concevable avec notre mémoire. La mémoire humaine est infinie ; ce soir ayant déjà dans notre tête tout ce que nous avons, nous allons voir un film d’action, on sort avec le film dans la tête mais ça n’a pas chassé de précédent souvenir.
Les mémoires artificielles sont finies, elles ont un espace délimité. Une cassette de magnétoscope, une fois remplie, ne peut prendre une seconde d’images supplémentaires.
Sur cet étonnement, j’ai voulu créer une mémoire artificielle ayant les traits de fonctionnement de la mémoire humaine, son irréversibilité. Une information enregistrée est irréversiblement enregistrée. Les informaticiens adorent ce type de situation stable.
Si mon adresse est inscrite sur ma carte et que je déménage, on va juste pouvoir ajouter ma nouvelle adresse, mais sans effacer la précédente. Dans le quotidien, la carte téléphone qui a 50 unités, ne peut être rechargée. Une unité consiste à inscrire un point mémoire.
La surface d’une puce correspond à quelques bits de mémoires. Comment réaliser une telle fonction ?
Le processus comprend plus de 100 étapes. On part d’un disque de silicium, on vient le graver en une centaine d’étapes, des gravures de l’ordre de un millième de millimètre. On dope cette puce avec des matériaux rares : bore, phosphore, antimoine, arsenic, on creuse des galeries, on édifie des fortifications d’un millionième de millimètre de hauteur, et à la fin on a une mémoire ou plutôt un microprocesseur, capable d’intelligence, c'est à dire de faire de la traduction automatique, de la reconnaissance de forme.
La carte à puces dans ce décor ne représente qu’un dix millième des utilisations que l’on fait de la microélectronique, mais occupe une grande place dans la vie quotidienne : carte bancaire, carte téléphone, carte sim ; chez vous carte du décodeur Canal plus.
Cette banalité de l’objet constitue un précédent dans l’histoire industrielle, car cet objet est uniforme ; par exemple le velcro de mes chaussures n’a pas la même forme sur votre vêtement.
Les cartes à puces sont un identifiant qui transporte de l’argent – et non de l’information. La carte est si complexe à faire, elle ne peut être contrefaite, elle correspond à deux de nos préoccupations : l’identification ou notre portefeuille :
L’identification se fait par un code à quatre chiffres. Une fois la puce autorisée à travailler, elle révèle la véritable identité du porteur, par exemple son RIB.
Beaucoup de gens réclament la carte d’identité à puce, ou la carte d’électeur. La carte d’identité interdit (selon un traité réunissant 17 pays dans le monde) qu’une information d’état civil ne soit pas directement lisible par l’homme. Sinon, nous transporterions un objet avec des secrets sur nous-même. Quant à la carte d'élécteur, la démocratie est une chose si ancienne qu’il ne faudrait pas l’acoquiner avec une trouvaille des années soixante-dix ; pour gagner quoi ?
La carte à puces se résume donc à deux fonctions : identité et argent.
La carte à puces est inconnue aux États-Unis, depuis son invention il y a 26 ans. Or, les Américains font tout les objets qui comptent : polaroid, blue-jean, Macintosh, pilule, Tampax, Viagra. Toutes les grandes mutations depuis 1945 sont américaines. Le progrès vient des États-Unis, un peu du Japon (photo), marginalement d’Allemagne.
Internet ressemble à Big Brother. Napster, qui permet à chacun la musique d’écouter la musique des autres internautes. Aux États-Unis, il existe le credit scoring, votre score en termes de solvabilité. Les ordinateurs tournent avec vos performances de crédit. En France, les cartes bleues sont les seules à connaître vos données.
La carte à puce est implantée au Japon, en Europe du Nord de l’Est, Moyen-Orient, Amérique latine. La France est encore leader dans ce domaine : 25.000 emplois directs liés à la carte à puces. Le leader de la carte à puces, la société marseillaise Gem plus, réalise 85% de son chiffre d’affaires à l’exportation. L’Allemagne nous talonne, les Allemands ont un porte- monnaie à puce, diffusé à 60 000 millions d’exemplaires ; en Chine, il y a 4 usines Schlumberger de cartes à puces.
La carte à puces est un objet utile, citoyen, joue un rôle dans notre système économique, mais n’est pas un gadget. Elle Remplit des fonctions que ne pourraient remplir d’autres supports, comme les pistes magnétiques,
Le téléphone cellulaire ou portable, révolutionne notre vie et très récemment. Avec un téléphone portable, pour la première fois, les gens sourient dans la rue ; c’est toujours bon à prendre.
Que sera notre société dans 15 ans, lorsqu’il y aura 1 500 fois plus d’Internet ? Ce n’est pas une mode.
Le minitel est derrière nous, mais il a facilité la pédagogie de l’informatique. Il marque un des rendez-vous manqué de la carte à puce, car l’industrie n’a pas été assez réactive. Le minitel aurait pu être payée par carte à puce. Le 3615 fut une grosse erreur, coûtait très cher (60 francs de l’heure). La connexion télécommunication /carte à puce sera par Internet –même s’il y a des fraudes au numéro de carte. Le commerce électronique, le e-buisness se développe. Mes brevets tombent dans le domaine public le 13 septembre 2000, et les Américains risquent de s’approprier la découverte. Mais est-ce pour une raison de coût ? Sur une carte de téléphone de 50 francs, l’objet coûte 2 francs à faire, on met 3 francs de publicité, le buraliste gagne 2,50 francs et l’inventeur touche 4 centimes par carte. Mais il s’agit plutôt du syndrome NIH, not invented here, le truc qui n’a pas été inventé ici. J’aurais été italien, je n’aurais pas imposé la carte en France ; j’ai été ici accueilli à bras ouverts par les gouvernements car j’étais français. Le lendemain de mon idée, toute la communauté bancaire française était partante. Vous connaissez peut-être la formule d’Edison, qui dit que l’invention c’est 10%
d’inspiration et 90 % de transpiration. J’ajouterais ; et trois quart de chance. Je n’aurais pas rencontré un banquier le lendemain matin de mon idée, je ne serais peut-être pas devant vous ce soir. On commence par récompenser l’inventeur avec un brevet, et après 20 ans abandonne le brevet.
Une source de malentendu est de confondre la carte à puces avec la mémoire informatique, qui est dépourvue de moyen de protection. La carte à puce rend l’information secrète (code confidentiel) et irréversible.
Mars dernier, un ingénieur informaticien a contourné le système de sécurité bancaire et a fait une fausse carte à puces, pour acheter des tickets de métro. Il a fait les gros titres de la presse. Libération titrait « la puce n’était pas inviolable ». C’était faux, j’ai offert un million de francs à qui lirait le code secret d’une carte ou écrirait une information sur une carte dans les zones qui sont protégée par mes brevet : personne n’a pu le faire.

 

  VIDEO       CANAL  U         LIEN  
 

 
 
 
 

Les événements climatiques extrêmes

 


 

 

 

 

 

Les événements climatiques extrêmes

« Ouragan du siècle », « Canicule extrême » ou encore « Événement Cévenol ». Depuis quelques années, ces termes sont à la une des médias face à la survenance de phénomènes météorologiques extrêmes. Ces événements de natures très variées, le plus souvent inattendus et violents, nous semblent survenir bien plus fréquemment. Mais est-ce vraiment le cas ? Et si oui, peut-on établir un lien avec le réchauffement climatique ?

LES EXTRÊMES MÉTÉOROLOGIQUES
Même parmi les scientifiques, la notion d’événement météorologique extrême reste difficile à définir. En effet, statisticiens, physiciens et spécialistes des sciences sociales ont chacun leur définition d’événement météorologique extrême. Bien que ces trois définitions soient complémentaires, elles ont chacune une dimension propre.
Pour les statisticiens, un extrême sera nommé ainsi si une mesure (température, vitesse du vent) dépasse les valeurs communément rencontrées. Ce sont les chiffres qui déterminent si oui ou non un événement est extrême.

Une seconde définition est donnée par les physiciens : l’extrême correspond à une catégorie d’événement (cyclone tropical, tempête extra-tropicale, vague de chaleur, sécheresse, etc.) qui dépend de la région et de sa description phénoménologique.

Enfin, les spécialistes des sciences sociales définissent l’événement par les dégâts causés. En ce sens, un événement sera dit extrême lorsqu’il touche la société. Un événement aura plus tendance à être qualifié d’extrême dans ce cas que s’il se déroulait dans un lieu sans habitation (par exemple dans le désert) car il n’est à l’origine ni de dégât matériel, ni de perte humaine. Aussi, un événement climatique sera considéré comme extrême s’il se déroule dans un lieu où la population n’est pas habituée à se protéger contre un type d’événement particulier. Par exemple, en France, la population est moins habituée à recevoir beaucoup de chutes de neige, contrairement au Canada où la population est préparée et habituée à faire face à ce type d’événement.

Les critères de détermination d’un événement extrême diffèrent en fonction du lieu. Par exemple, on parle de canicule à Toulouse quand pendant au moins trois jours, les températures la nuit sont au-dessus de 21 °C et quand en journée les températures dépassent les 36 °C. Alors qu’à Brest, une canicule est avérée si pendant au moins trois jours il fait plus de 16 °C la nuit et plus de 28 °C en journée.

Classement des extrêmes
Les extrêmes météorologiques peuvent se classer en deux catégories en fonction de leur durée : des phénomènes longs persistant plusieurs semaines ou plusieurs mois (telle une sécheresse) et d’autres, souvent très intenses, dont la durée se limite à quelques heures voire quelques jours.

LES ROUAGES DES EXTRÊMES
Les mécanismes des extrêmes météorologiques sont complexes. Par exemple, la canicule de l’été 2003 est la conséquence de mouvements de masses d’air sur une très vaste étendue spatiale (plusieurs milliers de kilomètres de rayon). Les conditions à réunir pour provoquer une vague de chaleur sont multiples et peuvent être annulées par quelques jours de précipitations. D’où l’extrême difficulté à prévoir leur occurrence quelques semaines à l’avance même s’il est clair qu’une augmentation des températures augmente le risque de survenue des canicules.
L’apparition des autres phénomènes climatologiques extrêmes (vagues de froid, tornades, tempêtes, etc.) est la résultante également de multiples facteurs et de leurs interactions, qu’il peut être très compliqué de modéliser et de prévoir.

COMPRENDRE LE PASSÉ POUR DÉTERMINER LES CAUSES DES PHÉNOMÈNES CLIMATIQUES EXTRÊMES
L’étude du climat du passé est l’une des pistes qui permet aux scientifiques d’établir un lien entre les extrêmes météorologiques (sécheresse, vagues de froid par exemple) et l’évolution des températures moyennes.
Certains historiens comme E. Le Roy Ladurie se sont penchés sur les archives, à la fois nationales mais aussi parfois très localisées et détaillées telles que des registres paroissiaux, dans lesquelles on trouve la trace de certains événements météorologiques ayant particulièrement marqué la population (tempêtes, épisodes de chaleur ou de froid, destruction de bâtiments, récoltes dévastées, etc.). La description des effets et des dégâts causés donne une approximation du niveau de violence de ces phénomènes subis par nos ancêtres. Des documents relatent que la sécheresse était particulièrement redoutée par les sociétés rurales car celle-ci mettait en danger les récoltes. Cette frayeur de la sécheresse était si grande que des processions pro pluvia s’organisaient pour implorer l’arrivée de la pluie.
Grâce à ces données et à celles que l’on peut analyser aujourd’hui (analyse de cernes de croissance des arbres, carottes glaciaires etc.), les chercheurs peuvent en savoir plus sur les événements extrêmes du passé et ainsi les comparer à ceux d’aujourd’hui. Par exemple, des historiens suisses (O. Wetter et C. Pfister) ont reconstruit, après avoir étudié de nombreuses archives, une canicule potentiellement pire que celle de 2003 qui aurait touché l’Europe… en 1540.

QUEL LIEN AVEC LE RÉCHAUFFEMENT CLIMATIQUE ?

Aujourd’hui, certains extrêmes météorologiques sont liés à la température moyenne du globe, et à son augmentation en raison du réchauffement climatique. Si le lien n’est pas encore totalement élucidé et fait l’objet de nombreux débats scientifiques, il est bien possible, dans certains cas, d’affirmer que le réchauffement climatique est responsable de l’augmentation de l’intensité des précipitations de pluie et de neige. Ceci s’explique par la relation thermodynamique de Clausius-Clapeyron, qui dit que la quantité d’eau sous forme de vapeur présente dans l’atmosphère augmente avec la température.

Ce phénomène se ressent notamment au sud de l’Italie où des vagues de froid entraînent d’importantes précipitations neigeuses depuis le début des années 2000, alors que l’on sait que par le passé il ne neigeait pas autant dans cette région. La mer Méditerranée étant plus chaude, elle crée une évaporation d’eau qui vient ensuite se transformer en chutes de neige une fois sur les terres. Le cycle de l’eau se voit impacté par le réchauffement climatique. 

Mais le réchauffement climatique n’a, a priori, aucun effet sur le déclenchement des cyclones. On constate d’ailleurs que le nombre de tempêtes extratropicales et de cyclones tropicaux n’a pas augmenté au cours des dernières décennies. Cependant, le réchauffement climatique participe à l’augmentation des précipitations survenues pendant les cyclones (c’est la relation de Clausius-Clapeyron).

En revanche, l’augmentation du nombre de canicules est clairement corrélée au réchauffement climatique. En effet, il y a plus de canicules au 21e siècle qu’au début du 20e siècle.  L’explication de cette corrélation est toujours débattue.

La question du lien entre réchauffement climatique et la multiplication des événements climatiques extrêmes enregistrés par les météorologues ne trouve donc pas de réponse définitive ni absolue. Elle diffère selon le type d’événement concerné. Si elle ne fait guère de doute pour certains événements, pour d’autres, elle nécessite encore de nombreuses données avant d’établir un éventuel lien de causalité.

Le lien entre le développement de nos connaissances sur le climat et la prévision des impacts météorologiques extrêmes reste un défi posé aux scientifiques s’intéressant au climat. Cela nécessite un travail en étroite collaboration entre des disciplines qui se sont ignorées pendant des décennies. Plusieurs initiatives nationales et internationales comblent ces fossés, entre sciences du climat, droit, économie et sciences sociales d’une manière générale.

 

 DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google