ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

LA TURBULENCE

 

 

 

 

 

 

 

LA TURBULENCE

Cinq siècles après les travaux de Léonard de Vinci sur le contrôle des tourbillons et de leur effet dans la rivière Arno, le sujet n'est toujours pas clos. Au XXème siècle ce sont d'abord les innombrables applications pratiques (par exemple dans le domaine de l'aéronautique) qui ont été le moteur d'un progrès qui se concrétisait plutôt par le développement de modèles empiriques que par de véritables percées fondamentales. A partir de 1940, grâce en particulier au mathématicien russe Andrei Nikolaevich Kolmogorov, une véritable théorie a été proposée. Elle s'est révélée à la fois féconde en applications (en modélisation pour l'ingénieur) et pas tout à fait correcte : la théorie de Kolmogorov est invariante d'échelle (auto-similaire) alors que dans la réalité cette invariance d'échelle est brisée (un peu comme l'homogénéité de l'Univers est brisée par la présence de galaxies, d'étoiles, de cristaux, d'êtres vivants, etc.). on commence seulement depuis peu à comprendre le mécanisme physique et mathématique de cette brisure. Une véritable théorie de la turbulence pourrait naître dans les prochaines années.

Texte de la 177e conférence de l’Université de tous les savoirs donnée le 25 juin 2000.
La turbulence par Uriel Frisch
1
Comme ma conférence se situe dans le cadre du thème « Perspectives sur les mathématiques actuelles », je vais bien entendu vous parler aussi des aspects de la turbulence qui relèvent des mathématiques. Toutefois, le sujet est très interdisciplinaire et touche, comme vous le verrez, aussi à la physique, à la mécanique des fluides, à la météorologie et à l'astrophysique. Apres une brève introduction, je vous dirai deux mots de la formulation du problème, puis je vous parlerai de transition, de chaos, d'effet papillon, de mouvement Brownien, de chou-fleur et enfin du million de dollars que M. Clay nous a promis.
Le mot « turbulence » signifiait a l'origine « mouvements désordonnés d'une foule » (en latin turba signifie foule). Au Moyen Âge « turbulences » était utilisé comme synonyme de « troubles ». C'est ainsi que, sur un manuscrit en vieux français exposé au musée J. Paul Getty à Los Angeles, j'ai trouvé récemment un « Seigneur, délivrez nous des turbulences ». Comme vous le voyez, le sens a ensuite évolué.
Tout d'abord, la turbulence fait partie de l'expérience quotidienne : nul besoin d'un microscope ou d'un télescope pour observer les volutes de la fumée d'une cigarette, les gracieuses arabesques de la crème versée dans le café, ou les enchevêtrements de tourbillons dans un torrent de montagne [figure 1]. Ce que nous voyons, c'est très complexe, c'est très désordonné mais c'est très loin d'être le désordre total. Quand on regarde un écoulement turbulent, même en instantané, sur une photo, ce que l'on voit est autrement plus fascinant que l'espèce de chaos total obtenu, par exemple, en projetant une poignée de sable sec sur une feuille de papier. La turbulence, quand vous l'observez, est pleine de structures, en particulier de « tourbillons », entités connues depuis l'Antiquité, étudiées et peintes par Léonard de Vinci (qui fut sans doute le premier à utiliser le mot de turbulence – turbolenza en Italien – pour décrire les mouvements complexes de l'eau ou de l'air). Je crois que c'est ce mélange intime d'ordre et de désordre qui en fait a la fois le charme et, il faut bien le dire, une des principales difficultés.
2
Figure 1
Il est très facile d'obtenir de la turbulence. En fait, chaque fois qu'un fluide s'écoule autour d'un obstacle, par exemple dans le sillage d'un bateau, et si la vitesse est suffisante, eh bien, on aura de la turbulence. On trouve donc de la turbulence un peu partout : la circulation du sang à l'intérieur des vaisseaux sanguins, les écoulements de l'air autour d'une automobile ou d'un avion – responsable des fameuses « turbulences » pour lesquelles on nous demande d'attacher nos ceintures –, ou encore les mouvements de l'atmosphère en météorologie, les mouvements du gaz constituant les étoiles comme notre Soleil, et enfin les fluctuations de densité de l'Univers primitif donnant naissance ultérieurement aux grandes structures de l'Univers actuel, comme les amas de galaxies [figure 2]. Sans toute cette turbulence, la pollution urbaine persisterait pendant des millénaires, la chaleur produite par les réactions nucléaires dans les étoiles ne pourrait pas s'en échapper sur une échelle de temps acceptable et les phénomènes météorologiques deviendraient prévisibles à très long terme.
3
Figure 2 : Amas de galaxies simulé par la Collaboration Virgo en 1996. Il s’agit d’une simulation tri-dimensionnelle comportant 256X256X256 particules.
Les équations qui gouvernent les mouvements des fluides, qu'ils soient turbulents ou non, ont été écrites pour la première fois par Claude Navier en 1823. Elles sont souvent appelées équations de Navier-Stokes en raison des perfectionnements apportes ultérieurement par George Stokes. En fait il s'agit essentiellement des équations de Newton, qui relient la force et l'accélération, équations qu'il faut appliquer à chaque parcelle du fluide ce qui fut fait pour la première fois par Léonard Euler il y a trois siècles. L'apport crucial de Navier a été d'ajouter aux équations d'Euler un terme de friction entre les diverses couches de fluide proportionnel au coefficient de viscosité et aux variations de vitesse [figure 3]. Ces équations, que l'ont sait par exemple résoudre a l'ordinateur, comportent encore des défis majeurs sur lesquels je vais revenir.
4
Figure 3
La turbulence est devenue une science expérimentale vers la fin du XIXe siècle quand l'anglais Osborne Reynolds a pu observer la transition du régime laminaire au régime turbulent. Vous savez que, dans un tuyau, si l'eau passe lentement, on aura des filets bien réguliers, c'est-à-dire un écoulement laminaire. Si elle va trop vite, il apparaît un très grand nombre de tourbillons et les pertes de charges dans le tuyau vont être très différentes. Reynolds put mettre en évidence des lois assez simples relatives à n'importe quel tuyau pour cette transition vers la turbulence ; il introduisit un nombre, appelé depuis nombre de Reynolds, qui n'est autre que le produit du diamètre du tuyau D et de la vitesse moyenne de l'écoulement dans le tuyau V, le tout divisé par la viscosité du fluide ν (viscosité de l’air environ 0,1 cm2/S, viscosité de l’eau 0,01 cm2/S) soit R = DV/ν. Reynolds a montré que lorsque ce nombre dépasse une certaine valeur critique, de l'ordre de quelques milliers, alors tout d'un coup, l'écoulement devient turbulent. Des transitions analogues mais plus spectaculaires s'observent dans des écoulements ouverts derrière un cylindre [figure 4]. Léonard avait déjà vu le phénomène d'allée tourbillonnaire et l'avait représente de façon presque correcte [figure 5].
Figure 4 : L’allée tourbillonnaire de von Kármán.
Figure 5 : Recirculations à l’aval d’un élargissement brusque par Léonard de Vinci.
Une caractéristique très importante de ces écoulements turbulents, qui apparaît dès la transition, est leur caractère chaotique. De façon plus précise, les écoulements turbulents apparaissent comme non prédicibles. Qu'est-ce que cela veut dire, non prédicibles? Supposons que l'on connaisse de façon détaillée la configuration de l'écoulement à un instant donné. Alors, bien que cet écoulement soit régi par des équations bien déterminées, déterministes comme on dit, dans la pratique, il n'est pas possible de prédire l'évolution ultérieure pour des temps longs. Cette théorie du chaos, qui doit beaucoup à Henri Poincaré, à David Ruelle, à Edward Lorenz et à l'École russe de Kolmogorov et de ses élèves Vladimir Arnold et Yacov Sinai, a des implications très importantes en météorologie. Imaginons que, pour prévoir le temps, on mesure, à un instant donné, le vent, la pression, la température en tous les points de la planète et que l'on essaie de prédire l'évolution ultérieure du temps par un calcul à l'ordinateur. En fait, au bout d'un temps relativement court, vous ne pourrez plus prédire de façon détaillée dans quel état se trouve l'atmosphère, et cela quelle que soit la puissance des ordinateurs. On dit que la turbulence atmosphérique est non prédicible, elle finit par être sensible au moindre éternuement ou à un battement d'aile d'un papillon, comme l'a suggère le météorologue américain E. Lorenz. Son « effet papillon » est illustré sur la
5
6 figure 6 où les courbes représentent non pas la trajectoire d'un papillon mais – de
façon symbolique – la trajectoire du point représentatif de l'ensemble du système étudié. La courbe noire correspond au cas sans papillon et la courbe rouge à la trajectoire modifiée par la présence initiale d'un battement d'aile d'un papillon. Les deux trajectoire restent d'abord proches (pour le montrer j'ai répété la trajectoire noire en pointillé) puis s'écartent assez vite. Dans la pratique il n'est pas possible de prédire en détail le temps qu'il fera au-delà d'environ une dizaine de jours. Toutefois des progrès récents, qui doivent beaucoup aux travaux de Michael Ghil, Bernard Legras et Robert Vautard, rendent concevables des prévisions un peu plus grossières à l'échelle de plusieurs semaines, voire de plusieurs mois dans les régions tropicales.
Figure 6 : L’effet papillon.
En géophysique et en astrophysique des nombres de Reynolds gigantesques de centaines de millions et bien au-delà sont monnaie courante. Un point très intéressant est que, lorsqu'on augmente le nombre de Reynolds, ce qui peut se faire par exemple en diminuant sa viscosité, il apparaît de plus en plus de tourbillons de petite taille comme vous le voyez sur la figure 7 qui présente un jet turbulent. Chaque tourbillon est un peu comme une espèce de molécule. C'est ce que l'on appelle des « degrés de liberté ». Donc un grand nombre de Reynolds, cela veut dire qu'il y a beaucoup de degrés de liberté; c'est ce que l'on appelle le régime de turbulence développée. Il est facile d'observer ce régime dans une soufflerie de grande taille comme celles où l'on teste les maquettes d'autos et d'avions. On peut aussi maintenant réaliser des souffleries sur table qui exploitent les propriétés très particulières de l'Hélium à basse température, comme l'ont montré les travaux de Bernard Castaing à Grenoble et de Patrick Tabeling à Paris. Si on examine le comportement en fonction du temps de la vitesse en un point d'un tel écoulement mesuré par une sonde, on est frappé de l'analogie avec la courbe du mouvement Brownien [figure 8]. Cette dernière peut être imaginée comme le relevé en fonction du temps de la position d'un ivrogne arpentant la grand rue d'un village
7 aux innombrables bistrots, ivrogne qui déambulerait tantôt dans un sens tantôt dans
l'autre sans jamais se souvenir du sens précédent de sa marche au hasard. Il est facile de voir que le déplacement typique d'un tel ivrogne pendant un certain intervalle de temps est proportionnel non pas au temps écoulé mais à sa racine carrée (la même loi que celle qui régit les erreurs dans les sondages d'opinion). Dans un écoulement turbulent développe on trouve que la variation de la vitesse pendant un certain intervalle de temps est proportionnelle, non à la racine carrée mais à la racine cubique du temps écoulé. Cette loi en racine cubique, obtenue en fait par un argument dimensionnel lié à la conservation de l'énergie, fut prédite en 1941 par le mathématicien russe Andrei Kolmogorov et a été assez largement validée par des expériences et des simulations à l'ordinateur. En fait, des 1922 l'anglais Lewis Fry Richardson, avait pressenti ce qui se passait en présentant sa vision de la cascade d'énergie des grandes vers les petites échelles d'un écoulement turbulent, vision directement inspirée d'un poème du poète anglais Jonathan Swift :
« So, nat'ralists observe, a flea
Hath smaller fleas that on him prey; And these have smaller yet to bite 'em, And so proceed ad infinitum. »
8
Figure 7 : Jet d’eau turbulent (d’après Dimotakis, Lye et Papantoniou, 1981).
9
Figure 8 : Mouvement brownien.
Plutôt que de me hasarder à traduire, je vous demande d'imaginer une grosse puce en train de sucer le sang de votre chien, sang qui va ici jouer le rôle que l'énergie cinétique joue en turbulence. Maintenant, imaginez que la grosse puce est à son tour assaillie de puces plus petites qui lui sucent le sang et ainsi de suite jusqu'a atteindre des puces tellement petites que le sang y est décomposé par des processus moléculaires. Il est clair que le monstre ainsi sorti de l'imagination de Swift constitue ce que Benoît Mandelbrot a appelé une fractale. Ces fractales peuvent être caractérisées par une dimension qui n'est pas un nombre entier. Les objets de dimension entière 0, 1, 2, 3 sont, par exemple, des points, des lignes, des surfaces et des volumes. Pour imaginer un objet de dimension fractale entre 2 et 3 pensez par exemple à un chou-fleur. La dimension fractale de la turbulence – plus précisément ce que les mathématiciens appellent la dimension de Hausdorff de la dissipation d'énergie – est très proche de trois. Si c'était vraiment trois, la théorie proposée par Kolmogorov en 1941 serait exacte, ce qui explique le succès qu'a rencontré cette théorie dans l'élaboration de modèles empiriques pour les calculs des ingénieurs.
Le calcul de telles dimensions à partir des équations fondamentales de la mécanique des fluides reste un problème ouvert. Toutefois des progrès importants ont été faits ces dernières années en utilisant des outils mathématiques empruntés à la théorie quantique des champs, appliqués à un modèle simplifié dû à l'américain Robert Kraichnan. Dans ce modèle on suppose l'écoulement turbulent connu et l'on cherche à caractériser les propriétés d'un traceur transporté par cette turbulence, comme illustré par la figure 9 de Antonio Celani, Alain Noullez et Massimo Vergassola, représentant un instantané de la concentration d'un traceur obtenu par simulation a l'ordinateur. On peut imaginer par exemple qu'il s'agit de la concentration d'un polluant lâché dans l'océan, On sait maintenant calculer les propriétés fractales de tels polluants, mais il faudra sans doute des années avant de pouvoir mener à bien une entreprise comparable pour les propriétés fractales de la turbulence elle-même.
10
Figure 9 : Concentration d’un scalaire passif (polluant) transporté par un écoulement turbulent bi-dimensionnel du type que l’on trouve dans l’atmosphère et l’océan, simulé
numériquement sur une grille 2048x2048. Le scalaire est fortement intermittent et possède des propriétés d’échelle « anomales » qui ne peuvent être prédites par l’analyse dimensionnelle. Concentrations les plus faibles en bleu et les plus fortes en jaune.
Figure de Celani (A.), Noullez (A.) et Vergassola (M.), Observatoire de la Côte d’Azur, laboratoire G.-D. Cassini , UMR 6529 ; simulations à l’IDRIS, CNRS.
Dans un écoulement turbulent, si la variation temporelle de la vitesse en un point est généralement bien donnée par la loi en racine cubique de Kolmogorov, on sait depuis longtemps que ce n'est pas toujours vrai. Déjà en 1843 Adhémar Barré de Saint Venant observe que « les écoulements dans les canaux de grande section, ceux dont nous dirions aujourd'hui qu'ils possèdent un grand nombre de Reynolds présentent des ruptures, des tourbillonnements et autres mouvements compliques ». Le point intéressant ce sont les ruptures. C'est un fait expérimental que la vitesse de l'écoulement peut, à l'occasion, varier de façon considérable entre deux points voisins. Si par hasard l'échelle de cette variation devenait comparable à la distance parcourue par les molécules du fluide entre deux collisions successives, alors il faudrait repenser les fondements mathématiques des équations de Navier- Stokes. La façon traditionnelle d'obtenir ces équations suppose en effet une forte séparation entre le monde microscopique des molécules et le monde, appelé « macroscopique » où le fluide est traite comme un milieu continu.
Cela m'amène au grand défit mathématique qui fait l'objet d'un des sept prix d'un montant d'un million de dollars annoncés récemment par la fondation Clay au Collège de France. Le problème est de montrer que les équations de Navier-Stokes conduisent à un
11
problème « bien posé ». Cela veut dire que si l'on connaît le mouvement du fluide à
un instant initial on veut pouvoir montrer qu'il y a une solution unique à tout instant ultérieur. Notez que cette fois le problème n'est pas celui des erreurs mais de l'unicité de la solution. Ce problème a été résolu dans les années trente par Jean Leray dans le cas de deux dimensions d'espace (ce qui est pertinent en météorologie et en océanographie). Le problème est beaucoup plus difficile en dimension trois. Je vais essayer maintenant de donner un tout petit aperçu de la difficulté, sans utiliser de formalisme mathématique. Tout d'abord il faut noter que dans un fluide qui n'est pas en mouvement uniforme les filets fluides frottent les uns contre les autres, en raison de la viscosité, ce qui tend à ralentir leur mouvement relatif. À faible vitesse, donc à faible nombre de Reynolds (ce dernier est proportionnel à la vitesse), les effets du frottement visqueux sont très importants pour tous les tourbillons présents dans l'écoulement. Ce frottement rabote tout et l'on sait démontrer – ce n'est pas très difficile – que le problème est bien posé. En revanche, à grand nombre de Reynolds, les effets du frottement visqueux sont limités aux plus petits tourbillons et le problème est proche du problème du fluide parfait dans lequel la viscosité est ignorée. On sait montrer que ce dernier problème est bien posé pendant un temps court mais pas au-delà. En gros, le mieux qu'on sait démontrer pour l'instant, c'est que le fluide parfait ne se comporte pas mieux qu'un mobile dont l'accélération serait proportionnelle au carré de la vitesse, hypothèse qui conduit à une augmentation catastrophique de la vitesse qui peut devenir infinie au bout d'un temps assez court [figure 10]. Certaines simulations numériques à l'ordinateur suggèrent que le fluide parfait est en réalité bien plus sage, n'explose pas, et conduit de ce fait à un problème bien posé pour des temps arbitrairement longs. Il est possible aussi que le fluide parfait explose rapidement mais que l'effet du frottement visqueux empêche cette explosion. C'est précisément ce qui se passe dans la théorie de 1941 de Kolmogorov, mais pas nécessairement dans la réalité.
Figure 10 : L’accélération est proportionnelle au carré de la vitesse : la vitesse explose au bout d’un temps fini.
En conclusion, je voudrais souligner que la turbulence a un statut très particulier dans la physique contemporaine. Elle est souvent considérée comme un des grands problèmes
12
ouverts de la physique, mais contrairement à d'autres problèmes frontières de la physique, les phénomènes auxquels on s'intéresse en turbulence ne se situent ni dans l'infiniment petit ni, en général, dans l'infiniment grand. Ces phénomènes sont parfaitement décrits par la mécanique de Newton, sans qu'il soit nécessaire de faire intervenir la mécanique quantique ou la mécanique relativiste, c'est-à-dire les idées modernes de la physique sur l'espace, le temps et la matière. Comme vous le voyez, la physique, dite « classique », celle qui est enseignée au lycée, comporte encore quelques grands mystères.

 

   VIDEO       CANAL  U         LIEN 

 


 

 
 
 
 

INTELLIGENCE ARTIFICIELLE

 

 

 

 

 

 

 

intelligence artificielle

Consulter aussi dans le dictionnaire : intelligence
Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine.
Avec l'intelligence artificielle, l'homme côtoie un de ses rêves prométhéens les plus ambitieux : fabriquer des machines dotées d'un « esprit » semblable au sien. Pour John MacCarthy, l'un des créateurs de ce concept, « toute activité intellectuelle peut être décrite avec suffisamment de précision pour être simulée par une machine ». Tel est le pari – au demeurant très controversé au sein même de la discipline – de ces chercheurs à la croisée de l'informatique, de l'électronique et des sciences cognitives.
Malgré les débats fondamentaux qu'elle suscite, l'intelligence artificielle a produit nombre de réalisations spectaculaires, par exemple dans les domaines de la reconnaissance des formes ou de la voix, de l'aide à la décision ou de la robotique.


INTELLIGENCE ARTIFICIELLE ET SCIENCES COGNITIVES
Au milieu des années 1950, avec le développement de l'informatique naquit l'ambition de créer des « machines à penser », semblables dans leur fonctionnement à l'esprit humain. L'intelligence artificielle (IA) vise donc à reproduire au mieux, à l'aide de machines, des activités mentales, qu'elles soient de l'ordre de la compréhension, de la perception, ou de la décision. Par là même, l'IA est distincte de l'informatique, qui traite, trie et stocke les données et leurs algorithmes. Le terme « intelligence » recouvre ici une signification adaptative, comme en psychologie animale. Il s'agira souvent de modéliser la résolution d'un problème, qui peut être inédit, par un organisme. Si les concepteurs de systèmes experts veulent identifier les savoirs nécessaires à la résolution de problèmes complexes par des professionnels, les chercheurs, travaillant sur les réseaux neuronaux et les robots, essaieront de s'inspirer du système nerveux et du psychisme animal.

LES SCIENCES COGNITIVES
Dans une optique restrictive, on peut compter parmi elles :
– l'épistémologie moderne, qui s'attache à l'étude critique des fondements et méthodes de la connaissance scientifique, et ce dans une perspective philosophique et historique ;
– la psychologie cognitive, dont l'objet est le traitement et la production de connaissances par le cerveau, ainsi que la psychologie du développement, quand elle étudie la genèse des structures logiques chez l'enfant ;
– la logique, qui traite de la formalisation des raisonnements ;
– diverses branches de la biologie (la biologie théorique, la neurobiologie, l'éthologie, entre autres) ;
– les sciences de la communication, qui englobent l'étude du langage, la théorie mathématique de la communication, qui permet de quantifier les échanges d'informations, et la sociologie des organisations, qui étudie la diffusion sociale des informations.

LE PROJET ET SON DÉVELOPPEMENT
L'IA trouve ses racines historiques lointaines dans la construction d'automates, la réflexion sur la logique et sa conséquence, l'élaboration de machines à calculer.

LES PRÉCURSEURS
Dès l'Antiquité, certains automates atteignirent un haut niveau de raffinement. Ainsi, au ier s. après J.-C., Héron d'Alexandrie inventa un distributeur de vin, au fonctionnement cybernétique avant la lettre, c'est-à-dire doté de capacités de régulation, et fondé sur le principe des vases communicants. Rapidement, les savants semblèrent obsédés par la conception de mécanismes à apparence animale ou humaine. Après les essais souvent fructueux d'Albert le Grand et de Léonard de Vinci, ce fut surtout Vaucanson qui frappa les esprits, en 1738, avec son Canard mécanique, dont les fonctions motrices et d'excrétion étaient simulées au moyen de fins engrenages. Quant à la calculatrice, elle fut imaginée puis réalisée par Wilhelm Schickard (Allemagne) et Blaise Pascal (France). Vers la même époque, l'Anglais Thomas Hobbes avançait dans son Léviathan l'idée que « toute ratiocination est calcul », idée qui appuyait le projet de langage logique universel cher à René Descartes et à Gottfried W. Leibniz. Cette idée fut concrétisée deux siècles plus tard par George Boole, lorsqu'il créa en 1853 une écriture algébrique de la logique. On pouvait alors espérer passer de la conception de l'animal-machine à la technologie de la machine-homme.

NAISSANCE ET ESSOR DE L'INFORMATIQUE
À partir de 1835, le mathématicien britannique Charles Babbage dressa avec l'aide de lady Ada Lovelace les plans de la « machine analytique », ancêtre de tous les ordinateurs, mais sans parvenir à la réaliser. Seul l'avènement de l'électronique, qui engendra d'abord les calculateurs électroniques du type ENIAC (electronic numerical integrator and computer) dans les années 1940, permit aux premières machines informatiques de voir enfin le jour, autour de 1950, avec les machines de Johann von Neumann, un mathématicien américain d'origine hongroise. Les techniques de l'informatique connurent des progrès foudroyants – ainsi, à partir de 1985, un chercheur américain conçut des connection machines, ensembles de micro-ordinateurs reliés entre eux qui effectuaient 1 000 milliards d'opérations par seconde –, et continuent aujourd'hui encore à enrichir l'IA.
La création, à partir des années 1990, des « réalités virtuelles », systèmes qui par l'intermédiaire d'un casque et de gants spéciaux donnent à l'utilisateur l'impression de toucher et de manipuler les formes dessinées sur l'écran, ainsi que les travaux sur les « hypertextes », logiciels imitant les procédés d'associations d'idées, vont également dans ce sens.

LE FONDATEUR
Un des théoriciens précurseurs de l'informatique, le mathématicien britannique Alan M. Turing, lança le concept d'IA en 1950, lorsqu'il décrivit le « jeu de l'imitation » dans un article resté célèbre. La question qu'il posait est la suivante : un homme relié par téléimprimante à ce qu'il ignore être une machine disposée dans une pièce voisine peut-il être berné et manipulé par la machine avec une efficacité comparable à celle d'un être humain ? Pour Turing, l'IA consistait donc en un simulacre de psychologie humaine aussi abouti que possible.

MISE EN FORME DE L'IA
La relève de Turing fut prise par Allen Newell, John C. Shaw et Herbert A. Simon, qui créèrent en 1955-1956 le premier programme d'IA, le Logic Theorist, qui reposait sur un paradigme de résolution de problèmes avec l'ambition – très prématurée – de démontrer des théorèmes de logique. En 1958, au MIT (Massachusetts Institute of Technology), John MacCarthy inventa le Lisp (pour list processing), un langage de programmation interactif : sa souplesse en fait le langage par excellence de l'IA (il fut complété en 1972 par Prolog, langage de programmation symbolique qui dispense de la programmation pas à pas de l'ordinateur).
L'élaboration du GPS (general problem solver) en 1959 marque la fin de la première période de l'IA. Le programme GPS est encore plus ambitieux que le Logic Theorist, dont il dérive. Il est fondé sur des stratégies logiques de type « analyse des fins et des moyens » : on y définit tout problème par un état initial et un ou plusieurs états finaux visés, avec des opérateurs assurant le passage de l'un à l'autre. Ce sera un échec, car, entre autres, le GPS n'envisage pas la question de la façon dont un être humain pose un problème donné. Dès lors, les détracteurs se feront plus virulents, obligeant les tenants de l'IA à une rigueur accrue.

LES CRITIQUES DU PROJET
Entre une ligne « radicale », qui considère le système cognitif comme un ordinateur, et le point de vue qui exclut l'IA du champ de la psychologie, une position médiane est certainement possible. Elle est suggérée par trois grandes catégories de critiques.

OBJECTION LOGIQUE
Elle repose sur le célèbre théorème que Kurt Gödel a énoncé en 1931. Celui-ci fait ressortir le caractère d'incomplétude de tout système formel (tout système formel comporte des éléments dotés de sens et de définitions très précis, mais dont on ne peut démontrer la vérité ou la fausseté : ils sont incomplets). Il serait alors vain de décrire l'esprit en le ramenant à de tels systèmes. Cependant, pour certains, rien n'indique que le système cognitif ne soit pas à considérer comme formel, car si l'on considère à la suite du philosophe autrichien Ludwig Wittgenstein qu'un être vivant est un système logique au même titre qu'une machine, on peut concevoir que l'esprit est « formel », qu'il connaît des limites, comme toute machine.

OBJECTION ÉPISTÉMOLOGIQUE
Un certain nombre de biologistes et d'informaticiens jugent l'IA classique prématurément ambitieuse. Pour eux, il faut d'abord parvenir à modéliser le fonctionnement de niveaux d'intégration du vivant plus simples (comportement d'animaux « simples », collecte d'informations par le système immunitaire ou encore communications intercellulaires) avant de s'attaquer à l'esprit humain.

OBJECTION PHILOSOPHIQUE
Pour John R. Searle, le système cognitif de l'homme est fondamentalement donneur de sens. Or la machine ne possède pas d'intentionnalité ; elle n'a pas de conscience. Un ordinateur peut manipuler des symboles mais ne peut les comprendre. Ainsi, l'IA travaillerait sur la syntaxe des processus de raisonnement (les règles combinatoires), pas sur leur sémantique (l'interprétation et la signification).
Hilary Putnam juge fallacieuse la description de la pensée faite par l'IA en termes de symboles et de représentations. Pour lui, une telle approche suppose une signification préétablie, alors que tout serait dans l'interprétation que fait l'esprit de la « réalité » extérieure. L'histoire des idées montre ainsi que la notion de « matière » n'a pas le même sens pour les philosophes de l'Antiquité grecque et pour les physiciens modernes. De même, de nombreux biologistes considèrent que les systèmes nerveux des différentes espèces animales font émerger de leur environnement des univers distincts. L'IA ignorerait donc ce phénomène de « construction active » de réalités multiples par le système cognitif.
Enfin, dans Ce que les ordinateurs ne peuvent pas faire (1972), Hubert L. Dreyfus souligne que la compréhension stricto sensu implique tout un sens commun. Faute de cerner de façon adéquate cette question, les programmes d'IA relèveraient de la contrefaçon – en revanche, le même auteur est assez séduit par les recherches sur les réseaux neuronaux.

LA RÉSOLUTION DE PROBLÈMES
Pour l'épistémologue Karl Popper, tout animal, en tant qu'être adapté à son milieu, est un problem solver. Si la résolution de problèmes n'est sans doute pas la seule marque fonctionnelle saillante de l'esprit humain, elle reste incontournable pour le modélisateur. Deux approches sont possibles dans la résolution d'un problème : celle de l'algorithme et celle de l'heuristique.

ALGORITHMES ET HEURISTIQUE
Les algorithmes sont des procédures mathématiques de résolution. Il s'agit d'une méthode systématique, qui donne par conséquent des résultats fiables. Mais une lourdeur déterministe marque ses limites. En l'employant pour certains problèmes, on peut en effet se trouver confronté au phénomène d'« explosion combinatoire ». Ce dernier cas est illustré par la fable indienne du « Sage et de l'Échiquier ». À un Sage, qui l'avait conseillé de manière avisée, le Roi proposa de choisir une récompense. Le vieil homme demanda simplement que l'on apporte un échiquier et que l'on dépose sur la première case un grain de blé, sur la seconde deux grains, et ainsi de suite, en mettant sur chaque nouvelle case une quantité de blé double de celle déposée sur la case précédente. Avec un rapide calcul, on imagine que le Roi regretta bien vite d'avoir accordé un don qui se révélait très coûteux, si ce n'est impossible, à honorer.
À l'opposé, l'heuristique est une méthode stratégique indirecte, qu'on utilise dans la vie courante. Elle résulte du choix, parmi les approches de la résolution, de celles qui paraissent les plus efficaces. Si son résultat n'est pas garanti, car elle n'explore pas toutes les possibilités, mais seulement les plus favorables, elle n'en fait pas moins gagner un temps considérable : lors de la résolution de problèmes complexes, l'usage de l'algorithme est impossible.

LE CAS EXEMPLAIRE DU JEU D'ÉCHECS
De tous les jeux, ce sont les échecs qui ont suscité les plus gros efforts de modélisation en IA. Dès 1957, l'informaticien Bernstein, sur la base des réflexions de Claude Shannon, l'un des pères de la Théorie de l'information, mit au point un programme pour jouer deux parties. Le programme GPS, en lequel Simon voyait la préfiguration d'un futur champion du monde électronique, annoncé à grand fracas pour l'année 1959, fut battu par un adolescent en 1960. À partir de cette époque fut développée toute la série des Chess Programs, jugés plus prometteurs. Pourtant ceux-ci reflètaient de manière plus que déficiente les heuristiques globalisantes des bons joueurs : en effet, dans ces jeux automatiques, les coups réguliers sont programmés sous forme d'algorithmes. Contrairement à la célèbre formule d'un champion des années 1930 : « Je n'étudie qu'un coup : le bon », l'ordinateur n'envisage pas son jeu à long terme ; il épuise successivement tous les états possibles d'un arbre mathématique. Son atout majeur est la « force brutale » que lui confèrent sa puissance et sa vitesse de calcul. Ainsi Belle, ordinateur admis en 1975 dans les rangs de la Fédération internationale d'échecs, pouvait déjà calculer 100 000 coups par seconde. Néanmoins, les programmes électroniques d'alors étaient encore systématiquement surpassés par les maîtres.

Deep Thought, un supercalculateur d'IBM, fut encore battu à plate couture en octobre 1989 par le champion du monde Garri Kasparov (la machine n'avait encore à cette époque qu'une capacité de jeu de 2 millions de coups par seconde). Ce projet Deep Thought avait mis en œuvre un budget de plusieurs millions de dollars et des ordinateurs hyperperformants, et bénéficié des conseils du grand maître américano-soviétique Maxim Dlugy. Les machines employées étaient encore algorithmiques, mais faisaient moins d'erreurs et effectuaient des calculs plus fins. L'équipe de Deep Thought chercha à dépasser le seuil du milliard de coups par seconde, car leur ordinateur ne calculait qu'environ cinq coups à l'avance, bien moins que leur concurrent humain : les connaisseurs estimèrent qu'il fallait porter ce chiffre à plus de sept coups. En fait, il apparut qu'il fallait concevoir des machines stratèges capables, en outre, d'apprentissage. Feng Hsiung Hsu et Murray Campbell, des laboratoires de recherche d'IBM, associés, pour la réalisation de la partie logicielle, au Grand-maître d'échecs Joël Benjamin, reprirent le programme Deep Thought – rebaptisé Deep Blue, puis Deeper Blue – en concevant un système de 256 processeurs fonctionnant en parallèle ; chaque processeur pouvant calculer environ trois millions de coups par seconde, les ingénieurs de Deeper Blue estiment qu'il calculait environ 200 millions de coups par seconde. Finalement, le 11 mai 1997, Deeper Blue l'emporta sur Garri Kasparov par 3 points et demi contre 2 points et demi, dans un match en six parties. Même si beaucoup d'analystes sont d'avis que Kasparov (dont le classement ELO de 2820 est pourtant un record, et qui a prouvé que son titre de champion du monde est incontestable en le défendant victorieusement par six fois) avait particulièrement mal joué, la victoire de Deeper Blue a enthousiasmé les informaticiens. Un des coups les plus étonnants fut celui où, dans la sixième partie, la machine choisit, pour obtenir un avantage stratégique, de faire le sacrifice spéculatif d'un cavalier (une pièce importante), un coup jusque-là normalement « réservé aux humains ». En 2002, le champion du monde Vladimir Kramnik ne parvenait qu'à faire match nul contre le logiciel Deep Fritz, au terme de huit parties, deux victoires pour l'humain et la machine et quatre matchs nuls. Une nouvelle fois, la revanche des neurones sur les puces n'avait pas eu lieu.
En 2016, le programme Alphago de Google Deepmind bat l'un des meilleurs joueurs mondiaux du jeu de go, Lee Sedol (ce jeu d'origine chinoise comprend bien plus de combinaisons que les échecs).

LES RÉSEAUX NEURONAUX
Dans un article paru en 1943, Warren McCulloch, un biologiste, et Walter Pitts, un logicien, proposaient de simuler le fonctionnement du système nerveux avec un réseau de neurones formels. Ces « neurones logiciens » sont en fait des automates électroniques à seuil de fonctionnement 0/1, interconnectés entre eux. Ce projet, s'il n'eut pas d'aboutissement immédiat, devait inspirer plus tard Johann von Neumann lorsqu'il créa l'architecture classique d'ordinateur.

UNE PREMIÈRE TENTATIVE INFRUCTEUSE
Il fallut attendre 1958 pour que les progrès de l'électronique permettent la construction du premier réseau neuronal, le Perceptron, de Frank Rosenblatt, machine dite connectionniste. Cette machine neuromimétique, dont le fonctionnement (de type analogique) cherche à approcher celui du cerveau humain, est fort simple. Ses « neurones », reliés en partie de manière aléatoire, sont répartis en trois couches : une couche « spécialisée » dans la réception du stimulus, ou couche périphérique, une couche intermédiaire transmettant l'excitation et une dernière couche formant la réponse. Dans l'esprit de son inventeur, le Perceptron devait être capable à brève échéance de prendre en note n'importe quelle conversation et de la restituer sur imprimante. Quantité d'équipes travailleront au début des années 1960 sur des machines similaires, cherchant à les employer à la reconnaissance des formes : ce sera un échec total, qui entraînera l'abandon des travaux sur les réseaux. Ceux-ci semblent alors dépourvus d'avenir, malgré la conviction contraire de chercheurs comme Shannon.

LES RÉSEAUX ACTUELS
En fait, l'avènement des microprocesseurs, les puces électroniques, permettra la réapparition sous forme renouvelée des réseaux à la fin des années 1970, générant un nouveau champ de l'IA en pleine expansion, le néoconnectionnisme. Les nouveaux réseaux, faits de processeurs simples, ne possèdent plus de parties à fonctions spécialisées. On leur applique un outillage mathématique issu pour l'essentiel de la thermodynamique moderne et de la physique du chaos.
Le cerveau humain est caractérisé par un parallélisme massif, autrement dit la possibilité de traiter simultanément quantité de signaux. Dans les réseaux aussi, de nombreux composants électroniques, les neuromimes, travaillent de manière simultanée, et la liaison d'un neuromime avec d'autres est exprimée par un coefficient numérique, appelé poids synaptique. On est cependant bien loin du système nerveux central de l'homme, qui comprend environ 10 milliards de cellules nerveuses et 1 million de milliards de synapses (ou connexions). Contrairement à ce qui se passe dans le cerveau, lors de l'envoi d'un signal les neuromimes activent toujours leurs voisins et n'ont pas la possibilité d'inhiber le fonctionnement de ceux-ci. Néanmoins, ces machines sont dotées de la capacité d'auto-organisation, tout comme les êtres vivants : elles ne nécessitent pas de programmation a posteriori. La mémoire peut survivre à une destruction partielle du réseau ; leurs capacités d'apprentissage et de mémorisation sont donc importantes. Si un micro-ordinateur traite l'information 100 000 fois plus vite qu'un réseau, ce dernier peut en revanche effectuer simultanément plusieurs opérations.

QUELQUES APPLICATIONS
La reconnaissance des formes (pattern recognition) est, avec celle du langage naturel, l'un des domaines où les réseaux excellent. Pour reconnaître des formes, un robot classique les « calculera » à partir d'algorithmes. Tous les points de l'image seront numérisés, puis une mesure des écarts relatifs entre les points sera faite par analyse de réflectance (rapport entre lumière incidente et lumière reflétée). Mieux encore, on mesurera l'écart absolu de chaque point par rapport à la caméra qui a fixé l'image.
Ces méthodes, qui datent de la fin des années 1960, sont très lourdes et s'avèrent inopérantes lorsque l'objet capté par la caméra se déplace. Le réseau, s'il n'est guère efficace pour un calcul, reconnaîtra une forme en moyenne 10 000 fois plus vite que son concurrent conventionnel. En outre, grâce aux variations d'excitation de ses « neurones », il pourra toujours identifier un visage humain, quels que soient ses changements d'aspect. Cela rappelle les caractéristiques de la mémoire associative humaine, qui coordonne de façon complexe des caractéristiques ou informations élémentaires en une structure globale mémorisée. Une autre ressemblance avec le système cognitif de l'homme est à relever : sur cent formes apprises à la suite, l'ordinateur neuronal en retiendra sept. Or, c'est là approximativement la « taille » de la mémoire à court terme, qui est de six items.
Les rétines artificielles, apparues en 1990, rendront progressivement obsolète la caméra en tant que principal capteur employé en robotique. Tout comme les cônes et les bâtonnets de l'il, ces « rétines » à l'architecture analogique transforment les ondes lumineuses en autant de signaux électriques, mais elles ignorent encore la couleur. Certaines d'entre elles ont la capacité de détecter des objets en mouvement. De telles membranes bioélectroniques seront miniaturisables à assez brève échéance.
Enfin, les réseaux de neurones formels sont aussi de formidables détecteurs à distance d'ultrasons ou de variations thermiques.
À l'aide d'un ordinateur classique, il est possible de simuler une lecture de texte avec un logiciel de reconnaissance de caractères, un lecteur optique et un système de synthèse vocale qui dira le texte. Mais certains ordinateurs neuronaux sont aussi capables de dispenser un véritable enseignement de la lecture. De même, couplé à un logiciel possédant en mémoire une vingtaine de voix échantillonnées dans une langue, un réseau forme un système efficace d'enseignement assisté par ordinateur, qui est capable de corriger l'accent de ses élèves !

INTELLIGENCE ARTIFICIELLE ET ÉDUCATION
À travers le langage logo, conçu par Seymour Papert (Max Planck Institute), l'IA a doté la pédagogie des jeunes enfants d'un apport majeur. En permettant une programmation simple, logo incite l'enfant à mieux structurer ses rapports aux notions d'espace et de temps, à travers des jeux. L'idée clé de logo repose sur le constat fait par Jean Piaget : l'enfant assimile mieux les connaissances quand il doit les enseigner à autrui, en l'occurrence à l'ordinateur, en le programmant.
Bien que cet outil informatique contribue à combler les retards socioculturels de certains jeunes, il est douteux, contrairement au souhait de ses promoteurs, qu'il puisse aider des sujets à acquérir des concepts considérés comme l'apanage de leurs aînés de plusieurs années. Les travaux de Piaget montrent en effet que les structures mentales se constituent selon une chronologie et une séquence relativement définies. Quelle que soit l'excellence d'une méthode, on ne peut pas enseigner n'importe quoi à n'importe quel âge.

PERSPECTIVES
La prise en compte de la difficulté à modéliser parfaitement l'activité intellectuelle a conduit certains praticiens de l'IA à rechercher des solutions beaucoup plus modestes mais totalement abouties, en particulier dans certaines applications de la robotique.

L'IA SANS REPRÉSENTATION DE CONNAISSANCE
Vers 1970, les conceptions théoriques de Marvin Minsky et Seymour Papert sur la « Société de l'esprit », parmi d'autres, ont fondé une nouvelle IA, l'IA distribuée, dite encore IA multiagents. Les tenants de cette approche veulent parvenir à faire travailler ensemble, et surtout de manière coordonnée, un certain nombre d'agents autonomes, robots ou systèmes experts, à la résolution de problèmes complexes.
Après avoir conçu des ensembles de systèmes experts simples associés, l'IA distribuée a également remodelé le paysage de la robotique, générant une IA sans représentation de connaissance.
Les robots dits de la troisième génération sont capables, une fois mis en route, de mener à bien une tâche tout en évitant les obstacles rencontrés sur leur chemin, sans aucune interaction avec l'utilisateur humain. Ils doivent cette autonomie à des capteurs ainsi qu'à un générateur de plans, au fonctionnement fondé sur le principe du GPS. Mais, à ce jour, les robots autonomes classiques restent insuffisamment aboutis dans leur conception.
Ce type de robotique semble à vrai dire à l'heure actuelle engagé dans une impasse : depuis le début des années 1980, aucun progrès notable ne s'est fait jour.

L'« ARTIFICIAL LIFE »
Le philosophe Daniel C. Dennett a proposé, à la fin des années 1980, une nouvelle direction possible pour la robotique. Plutôt que de s'inspirer de l'homme et des mammifères, il conseille d'imiter des êtres moins évolués, mais de les imiter parfaitement. Valentino Braitenberg s'était déjà engagé dans une voie similaire au Max Planck Institute, une dizaine d'années auparavant, mais ses machines relevaient d'une zoologie imaginaire. En revanche, depuis 1985, Rodney Brooks, du MIT, fabrique des robots à forme d'insecte ; ce sont les débuts de ce qu'on appelle artificial life.

Cette idée a été réalisable grâce à la réduction progressive de la taille des composants électroniques. Une puce de silicium sert donc de système nerveux central aux insectes artificiels de Brooks : pour l'instant, le plus petit d'entre eux occupe un volume de 20 cm3. Le chercheur est parti d'un constat simple : si les invertébrés ne sont guère intelligents, ils savent faire quantité de choses, et sont en outre extrêmement résistants. Travaillant sur la modélisation de réflexes simples de type stimulus-réponse, Brooks élude ainsi élégamment le problème, classique en IA, de la représentation des connaissances. Dans l'avenir, il voudrait faire travailler ses robots en colonies, comme des fourmis ou des abeilles ; ses espoirs aboutiront seulement si la miniaturisation des moteurs progresse. L'éthologie, ou science des comportements animaux, fait ainsi une entrée remarquée dans le monde de l'IA.

 

DOCUMENT   larousse.fr    LIEN

 
 
 
 

DE L'ATOME AU CRISTAL : LES PROPRIÉTÉS ÉLECTRONIQUES DES MATÉRIAUX

 

 

 

 

 

 

 

DE L'ATOME AU CRISTAL : LES PROPRIÉTÉS ÉLECTRONIQUES DES MATÉRIAUX

Métaux, semi-conducteurs, ou même supraconducteurs transportant un courant électrique sans aucune résistance, les matériaux présentent une diversité de propriétés électroniques remarquable, mise à profit dans de nombreuses applications qui font partie de notre quotidien. La chimie de l'état solide, en explorant les très nombreuses combinaisons entre éléments pour élaborer des structures de plus en plus complexes, nous invite à un véritable jeu de construction avec la matière, source de nouvelles découvertes. En même temps, le développement de techniques permettant d'élaborer, de structurer, et de visualiser ces matériaux à l'échelle de l'atome, ouvre d'immenses perspectives. Des lois de la mécanique quantique qui régissent le comportement d'un électron, aux propriétés d'un matériau à l'échelle macroscopique, c'est une invitation au voyage au coeur des matériaux que propose cette conférence.

Transcription de la 580e conférence de l'Université de tous les savoirs prononcée le 23 juin 2005
De l'atome au cristal : Les propriétés électroniques de la matière
Par Antoine Georges
Les ordres de grandeur entre l'atome et le matériau :
1. Il existe entre l'atome et le matériau macroscopique un très grand nombre d'ordres de grandeur, d'échelles de longueur. Prenons l'exemple d'un lingot d'or : quelqu'un muni d'une loupe très puissante pourrait observer la structure de ce matériau à l'échelle de l'atome : il verrait des atomes d'or régulièrement disposés aux nSuds d'un réseau périodique. La distance entre deux de ces atomes est de l'ordre de l'Angstrom, soit 10-10m. Ainsi, dans un lingot cubique de un millimètre de côté, il y a 10 millions (107) d'atomes dans chaque direction soit 1021 atomes au total ! Les échelles spatiales comprises entre la dimension atomique et macroscopique couvrent donc 7 ordres de grandeur. Il s'agit alors de comprendre le fonctionnement d'un système composé de 1021 atomes dont les interactions sont régies par les lois de la mécanique quantique.

2. Malheureusement, une telle loupe n'existe évidemment pas. Cependant, il est possible de voir les atomes un par un grâce à des techniques très modernes, notamment celle du microscope électronique à effet tunnel. Il s'agit d'une sorte de « gramophone atomique », une pointe très fine se déplace le long d'une surface atomique et peut détecter d'infimes changements de relief par variation du courant tunnel (voir plus loin). Cette découverte a valu à ses inventeurs le prix Nobel de physique de 1986 à Gerd Karl Binnig et Heinrich Rohrer (Allemagne).

3. Nous pouvons ainsi visualiser les atomes mais aussi les manipuler un par un au point de pouvoir « dessiner » des caractères dont la taille ne dépasse pas quelques atomes ! (Le site Internet www.almaden.ibm.com/vis/stm/gallery.html offre de très belles images de microscopie à effet tunnel). Cette capacité signe la naissance du domaine des nanotechnologies où la matière est structurée à l'échelle atomique.

4. Les physiciens disposent d'autres « loupes » pour aller regarder la matière à l'échelle atomique. Parmi elles, le synchrotron est un grand anneau qui produit un rayonnement lumineux très énergétique et qui permet de sonder la structure des matériaux, des molécules ou des objets biologiques, de manière statique ou dynamique. Les applications de ce genre de loupe sont innombrables en physique des matériaux, chimie, biologie et même géologie (par pour l'étude des changements structuraux des matériaux soumis à de hautes pressions).
5. Il existe encore bien d'autres « loupes » comme par exemple la diffusion de neutrons, la spectroscopie de photo-émission, la résonance magnétique... Dans la diffusion de neutrons, un neutron pénètre un cristal pour sonder la structure magnétique du matériau étudié.

La grande diversité des matériaux :
6. Ces différentes techniques révèlent la diversité structurale des matériaux, qu'ils soient naturels ou artificiels. Le sel de cuisine, par exemple, a une structure cristalline très simple. En effet, il est composé d'atomes de sodium et de chlore régulièrement alternés. Il existe également des structures plus complexes, comme par exemple les nanotubes de carbone obtenus en repliant des feuilles de graphite sur elles-mêmes ou la célèbre molécule C60 en forme de ballon de football composée de 60 atomes de carbone (fullerènes)
7. Tous ces matériaux peuvent être soit présents à l'état naturel soit élaborés de manière artificielle. Cette élaboration peut être faite plan atomique par plan atomique en utilisant une technique appelée « épitaxie par jet moléculaire » dans laquelle un substrat est bombardé par des jets moléculaires. Les atomes diffusent pour former des couches monoatomiques. Cette technique permet alors de fabriquer des matériaux contrôlés avec une précision qui est celle de l'atome.

8. La diversité des matériaux se traduit donc pas une grande diversité des structures, mais aussi de leurs propriétés électroniques. Par exemple, la résistivité (c'est-à-dire la capacité d'un matériau à s'opposer au passage d'un courant : R=U/I) varie sur 24 ordres de grandeurs entre de très bons conducteurs et un très bon isolant, ce qui est encore bien plus que les 7 ordres de grandeurs des dimensions spatiales. Il existe donc des métaux (qui sont parfois de très bons conducteurs), des isolants (de très mauvais conducteurs), des semi-conducteurs et même des supraconducteurs. Ces derniers sont des métaux, qui en dessous d'une certaine température, n'exercent aucune forme de résistance et ne dissipent aucune énergie. D'autres matériaux encore voient leur gradient thermique évoluer en fonction du courant qui les traverse, ceci permet par exemple de fabriquer du « froid » avec de l'électricité ou fabriquer de l'électricité avec de la chaleur, ce sont des thermoélectriques. Enfin, la résistivité de certains matériaux est fonction du champ magnétique dans lequel ils sont placés.

9. Ces diversités, autant structurales qu'électroniques, sont et seront de plus en plus mises à profit dans d'innombrables applications. Nous pouvons citer parmi elles, le transistor, le circuit intégré, le lecteur CD, l'imagerie par résonance magnétique etc. Derrière ces applications pratiques, il y a des problèmes de physique et de chimie fondamentales, et pour parfaitement comprendre l'origine de cette diversité, il faut remonter aux lois de la mécanique quantique. Il s'agit donc de jeter un pont entre l'échelle macroscopique et le monde quantique, à travers ces fameux 7 ordres de grandeurs. Particulièrement dans ce domaine, les sciences théoriques et expérimentales interagissent énormément. Nous allons donc partir de l'échelle atomique pour essayer de comprendre le comportement macroscopique d'un matériau.
De l'atome au matériau :

10. Commençons donc par la structure atomique. Un atome est composé d'un noyau, autour duquel gravitent des électrons. L'électron est environ 2000 fois plus léger que les protons et neutrons, constituants de base du noyau. La taille de cet ensemble est d'environ 10-10m (un Angstrom).
11. Le système {noyau+électron} semble comparable au système {Terre+soleil}, dans ce cas, l'électron tournerait sur une orbite bien régulière autour du noyau. Il n'en n'est rien. Même si les physiciens ont, pour un temps, cru au modèle planétaire de l'atome, nous savons depuis les débuts de la mécanique quantique que le mouvement de l'électron est bien différent de celui d'une planète !

12. La première différence notable est que l'électron ne suit pas une trajectoire unique. En fait, nous ne pouvons trouver l'électron qu'avec une certaine probabilité dans une région de l'espace. Cette région est appelée orbitale atomique. La forme de ce nuage de probabilités dépend de l'énergie de l'électron et de son moment cinétique. Si cette région est sphérique, on parle d'orbitale « s », (cas de l'atome d'hydrogène où seul un électron tourne autour du noyau). On parle d'orbitale « p » lorsque le nuage de probabilités est en forme de 8, (atome d'oxygène). Enfin, lorsque ce nuage prend une forme de trèfle à quatre feuilles, on parle d'orbitale « d » (atome de fer). Ainsi, il n'existe pas de trajectoires à l'échelle quantique, mais uniquement des probabilités de présence.
13. De plus, l'énergie d'un électron ne peut prendre que certaines valeurs bien déterminées, l'énergie est quantifiée (origine du terme quantique). La localisation de ces différents niveaux d'énergies et la transition entre ces niveaux par émission ou par absorption a été à l'origine de la mécanique quantique. Ces travaux ont valu à Niels Bohr le prix Nobel de physique de 1922. L'état d'énergie le plus bas est appelé état fondamental de l'atome. Il est par ailleurs possible d'exciter l'électron (avec de la lumière, par exemple) vers des niveaux d'énergie de plus en plus élevés. Ceci est connu grâce aux spectres d'émission et d'absorption de l'atome, qui reflètent les différents niveaux d'énergie possibles.

14. La troisième particularité du mouvement de l'électron est son Spin, celui-ci peut être représenté par une représentation imagée : l'électron peut tourner sur lui-même vers la gauche ou vers la droite, en plus de sa rotation autour du noyau. On parle de moment cinétique intrinsèque ou de deux états de Spin possibles. Pauli, physicien autrichien du XXéme siècle, formula le principe d'exclusion, à savoir qu'un même état d'énergie ne peut être occupé par plus de deux électrons de Spin opposé. Nous verrons plus loin qu'il est impossible de connaître l'état macroscopique d'un matériau sans tenir compte du principe d'exclusion de Pauli. Pour l'atome d'hélium par exemple, la première (et seule) couche contient deux atomes et deux seulement, il serait impossible de rajouter un atome dans cette couche, elle est dite complète.
15. On peut considérer grâce à ces trois principes (description probabiliste, niveaux d'énergies quantifiés et principe d'exclusion) que l'on remplit les couches électroniques d'un atome avec les électrons qui le constituent. Les éléments purs, dans la nature, s'organisent alors de manière périodique, selon la classification de Mendeleïev. Cette classification a été postulée de manière empirique bien avant le début de la mécanique quantique, mais cette organisation reflète le remplissage des couches atomiques, en respectant le principe d'exclusion de Pauli.
16. Un autre aspect du monde quantique est l'effet tunnel. Dans le microscope du même nom, cet effet est mis à profit pour mesurer une variation de relief. L'effet tunnel est une sorte de « passe-muraille quantique ». En mécanique classique, un personnage qui veut franchir un obstacle doit augmenter son niveau d'énergie au dessus d'un certain niveau. En mécanique quantique, en revanche, il est possible de franchir cet obstacle avec une certaine probabilité même si notre énergie est inférieure au potentiel de l'obstacle. Bien sûr, cette probabilité diminue à mesure que cette différence d'énergie augmente.
17. Cet effet tunnel assure la cohésion des solides, et permet aussi à un électron de se délocaliser sur l'ensemble d'un solide. Cet effet tunnel est possible grâce à la dualité de l'électron : il est à la fois une particule et une onde. On peut mettre en évidence cette dualité grâce à l'expérience suivante : une source émet des électrons un par un, ceux-ci ont le choix de passer entre deux fentes possibles. La figure d'interférence obtenue montre que, bien que les électrons soient émis un par un, ils se comportent de manière ondulatoire.

18. Les électrons des couches externes de l'atome (donc les moins fortement liés au noyau) vont pouvoir se délocaliser d'un atome à l'autre par effet tunnel. Ces « sauts », sont à l'origine de la cohésion d'un solide et permettent également la conduction d'un courant électronique à travers tout le solide.
19. Une autre conséquence de cet effet tunnel est que l'énergie d'un solide n'est pas une simple répétition n fois des niveaux d'énergie de chaque atome isolé. En réalité, il apparaît une série d'énergies admissibles qui se répartissent dans une certaine gamme d'énergie, cette gamme est appelée bande d'énergie permise. D'autres gammes restent interdites. Ainsi, si les atomes restent éloignés les uns des autres, les bandes d'énergies admises sont très étroites, mais à mesure que la distance inter-atomique diminue, ces bandes s'élargissent et le solide peut alors admettre une plus large gamme de niveaux d'énergie.
20. Nous pouvons penser, comme dans la classification périodique, que les électrons remplissent ces bandes d'énergies, toujours en respectant le principe d'exclusion de Pauli. L'énergie du dernier niveau rempli est appelée énergie du niveau de Fermi. La manière dont se place ce dernier niveau rempli va déterminer la nature du matériau (métal ou isolant). Si le niveau de Fermi se place dans une bande d'énergie admise, il sera très facile d'exciter les électrons, le matériau sera donc un métal. Si au contraire le niveau de Fermi se place dans une bande d'énergie interdite, il n'est pas possible d'exciter les électrons en appliquant une petite différence de potentiel, nous avons donc affaire à un isolant. Enfin, un semi-conducteur est un isolant dont la bande d'énergie interdite (« gap », en anglais), est suffisamment petite pour que l'on puisse exciter un nombre significatif de porteurs de charge simplement avec la température ambiante.
Nous voyons donc que l'explication de propriétés aussi courantes des matériaux repose sur les principes généraux de la mécanique quantique.
21. Ainsi, dans un solide constitué d'atomes dont la couche électronique externe est complète, les électrons ne peuvent sauter d'un atome à l'autre sans violer le principe d'exclusion de Pauli. Ce solide sera alors un isolant.

22-23. En réalité, les semi-conducteurs intrinsèques (les matériaux qui sont des semi-conducteurs à l'état brut) ne sont pas les plus utiles. On cherche en fait à contrôler le nombre de porteurs de charge que l'on va induire dans le matériau. Pour cela, il faut créer des états d'énergies très proches des bandes permises (bande de conduction ou bande de Valence). On introduit à ces fins des impuretés dans le semi-conducteur (du bore dans du silicium, par exemple) pour fournir ces porteurs de charges. Si on fournit des électrons qui sont des porteurs de charges négatifs, on parlera de dopage N. Si les porteurs de charges sont des trous créés dans la bande de Valence, on parlera de dopage P.
24. L'assemblage de deux semi-conducteurs P et N est la brique de base de toute l'électronique moderne, celle qui permet de construire des transistors (aux innombrables applications : amplificateurs, interrupteurs, portes logiques, etc.). Le bond technologique dû à l'invention du transistor dans les années 1950 repose donc sur tout l'édifice théorique et expérimental de la mécanique quantique. L'invention du transistor a valu le prix Nobel en 1956 à Brattain, Shockley et Bardeen. Le premier transistor mesurait quelques centimètres, désormais la concentration dans un circuit intégré atteint plusieurs millions de transistors au cm². Il existe même une célèbre loi empirique, proposée par Moore, qui observe que le nombre de transistors que l'on peut placer sur un microprocesseur de surface donnée double tous les 18 mois. Cette loi est assez bien vérifiée en pratique depuis 50 ans !

25. En mécanique quantique, il existe un balancier permanent entre théorie et expérience. La technologie peut induire de nouvelles découvertes fondamentales, et réciproquement.
Ainsi, le transistor à effet de champ permet de créer à l'interface entre un oxyde et un semi-conducteur un gaz d'électrons bidimensionnel, qui a conduit à la découverte de « l'effet Hall quantifié ».
26. Cette nappe d'électron présente une propriété remarquable : lorsqu'on applique un champ magnétique perpendiculaire à sa surface, la chute de potentiel dans la direction transverse au courant se trouve quantifiée de manière très précise. Ce phénomène est appelé effet Hall entier (Klaus von Klitzing, prix Nobel 1985) ou effet Hall fractionnaire (Robert Laughlin, Horst Stormer et Daniel Tsui, prix Nobel 1998).
27. L'explication de ces phénomènes fait appel à des concepts fondamentaux de la physique moderne comme le phénomène de localisation d'Anderson, qui explique l'effet des impuretés sur la propagation des électrons dans un solide. Nous voyons donc encore une fois cette interaction permanente entre technologie et science fondamentale.

La supraconductivité :
28. Il existe donc des métaux, des isolants, des semi-conducteurs. Il existe un phénomène encore plus extraordinaire : la supraconductivité. Il s'agit de la manifestation d'un phénomène quantique à l'échelle macroscopique : dans un métal « normal », la résistance tend vers une valeur finie non nulle lorsque la température tend vers 0 alors que dans un métal supraconducteur, la résistance s'annule en dessous d'une certaine température dite critique. Les perspectives technologiques offertes par la supraconductivité paraissent donc évidentes car il serait alors possible de transporter un courant sans aucune dissipation d'énergie. Le problème est de contrôler la qualité des matériaux utilisés, et il serait évidemment merveilleux de pouvoir réaliser ce phénomène à température ambiante...
29. La supraconductivité a été découverte par Kammerlingh Onnes en 1911 quand il refroidit des métaux avec de l'hélium liquide à une température d'environ 4 degrés Kelvin.
30. Ce phénomène ne fut expliqué que 46 ans plus tard, car il fallait tout l'édifice de la mécanique quantique pour réellement le comprendre. Nous devons cette explication théorique à Bardeen, Cooper et Schieffer à la fin des années 1950.
31. Dans un métal, il y a une source naturelle d'attraction entre les électrons. On peut imaginer que chaque électron déforme légèrement le réseau cristallin et y attire un autre électron pour former ce que l'on nomme une paire de Cooper. Ces paires peuvent échapper au principe d'exclusion de Pauli car elles ont un Spin 0. Elles se comportent alors comme des bosons et non plus comme des fermions, et s'écroulent dans un même état d'énergie pour former un état collectif. Le matériau a un comportement analogue à l'état de superfluide de l'hélium 4. Toutes ces paires de Cooper sont donc décrites par une unique fonction d'onde, c'est un état quantique macroscopique. Il existe donc de nombreuses propriétés qui révèlent cet état quantique à l'échelle du matériau.
32. A la fin des années 1950, la théorie de la supraconductivité est enfin comprise et le but est maintenant d'augmenter la température critique. Une véritable course est alors lancée, mais celle-ci n'eut pas que des succès. Alors que en 1911 Kammerlingh Onnes observait la supraconductivité du mercure à une température de 4K, à la fin des années 80, nous en étions encore à environ 30K. En 1986, cette température critique fait un bond considérable et se trouve aujourd'hui aux alentours des 140K. La température de l'azote liquide étant bien inférieure à ces 140K, il est désormais moins coûteux d'obtenir des supraconducteurs.

33. Ces supraconducteurs possèdent des propriétés étonnantes. Par exemple, un champ magnétique ne peut pénétrer à l'intérieur d'un matériau supraconducteur. Ceci permet de faire léviter un morceau de supraconducteur en présence d'un champ magnétique !
34. Cette « lévitation magnétique » offre de nouvelles perspectives : il est par exemple possible de faire léviter un train au dessus de ses rails, il faut alors très peu d'énergie pour propulser ce train à de grandes vitesses. Un prototype japonais a ainsi atteint des vitesses de plus de 500km/h.
Les supraconducteurs permettent de créer des champs magnétiques à la fois très intenses et contrôlés, et servent donc pour l'imagerie par résonance magnétique (IRM). Ceci offre bien sûr de nouvelles possibilités en imagerie médicale.
Les supraconducteurs peuvent être également utilisés pour créer de nouveaux outils pour les physiciens : dans le nouvel accélérateur de particules au CERN à Genève, les aimants sont des supraconducteurs.
35. L'année 1986 voit une véritable révolution dans le domaine de la supraconductivité. Bednorz et Muller découvrent en effet une nouvelle famille de matériaux supraconducteurs qui sont des oxydes de cuivre dopés. En l'absence de dopage, ces matériaux sont des isolants non-conventionnels, dans lesquels le niveau de Fermi semble être dans une bande permise (isolants de Mott). La température critique de ces supraconducteurs est bien plus élevée que dans les supraconducteurs conventionnels : le record est aujourd'hui de 138 degrés Kelvin pour un composé à base de mercure. C'est une très grande surprise scientifique que la découverte de ces nouveaux matériaux, il y a près de vingt ans.

Des matériaux aux propriétés étonnantes :
36. Ces sont donc des isolants d'un nouveau type, dits de Mott. Ces matériaux sont isolants non pas parce que leur couche extérieure est pleine mais parce que les électrons voulant sauter d'un atome à l'autre par effet tunnel se repoussent mutuellement.
37. La compréhension de la physique de ces matériaux étonnants est un grand enjeu pour les physiciens depuis une vingtaine d'années. En particulier, leur état métallique demeure très mystérieux et ne fait à ce jour pas le consensus de la communauté scientifique.
38. Il est également possible de fabriquer des métaux à partir de molécules organiques, nous obtenons alors des « plastiques métalliques » pouvant également devenir supraconducteurs en dessous d'une certaine température (découverte par Denis Jérome et son équipe à Orsay en 1981). Le diagramme de phase des supraconducteurs organiques est au moins voire plus compliqué que celui des oxydes métalliques.
39. Actuellement, des recherches sont menées sur des alliages ternaire, et quaternaires qui semblent offrir encore de nouvelles propriétés. Par exemple, les oxydes de manganèse ont une magnétorésistance colossale, c'est-à-dire que leur résistance varie beaucoup en présence d'un champ magnétique. Cette particularité pourrait être utilisée dans le domaine de l'électronique de Spin, où on utilise le Spin des électrons, en plus de leur charge pour contrôler les courants électriques. Les oxydes de Cobalt, quant à eux, présentent la propriété intéressante d'être des thermoélectriques (i.e capables de produire un courant électrique sous l'action d'un gradient de température).
Il existe donc de très nombreux défis dans ce domaine, ils sont de plusieurs types. D'abord, l'élaboration de structures peut permettre de découvrir de nouveaux matériaux aux nouvelles propriétés qui soulèvent l'espoir de nouvelles applications.

Mais il existe aussi des défis théoriques : est il possible de prédire les propriétés d'un matériau à partir des lois fondamentales ? Des progrès importants ont été réalisés durant la seconde partie du XXème siècle et ont valu à Walter Kohn le prix Nobel de chimie. Cependant, ces méthodes ne sont pas suffisantes pour prédire la physique de tous les matériaux, en particulier de ceux présentant de fortes corrélations entre électrons. Les puissances conjuguées de la physique fondamentale et calculatoire des ordinateurs doivent être mise à service de ce défi. Par ailleurs, de nouveaux phénomènes apparaissent dans ces matériaux qui amèneront certainement des progrès en physique fondamentale.
La chimie, la physique et l'ingénierie des matériaux et de leurs propriétés électroniques semblent donc avoir de beaux jours devant eux !

 

 VIDEO     canal U       LIEN

 
 
 
 

LES ONDELETTES ET LA RÉVOLUTION NUMÉRIQUE

 

 

 

 

 

 

 

LES ONDELETTES ET LA RÉVOLUTION NUMÉRIQUE


"La "" révolution numérique "" change profondément notre vie, puisqu'elle modifie notre relation au monde et notre relation aux autres. Elle comprend le téléphone digital, le fax et la télévision numérique (qui sont déjà en oeuvre) mais s'inscrit aussi dans le programme beaucoup plus ambitieux de la réalité virtuelle, monde dans lequel nous pourrons entrer, nous mouvoir, mais que nous pourrons aussi transformer et modifier à notre guise. L'interactivité est l'une des conséquences de la révolution numérique. La révolution numérique a également révolutionné l'imagerie médicale, le scanner, la RMN etc. puisque toutes ces images sont aujourd'hui élaborées a l'aide de calculs mathématiques. Dans mon exposé, je commencerai par décrire l'histoire, peu connue, des débuts de la révolution numérique. Les pionniers furent des physiciens et des mathématiciens comme Léon Brillouin, Dennis Gabor John von Neumann, Claude Shannon et Norbert Wiener et leurs résultats conduisirent à la construction des premiers ordinateurs. Ensuite je montrerai que l'analyse par ondelettes est directement issue des préoccupations de ces pionniers et c'est ainsi qu'elle sera introduite. Nous décrirons les succès des ondelettes et indiquerons leurs limites dans le cadre du traitement du signal et de l'image. L'exposé se terminera par l'analyse de certaines images fournies par Hubble (explosion de la Supernova S1987A)."

Texte de la 170e conférence de l’Université de tous les savoirs donnée le 18 juin 2000.

Les ondelettes et la révolution numérique
par Yves Meyer
La mode des ondelettes
Les ondelettes sont à la mode et c'est pourquoi on m'a demandé d'en parler à l’Université de tous les savoirs.
Les ondelettes sont à la mode, car elles sont utilisées dans les « nouvelles technologies » (multimédia, nouveau standard de compression des images numériques, etc.). Nous y reviendrons.
La mode des ondelettes est un phénomène international. En ouvrant le dernier numéro (mai 2000) des Notices of the American Mathematical Society, on y découvre, à la page 571, Ingrid Daubechies, recevant un prix pour ses travaux sur les ondelettes et, à la page 570, Ronald Coifman décoré par le Président Clinton pour ses contributions à l'analyse par ondelettes.
Les ondelettes sont à la mode, comme l'ont été le chaos, les fractales, la théorie des catastrophes. Dans tous ces exemples, les recherches sont motivées par certains phénomènes complexes, que l'on observe réellement dans la nature, et qu'il s'agit d'étudier et d'analyser.
Ici nous opposons volontairement « nature » à « laboratoire ». Prigogine écrit dans Les lois du chaos : « Ce qui nous intéresse aujourd'hui, ce n'est pas nécessairement ce que nous pouvons prévoir avec certitude. La physique classique s'intéressait avant tout aux horloges, la physique d'aujourd'hui plutôt aux nuages. »
La physique dont parle Ilya Prigogine a pour finalité d'élucider les phénomènes naturels. Benoît Mandelbrot dit à peu près la même chose : « Le monde qui nous entoure est très complexe. Les instruments dont nous disposons pour le décrire sont limités ». Les formes des nuages conduiront Mandelbrot aux fractales.

Le mathématicien René Thom se propose d'explorer la morphogenèse, l'apparition de formes ou celle d'évènements imprévus à l'aide de la « théorie des catastrophes ». Certains chercheurs pensent que cette théorie est aussi utile à la linguistique qu'à l'étude de l'apparition des révoltes dans les prisons.
David Ruelle a, en un sens, été l'auteur de la « théorie du chaos déterministe » qu'il applique, avec succès, à l'étude de la turbulence, autre phénomène naturel très mal compris. La turbulence concerne l'apparition des tourbillons dans l'écoulement d'un fluide ou celle des tornades dans l'écoulement atmosphérique.
Ces mêmes remarques conviennent aux ondelettes. La « théorie des ondelettes » est elle aussi motivée par l'étude des phénomènes naturels. Les motivations concernent le signal de parole, la musique, l'image, les processus de la vision humaine, etc.
Le succès de ces théories auprès du grand public vient de ce qu'elles étudient la complexité du monde familier qui nous entoure : elles nous parlent du temps, de l'espace, de la causalité, de l'avenir effrayant et imprévisible, des formes des nuages, de la structure des langues et de tant d'autres choses qui nous touchent.
Le chercheur n'est plus retranché dans sa tour d'ivoire où, solitaire, il se penchait sur des artefacts qu'il avait lui-même créés. Certains scientifiques, comme Pierre-Gilles de Gennes, se félicitent de cette évolution de la science vers des choses immédiates, simples en apparence, mais fort complexes au demeurant.
Cependant ces quatre théories (ondelettes, chaos, etc.) n'ont pas une bonne réputation auprès de certains scientifiques , car elles parlent davantage la langue de la poésie que celle de la science. Nous retrouverons cependant cette langue de la poésie ou même de la prophétie dans le programme scientifique de Joseph Fourier, décrit plus loin. On objecte aussi que ces théories ouvrent des perspectives trop étendues et, que, le plus souvent, les schémas intellectuels qu'elles suggèrent ne dépendent pas du contexte scientifique et sont les mêmes pour toutes les disciplines, ce qui paraît suspect. En outre, beaucoup de travaux utilisant ces nouveaux schémas sont de qualité très moyenne.

David Ruelle écrit dans Hasard et Chaos : « Revenons au succès qu'a eu la théorie du chaos. Ce succès a été bénéfique pour les mathématiques où la théorie des systèmes dynamiques a profit des idées nouvelles sans dégradation de l'atmosphère de la recherche (la difficulté technique des mathématiques rend la tricherie difficile). En physique du chaos, malheureusement, le succès a été de pair avec un déclin de la production de résultats intéressants, et cela malgré les annonces triomphalistes de résultats fracassants ».
Ces remarques s'appliquent aux ondelettes. Alors le chercheur se méfie. Il se méfie des constructions intellectuelles dont le propos est de tout expliquer. Il se méfie des ondelettes. Tout cela devient fort inquiétant, il faut en savoir plus et nous sommes amenés à nous poser les quatre questions suivantes sur le statut des ondelettes :
- Les ondelettes sont-elles une invention pratique, comme celle de la roue ? (Il n'y a évidemment pas de science de la roue, mais, depuis qu'elle a été inventée, son usage n'a jamais cessé.)
- Les ondelettes sont-elles une théorie ? Si c'est le cas, à quel secteur scientifique cette théorie appartient-elle ? Comment la théorie des ondelettes peut-elle être vérifiée ou infirmée ?
- Une troisième possibilité existe. Le succès des ondelettes serait, comme celui des fractales et du chaos, dû à un malentendu. Par un effet pernicieux de la vulgarisation, un outil scientifique dont l'usage devrait être limité à un certain contexte est mis « à toutes les sauces ». Doit-on parler d'imposture ?
- En sens inverse, certains succès obtenus par les ondelettes illustreraient-ils ce que les anglo-saxons appellent la « fertilisation croisée » ?
Quelques mots d'explication : il arrive que certains secteurs de la science moderne soient fécondés par des greffes de méthodes ou de concepts provenant d'une discipline différente. Par exemple, la vitesse issue de la mécanique est devenue la « dérivée » des mathématiciens et sert aujourd'hui à étudier toute modification d'un phénomène dépendant d'un ou de plusieurs paramètres. Il n'y a ici aucune supercherie.
Ces problèmes étant posés, nous allons essayer de les résoudre en utilisant une approche historique. Les travaux contemporains sur les ondelettes sont, en fait, issus de trois programmes scientifiques. En analysant ces programmes, nous aurons la surprise d'y découvrir cette même ambition d'aborder tous les savoirs que certains critiquent dans la « théorie des ondelettes ». On y trouve les mêmes enjeux, les mêmes défis et les mêmes risques d'imposture que dans les quatre théories précédentes.
Nous remonterons d'abord à Joseph Fourier. Il a proposé un programme scientifique interdisciplinaire que nous analyserons de façon détaillée dans la section suivante.
Nous examinerons ensuite le programme de l’Institute for the Unity of Science. Aussi prophétique que celui de Fourier et encore plus ambitieux, ce programme englobait ce qui s'appelle aujourd'hui les sciences cognitives et a conduit à la conception, puis la construction, des premiers ordinateurs. La réflexion théorique a précédé la technique !
Nous en viendrons enfin au remue-ménage déclenché par Jean Morlet. En 1981, alors qu'il était encore ingénieur de recherche chez Elf-Aquitaine, il a proposé les ondelettes « temps-échelle » comme un outil permettant de mieux analyser certains signaux sismiques.
L'étude des chemins qui ont conduit, à travers l'histoire, aux travaux contemporains nous permettra de répondre enfin aux quatre questions que nous avions posées. Ce sera notre conclusion.

Le programme de Fourier
Il importe de débuter par le programme de Fourier, car la découverte des ondelettes se situe dans la logique même de ce texte visionnaire.
En 1821, il y a presque deux siècles, Joseph Fourier écrivait dans son célèbre Discours préliminaire :
« L'étude approfondie de la nature est la source la plus féconde des découvertes mathématiques. Non seulement cette étude, en offrant aux recherches un but déterminé, a l'avantage d'exclure les questions vagues et les calculs sans issue : elle est encore un moyen de former l'analyse elle-même, et d'en découvrir les éléments qu'il nous importe le plus de connaître...
Considérée sous ce point de vue, l'Analyse mathématique est aussi étendue que la nature elle-même ; elle mesure le temps, les forces, les températures... Son attribut principal est la clarté ; elle n'a point de signes pour exprimer les notions confuses. Elle rapproche les phénomènes les plus divers et découvre les analogies les plus secrètes qui les unissent.

Si la matière nous échappe, comme celle de l'air et de la lumière par son extrême ténuité, si les corps sont placés loin de nous, dans l'immensité de l'espace, si l'homme veut connaître le spectacle des cieux pour des époques successives que séparent un grand nombre de siècles, si les actions de la gravité et de la chaleur s'exercent dans l'intérieur du globe solide à des profondeurs qui seront toujours inaccessibles, l'Analyse mathématique peut encore saisir les lois de ces phénomènes. Elle nous les rend présents et mesurables, et semble être une faculté de la raison humaine destinée à suppléer à la brièveté de la vie et à l'imperfection des sens ; et, ce qui est plus remarquable encore, elle suit la même marche dans l' étude de tous les phénomènes ; elle les interprète par le même langage, comme pour attester l'unité et la simplicité du plan de l'Univers, et rendre plus manifeste cet ordre immuable qui préside à toutes les causes naturelles. »
Il faut observer que Fourier donne aux mathématiques un rôle très original. Loin de placer les mathématiques au-dessus des autres sciences, il demande, au contraire, que la recherche en mathématique soit nourrie par des problèmes scientifiques. Cette position s'oppose à celle de Richard Dedekind, reprise par Jean Dieudonné, où les mathématiques sont isolées des autres sciences et étudiées pour « l'honneur de l'esprit humain ».
Un des usages les mieux connus de l'analyse de Fourier est l'analyse et la synthèse des sons, à l'aide des sons purs. Un son est caractérisé par sa hauteur, son intensité et son timbre. L'utilisation des séries de Fourier permet de décomposer les sons en sons purs et, ce faisant, d'en déterminer et calculer les caractéristiques. Le timbre d'un son est caractérisé par l'intensité relative de ses harmoniques. Le rôle de l'analyse de Fourier est de déterminer ces harmoniques et, pour cette raison, l'analyse de Fourier est souvent appelée analyse harmonique.
Ces sons purs sont définis à l'aide d'un seul paramètre, à savoir la fréquence. Ce sont des vibrations parfaites, éternelles, sans début ni fin, émises depuis l'origine des temps et qui dureront toujours. Si l'on admet les formules de Fourier, exactes pour le mathématicien, mais contestables pour l'acousticien, alors les commencements et les interruptions des sons que l'on entend seraient dus à des interférences destructives, créant le silence à partir d'une opposition exacte de phases.
On pourrait représenter l'analyse de Fourier comme un orchestre idéal dont chaque instrumentiste jouerait indéfiniment la même note ; le silence serait alors obtenu par des sons qui s'annuleraient exactement les uns les autres et non par l'absence de son. Bien entendu, ce n'est pas ainsi qu'un orchestre joue ou cesse de jouer et la variable temporelle doit avoir un rôle beaucoup plus actif et dynamique.

Cette décomposition des sons en sons purs est donc imparfaite, car elle ne rend pas compte, dans le cas de la musique, des sons complexes produits par l'attaque de l'instrument, par la recherche de la note et, plus généralement, elle est inadaptée à l'étude des sons transitoires et des bruits divers. L'analyse de Fourier n'est réellement efficace que si elle est limitée à l'étude des phénomènes périodiques ou, plus généralement, stationnaires.
C'est pour prendre en compte d'autres phénomènes qui ne sont pas stationnaires et, plus particulièrement, des phénomènes transitoires que l'analyse de Fourier a été modifiée, améliorée et c'est ainsi que les ondelettes « temps-fréquence » sont nées.
Elles s'opposent aux ondes parce qu'elles ont, comme les notes d'une partition de musique, un début et une fin. L'analyse par ondelettes a donc pour modèle la partition musicale où la durée des notes est indiquée en même temps que leur hauteur. Mais l'analyse par ondelettes a pour ambition d'être une description exacte et non symbolique de la réalité sonore. En ce sens elle est plus proche du disque compact audio que de la partition car la synthèse qui fait partie de l'analyse par ondelettes est automatique et n'a pas besoin d'être interprétée.
Les ondelettes qui conviennent au signal audio avaient été recherchées, dès 1945, par Léon Brillouin, Dennis Gabor et John von Neumann et nous reviendrons sur ces recherches dans la section suivante. Mais ces pionniers avaient fait des choix arbitraires, basés sur des a priori contestables. Les ondelettes de Gabor ou « gaborettes » sont des signaux ondulatoires (c'est-à-dire des cosinus ou sinus), amplifiés ou atténués par une enveloppe gaussienne. On les déplace par des translations qui sont adaptées aux fréquences utilisées. Si l'on utilise seulement des fréquences entières, en progression arithmétique, alors les translations doivent nécessairement être des multiples entiers de 2Πr. Ces choix arithmétiques sont ceux des séries de Fourier. Mais Roger Ballan et Francis Law démontrèrent que ce système ne permettait pas de représenter des fonctions arbitraires. Les ondelettes que l'on utilise aujourd'hui sont plus subtiles. Elles sont nées, en 1987, des travaux de Kenneth Wilson (prix Nobel de physique pour ses travaux sur la renormalisation et les phénomènes critiques). Elles ont été perfectionnées, en 1989, par Ingrid Daubechies, Stéphane Jaffard et Jean-Lin Journé, puis par Ronald Coifman et moi-même en 1990. Signalons aussi les travaux d'Henrique Malvar. Ces ondelettes sont utilisées dans le son numérique Dolby qui aujourd'hui accompagne la plupart des films. Nous reviendrons sur ces avancées technologique.
L'analyse de Fourier n'est pas seulement utilisée pour analyser les sons, elle s'applique aussi au traitement des images, elle intervient de façon cruciale dans la cristallographie, dans la biochimie et dans des champs de la connaissance si divers et variés qu’il est impossible d'en dresser une liste exhaustive. Fourier en avait l'intuition et sa prophétie s'est réalisée.

Le programme de 1’Institute for the Unity of Science
En 1944, avant même que les ordinateurs n'existent, des mathématiciens comme John Von Neumann, Claude Shannon, Norbert Wiener, des physiciens comme Léon Brillouin, Dennis Gabor, Eugène Wigner et d'autres chercheurs ont proposé et déclenché un programme scientifique dont le but était d'étendre aux sciences cognitives (qui n'existaient pas encore sous ce nom) le formidable mouvement d'unification que les sciences physiques avaient opéré à la fin du XIXe siècle.
Il s'agit de l'unification des problématiques de la mécanique statistique, de la thermodynamique et du calcul des probabilités. De cette unification est née la notion d'entropie. Grâce au concept d'entropie, on put reformuler le second principe de la thermodynamique, à savoir la dégradation irréversible de l'énergie au cours des transformations d'un système supposé isolé. Il y a dégradation parce que l'entropie, mesurant le désordre, augmente inéluctablement.
Dès les années 45, Claude Shannon eut l'idée d'appliquer ce concept d'entropie à la théorie des communications, en identifiant l'ordre mesuré par l'entropie (en fait, l'ordre est l'entropie affectée d'un signe moins) à la quantité d'information contenue dans un message.
Une seconde découverte majeure de Shannon dans le domaine des télécommunications concerne le débit d'un canal de transmission. Un tel canal, qui préfigure les autoroutes de l'information, est défini par ce que l'on appelle une fréquence de coupure. L'existence de la fréquence de coupure vient des limitations de la technologie. La fréquence de coupure du canal auditif humain est 20 000 hertz. Shannon calcule le volume maximum d'information que l'on peut transmettre par seconde, à l'aide d'un canal dont la fréquence de coupure est fixée, en présence d'un léger bruit.
Le problème de l'encombrement des autoroutes de l'information était ainsi posé. La question suivante est l'utilisation optimale du canal. Comment faire circuler harmonieusement, sans heurt, cette information ? Comme nous l'avons indiqué dans la section précédente, les pères fondateurs (Shannon, Gabor, Von Neumann, Brillouin) abordèrent ce problème et les solutions qu'ils découvrirent sont appelées les « ondelettes de Sannon » et les « ondelettes de Gabor ». L'utilisation de ces ondelettes était limitée au traitement de la parole. C'est pourquoi ces ondelettes s'appelaient des « logons » ou éléments de discours. Ces premières solutions ont été améliorées, ce qui a conduit aux bases orthonormées d'ondelettes « temps-fréquence » déjà mentionnées.
Ces recherches étaient motivées par les problèmes posés par les communications téléphoniques. Le traitement de l'image n'était pas au programme de l’Institute for the Unity of Science.

À partir de là l'élan était donné et le programme de l'Institute for the Unity of Science consistait à relier les avancées les plus récentes effectuées dans le domaine des « sciences dures » aux progrès de l'étude de l'organisation structurale des langues naturelles et du vivant. Les sciences dures incluaient toute la physique, la mécanique statistique, l'électronique, la logique mathématique, les premiers balbutiements de la robotique et les premiers essais de compréhension de ce qui allait devenir l’étude de la complexité.
Norbert Wiener publiait, en 1950, un essai intitulé Speech, language and learning où il utilisait ses découvertes sur les rétro-actions ou feedbacks. Le 19 janvier 1951, Wiener et Rosenblith lançaient le programme Cybernique et Communications dans le cadre de l’Institute for the Unity of Science. Il s'agissait, en particulier, d'interpréter les modes de fonctionnement du langage et même du cerveau et de la pensée humaine à partir de modèles issus de la logique ou de l'intelligence artificielle. Il s'agissait de comprendre les mécanismes régulateurs de la biologie à l'aide des rétroactions découvertes et étudiées par N. Wiener.
L'Institut était une structure souple, un institut sans mur, permettant de financer et de fédérer les travaux des scientifiques qui travaillaient sur ces programmes. Les ordinateurs n'existaient pas encore et leur conception, puis leur réalisation seront directement issus des réflexions de John Von Neumann et de Norbert Wiener. Par exemple, Wiener fit le 14 février 1945 une conférence sur « le cerveau et les machines à calculer ».
L’Institute for the Unity of Science est créé en 1946 et cette date n'est pas innocente. Tout d'abord Gabor, Von Neumann et Wigner sont tous les trois nés à Budapest. Tous trois ont dû fuir la barbarie nazie.
En outre, le programme de travail de l'Institute for the Unity of Science doit beaucoup aux découvertes sur le management scientifique, issues de l'effort de guerre. Par exemple, Wiener fut conduit à l’étude des rétroactions et de la prédiction statistique dans le cadre de l'aide à la décision des servants des batteries antiaériennes. Il s'agissait de pointer la pièce d'artillerie sur la position anticipée du bombardier nazi. Ces travaux ont aidé à gagner la bataille de Londres.
Une autre conséquence de l'effort de guerre a été la recherche sur les problèmes posés par la communication et le bruit, à bord des bombardiers alliés. L'Institut pour l'Unité de la Science allait naturellement continuer cet effort et son programme de recherche dans le domaine de la communication portera sur les thèmes suivants : message, signal, information, canal de transmission, circuit, réseau, reconnaissance, bruit. Cette liste est aussi celle des problèmes où les ondelettes ont joué un rôle essentiel.

La découvert, par Jean Morlet, des ondelettes « temps-échelle »
Les ondelettes « temps-échelle » ont vu le jour grâce à un objet et un organisme qui ont joué un rôle fédérateur semblable à celui de l’Institute for the Unity of Science décrit ci-dessus. L'objet est une photocopieuse et l'organisme est un laboratoire propre du CNRS, le Centre de Physique Théorique de Marseille-Luminy, admirablement situé près des calanques. Cette photocopieuse, qui aurait dû recevoir une médaille du CNRS, était utilisée à la fois par les chercheurs du département de mathématiques et par ceux du département de physique théorique de l'École Polytechnique. Jean Lascoux, un physicien d'une culture universelle, photocopiait tout ce qui lui paraissait digne d'être diffusé. Au lieu de manifester de l'impatience pour son usage un peu personnel et excessif de cet instrument de travail collectif, j'aimais attendre qu'il ait fini en discutant avec lui. En septembre 1984, il me demanda ce que j'avais fait pendant les vacances et, après ma réponse, il comprit aussitôt que le travail qu'il était en train de photocopier pouvait m'intéresser. Il s'agissait d'un document de quelques pages écrit par un physicien, spécialiste de la mécanique quantique, Alex Grossmann, et par un ingénieur visionnaire, Jean Morlet, travaillant pour Elf-Aquitaine. Je pris le premier train pour Marseille afin de rencontrer Grossmann, au centre de physique théorique de Luminy, et c'est ainsi que tout a commencé et que les ondelettes furent créées.
Les programmes scientifiques des premiers congrès sur les ondelettes qui se tenaient à Luminy, près des calanques, étaient aussi ambitieux que celui de l'Institute for the Unity of Science. Nous disposions d'un nouvel instrument d'analyse, capable de plonger au cœur même des signaux transitoires et d'en explorer la complexité : on pense ici à l'attaque d'une note, aux quelques millisecondes où le son se cherche, c'est-à-dire à tout ce qui échappe à l'analyse de Fourier (et aussi aux ondelettes « temps-fréquence »). Cet instrument, nous l'utilisions pour analyser des électroencéphalogrammes, des électrocardiogrammes, des signaux acoustiques, etc. et nous espérions y découvrir ce que personne n'avait su voir. Lors de ces premiers congrès, nous discutions avec des médecins, des musiciens, des physiciens, des ingénieurs et arrivions à recréer l'atmosphère des années 1945, sans même avoir conscience d'imiter l'Institute for the Unity of Science (dont nous ignorions l'existence).
Nous pensions faire des progrès scientifiques décisifs en établissant une atmosphère propice à l'interaction pluridisciplinaire et à la fertilisation croisée. Cette fertilisation croisée n'était pas, à nos yeux, la recherche d'un niveau pauvre, vague et imprécis de communication entre les sciences. Bien au contraire, il s'agissait, pour nous, d'une sorte de mouvement intellectuel où les différentes thématiques scientifiques puissent s'enrichir mutuellement. En relisant les actes de ces congrès, on mesure à quel point nous étions naïfs. Nous étions naïfs, car nous pensions que le nouveau jouet dont nous disposions pouvait résoudre de nombreux problèmes. Aujourd'hui la liste des problèmes résolus par cet outil est un peu plus courte.
Un des problèmes résolus concerne le traitement de l'image . Ces nouvelles ondelettes sont à l'origine du nouveau standard de compression des images fixes (JPEG-2000). Dans la construction de ces nouvelles ondelettes, interviennent un paramètre d'échelle et un paramètre de fréquence. L'un est l'inverse de l'autre et ceci explique les succès rencontrés en traitement de l'image où cette loi était essentielle.

Si nous avons comparé le climat fiévreux qui a entouré la naissance des ondelettes à celui qui accompagna la création de l’Institute for the Unity of Science, il convient cependant d'être modeste et de souligner que nos travaux étaient beaucoup moins révolutionnaires. En effet, la découverte des ondelettes « temps-fréquence » peut aujourd'hui apparaître comme une simple remarque corrigeant une erreur commise par Gabor et von Neumann. L'usage des ondelettes « temps-échelle » était une aventure plus singulière, car elle ne reposait pas sur une heuristique admise dans la communauté du traitement du signal. Le fait d'analyser un signal unidimensionnel en comparant différentes copies faites à des échelles différentes n'est certainement pas une démarche intuitive.
En revanche, en ce qui concerne l'image, cette même démarche est tout à fait légitime et on a l'habitude d'écrire que l'inverse d'une échelle est une fréquence. En outre, il faut savoir qu'indépendamment des travaux de Morlet et en travaillant dans un contexte tout à fait différent, David Marr a aussi découvert les ondelettes « temps-échelle ». Le traitement de l'image et ses liens avec la vision humaine et la vision artificielle ne faisaient pas partie du programme de l'Institute for the Unity of Science et David Marr a consacré les dix dernières années de sa vie à essayer de comprendre ces problèmes.
Professeur à Cambridge (Royaume-Uni), Marr fut ensuite nommé au MIT (Massachusetts) pour rejoindre une équipe travaillant sur le problème de la vision artificielle qui se révélait crucial pour la robotique. Il s'agit de l'élaboration de décisions à partir des données fournies par les caméras équipant le robot. Les ingénieurs croyaient naïvement que les problèmes seraient simplement résolus en multipliant le nombre des senseurs, mais Marr démontra que la vision est un processus intellectuel complexe, basé sur des algorithmes dont la mise en oeuvre nécessite une science nouvelle.
Son livre, intitulé Vision, A computational investigation into the human représentation and processing of visual information, est en fait, un livre posthume, écrit pendant les derniers mois de sa lutte contre la leucémie. Marr nous confie son programme scientifique en s'adressant à nous comme à un ami. Chemin faisant, il anticipe les ondelettes de Morlet, il en fournit une représentation analytique précise et prévoit le rôle qu'elles vont jouer en traitement de l'image. Cette partie de l’œuvre de David Marr sera reprise et modifiée par Stéphane Mallat.
Les ondelettes inventées par David Marr et Jean Morlet étaient destinées à remplacer la FFT (fast Fourier transform) en traitement de l'image. Mais il fallait pour cela que l'analyse et la synthèse puissent s'effectuer à l'aide d'algorithmes rapides. Ingrid Daubechies et Stéphane Mallat allaient s'illustrer dans la découverte de ces algorithmes qui jouent un rôle essentiel dans les problèmes de la compression et du débruitage.
Aujourd'hui les applications des ondelettes « temps-échelle » couvrent des domaines très variés et, dans une interview au journal Le Monde du jeudi 25 mai 2000, S. Mallat cite, en vrac, le nouveau standard de compression des images fixes, l'imagerie satellitaire, Internet, etc.
Un des grands succès des ondelettes concerne le débruitage des sons et des images. Ce succès s'explique de la façon suivante.
Les ondelettes partagent avec le langage une souplesse d'utilisation et de création tout à fait remarquables et qui expliquent leurs succès. Cette souplesse signifie que l'on peut changer de façon presque arbitraire l'ordre des termes sans changer la signification de ce que l'on écrit. Dans le langage des mathématiciens, on dira que les ondelettes forment une base inconditionnelle. Ceci se relie aux travaux de deux analystes dont je voudrais évoquer la mémoire. Il s'agit d'Alberto Calderón et d'Antoni Zygmund. L’œuvre de Calderón et Zygmund revit aujourd'hui grâce aux belles découvertes d'Albert Cohen sur les coefficients d'ondelettes des fonctions à variation bornée, découvertes qui fondent l'utilisation des ondelettes dans la compression et le débruitage des images fixes. Les applications des ondelettes aux statistiques ont été un des grands succès de cette théorie. Eliminer le bruit dans un signal était l'une des obsessions des pionniers de 45. C'est maintenant une réalité scientifique grâce aux travaux de David Donoho et de ses collaborateurs.

La révolution numérique
Comme nous venons de l'indiquer, les ondelettes ont une relation privilégiée avec le traitement de l'image. Par exemple, le nouveau standard de compression des images fixes, le célèbre JPEG-2000, est basé sur l'analyse par ondelettes. Ceci nous amène à parler des enjeux de la « révolution numérique ». La révolution numérique envahit notre vie quotidienne, elle modifie notre travail, notre relation aux autres, notre perception des sons et des images. En ouvrant un magazine, on a toutes les chances d'y trouver une apologie des caméras numériques ; ces publicités sont en général bien faites et nous fournissent une première définition de la finalité de la révolution numérique : la possibilité d'agir, d'intervenir sur les images et les sons (les enregistrements sonores, les photographies ou les films dans le cas de la caméra numérique), de les manipuler, de les améliorer etc. Le son numérique Dolby qui accompagne la plupart des films contemporains est directement issu de la révolution numérique.

Voici quelques autres exemples. Tout d'abord le téléphone est aujourd'hui digital. Digital s'oppose à analogique. En simplifiant, une copie analogique peut être comparée au tirage d'une gravure, d'une eau-forte, à l'aide de la planche de cuivre qui a été burinée par le graveur. On pense aussi au disque microsillon. Dans le cas du téléphone, la copie de la voix s'effectuait à l'aide d'un courant électrique dont les vibrations reproduisaient exactement les vibrations acoustiques émises par le locuteur. La transmission, sur de longues distances, de ce signal électrique se payait par une certaine altération due aux lois de la physique.
Il en résultait des grésillements qui nous renseignaient sur la distance parcourue par le courant lectrique, mais qui étaient très désagréables. En revanche, le son numérique ou digital est inaltérable, tout comme le disque compact est inusable.
Reste à savoir comment le son analogique devient digital. Le son digital est un exemple de la numérisation d'une information analogique. Numériser signifie que l'on est capable de coder les vibrations acoustiques (qui constituent un signal continu) à l'aide de longues suites de 0 et de 1. Ce codage s'effectue en deux temps. La première étape est l'échantillonnage qui est une sorte de lecture où l'on ne retiendrait qu'un point sur dix. En principe, sans hypothèse sur le signal continu, il est impossible de se contenter de cette « lecture rapide ». Comme nous l'avons signalé dans la section précédente, Claude Shannon a cependant résolu ce problème au niveau théorique. Mais cette première « lecture rapide » fournit encore un volume trop grand pour pouvoir circuler sans peine sur les « autoroutes de l'information ».
Il faut alors « comprimer » et ce nouveau défi pourrait être comparé au remplissage optimal d'une valise à la veille d'un voyage. Se pose alors le problème de construire les meilleurs codes de compression et de comprendre comment la nécessaire comparaison entre différents codes doit être effectuée. C'est dans ce choix d'un bon code que les ondelettes entrent en jeu.
Un second exemple de la révolution digitale est le disque compact audio, lancé en 1982. En quatre ans, il a détroné les disques microsillons en vinyle. Ce disque compact audio a été suivi par le CD-Rom dont l'utilisation a bouleversé le multimédia. Le son et l'image peuvent désormais être enregistrés sur le même support. Aujourd'hui le DVD (Digital Versatile Disc) rencontre un succès foudroyant. Malgré un ruineux combat d'arrière garde des laboratoires de recherche de Thomson, l'image numérique envahit la télévision contemporaine.
D'autres applications actuelles ou prévisibles concernent l'imagerie médicale (l'archivage des mammographies utilisera des algorithmes de compression numérique, basés sur les ondelettes), l'imagerie satellitaire, les images fournies par le télescope Hubble, etc. Bien entendu le multimédia, le web, sont des produits directs de la révolution numérique.
Pour le grand public, la révolution numérique semble faire partie des technologies de pointes, mais, en se penchant sur son histoire, on voit qu'elle était, en un sens, une composante du programme scientifique de l'Institute for the Unity of Science.

Conclusion
Nous pouvons maintenant répondre aux questions posées dans l'introduction.
Les ondelettes ne sont pas une invention pratique, comparable à la roue, mais elles font partie de ce que l'on appelle aujourd'hui le logiciel, le software. Elles jouent un rôle important dans la révolution numérique. Les ondelettes sont aujourd'hui devenues un outil. L’ « outil ondelettes » sera peut-être remplacé par un outil plus maniable dans les années à venir. Cet outil ne sera jamais infirmé. De plus l’outil ondelettes est, en réalité, une boîte à outils, comportant des instruments très différents. En outre cette boîte à outils s'enrichit continuellement.
Les ondelettes ont été une théorie, mais ce n'est plus le cas aujourd'hui. Les recherches théoriques sur les ondelettes ont cessé. Pendant près de six ans (1984-1990), Ronald Coifman, Ingrid Daubechies, Stéphane Mallat et moi-même avons réussi à unifier plusieurs lignes de recherche venant de disciplines très différentes : il s'agissait (1) de travaux conduits en traitement du signal, sous le nom de codage en sous-bandes, (2) d'une méthodologie de la physique mathématique appelée « états cohérents », (3) des anticipations de Gabor et de Shannon dans le cadre de l'Institute for the Unity of Science et, finalement, (4) d'une technique de calcul d'usage universel, celle de bases orthonormées. Ces recherches ont conduit à l'écriture de divers logiciels utilisés dans la technologie du traitement du signal et de l'image.
Cette unification a été un grand succès, mais a aussi eu des effets négatifs. Elle a entraîné une croyance presque religieuse dans la pertinence des méthodes basées sur l'analyse en ondelettes. Il y a un usage intempestif des ondelettes, mais cela n'est pas propre aux ondelettes. Comme nous l'avons déjà observé, il y a un usage intempestif des résultats de toutes les grandes aventures intellectuelles.

Certains outils intellectuels peuvent convenir à toutes les sciences, sans pour autant perdre leur précision. Citons en vrac, vitesse, accélération, fréquence, etc. Le sens de ces mots ne dépend pas du contexte utilisé. Les ondelettes pourraient faire partie de cette liste. En effet, comme c'est le cas pour l'analyse de Fourier, l'analyse par ondelettes n'est jamais fausse, elle ne dépend pas du contexte, elle exprime une vérité universelle, mais elle peut manquer de pertinence. Cette vérité universelle est constituée par un ensemble de résultats mathématiques autonomes et rigoureux. Ces résultats s'appliquent donc, en principe, à tous les signaux, quelle que soit leur origine physique. Ceci n'implique évidemment pas que cette application soit pertinente.
Notre étude historique nous a appris que l'analyse par ondelettes a des racines historiques profondes, qu'elle est le fruit d'une longue évolution. Ce lent processus évolutif continuera, alors même que les ondelettes auront cessé d'être à la mode, car les problèmes que nous essayons aujourd'hui de résoudre à l'aide des ondelettes existeront toujours.

Références bibliographiques
À mon avis, les quatre meilleurs ouvrages sur les ondelettes sont :
- Cohen (A.), and Ryan (R.), Wavelets and multiscale signal processing, Chapman & Hall ed., 1995.
- Daubechies (I.), Ten lectures on wavelets, SIAM, Philadelphla, 1992.
- Mallat (S.), A wavelet tour of signal processing, Acad. Press, 1998.
- Vetterli (M.), and Kovacevic (K.-J.), Wavelets and subband coding, Prentice Hall PTR, Englewood Cliffs, NJ 07632, 1995.
Le lecteur plus orienté vers les mathématiques pourra consulter en version anglaise (refondue et mise à jour) ou en version française :
- Meyer (Y.), Wavelets and Operators, Vol 1 and 11, Cambridge University Press, 1992.
- Meyer (Y.), Ondelettes et Opérateurs, Hermann, 1990.
et enfin nous recommandons la lecture du merveilleux (mais contesté) ouvrage :
- Marr (D.), Vision, A Computational Investigation into the Human Representation of Visual Information, W. H. Freeman, 1982.

 

 VIDEO     canal U       LIEN 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google