ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

L'UTILISATION DES RAYONS X POUR L'ANALYSE DE LA MATIÈRE

 

 

 

 

 

 

 

L'UTILISATION DES RAYONS X POUR L'ANALYSE DE LA MATIÈRE

Le rayonnement synchrotron est devenu en quelques années la principale source de rayons X. Il est émis par des particules chargées (électrons) qui sont accélérées par des champs magnétiques dans des machines construites au départ pour étudier la physique des particules. Ce rayonnement est très intense et sa brillance peut atteindre 1011 fois celle d'un tube à rayons X. Ceci a ouvert des possibilités complètement nouvelles dans de nombreux domaines : possibilité de faire des images sur des objets qui absorbent très peu les rayons X et de faire des hologrammes, possibilité d'étudier la structure de la matière dans des conditions extrêmes de pression et de température qui règnent au centre de la terre, résolution de structures biologiques complexes tels que le ribosome, le nucléosome ou des virus de grande taille, étape importante pour la réalisation de nouveaux médicaments. Le but de cette conférence est d'illustrer ces possibilités par des résultats récents.

Texte de la 229e conférence de l’Université de tous les savoirs donnée le 16 août 2000.
Utilisation des rayons x (rayonnement synchrotron) pour l’analyse de la matière par Yves Petroff
AVANT PROPOS
Les rayons X ont été découverts à la fin du XIXe siècle par Wilhelm Conrad Röntgen, qui obtint pour la première fois la radiographie d’une main. En quelques semaines, l’expérience fut reproduite dans des centaines de laboratoires à travers le monde. Les tubes à rayons X étaient faciles à construire et peu coûteux : on en installa des centaines, y compris dans les foires et chez les marchands de chaussures. Il fallut attendre plusieurs années avant que l’on ne se rende compte de certains effets néfastes. Pendant quelque temps, les applications des rayons X furent essentiellement médicales, qu’il s’agisse d’imagerie ou de thérapie. Quant à leur origine, durant toute cette période, elle demeura fort controversée.
En 1912, Max von Laue prédit que les rayons X devraient être diffractés par des cristaux. Grâce à ce procédé, il devenait en effet possible d’obtenir la position des atomes dans les solides, donc d’en décrire la structure. La première structure résolue fut celle du chlorure de sodium par Sir William Henry Bragg et son fils.
La fin des années 40 fut marquée par trois événements importants :
- On observa pour la première fois le rayonnement émis par des électrons relativistes (dont la vitesse est proche de celle de la lumière), accélérés au moyen de champs magnétiques dans des machines (synchrotrons) construites pour l’étude de la physique des particules élémentaires. Ce rayonnement fut appelé rayonnement synchrotron.
- À peu près à la même époque, on commença à observer les rayons X provenant de l’espace, grâce à des expériences faites à bord de fusées au-dessus de l’atmosphère terrestre. L’information arrivant du cosmos provient des ondes électromagnétiques émises, réfléchies ou diffusées par les corps célestes. Malheureusement, l’atmosphère qui règne autour de la Terre arrête la plus grande partie de ces rayonnements sauf la partie visible du spectre (0,7-0,4 μm), l’infrarouge ainsi que les ondes radio (de quelques millimètres à 15m). L’astrophysique X est donc une science récente, qui a dû attendre l’avènement des fusées et des satellites pour se développer ; en effet, la détection des rayons X ne peut se faire qu’à 100 km au-dessus de la surface de la Terre. La première mesure fut faite en 1949, par le groupe de H. Friedman, du Naval Research Laboratory de Washington, à bord d’une fusée V2 récupérée à la fin de la Seconde Guerre mondiale. L’émission détectée par Friedman se révéla très faible et cela découragea de nombreux scientifiques. R. Giaconni décida de persévérer dans cette voie et, après deux tentatives malheureuses, obtint des résultats remarquables qui ouvrirent l’ère moderne de l’astrophysique X. Dans les années qui suivirent, de nombreuses sources X intenses furent découvertes : Taurus X-1 dans la nébuleuse du Crabe, Cygnus X-1 ainsi que les premières sources extragalactiques (M87, Centaurus A, 3C273 ...). Depuis le premier satellite d’étude des rayons X (Uhuru, lancé en 1970), une nouvelle mission a lieu tous les trois ou quatre ans. La moisson au cours de ces années a été extraordinairement riche puisque le satellite Rosat a répertorié plus de cent vingt mille sources de rayonnement X ! Tous ces résultats donnèrent lieu à un foisonnement de travaux théoriques. Les sources de rayons X dans le cosmos peuvent avoir des origines variées. Il peut s’agir de sources thermiques (gaz ou matière portés à des températures élevées). On sait que tout objet chauffé émet des ondes électromagnétiques. Le Soleil, qui a une température de 5000 à 6000 K à la surface, émet dans le visible ; mais la couronne solaire (106K à 107K) est également une source intense de rayons X. Cela peut être aussi du rayonnement synchrotron, du bremsstrahlung ou des transitions atomiques des éléments.
- Page 1 -

- Enfin, on commença à déterminer, grâce aux rayonnements X, les premières structures de protéines, systèmes biologiques complexes formés de plusieurs dizaines de milliers d’atomes.
RAYONNEMENT SYNCHROTRON
On appelle rayonnement synchrotron l’émission d’ondes électromagnétiques (donc de rayons X) par des particules chargées accélérées à des vitesses voisines de celle de la lumière. Les propriétés de ce rayonnement ont été calculées pour la première fois en 1944 en Union soviétique et indépendamment aux Etats-Unis en 1945. Il a été observé pour la première fois dans le visible sur une petite machine de 70 MeV au laboratoire de la General Electric en 1947.
Lorsqu’une particule chargée (un électron, un positron ou un proton) est accélérée ou décélérée, elle émet des ondes électromagnétiques. Ce mécanisme existe dans le cosmos (nébuleuse du Crabe, ceintures de Jupiter) ou bien sur terre dans des accélérateurs circulaires (appelés souvent anneaux de stockage) construits pour l’étude de la physique des particules.
Les premiers machines avaient des circonférences de quelques mètres et des énergies de quelques millions d’électronvolts (MeV). Le collisionneur actuel du Conseil Européen pour la Recherche Nucléaire (CERN), le LEP, a 27 km de circonférence et l’énergie des électrons et des positrons y est de 50 milliards d’électronvolts (GeV).
Dans de telles machines, le rayonnement synchrotron est produit lorsque les électrons sont accélérés par des aimants dipolaires, qui permettent aux électrons d’avoir une trajectoire circulaire. L’énergie des électrons dépend du domaine spectral que l’on veut obtenir : pour travailler dans l’ultraviolet et les rayons X mous (100 eV-300 eV) une énergie d’électrons entre 800 MeV et 1,5 GeV est suffisante. Si on a besoin de rayons X durs (10-150 keV), l’énergie des électrons doit atteindre 6 GeV. Il est évident que la taille de l’anneau dépend fortement de l’énergie des électrons : une machine de 1 à 2 GeV aura 100 à 250m de circonférence, une machine de 6 à 8 GeV, 850 à 1400 m.
Découvert en 1947, le rayonnement synchrotron mit plus de vingt ans avant d’être réellement exploité en tant que source de rayons X en URSS, au Japon, aux Etats-Unis, en Italie, en France, en Allemagne et en Grande-Bretagne. Contrairement à ce que l’on pourrait penser, la communauté scientifique est très conservatrice !
Les machines de la première génération avaient été élaborées pour l’étude de la physique des particules et on y avait installé en parasite quelques expériences servant à extraire les rayons X et l’ultraviolet.
Par la suite, c’est-à-dire dans les années 80, des machines de la deuxième génération furent construites uniquement pour l’exploitation du rayonnement synchrotron. On s’aperçut alors que l’on pouvait gagner des facteurs mille ou dix mille en intensité de rayons X en installant des structures magnétiques appelées éléments d’insertion (on onduleurs), en général de 3 ou 4 m de long, et le plus souvent constitués d’aimants permanents.
La troisième génération de sources de rayonnement synchrotron est fondée essentiellement sur ces éléments d’insertion.
Le rayonnement émis dans ces machines est polychromatique et va des ondes millimétriques aux rayons X durs. Avec des éléments d’insertion, il est émis dans un cône extrêmement étroit, assez voisin de celui d’un laser. Dans une machine de 6 GeV, la divergence des rayons X est très faible (de l’ordre de 0,1 milliradian), aussi faible que celle d’un rayon laser [voir figure 1]. Le rayonnement est pulsé, puisque les électrons sont groupés en paquets de quelques centimètres, ce qui donne des « bouffées » régulières de 50 à 200 picosecondes (ps) suivant la machine.
- Page 2 -

La brillance est le facteur essentiel qui caractérise la qualité optique de la source. Elle peut être dix milliards de fois supérieure à celle d’un tube à rayons X. Depuis le début du siècle, la brillance des sources de rayons X a beaucoup évolué (cf. figure 2). Pendant une cinquantaine d’années, elle est restée constante. Le rayonnement synchrotron lui a fait gagner un facteur 1010 (10 milliards) en trente ans. C’est une phénomène assez rare ; le seul exemple équivalent est celui du laser dans le domaine visible.
- Page 3 -

Du fait de ces propriétés exceptionnelles, et de la possibilité de réaliser une cinquantaine d’expériences autour d’un anneau de stockage, le rayonnement synchrotron, d’abord considéré comme une nuisance, aujourd’hui la source la plus intense de rayons X, est devenu très vite un outil indispensable pour la chimie, la biologie, la physique du solide, la physique des surfaces, la physique atomique et moléculaire.
Il existe aujourd’hui une cinquantaine de centres dans le monde produisant du rayonnement synchrotron.
QUELQUES EXEMPLES DE NOUVELLES POSSIBILITES OFFERTES PAR LE RAYONNEMENT SYNCHROTRON
Imagerie X
Lorsque l’on examine une radiographie du corps humain, on s’aperçoit immédiatement que l’on distingue parfaitement les os mais pas les tissus mous. La raison en est que, les os mis à part, l’eau représente 65 % du corps. L’eau, constituée d’éléments légers, l’hydrogène et l’oxygène absorbe peu les rayons X. Les os en revanche, constitués essentiellement de calcium, les absorbent fortement.
Les images en rayons X sont donc obtenues par contraste d’absorption. C’est ainsi que, si on veut visualiser les tissus mous, on doit y injecter un élément plus lourd ; par exemple, si on veut regarder les artères coronaires, on injecte dans le sang de l’iode. Existe-t- il des possibilités de voir les tissus mous, c’est-à-dire en général les objets absorbant peu les rayons X ? La réponse est oui, mais avec d’autres techniques réalisées dans le visible avec le laser, et assez voisines de l’holographie. Le problème pour élargir ces techniques aux rayons X vient du fait qu’elles nécessitent un rayonnement cohérent comme celui émis par un laser : en effet, la lumière émise par un laser possède de la cohérence spatiale, c’est-à-dire qu’elle diverge très peu, et de la cohérence temporelle, c’est-à-dire qu’elle est monochromatique. Or, il n’existe pas aujourd’hui de laser dans le domaine des rayons X.
- Page 4 -

Nous avons vu que la lumière émise par un élément d’insertion avait une divergence (cohérence spatiale) de l’ordre de 10-4 radian, assez voisine de celle d’un petit laser. La monochromatisation est facile à obtenir en mettant sur le trajet du faisceau un monochromateur. On obtient ainsi artificiellement de la lumière cohérente dans le domaine des rayons X. On pourrait, certes, faire de même avec un tube à rayons X et un monochromateur, mais le nombre de photons qui en jaillirait serait très faible et peu exploitable.
Ces nouvelles possibilités ouvrent la voie vers de nombreuses applications en métallurgie et en médecine.
L’exemple que nous allons décrire a été obtenu récemment à l’ESRF (Grenoble) par P. Cloetens et al [1].
Jusqu’à très récemment, les images en rayons X étaient obtenues par contraste d’absorption. En fait, si on a la chance d’avoir des rayons X cohérents on peut produire des images par contraste de phase. Ceci est particulièrement intéressant lorsqu’il s’agit de matériaux composés d’éléments légers (hydrogène, oxygène, carbone) qui absorbent très peu les rayons X. Nous avons représenté dans la figure 3 deux images d’une mousse de polystyrène obtenues dans des conditions différentes :
a) une image obtenue à 18 KeV, en plaçant le détecteur à 10 cm de l’objet. On n’exploite pas la cohérence et on a image normale en absorption et donc on ne voit rien puisque l’absorption est très faible
b) on va obtenir des images en déplaçant le détecteur à des distances variables entre 10 cm et 100 cm de l’objet. Les interférences entres les faisceaux directes et les faisceaux réfractés par l’objet permettent de reconstruire une image à trois dimensions avec une résolution de l’ordre de 1 μm. Cette holotomographie a été obtenue à partir de 700 images et ceci peut être fait en une heure. L’exploitation de la cohérence et une véritable révolution dans le domaine de l’imagerie X.
Expériences de rayons X sous haute pression
Les rayons X permettent également de tester les modèles de l’intérieur de la terre. Grâce à leur aide, la structure des matériaux à très haute pression peut être révélée. Par très hautes pressions, nous entendons des pressions supérieures à 100 gigapascals [GPa] (approximativement un million d’atmosphères). Ces pressions sont celles qui règnent à l'intérieur de la Terre, mais aussi dans les planètes telle que Jupiter. Reproduire ces pressions en laboratoire est donc important pour la géophysique, l'astrophysique, la science des matériaux.
- Page 5 -

En effet, l’augmentation de la pression change considérablement l’interaction entre atomes, donc les propriétés chimiques et physiques. Elle permet aussi de vérifier la validité des modèles théoriques de la matière condensée.
Comment obtient-on des pressions aussi élevées ? D’une manière relativement
simple : la pression étant une force appliquée sur une surface, pour l’augmenter, soit on accroît la force, soit on diminue la surface. C’est cette seconde possibilité que l’on exploite en général : l’échantillon à étudier est placé dans un trou aménagé dans un joint métallique et comprimé entre les pointes de deux diamants. Il s’agit de petits diamants de 0,1 à 0,4 carat (1 carat = 0,2g). Pour obtenir des pressions de l’ordre de 300 GPa, le diamètre de l’échantillon ne doit pas dépasser 20 μm, ce qui veut dire que le faisceau de rayons X pour sonder l’échantillon ne devra pas dépasser 10 μm. Les cellules sont faites en diamant à cause de la dureté de ce matériau mais aussi parce qu’il est transparent aux rayons X. Si on a besoin de chauffer le matériau, on le fait en focalisant un laser infrarouge au centre de la cellule ou par un chauffage électrique.
À basse pression, l’hydrogène cristallise dans une structure hexagonale compacte donnant lieu à un solide moléculaire isolant, les molécules d’hydrogène étant orientées au hasard. La théorie prévoit depuis longtemps qu’à haute pression, entre 100 et 300 GPa, l’hydrogène devrait présenter une phase métallique atomique dans laquelle les molécules ont cessé d’exister. Cet hydrogène métallique devrait avoir des propriétés inhabituelles : il devrait en particulier être supraconducteur (c’est-à-dire avoir une résistivité nulle) à la température ambiante.
Il est donc important de voir s’il y a des changements de structure cristalline et d’étudier la variation du volume en fonction de la pression. Ces expériences sont très difficiles pour plusieurs raisons : d’une part, l’intensité diffractée dans une expérience de rayons X varie comme le carré du nombre d’électrons ; l’hydrogène n’en a qu’un, donc jusqu’à très récemment il était impossible d’observer les raies de diffraction de l’hydrogène. D’autre part, l’hydrogène diffuse dans la plupart des matériaux. Enfin, au-delà de 35 GPa, les monocristaux d’hydrogène se fragmentent, ce qui diminue l’intensité du signal de plusieurs ordres de grandeur.
Récemment, une équipe franco-américaine [2] a réussi à faire des mesures sur des pressions atteignant 120 GPa grâce à une astuce qui permet d’éviter la fragmentation. Pour cela, on fait pousser un cristal d’hydrogène au centre d’un cristal d’hélium. A haute pression, l’hydrogène et l’hélium ne sont pas miscibles et l’hélium sert de coussin hydrostatique. Cela a permis de mesurer la variation du volume en fonction de la pression : le résultat le plus notable est que l’on observe pas la phase métallique prévue par la théorie.
Actuellement, on pense que 88% de Jupiter est formé d’hydrogène métallique. une première couche de 17 500 km est composée d’hydrogène moléculaire isolant, le reste est de l’hydrogène métallique, excepté le petit noyau central. Malheureusement, le champ magnétique de Jupiter calculé à partir de ce modèle est beaucoup plus faible que celui mesuré par une sonde envoyée il y a quelques années. Le champ magnétique de Jupiter est le plus fort de toutes les planètes et il repousse le vent de particules chargées provenant du Soleil jusqu’à cent fois son rayon (contre dix pour la Terre).
La Terre, elle, s’est formée il y a environ 4,5 milliards d’années, lorsque les objets orbitant autour du Soleil en formation entrèrent en collision et s’agrégèrent. Au fur et à mesure, la gravitation força les éléments les plus lourds à migrer vers le centre de la Terre. Depuis sa surface jusqu’au cœur, elle est formée de couches concentriques de compositions et des propriétés chimiques très différentes. La lithosphère, la couche externe de la croûte terrestre, est constituée de plaques qui se déplacent les unes par rapport aux autres à raison de plusieurs centimètres par an. Les plaques océaniques sont recouvertes d’une croûte de 7 km d’épaisseur. Froides et plus denses que la couche inférieure (le manteau), elles ont tendance à
- Page 6 -

s’enfoncer dans celui-ci à des endroits appelés zones de subduction. Les plaques continentales, plus épaisses, ne sont pas sujettes à ce phénomène. Aux frontières des plaques, il existe des zones volcaniques et des tremblements de terre. Le manteau supérieur est situé entre la lithosphère et le manteau inférieur. Son épaisseur est de l’ordre de 600 km. A 660 km à l’intérieur de la Terre, la température est de l’ordre de 1 900 K et la pression de 23 GPa. Le manteau inférieur s’étend entre 660 et 2 900 km. Il est essentiellement formé d’oxydes de fer et de magnésium ainsi que de silicates. A 2 900 km la température atteint 3 000 K et la pression est de 135 Gpa (voir figure 4). Entre 2 900 et 5 100 km se trouve le cœur extérieur, composé d’un alliage liquide fer-nickel avec 10 % d’impuretés (hydrogène, soufre, carbone, oxygène, silicium ...). Cet alliage liquide est un fluide qui se déplace de 1 km/an et est sujet à des courants électriques: par un effet dynamo, il est responsable du champ magnétique terrestre. En étudiant des roches magnétiques dont on peut mesurer avec précision l’âge, on s’est aperçu que la direction du champ magnétique terrestre avait changé de nombreuses fois depuis la création de la Terre (avec une période de quelques millions d’années). L’interface cœur liquide-manteau inférieur solide joue un rôle particulièrement important à cause des discontinuités des propriétés chimiques et physiques à cet endroit. Entre 5 100 et 6 400 km se trouve le cœur constitué de fer solide. Au centre de la Terre –6 400 km) la pression atteint 360 GPa et la température avoisine 6 000 K [3].
D’où proviennent les information sur cette composition et ces paramètres ? Essentiellement d’une seule technique : l’étude des ondes sismiques. Les ondes élastiques créées par des tremblements de terre traversent la planète avec des vitesses qui varient selon la densité, la pression et le module élastique des matériaux. Les tremblements de terre produisent des ondes longitudinales (compression) et des ondes transverses (cisaillement). Ces derniers ne se propagent pas dans les solides. Des détecteurs installés tout autour de la Terre permettent de mesurer les ondes réfléchies ou diffusées et d’obtenir le modèle actuel.
A quoi peuvent servir les rayons X ? A tester ce modèle : pour cela, on reconstitue en laboratoire les conditions de pression et de température qui règnent dans les différentes
- Page 7 -

couches de la Terre sur les mêmes matériaux. Avec des rayons X, on peut étudier la structure des matériaux et les changements de phase.
Toutefois, on ne peut pas aujourd’hui reproduire en laboratoire les conditions qui règnent au centre de la Terre (6 400 K et 360 GPa). Par contre, on a pu atteindre pour la première fois récemment 304 GPa ([5] et 1 300 K sur un échantillon de fer et étudier la structure hexagonale observée dans ces conditions. Ceci correspond à des conditions assez voisines de l’interface fer liquide-fer solide et permet de tester avec précision des modèles de l’intérieur de la Terre [5].

Détermination de Structures Biologiques
Le but de la biologie moléculaire est de comprendre les processus biologiques à partir des propriétés chimiques et physiques des macromolécules. Nous allons voir que cela nécessite la connaissance de la structure atomique à trois dimensions de ces macromolécules, ce qui n’est pas surprenant puisqu’on sait qu’en changeant la structure d’un semi-conducteur ou d’un métal (en faisant varier par exemple la température ou la pression), on change aussi ses propriétés chimiques et physiques.
Pourtant, il existe une différence fondamentale entre l’inerte et le vivant : la cellule élémentaire du silicium comporte quelques atomes, celle d’un virus plusieurs millions ! Seule la diffraction des rayons X permet de déterminer des structures aussi compliquées, et encore, à condition d’employer du rayonnement synchrotron.
Comme chaque cellule contient des millions de protéines, qui interagissent d’une manière complexe, la compréhension du fonctionnement de la cellule vivante est devenue l’un des défis majeurs de la science moderne.
La détermination de la structure des macromolécules biologiques (protéines, ribosomes, virus...) est facilitée par le fait qu’elles sont formées de séquences de sous- ensembles de petite dimension (quelques atomes) que sont les acides aminés pour les protéines et les nucléotides pour l’ADN.
Les premiers clichés de diffraction X de protéines furent obtenus à Cambridge en 1934 par le physicien anglais J.D. Bernal. Il a fallu attendre plus de vingt ans avant de pouvoir les interpréter et remonter à la structure même de ces protéines. La découverte de la structure de l’ADN en 1953 par Francis Crick et James Watson par ce procédé – et toujours à Cambridge ! – est considérée comme le point de départ de la biologie moléculaire.

Les acides aminés et les protéines
Les acides aminés sont les constituants fondamentaux des protéines : seuls vingt acides aminés sont utilisés par le vivant. Ils ont tous en commun un atome central de carbone Cα auquel est attaché un atome d’hydrogène H, un groupe aminé NH2 (N = azote), un groupe COOH, appelé groupe carboxyle, et enfin une chaîne latérale considérée comme un radical, et appelée R, différente pour chaque acide aminé et spécifiée par le code génétique.
Les acides aminés forment des chaînes grâce à des liaisons peptidiques, dont la formation requiert l’élimination de molécules d’eau : un peptide comporte quelques acides aminés, un polypeptide peut atteindre cent cinquante acides aminés.
Les chaînes sont appelées « structures primaires de protéines ». Au-delà de la structure primaire, les chaînes forment, grâce aux liaisons hydrogène entre certains acides aminés, soit des hélices α soit des feuillets β. La structure d’hélice α fut décrite en 1951 par Linus Pauling qui montra qu’elle devait être un élément de base des protéines. Cela fut vérifié quelques années plus tard par Max Ferdinand Perutz, qui découvrit la structure de l’hémoglobine, et
- Page 8 -

John Cowdery Kendrew en 1958 celle de la myoglobine, ce qui leur valut en 1962 le prix Nobel.
Mais ce n’est pas tout ! La protéine va encore changer de forme. Sous l’effet de paramètres divers dont certains demeurent encore inconnus, les feuillets β et les hélices α peuvent se replier pour former des amas globulaires : c’est la structure ternaire. L’eau joue un rôle très important dans ce repliement : en effet, les chaînes latérales hydrophobes sont tournées vers l’intérieur, créant un cœur hydrophobe et une surface hydrophile. C’est une des caractéristiques des protéines mises en évidence par Kendrew au cours de la détermination de la structure de la myoglobine. Finalement, l’association de plusieurs chaînes polypeptiques par des liaisons faibles about it à la structure quaternaire : celle-ci se compose donc d’un assemblage de structures ternaires [6].
Certaines protéines ne contiennent que des hélices α : c’est le cas par exemple des globines. D’autres sont constituées uniquement de feuillets : les enzymes (qui sont des protéines servant comme catalyseurs), les anticorps ou bien les protéines qui entourent les virus. Toutefois, de nombreuses protéines comprennent aussi bien des hélices que des feuillets.
La myoglobine et l’hémoglobine ont une importance capitale pour l’organisme : elles permettent respectivement le stockage et le transport de l’oxygène dans les muscles et le sang. Les structures des globines furent les premières structures de protéines découvertes grâce aux rayons X.
Les nucléotides et les acides nucléiques
Deux acides nucléiques jouent un rôle fondamental : l’ADN et l’ARN. L’acide désoxyribonucléique (ADN) est le constituant principal des chromosomes et le support de l’hérédité, l’acide ribonucléique (ARN) possède de nombreuses variantes et se définit comme le messager entre les gènes et les sites de synthèse des protéines.
Les acides nucléiques sont formés à partir de quelques nucléotides. Ces derniers sont constitués d’un sucre, d’une base et d’un groupe phosphate. Le sucre est soit un ribose (dans le cas de l’ARN), soit un désoxyribose (pour l’ADN).
Comme nous l’avons vu dans le cas des protéines, il existe aussi des structures primaires, secondaires et ternaires pour les nucléotides.
La structure primaire est une chaîne de nucléotides (polynucléotide). La structure secondaire est la fameuse double hélice de Watson et Crick : elle est formée de deux chaînes polynucléotiques qui s’enroulent autour d’un axe commun. Elles sont unies par des liaisons hydrogène qui existent entre les paires de bases. L’adénine (A) ne se couple qu’avec la thymine (T) par deux liaisons hydrogène ; la guanine (G) se liant avec la cytosine (C) par trois liaisons hydrogène.
C’est la séquence précise des bases dans l’ADN qui détermine l’information génétique : les différents tronçons de cette double hélice forment les gènes.
L’ADN se comporte comme un programme d’informatique qui indique à la cellule ce qu’elle doit faire.

Détermination de la structure des macromolécules
Pourquoi a-t-on besoin de connaître la structure des macromolécules ? Tout simplement parce que l’on sait aujourd’hui qu’il existe une relation entre la fonction biologique d’une macromolécule et la forme qu’elle prend dans un espace à trois dimensions : la connaissance de la structure d’un virus permet la mise au point de médicaments antiviraux : celle de la structure du ribosome est utile à la création de nouveaux antibiotiques, qui
- Page 9 -
servirons à attaquer l’appareil génétique de la bactérie ; enfin, la connaissance de la structure du nucléosome permettra un meilleur contrôle des gènes et une plus grande efficacité du génie génétique.
Pour que cette observation soit possible, deux méthodes sont disponibles. La première est la résonance magnétique nucléaire (RMN) dans le détail de laquelle nous ne pouvons entrer ici. L’avantage de la RMN vient du fait qu’elle donne des résultats en phase liquide (in vivo) : elle ne nécessite pas l’obtention de cristaux. Mais elle ne peut résoudre que des structures ayant un poids moléculaire peu élevé (30 000 daltons1).

La diffraction des rayons X est la seconde méthode, et de loin la plus utilisée. les résolutioins obtenues varient entre 1,5 et 3 Å. Elle présente l’inconvénient de nécessiter des monocristaux. La première question que l’on peut se poser et qui a fait l’objet de nombreuses controverses au début de la cristallographie des protéines est de savoir si les macromolécules conservent leurs fonctions biologiques dans la phase cristalline. La réponse est clairement positive et cela a été démonté en particulier pour les enzymes.
Une des difficultés provient du fait qu’il est très difficile de faire « pousser » des monocristaux de grandes dimensions: de plus, durant les mesures, ils doivent rester en contact avec la solution qui a servi à les faire pousser.
Au début de la cristallographie de molécules biologiques, il fallait plusieurs années pour découvrir la structure d’une protéine. Aujourd’hui, quelques heures ou quelques jours suffisent pour les cas les plus simples.
De nombreuses structures de protéines sont d’abord étudiées avec des tubes à rayons X pour « dégrossir ». Mais pour obtenir des structures à très haute résolution, pour déterminer la structure des ensembles de grandes dimensions tels que le ribosome et les virus, on doit impérativement utiliser le rayonnement synchrotron. En 1996, 70% des structures découvertes l’ont été par rayonnement synchrotron.

La cristallographie des molécules biologiques
Nous avons vu comment se forment les protéines et les virus. Nous allons aborder maintenant plusieurs exemples d’expériences qui ne pouvaient être réalisées il y a quelques années : la première consiste à étudier les modifications de la structure d’une protéine à l’échelle de quelques milliardièmes de seconde pendant une réaction biologique, la seconde est la découverte de la structure d’un virus dont la cellule unitaire contient plusieurs millions d’atomes et les deux dernières concernent des ensembles de grandes dimensions, le nucléosome et le ribosome.
Pourquoi est-il important de réaliser des expériences résolues en un milliardième de seconde ? Parce que les molécules biologiques subissent des changements structuraux extrêmement rapides pendant qu’elles assument leur fonction biologique.
On sait que la myoglobine, une protéine que l’on trouve dans les muscles, emmagasine l’oxygène pour le convertir en énergie. Comme nous l’avons vu plus haut, l’oxygène se fixe sur le fer. Lorsque Kendrew résolut la structure de la myoglobine en 1960, il se posa immédiatement la question de savoir comment la molécule d’oxygène pouvait entrer ou sortir de la myoglobine, étant donné la compacité de sa structure. sa conclusion fut que ladite structure ne pouvait être statique ; dynamique, elle « respire » grâce à des canaux qui s’ouvrent et se ferment pour permettre l’accès à l’hème. Quels sont ces canaux ? Quelle est la vitesse à laquelle la protéine répond à la dissociation de l’oxygène du fer ? On a aujourd’hui un début de réponse.
1 dalton : unité de masse égale au seizième de la masse de l’atome d’oxygène
- Page 10 -
L’expérience a été faite avec un cristal de myoglobine [7] avec du monoxyde de carbone (CO) qui se fixe plus facilement que l’oxygène. A l’instant t=0, on envoie sur le cristal une impulsion très courte d’un laser visible dont la longueur d’onde a été choisie pour casser la liaison entre le monoxyde de carbone et le fer. A un instant t=0, la molécule de CO est liée à l’atome de fer : quatre milliardièmes de seconde plus tard, la molécule de CO s’est éloignée de 4 Å et s’est retournée de 90 degrés [voir figure 5]. Elle reste dans cette configuration pendant 350 ns. Après une microseconde, la molécule de CO a quitté l’hème. On peut observer simultanément le changement de position des hélices et de certains acides aminés.

- Page 11 -
On a donc pu réaliser pour la première fois un film des changements de structure d’une protéine pendant sa fonction biologique. toutefois, pour arriver à observer les mécanismes fondamentaux, il faudrait gagner encore plusieurs ordres de grandeur en résolution temporelle, ce qui n’est pas impossible.
Structure de très gros virus
Chaque virus a sa forme propre, mais tous les virus ont des points communs. Le cœur contient un acide nucléique (ADN ou ARN). Il est entouré et protégé par une enveloppe composée d’une ou plusieurs protéines (capside), généralement identiques. Chez quelques virus, comme celui de la grippe, cet ensemble est lui-même entouré par une enveloppe riche en protéines, lipides et carbohydrates.

En 1998, une équipe d’Oxford [8] a réussi à déterminer à Grenoble la structure du virus de la langue bleue, qui atteint les ovins et n’est pas transmissible à l’homme. Ce virus est composé d’une enveloppe extérieure formée de 260 trimères. Le noyau central a un diamètre de 800 Å (voir figure 6) et un poids moléculaire de 60.106 daltons ! Il comprend 780 protéines d’une sorte et 120 d’une autre. L’information génétique se trouve en son intérieur sous la forme de dix molécules d’ARN comprenant 19 200 paires de bases. C’est la plus grosse structure de virus jamais découverte, mais ce record ne devrait pas tenir très longtemps. L’information structurelle obtenue devrait permettre la mise au point d’un médicament.
Les nucléoprotéines
Il s’agit d’ensemble de très grandes dimensions (plusieurs centaines d’angströms) formés de protéines et d’acides nucléiques et jouent un rôle fondamental dans le corps humain.

- Page 12 -
- le nucléosome : la structure élémentaire de la chromatine, consistant en deux cent paires de bases d’ADN et de deux copies de quatre histoires différentes. La structure a été résolue en 1997 par l’équipe de Richmond (Zürich) [9].
- le ribosome : c’est le composant essentiel du mécanisme de traduction du code génétique c’est-à-dire de la synthèse des protéines autrement dit la « fabrique » de protéines du corps humain.
Trois équipes américaines [10] ont réussi en 1999 à obtenir une structure avec 5 Å de résolution (à NSLS – Brookhaven et ALS – Berkeley). Des études récentes faites à l’ESRF sont proches de 2,5-3 Å.
CONCLUSION
J’ai choisi d’une manière arbitraire deux ou trois exemples pour illustrer les nouvelles possibilités du rayonnement synchrotron. J’aurais pu aussi bien montrer le développement considérable de l’étude du magnétisme, en grande partie dû à la découverte de la magnétorésistance géante [11], des études de surface en particulier en catalyse ou des structures électroniques des supra conducteurs à haute température.

Le rayonnement synchrotron est devenu aujourd’hui un outil indispensable pour l’étude de matériaux [12]. Toutefois il ne faut pas oublier que l’on résout rarement un problème de physique avec une seule technique. C’est donc un outil qu’il faut compter avec d’autres techniques : lorsqu’on étudie une surface la diffraction de surface en rayons X et la microscopie tunel amènent des informations complémentaires.
Références
P. Cloetens et al. Applied Phys. Lett. 75, 2912 (1999)
P. Loubeyre et al. Nature. 383, 702 (1996)
P. Gillet et F. Guyot. Phys. World 9, 27 (1996)
L.S. Dubrovinsky et al. Phys. Rev. Lett. 84, 1720 (2000)
A.M. Dziewonski et D.L. Anderson. Phys. Earth Planet. Inter. 25, 297 (1981)
C.I. Brändén et J. Toozl. Introduction to Protein Structure. Garland Publ. Inc. New
York – London (1991)
V. Srajer et al. Science 274, 1726 (1996)
J.M. Grimes et al. Nature, 395, 470 (1998)
K. Luger et al. Nature 389, 251 (1997)
W.M. Clemons et al. Nature 400, 833 (1999)
N. Ban et al. Nature 400, 841 (1999)
R. Cate et al. Science 285, 2095 (1999)
M.N. Baibich et al. Phys. Rev. Lett. 61, 2472 (1988)
Y. Petroff. Les rayons X (de l’Astrophysique à la Nanophysique). Collection
Dominos. Flammarion (1998).

Légendes
Figure 1 : Faisceau de rayons X émis par un élément d’insertion de l’ESRF (Grenoble). Ce faisceau est rendu visible par le fait que la forte intensité (3 Kw) ionise les molécules de l’air. On peut remarquer la faible divergence.
Figure 2 : Brillance des sources de rayons X, comparée à celle d’une lampe et du Soleil (de 1895 à 2000). La brillance est ce qui caractérise la qualité optique de la source.
- Page 13 -
Depuis le début du siècle elle a considérablement progressé, notamment grâce au rayonnement synchrotron.
Figure 3 : Image d’une mousse de polystyrène obtenue à 18 KeV
a) en absorption classique : la mousse n’est pas visible puisqu’elle n’absorbe pas les rayons X
b) l’image reconstituée en exploitant la cohérence de la lumière. La résolution (1 μm) est limitée par le détecteur.

La différence est saisissante [Ref. 1]
Figure 4 :Coupe de la terre présentant les différentes couches (lithosphère, manteau externe, manteau interne, noyau externe, noyau interne). Les pressions et les températures sont aussi indiquées. Le noyau interne comprend surtout du fer solide alors que le noyau externe est liquide. Les manteaux sont formés essentiellement de silicates [Ref. 3]

Figure 5 : Modification de la structure de la myoglobine pendant une réaction biologique. A l’instant t=0 (à gauche) on casse avec un laser visible la liaison entre le fer et l’oxyde de carbone. L’atome d’oxygène est en vert, celui de carbone en gris, l’hème est rouge.
Quatre nsec (milliardième de seconde) plus tard (au milieu) la molécule de CO s’est déplacée de 4 Å et s’est retournée de 90°. A droite, après un millionième de seconde, la molécule de CO est sortie de l’hème ([Ref. 7]

Figure 6 : Noyau du virus de la langue bleue : le diamètre est de l’ordre de 800 Å [Ref. 8]. C’est encore aujourd’hui la plus grosse structure de virus résolue par rayons X.

 

        VIDEO     canal U       LIEN
 

 
 
 
 

intelligence artificielle

 



 

 

 

 

 

        INTELLIGENCE ARTIFICIELLE
               Intelligence artificielle et sciences

intelligence artificielle

Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine.
Avec l'intelligence artificielle, l'homme côtoie un de ses rêves prométhéens les plus ambitieux : fabriquer des machines dotées d'un « esprit » semblable au sien. Pour John MacCarthy, l'un des créateurs de ce concept, « toute activité intellectuelle peut être décrite avec suffisamment de précision pour être simulée par une machine ». Tel est le pari – au demeurant très controversé au sein même de la discipline – de ces chercheurs à la croisée de l'informatique, de l'électronique et des sciences cognitives.
Malgré les débats fondamentaux qu'elle suscite, l'intelligence artificielle a produit nombre de réalisations spectaculaires, par exemple dans les domaines de la reconnaissance des formes ou de la voix, de l'aide à la décision ou de la robotique.

Intelligence artificielle et sciences cognitives
Au milieu des années 1950, avec le développement de l'informatique naquit l'ambition de créer des « machines à penser », semblables dans leur fonctionnement à l'esprit humain. L'intelligence artificielle (IA) vise donc à reproduire au mieux, à l'aide de machines, des activités mentales, qu'elles soient de l'ordre de la compréhension, de la perception, ou de la décision. Par là même, l'IA est distincte de l'informatique, qui traite, trie et stocke les données et leurs algorithmes. Le terme « intelligence » recouvre ici une signification adaptative, comme en psychologie animale. Il s'agira souvent de modéliser la résolution d'un problème, qui peut être inédit, par un organisme. Si les concepteurs de systèmes experts veulent identifier les savoirs nécessaires à la résolution de problèmes complexes par des professionnels, les chercheurs, travaillant sur les réseaux neuronaux et les robots, essaieront de s'inspirer du système nerveux et du psychisme animal.

Les sciences cognitives
Dans une optique restrictive, on peut compter parmi elles :
– l'épistémologie moderne, qui s'attache à l'étude critique des fondements et méthodes de la connaissance scientifique, et ce dans une perspective philosophique et historique ;
– la psychologie cognitive, dont l'objet est le traitement et la production de connaissances par le cerveau, ainsi que la psychologie du développement, quand elle étudie la genèse des structures logiques chez l'enfant ;
– la logique, qui traite de la formalisation des raisonnements ;
– diverses branches de la biologie (la biologie théorique, la neurobiologie, l'éthologie, entre autres) ;
– les sciences de la communication, qui englobent l'étude du langage, la théorie mathématique de la communication, qui permet de quantifier les échanges d'informations, et la sociologie des organisations, qui étudie la diffusion sociale des informations.

Le projet et son développement
L'IA trouve ses racines historiques lointaines dans la construction d'automates, la réflexion sur la logique et sa conséquence, l'élaboration de machines à calculer.

Les précurseurs
Dès l'Antiquité, certains automates atteignirent un haut niveau de raffinement. Ainsi, au ier s. après J.-C., Héron d'Alexandrie inventa un distributeur de vin, au fonctionnement cybernétique avant la lettre, c'est-à-dire doté de capacités de régulation, et fondé sur le principe des vases communicants. Rapidement, les savants semblèrent obsédés par la conception de mécanismes à apparence animale ou humaine. Après les essais souvent fructueux d'Albert le Grand et de Léonard de Vinci, ce fut surtout Vaucanson qui frappa les esprits, en 1738, avec son Canard mécanique, dont les fonctions motrices et d'excrétion étaient simulées au moyen de fins engrenages. Quant à la calculatrice, elle fut imaginée puis réalisée par Wilhelm Schickard (Allemagne) et Blaise Pascal (France). Vers la même époque, l'Anglais Thomas Hobbes avançait dans son Léviathan l'idée que « toute ratiocination est calcul », idée qui appuyait le projet de langage logique universel cher à René Descartes et à Gottfried W. Leibniz. Cette idée fut concrétisée deux siècles plus tard par George Boole, lorsqu'il créa en 1853 une écriture algébrique de la logique. On pouvait alors espérer passer de la conception de l'animal-machine à la technologie de la machine-homme.

Naissance et essor de l'informatique
À partir de 1835, le mathématicien britannique Charles Babbage dressa avec l'aide de lady Ada Lovelace les plans de la « machine analytique », ancêtre de tous les ordinateurs, mais sans parvenir à la réaliser. Seul l'avènement de l'électronique, qui engendra d'abord les calculateurs électroniques du type ENIAC (electronic numerical integrator and computer) dans les années 1940, permit aux premières machines informatiques de voir enfin le jour, autour de 1950, avec les machines de Johann von Neumann, un mathématicien américain d'origine hongroise. Les techniques de l'informatique connurent des progrès foudroyants – ainsi, à partir de 1985, un chercheur américain conçut des connection machines, ensembles de micro-ordinateurs reliés entre eux qui effectuaient 1 000 milliards d'opérations par seconde –, et continuent aujourd'hui encore à enrichir l'IA.
La création, à partir des années 1990, des « réalités virtuelles », systèmes qui par l'intermédiaire d'un casque et de gants spéciaux donnent à l'utilisateur l'impression de toucher et de manipuler les formes dessinées sur l'écran, ainsi que les travaux sur les « hypertextes », logiciels imitant les procédés d'associations d'idées, vont également dans ce sens.

Le fondateur
Un des théoriciens précurseurs de l'informatique, le mathématicien britannique Alan M. Turing, lança le concept d'IA en 1950, lorsqu'il décrivit le « jeu de l'imitation » dans un article resté célèbre. La question qu'il posait est la suivante : un homme relié par téléimprimante à ce qu'il ignore être une machine disposée dans une pièce voisine peut-il être berné et manipulé par la machine avec une efficacité comparable à celle d'un être humain ? Pour Turing, l'IA consistait donc en un simulacre de psychologie humaine aussi abouti que possible.

Mise en forme de l'IA
La relève de Turing fut prise par Allen Newell, John C. Shaw et Herbert A. Simon, qui créèrent en 1955-1956 le premier programme d'IA, le Logic Theorist, qui reposait sur un paradigme de résolution de problèmes avec l'ambition – très prématurée – de démontrer des théorèmes de logique. En 1958, au MIT (Massachusetts Institute of Technology), John MacCarthy inventa le Lisp (pour list processing), un langage de programmation interactif : sa souplesse en fait le langage par excellence de l'IA (il fut complété en 1972 par Prolog, langage de programmation symbolique qui dispense de la programmation pas à pas de l'ordinateur).
L'élaboration du GPS (general problem solver) en 1959 marque la fin de la première période de l'IA. Le programme GPS est encore plus ambitieux que le Logic Theorist, dont il dérive. Il est fondé sur des stratégies logiques de type « analyse des fins et des moyens » : on y définit tout problème par un état initial et un ou plusieurs états finaux visés, avec des opérateurs assurant le passage de l'un à l'autre. Ce sera un échec, car, entre autres, le GPS n'envisage pas la question de la façon dont un être humain pose un problème donné. Dès lors, les détracteurs se feront plus virulents, obligeant les tenants de l'IA à une rigueur accrue.

Les critiques du projet
Entre une ligne « radicale », qui considère le système cognitif comme un ordinateur, et le point de vue qui exclut l'IA du champ de la psychologie, une position médiane est certainement possible. Elle est suggérée par trois grandes catégories de critiques.

Objection logique
Elle repose sur le célèbre théorème que Kurt Gödel a énoncé en 1931. Celui-ci fait ressortir le caractère d'incomplétude de tout système formel (tout système formel comporte des éléments dotés de sens et de définitions très précis, mais dont on ne peut démontrer la vérité ou la fausseté : ils sont incomplets). Il serait alors vain de décrire l'esprit en le ramenant à de tels systèmes. Cependant, pour certains, rien n'indique que le système cognitif ne soit pas à considérer comme formel, car si l'on considère à la suite du philosophe autrichien Ludwig Wittgenstein qu'un être vivant est un système logique au même titre qu'une machine, on peut concevoir que l'esprit est « formel », qu'il connaît des limites, comme toute machine.

Objection épistémologique
Un certain nombre de biologistes et d'informaticiens jugent l'IA classique prématurément ambitieuse. Pour eux, il faut d'abord parvenir à modéliser le fonctionnement de niveaux d'intégration du vivant plus simples (comportement d'animaux « simples », collecte d'informations par le système immunitaire ou encore communications intercellulaires) avant de s'attaquer à l'esprit humain.

Objection philosophique
Pour John R. Searle, le système cognitif de l'homme est fondamentalement donneur de sens. Or la machine ne possède pas d'intentionnalité ; elle n'a pas de conscience. Un ordinateur peut manipuler des symboles mais ne peut les comprendre. Ainsi, l'IA travaillerait sur la syntaxe des processus de raisonnement (les règles combinatoires), pas sur leur sémantique (l'interprétation et la signification).
Hilary Putnam juge fallacieuse la description de la pensée faite par l'IA en termes de symboles et de représentations. Pour lui, une telle approche suppose une signification préétablie, alors que tout serait dans l'interprétation que fait l'esprit de la « réalité » extérieure. L'histoire des idées montre ainsi que la notion de « matière » n'a pas le même sens pour les philosophes de l'Antiquité grecque et pour les physiciens modernes. De même, de nombreux biologistes considèrent que les systèmes nerveux des différentes espèces animales font émerger de leur environnement des univers distincts. L'IA ignorerait donc ce phénomène de « construction active » de réalités multiples par le système cognitif.
Enfin, dans Ce que les ordinateurs ne peuvent pas faire (1972), Hubert L. Dreyfus souligne que la compréhension stricto sensu implique tout un sens commun. Faute de cerner de façon adéquate cette question, les programmes d'IA relèveraient de la contrefaçon – en revanche, le même auteur est assez séduit par les recherches sur les réseaux neuronaux.

La résolution de problèmes
Pour l'épistémologue Karl Popper, tout animal, en tant qu'être adapté à son milieu, est un problem solver. Si la résolution de problèmes n'est sans doute pas la seule marque fonctionnelle saillante de l'esprit humain, elle reste incontournable pour le modélisateur. Deux approches sont possibles dans la résolution d'un problème : celle de l'algorithme et celle de l'heuristique.

Algorithmes et heuristique
Les algorithmes sont des procédures mathématiques de résolution. Il s'agit d'une méthode systématique, qui donne par conséquent des résultats fiables. Mais une lourdeur déterministe marque ses limites. En l'employant pour certains problèmes, on peut en effet se trouver confronté au phénomène d'« explosion combinatoire ». Ce dernier cas est illustré par la fable indienne du « Sage et de l'Échiquier ». À un Sage, qui l'avait conseillé de manière avisée, le Roi proposa de choisir une récompense. Le vieil homme demanda simplement que l'on apporte un échiquier et que l'on dépose sur la première case un grain de blé, sur la seconde deux grains, et ainsi de suite, en mettant sur chaque nouvelle case une quantité de blé double de celle déposée sur la case précédente. Avec un rapide calcul, on imagine que le Roi regretta bien vite d'avoir accordé un don qui se révélait très coûteux, si ce n'est impossible, à honorer.
À l'opposé, l'heuristique est une méthode stratégique indirecte, qu'on utilise dans la vie courante. Elle résulte du choix, parmi les approches de la résolution, de celles qui paraissent les plus efficaces. Si son résultat n'est pas garanti, car elle n'explore pas toutes les possibilités, mais seulement les plus favorables, elle n'en fait pas moins gagner un temps considérable : lors de la résolution de problèmes complexes, l'usage de l'algorithme est impossible.

Le cas exemplaire du jeu d'échecs
De tous les jeux, ce sont les échecs qui ont suscité les plus gros efforts de modélisation en IA. Dès 1957, l'informaticien Bernstein, sur la base des réflexions de Claude Shannon, l'un des pères de la Théorie de l'information, mit au point un programme pour jouer deux parties. Le programme GPS, en lequel Simon voyait la préfiguration d'un futur champion du monde électronique, annoncé à grand fracas pour l'année 1959, fut battu par un adolescent en 1960. À partir de cette époque fut développée toute la série des Chess Programs, jugés plus prometteurs. Pourtant ceux-ci reflètaient de manière plus que déficiente les heuristiques globalisantes des bons joueurs : en effet, dans ces jeux automatiques, les coups réguliers sont programmés sous forme d'algorithmes. Contrairement à la célèbre formule d'un champion des années 1930 : « Je n'étudie qu'un coup : le bon », l'ordinateur n'envisage pas son jeu à long terme ; il épuise successivement tous les états possibles d'un arbre mathématique. Son atout majeur est la « force brutale » que lui confèrent sa puissance et sa vitesse de calcul. Ainsi Belle, ordinateur admis en 1975 dans les rangs de la Fédération internationale d'échecs, pouvait déjà calculer 100 000 coups par seconde. Néanmoins, les programmes électroniques d'alors étaient encore systématiquement surpassés par les maîtres.

Deep Thought, un supercalculateur d'IBM, fut encore battu à plate couture en octobre 1989 par le champion du monde Garri Kasparov (la machine n'avait encore à cette époque qu'une capacité de jeu de 2 millions de coups par seconde). Ce projet Deep Thought avait mis en œuvre un budget de plusieurs millions de dollars et des ordinateurs hyperperformants, et bénéficié des conseils du grand maître américano-soviétique Maxim Dlugy. Les machines employées étaient encore algorithmiques, mais faisaient moins d'erreurs et effectuaient des calculs plus fins. L'équipe de Deep Thought chercha à dépasser le seuil du milliard de coups par seconde, car leur ordinateur ne calculait qu'environ cinq coups à l'avance, bien moins que leur concurrent humain : les connaisseurs estimèrent qu'il fallait porter ce chiffre à plus de sept coups. En fait, il apparut qu'il fallait concevoir des machines stratèges capables, en outre, d'apprentissage. Feng Hsiung Hsu et Murray Campbell, des laboratoires de recherche d'IBM, associés, pour la réalisation de la partie logicielle, au Grand-maître d'échecs Joël Benjamin, reprirent le programme Deep Thought – rebaptisé Deep Blue, puis Deeper Blue – en concevant un système de 256 processeurs fonctionnant en parallèle ; chaque processeur pouvant calculer environ trois millions de coups par seconde, les ingénieurs de Deeper Blue estiment qu'il calculait environ 200 millions de coups par seconde. Finalement, le 11 mai 1997, Deeper Blue l'emporta sur Garri Kasparov par 3 points et demi contre 2 points et demi, dans un match en six parties. Même si beaucoup d'analystes sont d'avis que Kasparov (dont le classement ELO de 2820 est pourtant un record, et qui a prouvé que son titre de champion du monde est incontestable en le défendant victorieusement par six fois) avait particulièrement mal joué, la victoire de Deeper Blue a enthousiasmé les informaticiens. Un des coups les plus étonnants fut celui où, dans la sixième partie, la machine choisit, pour obtenir un avantage stratégique, de faire le sacrifice spéculatif d'un cavalier (une pièce importante), un coup jusque-là normalement « réservé aux humains ». En 2002, le champion du monde Vladimir Kramnik ne parvenait qu'à faire match nul contre le logiciel Deep Fritz, au terme de huit parties, deux victoires pour l'humain et la machine et quatre matchs nuls. Une nouvelle fois, la revanche des neurones sur les puces n'avait pas eu lieu.
En 2016, le programme Alphago de Google Deepmind bat l'un des meilleurs joueurs mondiaux du jeu de go, Lee Sedol (ce jeu d'origine chinoise

Les réseaux neuronaux
Dans un article paru en 1943, Warren McCulloch, un biologiste, et Walter Pitts, un logicien, proposaient de simuler le fonctionnement du système nerveux avec un réseau de neurones formels. Ces « neurones logiciens » sont en fait des automates électroniques à seuil de fonctionnement 0/1, interconnectés entre eux. Ce projet, s'il n'eut pas d'aboutissement immédiat, devait inspirer plus tard Johann von Neumann lorsqu'il créa l'architecture classique d'ordinateur.

Une première tentative infructeuse
Il fallut attendre 1958 pour que les progrès de l'électronique permettent la construction du premier réseau neuronal, le Perceptron, de Frank Rosenblatt, machine dite connectionniste. Cette machine neuromimétique, dont le fonctionnement (de type analogique) cherche à approcher celui du cerveau humain, est fort simple. Ses « neurones », reliés en partie de manière aléatoire, sont répartis en trois couches : une couche « spécialisée » dans la réception du stimulus, ou couche périphérique, une couche intermédiaire transmettant l'excitation et une dernière couche formant la réponse. Dans l'esprit de son inventeur, le Perceptron devait être capable à brève échéance de prendre en note n'importe quelle conversation et de la restituer sur imprimante. Quantité d'équipes travailleront au début des années 1960 sur des machines similaires, cherchant à les employer à la reconnaissance des formes : ce sera un échec total, qui entraînera l'abandon des travaux sur les réseaux. Ceux-ci semblent alors dépourvus d'avenir, malgré la conviction contraire de chercheurs comme Shannon.

Les réseaux actuels
En fait, l'avènement des microprocesseurs, les puces électroniques, permettra la réapparition sous forme renouvelée des réseaux à la fin des années 1970, générant un nouveau champ de l'IA en pleine expansion, le néoconnectionnisme. Les nouveaux réseaux, faits de processeurs simples, ne possèdent plus de parties à fonctions spécialisées. On leur applique un outillage mathématique issu pour l'essentiel de la thermodynamique moderne et de la physique du chaos.
Le cerveau humain est caractérisé par un parallélisme massif, autrement dit la possibilité de traiter simultanément quantité de signaux. Dans les réseaux aussi, de nombreux composants électroniques, les neuromimes, travaillent de manière simultanée, et la liaison d'un neuromime avec d'autres est exprimée par un coefficient numérique, appelé poids synaptique. On est cependant bien loin du système nerveux central de l'homme, qui comprend environ 10 milliards de cellules nerveuses et 1 million de milliards de synapses (ou connexions). Contrairement à ce qui se passe dans le cerveau, lors de l'envoi d'un signal les neuromimes activent toujours leurs voisins et n'ont pas la possibilité d'inhiber le fonctionnement de ceux-ci. Néanmoins, ces machines sont dotées de la capacité d'auto-organisation, tout comme les êtres vivants : elles ne nécessitent pas de programmation a posteriori. La mémoire peut survivre à une destruction partielle du réseau ; leurs capacités d'apprentissage et de mémorisation sont donc importantes. Si un micro-ordinateur traite l'information 100 000 fois plus vite qu'un réseau, ce dernier peut en revanche effectuer simultanément plusieurs opérations.

Quelques applications
La reconnaissance des formes (pattern recognition) est, avec celle du langage naturel, l'un des domaines où les réseaux excellent. Pour reconnaître des formes, un robot classique les « calculera » à partir d'algorithmes. Tous les points de l'image seront numérisés, puis une mesure des écarts relatifs entre les points sera faite par analyse de réflectance (rapport entre lumière incidente et lumière reflétée). Mieux encore, on mesurera l'écart absolu de chaque point par rapport à la caméra qui a fixé l'image.
Ces méthodes, qui datent de la fin des années 1960, sont très lourdes et s'avèrent inopérantes lorsque l'objet capté par la caméra se déplace. Le réseau, s'il n'est guère efficace pour un calcul, reconnaîtra une forme en moyenne 10 000 fois plus vite que son concurrent conventionnel. En outre, grâce aux variations d'excitation de ses « neurones », il pourra toujours identifier un visage humain, quels que soient ses changements d'aspect. Cela rappelle les caractéristiques de la mémoire associative humaine, qui coordonne de façon complexe des caractéristiques ou informations élémentaires en une structure globale mémorisée. Une autre ressemblance avec le système cognitif de l'homme est à relever : sur cent formes apprises à la suite, l'ordinateur neuronal en retiendra sept. Or, c'est là approximativement la « taille » de la mémoire à court terme, qui est de six items.
Les rétines artificielles, apparues en 1990, rendront progressivement obsolète la caméra en tant que principal capteur employé en robotique. Tout comme les cônes et les bâtonnets de l'il, ces « rétines » à l'architecture analogique transforment les ondes lumineuses en autant de signaux électriques, mais elles ignorent encore la couleur. Certaines d'entre elles ont la capacité de détecter des objets en mouvement. De telles membranes bioélectroniques seront miniaturisables à assez brève échéance.

Enfin, les réseaux de neurones formels sont aussi de formidables détecteurs à distance d'ultrasons ou de variations thermiques.
À l'aide d'un ordinateur classique, il est possible de simuler une lecture de texte avec un logiciel de reconnaissance de caractères, un lecteur optique et un système de synthèse vocale qui dira le texte. Mais certains ordinateurs neuronaux sont aussi capables de dispenser un véritable enseignement de la lecture. De même, couplé à un logiciel possédant en mémoire une vingtaine de voix échantillonnées dans une langue, un réseau forme un système efficace d'enseignement assisté par ordinateur, qui est capable de corriger l'accent de ses élèves !

Intelligence artificielle et éducation
À travers le langage logo, conçu par Seymour Papert (Max Planck Institute), l'IA a doté la pédagogie des jeunes enfants d'un apport majeur. En permettant une programmation simple, logo incite l'enfant à mieux structurer ses rapports aux notions d'espace et de temps, à travers des jeux. L'idée clé de logo repose sur le constat fait par Jean Piaget : l'enfant assimile mieux les connaissances quand il doit les enseigner à autrui, en l'occurrence à l'ordinateur, en le programmant.
Bien que cet outil informatique contribue à combler les retards socioculturels de certains jeunes, il est douteux, contrairement au souhait de ses promoteurs, qu'il puisse aider des sujets à acquérir des concepts considérés comme l'apanage de leurs aînés de plusieurs années. Les travaux de Piaget montrent en effet que les structures mentales se constituent selon une chronologie et une séquence relativement définies. Quelle que soit l'excellence d'une méthode, on ne peut pas enseigner n'importe quoi à n'importe quel âge.

Perspectives
La prise en compte de la difficulté à modéliser parfaitement l'activité intellectuelle a conduit certains praticiens de l'IA à rechercher des solutions beaucoup plus modestes mais totalement abouties, en particulier dans certaines applications de la robotique.

L'IA sans représentation de connaissance
Vers 1970, les conceptions théoriques de Marvin Minsky et Seymour Papert sur la « Société de l'esprit », parmi d'autres, ont fondé une nouvelle IA, l'IA distribuée, dite encore IA multiagents. Les tenants de cette approche veulent parvenir à faire travailler ensemble, et surtout de manière coordonnée, un certain nombre d'agents autonomes, robots ou systèmes experts, à la résolution de problèmes complexes.
Après avoir conçu des ensembles de systèmes experts simples associés, l'IA distribuée a également remodelé le paysage de la robotique, générant une IA sans représentation de connaissance.
Les robots dits de la troisième génération sont capables, une fois mis en route, de mener à bien une tâche tout en évitant les obstacles rencontrés sur leur chemin, sans aucune interaction avec l'utilisateur humain. Ils doivent cette autonomie à des capteurs ainsi qu'à un générateur de plans, au fonctionnement fondé sur le principe du GPS. Mais, à ce jour, les robots autonomes classiques restent insuffisamment aboutis dans leur conception.
Ce type de robotique semble à vrai dire à l'heure actuelle engagé dans une impasse : depuis le début des années 1980, aucun progrès notable ne s'est fait jour.

L'« artificial life »
Le philosophe Daniel C. Dennett a proposé, à la fin des années 1980, une nouvelle direction possible pour la robotique. Plutôt que de s'inspirer de l'homme et des mammifères, il conseille d'imiter des êtres moins évolués, mais de les imiter parfaitement. Valentino Braitenberg s'était déjà engagé dans une voie similaire au Max Planck Institute, une dizaine d'années auparavant, mais ses machines relevaient d'une zoologie imaginaire. En revanche, depuis 1985, Rodney Brooks, du MIT, fabrique des robots à forme d'insecte ; ce sont les débuts de ce qu'on appelle artificial life.

Cette idée a été réalisable grâce à la réduction progressive de la taille des composants électroniques. Une puce de silicium sert donc de système nerveux central aux insectes artificiels de Brooks : pour l'instant, le plus petit d'entre eux occupe un volume de 20 cm3. Le chercheur est parti d'un constat simple : si les invertébrés ne sont guère intelligents, ils savent faire quantité de choses, et sont en outre extrêmement résistants. Travaillant sur la modélisation de réflexes simples de type stimulus-réponse, Brooks élude ainsi élégamment le problème, classique en IA, de la représentation des connaissances. Dans l'avenir, il voudrait faire travailler ses robots en colonies, comme des fourmis ou des abeilles ; ses espoirs aboutiront seulement si la miniaturisation des moteurs progresse. L'éthologie, ou science des comportements animaux, fait ainsi une entrée remarquée dans le monde de l'IA.

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
 

L'EAU : UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE

 



 

 

 

 

 

L'EAU : UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE

L'eau est un liquide dont les propriétés sont tout à fait surprenantes, à la fois comme liquide pur et comme solvant. C'est un liquide très cohésif : ses températures de cristallisation et d'ébullition sont très élevées pour un liquide qui n'est ni ionique, ni métallique, et dont la masse molaire est faible. Cette cohésion est assurée par les liaisons hydrogène entre molécules d'eau ; l'eau fait ainsi partie d'un petit groupe de liquides qu'on appelle liquides associés. Cependant, parmi ces liquides, la cohésion de l'eau est remarquable, et elle se traduit par une chaleur spécifique énorme. Cette résistance aux variations de température a des conséquences climatiques importantes, puisque la capacité calorifique des océans leur fait jouer le rôle de régulateurs thermiques du climat. L'eau est aussi un liquide très cohésif d'un point de vue diélectrique : sa constante diélectrique est bien plus élevée que celle qu'on attendrait sur la base de la valeur du moment dipolaire de la molécule isolée. C'est aussi, dans les conditions usuelles de température et de pression, un liquide peu dense : les atomes y occupent moins de la moitié du volume total ; une grande partie du volume de l'eau liquide est donc formée de cavités. Le volume occupé par ces cavités varie de manière tout à fait anormale à basse température. D'abord, l'eau se dilate quand on la refroidit en dessous d'une température appelée température du maximum de densité. Ensuite, l'eau se dilate encore de 9 % en cristallisant, contrairement à la plupart des liquides, qui se contractent d'environ 10 % en cristallisant. Cette augmentation de volume, qui fait flotter la glace sur l'eau, a des conséquences environnementales considérables : si la glace était plus dense que l'eau liquide, toute la glace formée dans les régions arctiques coulerait au fond des océans au lieu de former une banquise qui les isole thermiquement des températures extérieures, et la production de glace continuerait jusqu'à congélation complète de ces océans Pour presque tous les liquides, l'application d'une pression réduit la fluidité et favorise le solide par rapport au liquide. Au contraire, pour l'eau à basse température, l'application d'une pression accroît la fluidité et favorise le liquide par rapport à la glace. Cet effet anormal de la pression permet à l'eau de rester fluide lorqu'elle est confinée dans des pores ou des films nanométriques, contrairement aux autres liquides qui se solidifient sous l'effet des pressions de confinement. Cette persistance de l'état fluide est capitale pour le fonctionnement des cellules biologiques : en effet, de nombreux processus requièrent le déplacement de couches d'hydratation avant le contact entre macromolécules, ou avant le passage d'un ligand vers son récepteur. De même le passage des ions à travers les canaux qui traversent les membranes des cellules n'est possible que grâce à l'état fluide de l'eau confinée dans ces canaux. Les théories anciennes attribuaient toutes ces anomalies au fait que les molécules d'eau sont liées par des liaisons H. En ce sens, l'eau devrait avoir des propriétés « en ligne » avec celles d'autres liquides associés (éthanol, glycols, amides). Pour les propriétés de cohésion, c'est une bonne hypothèse de départ – bien que les propriétés de l'eau (densité d'énergie cohésive, constante diélectrique) soient supérieures à celles des liquides comparables. Pour les autres propriétés, cette hypothèse n'est pas suffisante : les autres liquides associés ne partagent pas les propriétés volumiques anormales de l'eau, ni son polymorphisme, ni son comportement comme solvant. Certains liquides ont un comportement qui ressemble à celui de l'eau pour une de ses propriétés : par exemple, on connaît quelques liquides qui se dilatent à basse température, ou en cristallisant. Nous découvrirons peut-être un jour que chacune des propriétés anormales de l'eau existe aussi dans un autre liquide. Cependant il est remarquable qu'un seul liquide rassemble autant d'anomalies. Il y a donc un besoin d'explication, auquel ne répondent pas les théories développées pour les liquides simples.

Le texte de Bernard Cabane et Rodolphe Vuilleumier ci-dessous est similaire aux principaux points développés lors de la 593 ème conférence de lUniversité de tous les savoirs donnée le 15 juillet 2005 1
Par Bernard Cabane, Rodolphe Vuilleumier : « La physique de leau liquide »
L'eau est le liquide le plus abondant à la surface de la terre. C'est un liquide dont les propriétés sont tout à fait surprenantes, à la fois comme liquide pur et comme solvant. L'eau est un liquide très cohésif : ses températures de cristallisation et d'ébullition sont très élevées pour un liquide qui n'est ni ionique, ni métallique, et dont la masse molaire est faible. Ainsi, l'eau reste liquide à pression atmosphérique jusqu'à 100 °C, alors que l'extrapolation de la série H2S, H2Se, H2Te donnerait une température d'ébullition de - 80°C. Cette cohésion est assurée par les liaisons hydrogène entre molécules d'eau ; l'eau fait ainsi partie, avec les alcools et les amines, d'un petit groupe de liquides qu'on appelle liquides associés (Figure 1). Parmi ces liquides, la cohésion de l'eau est remarquable. Par exemple, l'eau a des températures de fusion et d'ébullition très supérieures à celles de l'ammoniac et de l'acide fluorhydrique, qui font des liaisons H plus faibles ou spatialement moins développées.

Figure 1. Densités électroniques du dimère, obtenues par calcul des orbitales localisées via la mécanique quantique. Le "pont" de densité électronique qui joint les deux molécules est la « signature » de la liaison H.
La cohésion de l'eau se traduit aussi par une chaleur spécifique énorme : il faut 3 fois plus d'énergie pour réchauffer l'eau que pour la même masse de pentane, et 10 fois plus que pour la même masse de fer. Cette chaleur spécifique est aussi beaucoup plus élevée que celle du solide (plus de 2 fois supérieure à celle de la glace), alors que la plupart des liquides ont des chaleurs spécifiques proches de celles des solides correspondants. Elle est due à l'absorption de chaleur par la rupture de liaisons hydrogène : la chaleur absorbée par ces processus n'est pas disponible pour augmenter l'énergie cinétique des molécules, ce qui réduit l'élévation de température. Cette résistance aux variations de température a des conséquences climatiques importantes, puisque la capacité calorifique des océans leur fait jouer le rôle de régulateurs thermiques du climat.

L'eau est aussi un liquide très cohésif d'un point de vue diélectrique : sa constante diélectrique est bien plus élevée que celle qu'on attendrait pour un liquide non associé sur la base du moment dipolaire de la molécule isolée. Qualitativement, cette réponse très forte aux champs électriques est due à l'enchaînement des molécules par les liaisons hydrogène, car les molécules liées par des liaisons hydrogène se polarisent mutuellement (Figure 2).
Figure 2. Variations de densité électronique causées par les interactions des deux molécules du dimère, par rapport aux densités électroniques de molécules isolées. Les régions où la densité électronique du dimère est excédentaire sont ombrées en gris, celles qui ont perdu de la densité électronique en blanc. L'alternance régulière de régions contenant un excès et un défaut de densité électronique crée une polarisation des molécules, qui augmente le moment dipolaire du dimère.

C'est grâce à cette constante diélectrique exceptionnelle que la vie a pu se développer dans l'eau (Figure 3). La plupart des molécules biologiques sont en effet ioniques, et les processus biochimiques requièrent la dissociation des paires d'ions et l'écrantage des charges électriques. C'est la polarisation des molécules d'eau autour d'un ion qui compense le champ électrique créé par l'ion, et permet ainsi la dissociation des paires d'ions et la dissolution des cristaux ioniques. L'exemple le plus courant de solution ionique est, bien sur, l'eau de mer, qui ne contient que 9 molécules d'eau par paire d'ions.
Figure 3. Constantes diélectriques relatives des liquides polaires usuels (variation parabolique en fonction du moment dipolaire de la molécule isolée) et de liquides associés points situés très au dessus). La valeur anormalement élevée de la constante diélectrique de l'eau est due à la polarisation mutuelle des molécules dans le liquide
L'eau est, dans les conditions usuelles de température et de pression, un liquide peu dense. Sa masse volumique est relativement peu élevée pour un liquide aussi cohésif (les huiles ont des densités comparables, mais sont beaucoup moins cohésives). Cette faible masse volumique exprime le fait que le volume occupé par les atomes est faible par rapport au volume total : les atomes de la molécule d'eau n'occupent que 49 % du volume disponible par molécule. Une grande partie du volume de l'eau liquide est donc formée de cavités.

L'eau présente toute une série d'anomalies liées aux variations de son volume. Tout d'abord, la variation en température de sa masse volumique est anormale à basse température. Pour presque tous les liquides, le volume occupé diminue régulièrement lorsqu'on abaisse la température, par suite de la réduction du désordre et surtout du nombre de lacunes excitées thermiquement. Au contraire, l'eau se dilate quand on la refroidit en dessous d'une température appelée température du maximum de densité (TMD H + 4 °C pour H2O). L'eau liquide à basse température est un liquide peu dense par rapport à ce qu'on attendrait d'après sa densité à haute température.
Figure 4 Variation de la masse volumique de l'eau liquide avec la température. Pour les liquides « normaux », la masse volumique décroit de manière monotone. La température du maximum de densité de l'eau vaut 4 °C dans H2O, 11.2 °C dans D2O et 13,4 °C dans T2O. La décroissance de la densité à basse température résulte d'un changement de la structure du liquide, qui crée systématiquement des liaisons et des cavités.

Pour presque tous les liquides, le volume occupé se réduit d'environ 10 % lors de la cristallisation, car les atomes ou les molécules sont empilés de manière plus efficace dans le cristal. Au contraire, l'eau se dilate d'environ 9 % en cristallisant. Cette augmentation de volume, qui fait flotter la glace sur l'eau, a des conséquences environnementales considérables : si la glace était plus dense que l'eau liquide, toute la glace formée dans les régions arctiques coulerait au fond des océans au lieu de former une banquise qui les isole thermiquement des températures extérieures, et la production de glace continuerait jusqu'à congélation complète de ces océans.

Les propriétés de l'eau confinée dans des pores ou des films nanométriques diffèrent aussi de celles des autres liquides. La plupart des liquides se stratifient lorsqu'ils sont confinés entre deux surfaces planes, et ils résistent comme des solides lorsqu'on essaie de les faire s'écouler. Au contraire, l'eau reste fluide même dans des géométries extrêmement confinées. Cette résistance à la solidification semble être due aux anomalies volumiques de l'eau, qui devient plus fluide lorsqu'elle est soumise à une pression. La persistance de l'état fluide de l'eau est capitale pour le fonctionnement des cellules biologiques : en effet, de nombreux processus requièrent le déplacement de couches d'hydratation avant le contact entre macromolécules. De même le passage des ions à travers les canaux qui traversent les membranes n'est possible grâce à la fluidité de cette eau confinée.

Les propriétés de l'eau comme solvant sont aussi très surprenantes. On comprend bien que les molécules polaires ou ioniques se dissolvent facilement dans l'eau, tandis que les molécules apolaires se dissolvent beaucoup plus difficilement. Cette préférence est à l'origine de phénomènes physico-chimiques comme la micellisation des molécules de tensioactifs, la formation des membranes biologiques, et le repliement ou la dénaturation des protéines. Cependant le passage dans l'eau de ces molécules hydrophobes ou amphiphiles se fait de manière tout à fait anormale : alors que la dissolution dans n'importe quel solvant est un processus défavorable du point de vue des énergies, mais favorisé par l'entropie, c'est l'inverse qui se produit pour la dissolution des molécules apolaires dans l'eau. Ces effets varient fortement avec la température, et on trouve que les solubilités augmentent aussi bien quand on va vers les basses températures (c'est bien pour les poissons, qui respirent l'oxygène dissous) que lorsqu'on va vers les températures élevées (l'eau super-critique est un bon solvant, utilisé, par exemple, pour extraire la caféine). Le minimum de solubilité coïncide à peu près avec le minimum de densité de l'eau pure, ce qui suggère que ces solubilités anormales sont liées à l'équation d'état (anormale elle aussi) de l'eau liquide.

Les théories anciennes attribuaient toutes ces anomalies au fait que les molécules d'eau sont liées par des liaisons H. En ce sens, l'eau devrait avoir des propriétés « en ligne » avec celles d'autres liquides associés (éthanol, glycols, formamide etc). Pour les propriétés de cohésion, c'est une bonne hypothèse de départ - bien que les propriétés de l'eau (densité d'énergie cohésive, constante diélectrique) soient supérieures à celles des liquides comparables. Pour les autres propriétés, cette explication n'est pas suffisante : les autres liquides associés ne partagent pas les propriétés volumiques anormales de l'eau, ni son polymorphisme, ni son comportement comme solvant.
Nous découvrirons peut-être un jour que chacune des propriétés anormales de l'eau existe aussi dans un autre liquide. Cependant il est remarquable qu'un seul liquide rassemble autant d'anomalies. Il y a donc un besoin d'explication, auquel ne répondent pas les théories développées pour les liquides simples.

On ne compte plus les théories proposées pour expliquer telle ou telle anomalie de l'eau, et abandonnées parce qu'elles n'expliquent que certaines anomalies, mais pas l'ensemble des propriétés de l'eau. On peut ainsi citer la théorie des « icebergs », dans sa version liquide pur (l'eau liquide serait formée de petits groupes de molécules ayant la structure de la glace, séparées par un liquide désordonné) et dans sa version solvant (les molécules d'eau se réorganiseraient autour d'un soluté apolaire pour former plus de liaisons hydrogène que l'eau pure, ce qui expliquerait le coût entropique de l'introduction du soluté). De nombreuses théories ont aussi postulé des structures particulières, comme des structures de type « clathrates », semblables aux cages que forment les molécules d'eau dans les hydrates de gaz cristallins. On discute actuellement une série de modèles qui postulent que l'eau serait formée de deux liquides mélangés dans des proportions qui changeraient avec la température et la pression, mais ne se sépareraient que dans des conditions de température inaccessibles aux expériences.
Il peut sembler paradoxal qu'une civilisation qui comprend la physique de l'infiniment grand et de l'infiniment petit, et qui est capable de prouesses technologiques considérables, n'arrive pas à décrire le liquide dans lequel tous les systèmes vivants fonctionnent. En fait, il s'agit d'un problème dur. Les verrous tiennent, pour une part, à une limitation des informations expérimentales. En effet, nous ne savons pas mesurer, dans un liquide, les fonctions de corrélation qui décrivent les arrangements de petits groupes de molécules (3 ou plus) : depuis un demi-siècle, nous sommes limités aux fonctions de corrélation de paires. Ils sont aussi dus à notre incapacité à simplifier correctement la description d'un liquide dans lequel les molécules forment des liaisons ayant un fort caractère orientationnel. Nous savons, bien sur, décrire ces liaisons, et nous pouvons simuler numériquement les mouvements des molécules soumises à ces interactions et à l'agitation thermique : nous pouvons ainsi reproduire certaines propriétés du liquide (mais pas toutes à la fois !) Par contre, nous ne savons pas, actuellement, construire une théorie de l'eau en utilisant les outils de la physique statistique.

Pour en savoir plus :
« The physics of liquid water »
B. Cabane, R. Vuilleumier
C. R. Geosciences. 337 (2005) 159
Liquides : solutions, dispersions, émulsions, gels
B. Cabane et S. Hénon
Livre publié par Belin (2003)

 

  VIDEO       CANAL  U         LIEN

 
 
 
 

LA TRIBOLOGIE

 

 

 

 

 

 

 

LA TRIBOLOGIE


La tribologie est la science des frottements. Un 'frottement' intervient lorsque deux surfaces en contact sont mises en mouvement l'une par rapport à l'autre, produisant une force qui s'oppose au mouvement. La notion même de frottement est en fait très intuitive à tout un chacun, essentiellement car nous pouvons ressentir - physiquement - ses effets dans la vie quotidienne : se frotter les mains pour se réchauffer, craquer une allumette, jouer du violon, glisser sur la glace, freiner en voiture, entendre un crissement craie sur le tableau, mettre de l'huile dans les gonds de porte, etc., on pourrait multiplier les exemples connus de tous. La plupart de ces phénomènes peuvent se comprendre sur la base des lois du frottement énoncées dès le 18ème siècle par Amontons et Coulomb (mais déjà mises en évidence par Léonard de Vinci 200 ans auparavant), à partir de la notion de coefficient de frottement. Pourtant l'évidence apparente de ce 'vieux problème' cache l'extrême complexité sous-jacente. L'origine du frottement fait intervenir une multitude d'ingrédients, couvrant un spectre très large de phénomènes physiques : rugosité des surfaces, élasticité, plasticité, adhésion, lubrification, thermique, usure, chimie des surfaces, humidité, etc. Il y a donc un contraste paradoxal entre la simplicité de lois du frottement et la complexité des phénomènes sous-jacents, qui a constitué un défi majeur narguant l'imagination des scientifiques depuis près de 500 ans. Dans cet exposé, j'aborderai quelques manifestations du frottement sur différents exemples illustrant la complexité du phénomène. Je discuterai ensuite des causes du frottement, des premières interprétations de Amontons, Coulomb et d'autres au 18ème siècle en terme de rugosité de la surface, jusqu'aux travaux les plus modernes sur la nano-tribologie des contacts. Je décrirai en particulier les outils d'investigation modernes, tels que le microscope à force atomique, la machine de force de surfaces, les simulations numériques à l'échelle moléculaire, qui permettent désormais d'accéder aux fondements intimes du frottement aux échelles moléculaires avec des manifestations parfois étonnantes. Le développement de ces techniques d'investigation performantes ouvre désormais de nouvelles perspectives dans la compréhension et l'optimisation du frottement.

Texte de la 597 e conférence de l'Université de tous les savoirs prononcée le 19 juillet 2005
Par Lydéric Bocquet: « Approche physique du frottement »
La tribologie est la science des frottements. Un « frottement » intervient lorsque deux surfaces en contact sont mises en mouvement l'une par rapport à l'autre, produisant une force qui s'oppose au mouvement. La notion même de frottement est de fait très intuitive à tout un chacun, essentiellement car nous pouvons ressentir - physiquement - ses effets dans la vie quotidienne : se frotter les mains pour se réchauffer, craquer une allumette, jouer du violon, glisser sur la glace, freiner en voiture, entendre un crissement de craie sur le tableau, mettre de l'huile dans les gonds de porte, etc., etc. On pourrait multiplier les exemples connus de tous. Le frottement est ainsi intimement associé à la perception de notre environnement immédiat. Au cours de l'histoire humaine, les efforts pour s'en affranchir ont d'ailleurs été un facteur de progrès considérable, depuis l'invention de la roue plus de 3000 ans avant Jésus-Christ, jusqu'aux développements technologiques les plus récents dans la recherche de nouveaux matériaux (par exemple les composites céramiques pour la réalisation de prothèses artificielles). L'augmentation des performances techniques passe souvent par le développement de matériaux spécifiques qui permettent de diminuer les efforts de frottement : on limite ainsi l'usure, tout en réduisant la consommation énergétique, et en limitant le vieillissement des pièces. Dans d'autres domaines, l'effort est inversement plutôt concentré sur une augmentation du frottement, par exemple dans les dispositifs de freinage, ou les composites constituants les freins.
Les sciences du frottement sont donc intimement liées au développement technologique, tournées vers l'application. Pourtant c'est un domaine qui continue de soulever de nombreuses questions au niveau le plus fondamental. L'origine même du frottement reste largement incomprise et suscite de nombreuses études au niveau mondial, avec des découvertes récentes très prometteuses.
Des lois simples pour des phénomènes complexes -
La plupart des phénomènes associés au frottement peuvent se comprendre sur la base des lois phénoménologiques du frottement énoncées dès le 18ème siècle par Amontons et Coulomb (mais déjà mises en évidence par Léonard de Vinci 200 ans auparavant). Ces lois empiriques font intervenir une quantité clef : le coefficient de frottement, coefficient sans dimension que l'on note en général m. Plaçons un objet sur une surface plane : par exemple un kilo de sucre sur une table. Pour déplacer cet objet, de poids P (la masse multipliée par la constante de gravité, g=9.8 m/s2), il faut exercer une force FT parallèlement à la surface de la table. Mais l'expérience montre que cet objet ne se déplacera pas tant que la force FT est inférieure à une force minimale. De plus Amontons et Coulomb ont montré que cette force minimale est directement proportionnelle à la force normale, donc ici au poids : autrement dit, l'objet ne se déplace pas tant que
|FT |S |P|,
mS définissant le « coefficient de frottement statique ». D'autre part, si l'objet se déplace maintenant à vitesse constante sur la surface, l'expérience montre dans ce cas que la force de frottement tangentielle subie par l'objet est également proportionnelle à la force normale et (quasiment) indépendante de la vitesse :
|FT | = mD |P|,
mD définissant le « coefficient de frottement dynamique ». De façon générale on mesure que mD est plus petit que mS. De plus, Amontons et Coulomb, mais également Léonard de Vinci, ont mis en évidence que ces coefficients mS et mD ne dépendent pas de l'aire de contact de l'objet frottant (voir figure 3) : que l'on pose le kilo de sucre bien à plat ou sur la tranche, la force de frottement est la même, ce qui est assez peu conforme à l'intuition ! Nous reviendrons plus loin sur ce « mystère des surfaces », qui n'a été élucidé qu'assez récemment.
Un autre fait étonnant concerne la valeur typique de ces coefficients de frottement, qui s'écarte assez peu de m~0.3, pour des surfaces très différentes les unes des autres. La technologie permet toutefois de concevoir des surfaces avec des coefficients de frottement soit bien plus petits (m~0.001) soit plus grand (m > 1).
Le stick-slip, du violon aux tremblements de terre -
Ces lois simples permettent de rationaliser beaucoup des phénomènes observés pour les objets frottants. Nous nous attardons en particulier sur l'une des manifestations les plus marquantes du frottement, le stick-slip. Cette expression anglophone traduit parfaitement le phénomène, le stick-slip caractérisant un mouvement saccadé. Ce type de mouvement est observé lorsque l'on tire sur un objet frottant par l'intermédiaire d'un ressort : par exemple un paquet de sucre tiré par un élastique. Le mouvement de l'objet qui en résulte n'est en général pas uniforme mais saccadé : avec des périodes où l'objet résiste et ne bouge pas (« stick ») ; puis des périodes plus courtes où le seuil de résistance est dépassé et l'objet glisse sur une distance importante (« slip »). Les lois de Amontons-Coulomb permettent d'en comprendre les mécanismes élémentaires, et montrent que l'origine du « stick-slip » dans ce système mécanique simple {objet-ressort} est liée à l'inégalité des coefficients de frottement soulignée précédemment mD S. Les deux phases du mouvement reflètent ainsi deux états distincts du système : la phase statique (« stick ») est sous contrôle du frottement statique entre l'objet et la surface, tandis que la phase de glissement (« slip ») correspond au mouvement presque libre de l'objet sous l'action du ressort.
Cette dynamique saccadée se retrouve de façon générique dans des phénomènes pourtant très différents : du grincement des portes aux tremblements de terre, en passant par la mise en vibration d'une corde de violoncelle sous le frottement d'un archer. Même si ils se produisent à des échelles spatiales très différentes, ces phénomènes sont tous associés à une dynamique intrinsèque de type « stick-slip », associant les deux éléments mécaniques clefs : un corps frottant et un « ressort ». Dans le cas des instruments à cordes frottés, ces deux éléments sont aisés à identifier : le frottement se déroule à l'interface entre les crins de l'archer et la corde de l'instrument (via la colophane, résine qui augmente le frottement), tandis que la corde joue le rôle du « ressort ». Le mouvement continu de l'archer provoque une suite de petits déplacements de la corde, telle une multitude de pizzicati, qui produit in fine ce son velouté caractéristique des cordes frottées. Dans le cas des tremblements de terre, le frottement a lieu à l'interface entre plaques continentales qui jouent donc à la fois le rôle d'objet frottant (à leurs interfaces) et de ressort (dans leur globalité). Le déplacement des plaques continentales les unes par rapport aux autres pendant la phase stick conduit à l'accumulation de contraintes gigantesques à l'interface entre plaques. Le relâchement brutal de ces contraintes lorsque le seuil de résistance est atteint libère une énergie considérable et destructrice pendant la phase slip. Ici encore, le caractère saccadé du phénomène conduit à la production de vibrations, sous la forme d'ondes sismiques qui sont enregistrées par les sismographes. Si les mécanismes de base sont simples, la prédiction des tremblements de terre s'avère extrêmement complexe et continue à susciter des recherches poussées.
De l'origine des lois de Amontons-Coulomb -
Les lois du frottement énoncées précédemment sont très simples dans leur formulation, qui ne nécessite que l'introduction de coefficients sans dimension (mS et mD). Pourtant l'évidence apparente de ces lois cache l'extrême complexité sous-jacente. L'origine du frottement fait intervenir une multitude d'ingrédients, couvrant un spectre très large de phénomènes physiques : rugosité des surfaces, élasticité, plasticité, adhésion, lubrification, thermique, usure, chimie des surfaces, humidité, et cette liste n'est pas exhaustive. Il y a donc un contraste paradoxal entre la simplicité de lois du frottement et la complexité des phénomènes mis en jeu, qui a constitué un défi majeur narguant l'imagination des scientifiques depuis près de 500 ans.
Les premières tentatives d'explication des lois du frottement ont été proposées par Belidor et Coulomb au 18ème siècle, qui ont associé l'existence du frottement à la rugosité des surfaces. L'idée originale se base sur l'emboîtement des rugosités de surface qui conduit à l'existence d'un coefficient de frottement (voir Figure 1). Une schématisation simple de cette idée est représentée sur la figure 1 (droite), avec deux surfaces présentant des rugosités en dents de scie. Si l'on applique une force normale N sur la surface supérieure et une force horizontale T, un bilan des forces horizontales permet de montrer que l'équilibre des forces est rompu lorsque la force tangentielle est supérieure à une valeur de rupture : Tmax=mS |N|, définissant ainsi un coefficient de frottement statique mS=tan(a). L'angle a est ici la pente de la rugosité par rapport à l'horizontale. Aussi simpliste qu'il soit, cet argument permet de lier le frottement (statique) aux caractéristiques de la rugosité. De plus les valeurs expérimentales typiques des coefficients de frottement statique, de l'ordre de 0.3, correspondent à des pentes de la rugosité de surface de l'ordre de 15-20 degrés, ce qui est tout à fait compatible avec les caractéristiques typiques que l'on peut mesurer pour les rugosités de surfaces.
Cet argument repose cependant sur une hypothèse implicite : l'emboîtement parfait entre les rugosités des deux surfaces, tel que cela est illustré de façon schématique sur la figure 1, et sur la figure 2 (gauche) pour une surface schématique à l'échelle « atomique ». On parle dans ce cas de surfaces commensurables. Ca n'est bien sûr pas le cas en général dans la nature : même à l'échelle atomique, deux surfaces idéales, telles que celles qui sont représentés à l'échelle atomique sur la figure 2, présentent des légères différences de distance interatomique. Une légère disparité suffit à rendre très irrégulière la répartition des points de contact entre les deux surfaces (voir figure 2 droite), contrairement au cas commensurable (figure 2 gauche). On parle alors de surfaces incommensurables. On peut montrer par un raisonnement similaire à celui mené précédemment que la répartition irrégulière des contacts entre surfaces incommensurables conduit à l'annulation des
Figure 2 : Contact schématique entre deux surfaces (les disques esquissant les atomes de chaque surface en contact. (gauche) Deux surfaces commensurables en contact. Les points de contact entre surfaces (étoiles) sont répartis régulièrement. (droite) Deux surfaces incommensurables en contact. Les contacts entre surfaces (étoiles) se répartissent de façon irrégulière.

forces de frottement tangentielles : la force de frottement statique est identiquement nulle entre surfaces incommensurables !
Autrement dit, on aboutit à la conclusion que le frottement entre deux surfaces commensurables est non-nul, tandis qu'il s'annule exactement si ces deux surfaces sont incommensurables.
Ce résultat très étonnant a été confirmé pour la première fois dans des expériences très récentes par le groupe de M. Hirano et collaborateurs au japon [Hirano1997], puis confirmé par d'autre groupes de recherche, notamment pour des surfaces de graphite [Dienwiebel 2004].
Ce phénomène est désormais connu sous le nom de « supra friction » et a ouvert une voie de recherche très prometteuse pour le développement de surfaces avec des frottements très faibles, le graal des tribologues.
Cependant, la suprafriction est pour l'instant observée dans des conditions drastiques, assez éloignées des conditions de la vie réelle. Ces mesures sont notamment réalisées en plaçant ces surfaces dans une enceinte où un vide très poussé est réalisé. On supprime ainsi tout contaminant présent dans l'atmosphère (poussière, molécule organique, ...) qui, comme on va le voir, supprimerait cet état de suprafriction et conduirait à une force de frottement non-nulle. Il reste donc encore du chemin à parcourir pour obtenir des surfaces « supra-frottantes » dans des conditions d'utilisations technologiques, où il est difficile de supprimer la présence de polluants.
Le « troisième corps »- le grain de sable dans les rouages
La remarque précédente pointe le rôle joué dans le frottement par les contaminants et plus généralement les corps intersticiels. Ce rôle a été reconnu assez récemment dans l'histoire de la tribologie. Pourtant les corps intersticiels constituent un ingrédient incontournable du frottement. En effet, les surfaces laissées à l'air libre se polluent très rapidement sous l'effet de poussières, molécules organiques, de l'humidité, etc. présentes dans l'air. De plus le contact frottant entre deux surfaces génère lui-même des débris d'usure, grains de matière de tailles variées qui vont se retrouver dans les interstices à l'interface entre les deux surfaces. Une illustration simple est la trace laissée par une craie sur un tableau, ou d'un pneu lors du freinage.
Or la présence de contaminants modifie profondément le frottement, et notamment le scénario discuté précédemment en ce qui concerne la commensurabilité des surfaces frottantes. Des travaux récents utilisant des simulations numériques de ces processus à l'échelle moléculaire ont montré que la présence de quelques contaminants dans l'interstice entre les deux surfaces suffit à rétablir systématiquement un coefficient de frottement non-nul, même dans le cas où les deux surfaces sont incommensurables [Robbins]. Les contaminants mobiles viennent se placer dans les interstices laissés libres entre les surfaces et contribuent à rétablir une « commensurabilité effective » des surfaces, sous la forme d'un emboîtement partiel. Le coefficient de frottement prend alors une valeur non nulle, même pour des surfaces incommensurables. Les contaminants viennent jouer le rôle du « grain de sable » dans les rouages.
A cause de ces corps intersticiels, le contact entre deux surfaces dans des conditions de la vie quotidienne a donc assez peu à voir avec l'idée d'une assemblée d'atomes telle qu'elle est représentée sur la figure 2. Le « frottement idéal » qui y est représenté n'existe que dans des conditions très particulières. Ce résultat donne donc une perspective différente concernant l'origine du frottement entre surfaces, en pointant la contribution essentielle des impuretés.
Pour prendre en compte ces impuretés, les tribologues ont introduit la notion de « 3ème corps », qui regroupe l'ensemble des corps situés entre les deux surfaces en contacts (les deux premiers corps). Un problème de frottement doit donc en principe prendre en compte ces trois corps et les échanges (de matière, chaleur, etc.) qui peuvent exister entre eux. On voit ici poindre la complexité du problème de frottement. Les lois de Coulomb et l'origine même du frottement prennent leur origine non pas dans un seul phénomène bien identifié à l'échelle atomique, mais résulte d'un ensemble de phénomènes couplés.
Le mystère des surfaces -

Figure 3 : dessins de Léonard de Vinci, illustrant ses expériences démontrant l'indépendance du coefficient de frottement vis-à-vis de l'aire de contact entre le corps frottant et la surface (tiré de [Dowson]).

Cette complexité sous-jacente se retrouve dans une autre manifestation des lois de Amontons-Coulomb : l'indépendance des coefficients de frottement vis-à-vis de l'aire de contact. Léonard de Vinci avait déja observé ce phénomène, comme le montre l'une de ses planches (figure 3). Quelque soit la surface de contact de l'objet frottant, la force de frottement est identique. Ce résultat très contre-intuitif a défié l'imagination des scientifiques plusieurs siècles avant que Bowden et Tabor au Cavendish à Cambridge n'en proposent une explication dans les années 1950.
La clef de ce phénomène est une nouvelle fois la rugosité de surface. Comme on le montre schématiquement sur la figure 4, à cause de la rugosité, les zones de contact réel entre les surfaces sont bien plus petites que l'aire de contact apparente entre les surfaces, telle qu'elle nous apparait de visu.

Aréelle
Figure 4 : Illustration de deux surfaces rugueuses en contact. L'aire de contact réelle (Aréelle) entre les surfaces est bien plus petite que l'aire apparente (Aapp).
Aapp

Cette distinction entre surface réelle et surface apparente a été démontré par visualisation optique directe de la surface de contact, notamment par Dieterich et Kilgore et plus récemment par Ronsin et Baumberger. Cette observation donne une image de zones de contact réel très clairsemées, avec une taille typique pour chaque zone de l'ordre du micron. Ainsi l'aire de contact réelle entre deux objets macroscopiques ne représente typiquement que 0.1 % de l'aire de contact totale : Aréelle /Aapp~0.001.
Une conséquence immédiate est que la force normale (FN) à laquelle on soumet l'objet ne se répartit que sur les aspérités en contact et non sur l'ensemble de la surface de l'objet. En conséquence la pression au sein de ces contacts, c'est-à-dire la force par unité de surface, Pcontact=FN/Aréelle , est bien plus grande que celle que l'on attendrait a priori si la force FN se répartissait sur l'ensemble de la surface, Papp=FN/Aapp. Or aux très grandes pressions, un matériau devient en général plastique, c'est à dire qu'il s'écrase sans que sa pression ne varie. La valeur de la pression à laquelle se déroule ce phénomène est appelée dureté du matériau, que l'on notera H. La pression au sein des contacts étant fixée à H, on en déduit alors que l'aire réelle du contact est directement proportionnelle à la force appliquée : Aréelle = FN/H. Autrement dit, plus la force appliquée est grande, plus le contact réel est grand, ce qui est finalement assez intuitif.
Ce mécanisme permet de retrouver les lois de Coulomb. En effet, l'aire frottante étant l'aire réelle, on s'attend à ce que la force de frottement tangentielle soit proportionnelle à cette aire : Ffrottement = g Aréelle. Le coefficient de proportionalité g a les dimensions d'une force par unité de surface (donc d'une pression). On note plus généralement ce coefficient sY, « contrainte de cisaillement ». En utilisant l'expression précédente pour l'aire de contact réelle, Aréelle = FN/H, on aboutit à une force de frottement qui prend la forme d'une loi de Amontons-Coulomb : Ffrottement = m FN, avec m=sY/H qui est bien une caractéristique du matériau à la surface.
Cette explication de Bowden et Tabor au phénomène de frottement permet donc de comprendre la proportionalité de la force de frottement vis-à-vis de la force normale, mais également l'indépendance du coefficient de frottement vis-à-vis de la surface apparente de contact.
Cette explication repose cependant sur l'hypothèse de déformation plastique des aspérités, qui, si elle est pertinente pour des métaux, pose question pour d'autres matériaux (comme par exemple les élastomères). De fait, Greenwood et Williamson ont montré dans les années 1960 que le point clef du raisonnement précédent, c'est à dire la proportionalité entre aire de contact réelle et force normale FN, est maintenu même dans le cadre d'aspérités qui se déforment élastiquement, par un effet de moyenne statistique sur l'ensemble des aspérités en contact.
Une autre hypothèse implicite du raisonnement précédent est que la contrainte de cisaillement que nous avons introduit, sY, est une caractéristique des matériaux, indépendante des conditions du frottement, notamment de la vitesse. Ce point mérite de s'y attarder un peu plus longuement. La contrainte de cisaillement sY est associée aux propriétés mécaniques du contact à l'interface entre aspérités de tailles micrométriques. Des expériences récentes ont pu sonder indirectement les propriétés mécaniques de ces jonctions [Bureau]. Ces expériences suggèrent qu'à la jonction entre deux aspérités en contact, le matériaux se comporte comme un milieu « vitreux » et que la contrainte seuil est intimement associée à ces propriétés vitreuses. Qu'est-ce qu'on appelle un « milieux vitreux » ? Ce sont des milieux dont la structure microscopique est désordonnée (comme un liquide), mais figée (comme un solide). Leur propriétés sont intermédiaires entre celles d'un liquide et celles d'un solide : entre autres, ils ne coulent pas au repos (comme des solides), mais au delà d'une contrainte minimale appliquée, ils s'écoulent (comme des liquides). De tels matériaux sont omniprésents dans notre vie quotidienne : verre, mousses alimentaires, émulsions (mayonnaise), gels, milieux granulaires, etc. Ce sont justement ces propriétés mi-liquide, mi-solide qui constituent leur intérêt industriel (et notamment agro-alimentaire). Au delà des intérêts industriels évidents, ces milieux vitreux font actuellement l'objet d'une recherche fondamentale très intense, avec des progrès récents dans la compréhension des mécanismes élémentaires associés à leur façon très particulière de couler.
La question du frottement se trouve précisement liée à la compréhension des processus d'écoulement de tels milieux, pourtant à une tout autre échelle spatiale. Comprendre l'origine de la contrainte de cisaillement à l'échelle (quasi-nanométrique) des jonctions entre aspérités en contact rejoint ainsi la compréhension des propriétés d'écoulement de la mayonnaise ! Au delà de l'anecdote, cette compréhension soulève dans les deux cas des problèmes fondamentaux très délicats.
La lubrification -
Jusqu'à présent, nous avons concentré notre discussion sur le frottement dit « sec », qui correspond à la situation où les deux surfaces frottantes sont en contact direct. Mais du point de vue technologique et pratique, cette situation est à proscrire si l'on veut un frottement faible. Cela apparaît comme une évidence pratique qu'il faut lubrifier les pièces mécaniques et « mettre de l'huile dans les rouages ». Un moteur à explosion qui « tourne » sans huile va chauffer, jusqu'à subir des dommages définitifs. La diminution du frottement par l'ajout de lubrifiants est connu depuis des milliers d'années, comme le démontre ce bas-relief égyptien représenté sur la figure 5, datant de 1880 avant Jésus-Christ (document tiré de [Dowson]). Parmi les centaines d'hommes occupés à déplacer le traîneau sur lequel repose la statue, un personnage a un rôle bien particulier puisqu'on le voit verser du liquide devant le traîneau déplacé afin de lubrifier le contact entre le traîneau et le sol.

Figure 5 : Bas-relief égyptien montrant une statue tirée par 170 hommes. Le personnage encerclé verse du liquide pour lubrifier le frottement entre le support de la statue et le sol (tiré de [Dowson]).

Un autre exemple est la lubrification des articulations du corps humain. Par exemple, au niveau du genou, ce rôle du lubrifiant est tenu par le liquide synovial, liquide rendu très visqueux par la présence de molécules organiques très longues (l'acide hyaluronique). A l'inverse certaines pathologies, comme l'arthrose, sont associées à la baisse du pouvoir lubrifiant de ce liquide, notamment par la baisse de la viscosité.
Il apparaît donc naturel d'utiliser des liquides très visqueux comme lubrifiants (huiles, ou graisses). Ainsi, l'eau, liquide très peu visqueux, est en général un très mauvais lubrifiant. On peut s'en convaincre par une expérience très simple : des mains mouillées par de l'eau et frottées l'une contre l'autre maintiennent un fort frottement lors du mouvement, tandis que quelques gouttes d'huile suffisent à rendre les mains complètement glissantes. Si ce phénomène paraît intuitivement évident, il est toutefois étonnant de réaliser que c'est le liquide le moins fluide qui conduit au frottement le plus réduit.
Attardons-nous sur le rôle du lubrifiant dans le frottement. L'action du lubrifiant est double : d'une part le frottement entre les deux objets se réalise via un liquide et non plus directement sous la forme d'un frottement « sec » entre solides, ce qui conduit à un frottement fluide beaucoup plus faible ; et d'autre part, et c'est le point crucial, il permet d'éviter le contact solide direct. Autrement dit, l'un des rôles du lubrifiant est de maintenir la présence d'un film liquide entre les deux parois solides, empêchant ainsi les aspérités solides d'entrer en contact direct.
C'est justement là où va intervenir la viscosité. Un liquide visqueux coule « difficilement ». Lorsque l'on va presser les deux surfaces l'une contre l'autre (par exemple les mains dans l'exemple précédent), le liquide le plus visqueux sera le plus difficile à déplacer. Il se maintiendra donc sous la forme d'un film liquide entre les deux surfaces et c'est ce film liquide maintenu qui assurera le frottement fluide, donc la lubrification. A l'inverse, l'eau, fluide peu visqueux, va disparaître du contact lorsque les deux surfaces seront pressées l'une contre l'autre : un contact solide direct sera rétabli et l'on retrouve ainsi un frottement « sec » avec un coefficient de frottement élevé.
D'autres propriétés du lubrifiant vont également jouer un rôle dans ce mécanisme, notamment la « mouillabilité », c'est à dire l'affinité du liquide vis-à-vis de la surface, qui va influer sur la capacité du lubrifiant à recouvrir la surface et ses anfractuosités.
Le lubrifiant doit donc assurer des fonctions relativement antagonistes : l'une est d'être suffisamment fluide pour assurer un faible frottement, l'autre d'être suffisamment visqueux pour éviter le contact direct. Une huile de type moteur est donc un mélange complexe, contenant des dizaines d'additifs dont l'assemblage permet au final d'atteindre ces deux objectifs de façon optimale.
Conclusions :
Dans ce texte, nous avons présenté quelques points intervenant dans le problème du frottement entre solide. En aucun cas, il ne s'agit ici d'un panorama exhaustif et nous n'avons pas parlé ici de nombre de phénomènes également présent dans les problèmes de frottement, comme la physico-chimie des surfaces, la thermique, le vieillissement, l'usure, l'abrasion, etc...qui auraient tout aussi bien nécessités une discussion approfondie.
La tribologie est ainsi une science par essence pluridisciplinaire. Le phénomène de frottement résulte non pas d'un mécanisme unique, mais d'une multitude de phénomènes complexe et souvent couplés, qui aboutissent in fine aux lois pourtant simples d'Amontons-Coulomb.
C'est également vrai dans l'approche scientifique de ces problèmes. La science des frottements associe ingénieurs et scientifiques, recherche appliquée et fondamentale. Ces deux approches sont par nature couplées. Ainsi, si les questions soulevées sont anciennes, c'est un domaine dans lequel les derniers développements fondamentaux ont permis de mettre en évidence des phénomènes complètement inattendus, laissant augurer de progrès technologiques important dans un avenir proche.
Références :
[Bowden-Tabor] F.P. Bowden and D. Tabor, « The friction and lubrication of solids » (Clarendon Press, London, 1950).
[Bureau] L. Bureau, T. Baumberger, C. Caroli, « Jamming creep at a frictional interface », Physical Review E, 64, 031502 (2001).
[Dowson] D. Dowson « History of Tribology » (Longman, New York, 1979).
[Dienwiebel] M. Dienwiebel et al., « Superlubricity of Graphite », Physical Review Letters, 92, (2004).
[Hirano1997] M. Hirano, K. Shinjo, R. Kaneko and Y. Murata, « Observation of superlubricity by scanning tunneling microscopy », Physical Review Letters, 78, pp.1448-1451 (1997)
[Robbins] G. He, M. Müser, M. Robbins « Adsorbed Layer and the origin of static friction », Science 284 1650-1652 (1999).

 

 VIDEO       CANAL  U         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google