ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

LA VACCINATION - HISTOIRE

 

La vaccination : histoire, classification, mode d’administration

La vaccination est un procédé de prévention qui consiste à introduire un agent antigénique (un vaccin) dans un organisme vivant afin de stimuler une réponse immunitaire adaptative et protectrice contre les micro-organismes pathogènes. En général, les vaccins peuvent prévenir ou atténuer la morbidité d’une l’infection.

La vaccination reste le seul moyen efficace de prévention contre les maladies infectieuses. L'immunité généralisée due à la vaccination est d'ailleurs responsable de l'éradication mondiale de la variole et de la restriction de maladies telles que la poliomyélite, la rougeole et le tétanos. La réaction immunitaire primaire permet donc la mise en mémoire de l'antigène pour une réaction immunitaire plus rapide lors d'une éventuelle prochaine contamination. L'agent actif d'un vaccin peut être intact mais inactivé (non-infectieux) ou atténué (avec une infectiosité réduite).
Histoire de la vaccination


Les premiers éléments documentaires sur la vaccination viennent de l'Inde et de la Chine du 17e siècle. À cette époque, la vaccination par croûtes de vaches infectées par la variole était utilisée à titre préventif. D'où la dénomination vaccination venant du latin « vacca » qui signifie vache.
Cependant, il faut attendre jusqu'en 1796 pour que le médecin anglais Edward Jenner expose les résultats de ses recherches sur l'immunisation du jeune James Phipps, à l'époque âgée de 8 ans. Grâce au pus prélevé sur la main de Sarah Nelmes, une fermière infectée par la vaccine, il développe son premier vaccin. Cette pratique se répand par la suite dans toute l'Europe.


Les types de vaccins
Il existe actuellement plusieurs types de vaccins en usage clinique : les vaccins issus d'agents infectieux inactivés, les vaccins issus d'agents vivants atténués, les vaccins constitués de toxines inactivées, les vaccins synthétiques et les vaccins conjugués.
Les vaccins à base d'agents infectieux inactivés
Un vaccin issu d'agents infectieux inactivés est constitué de bactéries ou de virus développés en culture et ensuite détruits par la chaleur ou le formaldéhyde. Bien que les particules du virus ou de la bactérie soient détruites et ne peuvent plus se multiplier, les protéines de capsides du virus ou de la paroi bactérienne sont suffisamment intactes pour être reconnues et mémorisées par le système immunitaire dans le cadre d'une réponse immunitaire. Des injections de rappel sont nécessaires pour renforcer la réponse immunitaire avec ce type de vaccin
Les vaccins à base d'agents vivants atténués
Un vaccin issu d'agents vivants atténués est obtenu à la suite de plusieurs cultures cellulaires de l'agent infectieux afin d'atténuer sa virulence. Comme il ne peut plus se reproduire, il continue à présenter l'antigène au système immunitaire au-delà de la vaccination initiale. Un vaccin atténué peut être produits par des passages tels que l'adaptation d'un virus dans des cultures de cellules hôtes d'animaux ou à des températures sous-optimales.


Les vaccins à base de toxines inactivées
Ces vaccins sont constitués de protéines responsables de l'activité infectieuse du pathogène. Il peut soit s'agir de protéines inactivées avant d'être introduites dans l'organisme, soit de protéines cibles des anticorps protecteurs.


Les vaccins synthétiques
Les vaccins synthétiques sont principalement constitués de peptides synthétiques, d'hydrates de carbone, ou d'antigènes. Ils sont communément considérés comme étant plus sûrs que les vaccins de cultures bactériennes. Le développement de tels vaccins permet d'augmenter la vitesse de production et de réaction, surtout dans le cas d'une grave épidémie.


Les vaccins conjugués
Les vaccins conjugués possèdent un antigène polyoside, qui est associé de manière chimique à une protéine. Cette association permet d'améliorer l'immunogénicité du polyoside. Ces protéines possèdent un revêtement de polysaccharides, qui déguise les antigènes du pathogène, de sorte que les systèmes immunitaires immatures des nourrissons et des jeunes enfants ne puissent pas les reconnaître et y répondre. Les vaccins conjugués sont un type spécial de vaccin sous-unitaire, qui permet de contourner des problèmes d'ordre immunitaire.


Mode d'administration des vaccins
La vaccination se fait par injections intradermique, sous-cutanée ou intramusculaire, par la voie orale ou même par l'orifice nasale.
Les vaccins BCG et celui contre la variole sont entre autres administrés par voie intradermique.
L'injection sous-cutanée s'effectue dans la région du deltoïde, c'est-à-dire du haut du bras, sous l'épaule. La voie sous-cutanée est préconisée pour les vaccins viraux (rougeole, oreillons, rubéole, fièvre jaune, etc.).
L'injection intramusculaire, quant à elle, se fait au niveau du deltoïde chez l'enfant, l'adolescent et l'adulte, ou de la face antérolatérale de la cuisse chez le nourrisson.
La vaccination peut se faire en mettant quelques gouttes de la préparation contenant l'agent antigénique dans la bouche. Par exemple, le vaccin contre la poliomyélite peut être administré par voie orale. L'histoire retient que ce mode d'administration a permis d'éradiquer la rage.


Le vaccin contre la grippe peut s'administrer par la voie nasale. Et la vaccination reste valable même si le sujet vacciné se met à éternuer juste après avoir reçu sa dose.
Par ailleurs, les vaccins sont à différencier des sérums ou autres produits injectables même s'ils se rejoignent dans leur mode d'administration.

 

DOCUMENT           santedoc.com          LIEN

 
 
 
 

RELATIVITÉ RESTREINTE

 

Relativité restreinte et naissance de l'espace-temps


Il y a un siècle naissait en deux étapes la relativité selon Einstein : en 1905 la relativité dite restreinte, puis entre 1907 et 1915 la relativité générale. Bien que toutes deux aient révolutionné nos conceptions de l'espace et du temps, la relativité générale était également à son apparition une nouvelle théorie de la gravitation : la première qui soit cohérente et en accord avec les observations, depuis celle de Newton.
13/01/2005 - Par Loïc Villain, Enseignant-chercheur physique théorique
thread créé au premier post Aucun commentaire RÉAGISSEZ

Sommaire

  1/9
 Relativité restreinte et naissance de ...

  
2/9
 Les précurseurs de la relativité ...

  3/9
 Relativité galiléenne : première moitié ...

  
4/9
 La physique newtonienne : du milieu du ...

  
5/9 
Lumière et éther de Newton à Maxwell et ...



  
6/9 
La relativité revisitée et l'éther ...

  
7/9 
Minkowski et la naissance de l'espace-temps : 1907

  8/9
 Tests et applications de la relativité ...

  9/9
 Bibliographie sur la relativité restreinte

 

AddThis Button END

AddThis Button BEGIN
Share on email

AddThis Button END

le cartouche auteur

Loïc
VILLAIN

Enseignant-chercheur physique théorique
Sa biographie
Son métier au quotidien
Sa dédicace
Ses dossiers

/le cartouche auteur
A - Les théories de la lumière

Parmi les principaux outils dont nous disposons pour percevoir notre environnement figure la lumière. Mais la "lumière" en tant que telle est un concept récent qui fut assez long à émerger. En effet, alors qu'il est désormais connu de tous que le monde est perceptible car de la lumière se propage des objets éclairés (ou lumineux) vers nos yeux, pendant longtemps une autre hypothèse ne pouvait pas être écartée. Celle selon laquelle c'est au contraire l'œil qui envoie une sorte de "rayon éclairant" vers le monde afin de le rendre "visible". Toutefois, cette histoire est sans importance pour ce qui nous intéresse ici, et à l'époque de Kepler ou Newton, l'hypothèse d'une lumière qui provenait des objets pour atteindre les yeux avait finalement été admise. Restait cependant encore ouverte la question de la nature de cette lumière. Ainsi, à cette époque, on discutait déjà de deux modèles apparemment incompatibles dont on allait encore parler longtemps, puisque la question de leur validité ne fut définitivement tranchée qu'avec le modèle actuel, né au début du XXème siècle, sorte de compromis les traitant tous deux sur un même pied d'égalité.
Le premier de ces modèles, était atomiste, la lumière étant considérée comme une collection de "petites billes" émises par les corps lumineux. Cette conception mécaniste étant fort compatible avec la dynamique newtonienne et son espace vide, Newton fut naturellement l'un de ses partisans. Il contribua d'ailleurs de manière très importante à son développement, puisqu'il produisit dès 1669 une théorie de la composition de la lumière blanche, et publia en 1675 son "Optique", une théorie de la lumière et des couleurs qu'il remania jusqu'à sa mort. Selon cette théorie, chaque couleur correspondait à des corpuscules se déplaçant à une vitesse différente. La vitesse finie de la lumière ayant été mise en évidence en 1676 grâce à l'observation des satellites de Jupiter par l'astronome danois Ole Christensen Römer, la théorie de Newton s'imposa d'autant plus facilement que sa dynamique avait impressionné. Cependant, le modèle corpusculaire allait être écarté pour une raison que Newton avait très bien pressentie : il ne parvenait pas à rendre compte de l'existence des interférences1, phénomène qui sera décrit après la deuxième théorie sur la nature de la lumière, celle qui parvint à l'expliquer.
Illustration des "anneaux de Newton", interférences lumineuses découvertes par Newton mais qu'il peina à expliquer malgré la sophistication de son modèle corpusculaire de la lumière. Voir par exemple "Lumière et matière : une étrange histoire" de R.P. Feynman pour plus de détails. Source Harvard Lect. Demonstration Services.
Ce deuxième modèle, introduit en 1678 par le physicien et astronome hollandais Christiaan Huygens, décrivait la lumière comme une onde, oscillation partout présente, similaire à celles que l'on peut observer à la surface de l'eau. Or, selon les idées de l'époque, une onde ne pouvait se propager que comme vibration d'un support matériel. Huygens supposa donc qu'elle était supportée par un "éther luminifère", lequel n'avait a priori rien à voir avec l'éventuel "éther gravitationnel" auquel Newton avait bien voulu reconnaître, un peu à contre-cœur, une possible existence. Avec son modèle, Huygens fut à même d'expliquer quantitativement nombre de phénomènes face auxquels la théorie corpusculaire peinait parfois. Cependant, la réputation de Newton était telle que son modèle restait le plus communément admis. Et il fallut attendre le début du XVIIIème siècle, avec le médecin et physicien anglais Thomas Young puis le Français Augustin Fresnel, pour que la preuve soit faite que le modèle corpusculaire échouait là où la théorie ondulatoire fonctionnait à la perfection. Young fit en effet de nombreuses expériences d'interférométrie, qui furent reprises par Fresnel, lequel travailla également sur la théorie de Huygens dont il montra qu'elle prédisait bien les interférences lumineuses.
Afin d'essayer de comprendre comment ce modèle ondulatoire peut expliquer le phénomène des interférences, il convient de présenter deux grandes différences entre particules et ondes, différences qui sont importantes ici :
    •    sous certaines conditions (qui sont respectées dans les modèles considérant la lumière comme une onde), deux ondes peuvent se croiser puis continuer leurs chemins comme s'il ne s'était rien passé;
    •    une onde, qui peut être visualisée, en première approximation, comme le déplacement de va-et-vient vertical d'un "élément physique", peut prendre des valeurs positives comme négatives, alors qu'un "nombre de particules présentes en un endroit donné" ne peut être que positif, ou au pire nul.
Or, le phénomène d'interférences lumineuses correspond à la situation étrange où "lumière+lumière=obscurité", ce qui fait intervenir ces deux effets simultanément. Techniquement, on peut observer des interférences lorsque de la lumière émise par une source unique parvient, par deux chemins différents, jusqu'à un même endroit. On assiste alors à la formation d'une alternance de bandes sombres et éclairées (voir la figure précédente). Si la lumière était composée de particules, on comprendrait mal comment la rencontre de deux faisceaux de celles-ci pourrait amener à une absence de lumière. Une particule plus une particule ne peuvent pas donner une absence de particules, mais plutôt un choc suivi d'une dispersion aléatoire. Au contraire, si la lumière est une onde, on voit bien (par exemple sur la figure ci-dessous), qu'une condition suffisante, et facilement réalisée, pour obtenir une absence de lumière (une frange noire) à partir de deux lumières est que se produise la superposition d'un creux (maximum "vers le bas") de la première vague avec un pic (maximum "vers le haut") de la seconde : à cet endroit précis, la superposition des deux ondes donne un résultat "nul", une absence de lumière, le signe de l'onde (direction du "déplacement") n'intervenant pas dans la valeur de l'intensité lumineuse.

La démonstration mathématiquement précise de ce fait et d'autres effets finit de convaincre la plus grande partie des scientifiques de la nature ondulatoire de la lumière, et indirectement de l'existence de son support matériel : l'éther. Mais alors que l'hypothèse d'un éther gravitationnel n'était pas véritablement fondamentale pour la gravitation newtonienne puisqu'elle n'intervenait pas dans les calculs, l'éther luminifère de Huygens était l'ingrédient clef de sa théorie, omniprésent dans les calculs. Or, l'existence nécessaire de cet éther se révéla problématique, ce que l'on comprit une fois la théorie ondulatoire de la lumière formalisée d'une nouvelle façon, c'est-à-dire par la théorie de Maxwell de l'électromagnétisme.
B - L'éther et la théorie de Maxwell
La grande étape suivante dans l'histoire de la lumière commença de manière complètement indépendante, puisqu'elle est liée à la matière, via la force électrostatique et le magnétisme. Encore une fois, ces sujets furent initialement étudiés par les philosophes grecs, qui avaient remarqué que la résine et l'ambre (en grec, êlektron) acquièrent la propriété de s'attirer ou de se repousser, lorsqu'on les a frottés, mais également que certains minerais attiraient naturellement le fer. Ils constatèrent aussi que mis face à face, deux morceaux de ce minéral pouvaient soit s'attirer, soit se repousser, de même qu'une possible répulsion existait dans le cadre du premier phénomène, l'électrostatique. Certains d'entre eux émirent donc l'hypothèse selon laquelle ces deux phénomènes n'en étaient qu'un seul, ce qui se vérifia au début du XIXème siècle. En effet, au XVIIIème siècle, l'électrostatique et l'électricité, étudiées et développées par divers scientifiques, parmi lesquels le Français Charles Augustin Coulomb2, ainsi que les Italiens Luigi Galvani et Alessandro Volta, restaient cependant imparfaitement comprises, malgré la mise en évidence de l'existence de deux sortes de charges, les charges vitreuses (plus tard positives) et résineuses (négatives). Or, en 1820, le Danois Hans Christian Örstedt découvrit par hasard qu'une aiguille aimantée située à proximité d'un fil parcouru par un courant électrique était déviée. Cette expérience fit beaucoup parler d'elle, et quelques temps après, le physicien français André Marie Ampère présenta une théorie étayée d'expériences ne laissant pas la moindre place au doute : l'électricité et le magnétisme n'étaient que deux aspects d'un même phénomène.
Cette théorie fut suivie de nombreux travaux et expériences, parmi lesquels ceux de l'Anglais Michael Faraday seront les seuls mentionnés ici3. En effet, expérimentateur dénué de toute connaissance formelle et mathématique4, Faraday n'était pas "encombré" par la mécanique newtonienne. Il n'hésita donc pas à la secouer un peu, donnant naissance à un concept qui allait remplacer celui de force et se révéler fondamental pour l'avenir : le champ. Comme Newton autrefois, Faraday ne pouvait accepter la notion d'interaction à distance. Mais alors que Newton construisit sa théorie d'interaction à distance pour l'interaction gravitationnelle, Faraday étudiait les phénomènes électriques et magnétiques. Il pouvait donc expérimenter en laboratoire et constater que ces interactions se propageaient à vitesse finie et non instantanément. Par ailleurs, Faraday ne pouvait admettre que l'énergie5, qui existe du fait de la force qu'exerce un corps sur un deuxième, préexiste, au sein du premier, à la présence de ce deuxième corps, ni même qu'elle apparaisse spontanément, répartie entre eux deux, si ce deuxième corps était soudain mis en présence du premier. Pour Faraday, le bon sens imposait que préexiste à l'interaction entre les deux corps, un "état nécessaire à l'action", qui était réparti dans tout l'espace. Lorsqu'un second corps est introduit, la force qu'il subit "concrétise", selon Faraday, cette énergie qui préexistait. Pour représenter et conforter ses conceptions, il inventa même des schémas sur lesquels couraient des "lignes de champ", graphiques qui matérialisaient en quelques sortes les "courbes de niveau" de "l'état nécessaire à l'action". Dans le cas d'un aimant, on peut par exemple observer ces lignes de champ magnétique en répartissant de la limaille de fer (voir figure suivante). Malheureusement, l'ignorance de Faraday le forçait à s'exprimer dans un vocabulaire qui n'était pas standard et à utiliser de manières erronées certains termes techniques, malgré la validité de ses idées. Ainsi, la plupart de ses contemporains n'accordèrent pas assez d'intérêt à ses travaux, et seul un jeune physicien écossais comprit que, malgré les apparences, le discours de Faraday était cohérent. Il réussit même à le formaliser mathématiquement et à développer dans ce cadre une théorie complète de l'électromagnétisme, théorie au sein de laquelle les deux phénomènes étaient unis pour la première fois avec la lumière.

Illustration des lignes de champ électrique entre deux charges de signes opposés qui s'attirent. Source MIT/TEAL-Studio Phys. Proj..

Cliquez pour agrandir. Illustration des lignes de champ magnétique qui existent autour d'un aimant permanent. Les lignes sont mises en évidence par de la limaille de fer qui se répartit naturellement le long de celles-ci. Source Star Gazers.
Ce jeune physicien écossais, James Clerk Maxwell, s'illustra pour ses travaux en théorie cinétique des gaz, qu'il contribua à créer6, mais avant tout pour cette théorie de l'électromagnétisme qu'il présenta en 1864. Les équations de Maxwell, comme se nomme l'ensemble d'équations qu'il découvrit, ne sont en effet pas qu'une simple unification de l'électricité et du magnétisme, car Maxwell démontra que leur union, le champ électromagnétique, était réellement une "nouvelle substance". Peu de temps auparavant, le physicien allemand Hermann Ludwig von Helmholtz avait montré que le concept d'énergie correspondait à une grandeur ayant une certaine réalité puisque les énergies cinétique (de mouvement), électrique et thermique étaient différents aspects de celle-ci, qui se conservait tout en changeant de "forme". Maxwell, dans la continuité des travaux de Helmholtz, démontra que le champ électromagnétique était le siège d'une nouvelle forme d'énergie véhiculée par les champs électrique et magnétique, forme d'énergie qui pouvait se transmettre aux énergies déjà connues, toutes "mécaniques". Par ailleurs, il montra également que cette nouvelle subtance était fondamentalement continue, dénuée de toute propriété mécanique et telle que ses oscillations se propageaient à une vitesse de l'ordre de 300 000 kilomètres par seconde. De là à supposer que la lumière n'était qu'un type particulier d'onde électromagnétique, il n'y avait qu'un pas que Maxwell franchit sans hésitation, ce qui ne fut malheureusement confirmé expérimentalement qu'après sa mort en 1888 par l'Allemand Heinrich Rudolf Hertz. L'aspect ondulatoire de la lumière était donc vérifié, et sa nature identifiée plus précisément : elle était une onde électromagnétique, véritablement différente de la matière et absolument pas mécanique.

Au-dessus, onde électromagnétique composée de champs électrique et magnétique oscillants (cliquez pour agrandir). Source Astrovision. En dessous, position du spectre de la lumière visible dans le spectre électromagnétique. Source OpticsValley.
Néanmoins, un point important a été occulté : la conception moderne de champ en tant qu'entité qui n'a pas besoin de support matériel était hors de portée des scientifiques du XIXème siècle, Faraday inclus. Le champ électromagnétique de Maxwell était donc supposé être supporté par un milieu matériel, qui fut rapidement identifié avec l'éther luminufère de Huygens. Cet éther continu remplissait le vide entre les atomes, mais rien d'autre. Cependant, à une époque où la théorie atomiste de la matière commençait à être définitivement admise, la naissance d'un "objet physique" continu, qui interagissait avec la matière discontinue, posa des problèmes conceptuels. Par exemple, dans les équations de Maxwell, en plus des champs magnétiques et électriques, figuraient la densité de charge électrique et la densité de courant électrique (interprétée comme un déplacement de ces charges électriques). Or, ces deux grandeurs, étant véhiculées par la matière, ne pouvaient pas être continues "par nature" si la matière était naturellement discontinue. Maxwell en vint donc à reconsidérer les densités de charges et de courant électriques qui figuraient dans ses équations comme des "déplacements d'éther", laissant irrésolu le problème de la compatibilité entre continu et discontinu.
C - Lorentz et l'éther
Cette question fut partiellement réglée par le physicien néerlandais Hendrik Antoon Lorentz. Il démontra en 1895 que les équations de Maxwell étaient compatibles avec une conception dans laquelle l'éther était partout présent, même à l'intérieur des atomes. Avec cette nouvelle théorie de l'électrodynamique, on retournait à l'ancienne vision dans laquelle les champs électriques et magnétiques étaient bien générés par les charges électriques portées par les particules matérielles, et pour la première fois dans l'histoire, une théorie se permettait de décrire précisément la physique aux échelles des particules fondamentales. Cependant, un problème bien plus génant subsistait concernant le rôle de l'éther. Les équations de Maxwell prévoyaient la propagation de la lumière à la vitesse de 300.000 km/s par rapport à l'éther. Or, si l'on cherche à calculer la vitesse de la lumière par rapport à un référentiel qui est lui-même mobile dans l'éther, on observe que la lumière se propage avec une vitesse différente et que les équations de Maxwell changent de forme. Le premier résultat était prévisible, compte tenu de la formule de composition des vitesses découverte par Galilée, mais le second signifie que les référentiels inertiels ne sont plus équivalents. Si l'on inclut les équations de Maxwell dans le cadre de la cinématique newtonienne, il existe donc un référentiel privilégié, celui de l'éther, et mesurer la vitesse de la lumière dans un certain milieu permet de déterminer expérimentalement la vitesse de ce milieu par rapport à l'éther, vitesse qui est une sorte d'absolu puisque l'éther est un référentiel privilégié. Le principe de relativité de Galilée est donc apparemment violé par les équations de Maxwell. Mais jusqu'ici, pas de problème réel : il n'avait jamais été dit que le principe de relativité de Galilée était un principe inviolable.
Le problème survint7 lorsque, après un raisonnement semblable à celui-ci, furent exécutées des expériences dont la plus célèbre est celle, en 1881, de l'américain d'origine polonaise Albert Michelson8, expérience reprise en 1887 en collaboration avec son compatriote Edward Williams Morley. Ces expériences avaient pour but de mettre en évidence le "vent d'éther", effet d'un éventuel déplacement de la Terre à travers l'éther, en mesurant, dans une même direction, la vitesse de la lumière à six mois d'intervalle. De cette façon, si la vitesse de la lumière par rapport à l'éther était "c" et celle de la Terre "v", à une certaine date, la vitesse mesurée (= par rapport à la Terre) de la lumière en mouvement dans le même sens que la Terre, serait "c-v" (conformément à la formule de Galilée), alors que six mois plus tard, une fois que la Terre se déplacerait dans le sens contraire, la vitesse mesurée serait "c+v". Avec ces deux nombres il devait être théoriquement possible de déterminer à la fois "c" et "v". Mais le résultat de l'expérience fut sans appel : dans les deux cas la vitesse de la lumière mesurée était la même. Bien que changeant de sens à six mois d'intervalle, la Terre restait "immobile" dans l'éther.
Notes :
1 le mot "interférence" semble avoir été "inventé" au début du XIXème siècle par l'Anglais Thomas Young, à qui l'on attribue généralement la découverte du phénomène. Il semblerait cependant que l'Italien Garimaldi (découvreur de la diffraction) l'ait peut-être remarqué dès le début du XVIIème siècle (ses notes ne sont pas très explicites), alors que les Anglais Hooke et Newton l'ont observé dans la seconde moitié du XVIIème siècle, mais uniquement dans des conditions bien précises (lame mince).
2 qui établit que la force s'exerçant entre deux "charges" électriques immobiles avait la même forme que la force gravitationnelle proposée par Newton.
3 sur Faraday et son influence sur Einstein, on se reportera au livre de Balibar "Einstein 1905".
4 Faraday commença la physique assez tardivement : enthousiasmé par des conférences du soir auxquelles il avait assisté, il réussit à convaincre l'un des conférenciers de l'engager en tant que préparateur.
5 le concept moderne d'énergie n'était pas encore né, mais Faraday considérait une "quantité" qui lui était assez similaire.
6 la théorie cinétique des gaz, dont il ne sera pas question ici, décrit les notions macroscopiques de pression et température comme des effets moyennés des agitations atomiques.
7 il y avait en fait un autre problème avec l'éther : il devait à la fois être infiniment rigide pour ne pas admettre de vibrations longitudinales, mais également ne pas influer sur le mouvement des planètes.
8 cette expérience fut suggérée par Maxwell, mais il décéda avant de pouvoir participer à son élaboration.

 

 DOCUMENT         futura-sciences.com     LIEN

 
 
 
 

PETITE ET GRANDE HISTOIRE D'ASTROPHYSIQUE

 

Petite et grande histoire d’astrophysique
Jean-Claude Pecker

L’astrophysique a, depuis longtemps, été un domaine d’excellence de la recherche française. L’exploration du cosmos tantôt fascinante, tantôt imprévisible, est avant tout une grande aventure humaine. Jean-Claude Pecker nous invite à un voyage dans le temps et dans l’espace.
The nature of the Universe has fascinated mankind for millenia. Nowadays, some astrophysicists even think they are reaching the origins of the Universe. Is it true? But, true or not, the Universe opens a magnificent landscape, of which we can understand very large appearances. J.-C. P.

1
La revue pour l’histoire du CNRS. Parlez-nous des débuts. Quand l’astrophysique a-t-elle véritablement fait son apparition en France ?
   
2
Jean-Claude Pecker. Au XIXe siècle, au début du XXe, il y avait eu Janssen, Nordmann, Thollon, Deslandres... Mais rien de réellement organisé. Tout a vraiment commencé en 1937 avec Jean Perrin, alors ministre de la Recherche. Il crée le Service d’astrophysique du CNRS qui comprenait deux sites : l’Institut d’astrophysique de Paris (IAP) et l’observatoire de Haute-Provence (Saint-Michel, OHP) et la création d’une revue de niveau international, les Annales d’Astrophysique. Des années ont été nécessaires pour la mise en place des deux établissements et la construction ne s’est vraiment achevée qu’au lendemain de la guerre, en 1946. L’OHP11 a d’abord été dirigé par Jean Dufay. Son directeur adjoint, Charles Fehrenbach, qui s’était délocalisé de Strasbourg pendant l’occupation allemande, a succédé à Dufay après son départ à la retraite. Fehrenbach résidait sur place alors que Dufay était à Lyon où il était Directeur de l’observatoire. Fehrenbach, nommé directeur à Marseille, a continué à diriger l’OHP. Il n’y avait pas de résident. Seuls les directeurs, directeurs adjoints et administratifs disposaient d’un appartement. Les astronomes visiteurs venaient observer, logeaient et mangeaient à la maison « Jean Perrin ».
3
La revue pour l’histoire du CNRS. Décrivez-nous les instruments et les campagnes de mesures.
4
J.-C.P. Au lendemain de la guerre, l’instrument majeur (en dehors de quelques instruments plus petits) fut le grand télescope de 192 cm, de grande qualité. Mais il est aujourd’hui devenu trop petit. De nombreuses équipes françaises y ont effectué des travaux importants. Tous les scientifiques qui ont fait de la spectroscopie en France y ont fait leurs premières armes jusque dans les années 1980-1990. Lieu unique, remarquable avec des télescopes de qualité. De temps en temps, les astronomes allaient ailleurs pour des raisons très spécifiques. Par exemple, Daniel Chalonge observait peu à Saint-Michel car il avait besoin de l’ultra violet et que l’observatoire est trop bas. Il allait au Jungfraujoch en Suisse avec un petit télescope de 30 cm qui lui suffisait pour étudier les étoiles brillantes. L’ozone en quantité plus importante à Saint-Michel y perturbait les observations. Il y a eu également l’observatoire du pic du Midi, et son télescope de 2 m. Beaucoup d’équipes internationales – hollandaises, belges, allemandes, scandinaves – sont venues observer sur place. Les Italiens avaient leur propre site d’observation dans les Dolomites (observatoire Asiago). Les conditions d’observation ont grandement changé ensuite lorsque les chercheurs sont partis à Hawaï dans l’hémisphère nord (CFH, Canada-France-Hawaii) et à l’ESO (Observatoire européen austral, ou European Southern Observatory) dans l’hémisphère sud, au Chili (avec notamment le Very Large Telescope, VLT), où ils pouvaient bénéficier, en altitude, de bien meilleures conditions atmosphériques.
5
La revue pour l’histoire du CNRS. En parallèle, s’est développé le « 98 bis boulevard Arago » à Paris.
6
J.-C.P. Le cas de l’Institut d’astrophysique de Paris (IAP) est tout à fait différent. C’est un observatoire où l’on n’observe pas. Dès le début, une coupole était prévue sur le toit de l’IAP. Un contrat fut établi entre le CNRS et l’Observatoire de Paris. Le premier directeur, Henri Mineur, a été pris entre tourmente et quête de reconnaissance. À mon sens, on en a un peu terni la mémoire. Il disait toujours : « J’ai été le plus jeune astronome adjoint, je suis devenu le plus ancien. » Ce qui soulignait son amertume de ne jamais avoir été nommé astronome titulaire à cause de l’opposition farouche d’André Danjon. Danjon était un personnage austère, détestant les extravagances. À l’inverse, Mineur était un homme à frasques en tout genre. En 1936, Mineur fut très actif au temps du Front populaire. Pendant la guerre, alors qu’il dirigeait l’IAP, Mineur, entré dans la Résistance, fut emprisonné. Suite à une dénonciation, il a été arrêté avec des membres de son réseau. Il a été libéré peu de temps après, laissant ses camarades d’infortune en prison. À la libération, Mineur a été accablé de tous les maux et on l’a accusé d’avoir livré ses amis. Mineur bien que blanchi après jugement à la Libération s’en est tellement voulu qu’il s’est laissé aller, s’adonnant à la boisson. Sa femme Gabrielle, qui avait joué un rôle important aux côtés de Jean Perrin, l’a quitté. Malgré son état de santé, il dirigeait l’IAP et dans ses moments de lucidité, il faisait montre de tous ses talents de scientifique. En 1950, lorsque j’ai soutenu ma thèse, il n’a pas fait partie de mon jury, car il n’était pas professeur à la Sorbonne (condition sine qua non). Le jury était composé d’André Danjon, Alfred Kastler et Croze. C’était la première soutenance de thèse dans l’amphithéâtre de l’IAP (actuel amphithéâtre « Henri Mineur »). Fauvet, le secrétaire de l’institut, s’est finalement inquiété de l’absence de Mineur et l’a retrouvé effondré dans son bureau. « Ils ont fait ça sans moi », répétait-il, désespéré.
7
La revue pour l’histoire du CNRS. Pouvez-vous nous parler de l’œuvre de Mineur ?
   
8
J.-C.P. Mineur était mathématicien plus que physicien. Un mécanicien et un analyste. Il avait constitué un bureau de calcul avec une dizaine de personnes, ses calculatrices. Il a réalisé des travaux remarquables : dynamique de la Galaxie, dynamique des étoiles dans des amas globulaires. Il a beaucoup publié, notamment un traité de calcul numérique. Mineur a fait une découverte qui a été oubliée. Son analyse dynamique des mouvements d’étoiles dans la Galaxie a en effet montré que l’on sous-estimait d’un facteur 2 environ la distance des étoiles Céphéides2. Or, ces étoiles servent de base à l’établissement des distances galactiques en raison de la relation qui lie leur période et leur luminosité3. Cette découverte a conduit à changer l’échelle de temps de la vie de l’Univers. À l’époque, la loi de Hubble, fondée sur l’échelle des distances des galaxies, suggérait pour l’Univers une durée de vie de 2 milliards d’années, plus courte que celle de la Terre ! Ce qui était inacceptable. La correction de Mineur (datant de 1945) a servi à diviser par deux la constante de Hubble et donc à multiplier par deux l’âge de l’Univers. Ce fut une surprise pour la communauté scientifique ! Mais personne aujourd’hui ne mentionne plus Mineur ! Walter Baade, qui avait fait la même découverte à partir d’un point de vue différent, a présenté ses résultats au congrès de Rome de l’Union astronomique internationale de 1952. C’est de lui seul dont on se souvient.
9
La revue pour l’histoire du CNRS. Qui a pris la succession de Mineur ?
    
10
J.-C.P. Mineur qui était diabétique, est mort prématurément (1952) et fut remplacé par Danjon. L’IAP a dû s’organiser autour de différentes équipes autonomes : Chalonge et son groupe, Daniel Barbier et son groupe, notamment des géophysiciens comme Gilbert Weil, spécialiste de magnétisme terrestre, et Vigroux, spécialiste de l’ozone atmosphérique, Evry Schatzman aussi et son équipe de théoriciens (dont j’étais) qui ont créé l’astrophysique théorique en France. Ces groupes ont, peu à peu, occupé les locaux qui venaient d’être construits. La coupole a été utilisée dans le but d’expérimenter les appareils, des spectrographes mobiles. Tout était fabriqué sur place (électronique, mécanique, optique) y compris les spectrographes. André Danjon parti à la retraite (1962) est remplacé par André Lallemand. Au même moment, l’équipe de Schatzman emménage au laboratoire d’astrophysique de Meudon en 1960 et je pars en 1962 pour diriger l’observatoire de Nice. J’ai quitté la direction de l’observatoire de Nice par anticipation, en 1969, car je n’approuvais pas le système de la loi d’orientation trop contraignant en matière administrative. Après un bref intermède meudonnais, je suis revenu en 1972 pour succéder à André Lallemand à la direction de l’IAP4. Une partie de l’équipe provenait de Meudon. Avec un accord avec le Collège de France (où j’avais été élu en 1963) pour l’entretien du laboratoire. Mais la tâche n’était pas aisée : il fallait redonner un peu d’unité à un établissement qui était une sorte de « patchwork » d’équipes. J’ai été amené à faire des coupes sombres et à me défaire des géophysiciens qui n’y avaient pas leur place. Cela a été un déchirement pour moi et pour eux, mais cette décision était nécessaire. La recherche s’est reconcentrée sur l’astrophysique et l’atelier s’est réduit à peau de chagrin pour disparaître définitivement. Nous avons transformé les sous-sols en laboratoires. Le sous-directeur, Roger Peyturaux, directeur de recherche au CNRS, un compagnon des années de thèse, était un personnage très attachant. Il a fait de très beaux travaux sur le spectre solaire. Jean Audouze a pris ma suite en 1979. Je suis resté dans le laboratoire en tant que directeur du laboratoire du Collège de France jusqu’en 1988. Mon témoignage direct s’arrête là.
11
La revue pour l’histoire du CNRS. Vous prononcez un véritable plaidoyer pour l’astrophysique théorique.
      
12
J.-C.P. Et pour cause ! Bien souvent les observations sont belles mais elles ne sont pas bien interprétées. Ou alors avec des concepts anciens. Il est primordial d’utiliser de la bonne physique, valide dans les conditions des milieux astrophysiques. Le spectre de l’astrophysique est très large. On passe de densités énormes (de l’ordre de 1013 g/cm3, dans les « étoiles à neutrons ») à des densités très faibles (10-30 g/cm3, dans le milieu intergalactique). Plus de 1040 ordres de grandeur entre les extrêmes ! Même chose pour les températures : quelques degrés absolus dans le vide interstellaire, des températures de l’ordre du million de degrés dans la couronne solaire, quinze millions de degrés au centre du soleil, encore plus grandes dans les supernovas. Les problèmes dynamiques sont de nature différente de ceux qu’on rencontre dans la physique de laboratoire car il n’y a pas de parois. Comment étudier les turbulences et les flots turbulents dans un milieu illimité (limité seulement par lui-même ou par la gravité) ? On ne peut pas traiter les phénomènes magnétiques indépendamment des phénomènes dynamiques. On doit constamment faire appel à la magnétohydrodynamique, inventée par Hannés Alfvén, un astronome5. Il y a des quantités de phénomènes que l’on comprend encore très mal. Par exemple, la structure solaire et la pénétration convective. Il est difficile d’expliquer ce qui se passe dans la jonction entre la zone convective (énergie transportée par des mouvements convectifs) et la zone radiative (énergie transportée par le rayonnement).
13
La revue pour l’histoire du CNRS. N’est-ce pas « frustrant » pour un physicien, que son laboratoire ne possède pas de frontières ?
14
J.-C.P. Non, les objets que nous observons sont déjà très intéressants. Nous disposons d’outils performants en constante évolution. Du temps de Hubble, on dépassait à peine l’amas local de galaxies (des millions d’années de lumière). Aujourd’hui, on atteint les milliards d’années de lumière ! Le progrès est considérable. Un volume exploré multiplié par un milliard ! Les théoriciens dépendent profondément des progrès de l’observation. Le danger : l’observation va trop vite pour que la théorie suive et propose un nouveau prisme d’observation. Il y a encore un décalage énorme entre théorie et observation.
15
La revue pour l’histoire du CNRS. L’astrophysique est une discipline où théorie et observations sont intimement liées.
16
J.-C.P. Prenons le cas du Soleil. Son énergie se consomme de jour en jour. Donc, les paramètres varient en permanence, lentement certes, mais ils varient. Le rayonnement du Soleil est une conséquence directe de la transformation de l’hydrogène en hélium (proposition de Jean Perrin, 1919). La composition du Soleil change, mais lentement. On peut calculer avec une bonne précision le moment où la teneur en hydrogène sera tellement faible que le système de réaction sera modifié. L’hélium se transformera en élément plus lourd à une température plus élevée. Le Soleil changera d’état et deviendra une géante, puis s’effondrera en naine blanche, une fois les carburants consumés. On maîtrise bien l’évolution future du Soleil à quelques centaines de milliers d’années près. La théorie est indispensable car il faut non seulement comprendre ce qu’on a observé, mais aussi pouvoir planifier les expériences à faire. La séismologie stellaire n’a de sens que grâce aux travaux théoriques sur le Soleil. Un laboratoire sans théoriciens n’est pas un laboratoire de qualité.
17
La revue pour l’histoire du CNRS. Vos propos dénotent un certain regret par rapport à la théorie.
18
J.-C.P. Une véritable école d’astrophysique, autour de Schatzman, s’était constituée en France dans les années d’après-guerre. Mais aujourd’hui, les instruments sont tellement sophistiqués, les observations, spatiales notamment, sont tellement coûteuses qu’il faut y consacrer tous les moyens. On ne recrute que peu de théoriciens. Pour être recruté, il faut avoir un programme à la clef. Or les programmes sont orientés par les observations. La théorie bien que moins onéreuse ne trouve pas preneur. L’astrophysique théorique est donc, de fait, en baisse de régime actuellement en France. L’astrophysique actuelle est aussi la « victime » du développement des ordinateurs rapides. On a la tentation de calculer plutôt que de réfléchir. Je voudrais mettre en garde la nouvelle génération de chercheurs. Il faut faire de la bonne physique et se méfier du calcul trop facile.
19
La revue pour l’histoire du CNRS. Qu’avez-vous envie de dire pour conclure ? L’astrophysique, à quoi sert-elle ?
20
J.-C.P. Si je voulais être un brin provocant, je répondrais, « À rien, heureusement ! ». Mais au-delà du clin d’œil, je pense que c’est un élément de culture à part entière ! À quoi sert de lire Shakespeare ? À rien ! (Ndlr : un blanc). L’astrophysique n’apporte aucun profit financier, or, aujourd’hui, seules les retombées économiques comptent ! L’astrophysique ne permet à aucune compagnie privée d’engranger de l’argent sauf peut-être à celles qui fabriquent des instruments. L’astrophysique sert à comprendre l’Univers. C’est une démarche essentiellement intellectuelle, – le plaisir de comprendre, le plaisir de connaître, l’accumulation du savoir. L’astrophysique sert à être heureux.
21
Propos recueillis par Marie Pinhas-Diena le 29 novembre 2007 au Collège de France.

Notes
1 Véron P. « Pré-histoire de l’observatoire de Haute- Provence ». In Colloque : Observatoires et patrimoine astronomique français, Nantes, 8-9 juin 2001.
2 Étoile géante ou supergéante jaune, de 4 à 15 fois plus massive que le Soleil et de 100 à 30 000 fois plus lumineuse, dont l’éclat varie de 0,1 à 2 magnitudes selon une période bien définie, de quelques jours, d’où elle tire son nom d’étoile variable.
3 Loi découverte par Henrietta Leavitt en 1912.
4 Élu selon la loi d’orientation de la recherche.
5 Dont Hannes Olof Gösta Alfvén, prix Nobel de physique en 1970.
Haut de page
#notes
Pour citer cet article
Référence électronique
Jean-Claude Pecker, « Petite et grande histoire d’astrophysique », La revue pour l’histoire du CNRS [En ligne], 23 | 2008, mis en ligne le 03 janvier 2011, consulté le 15 mai 2015. URL : http://histoire-cnrs.revues.org/8623
Haut de page
#quotation
Auteur
Jean-Claude Pecker
Jean-Claude Pecker est astrophysicien. Il est professeur honoraire au Collège de France (chaire d’astrophysique théorique) et membre de l’Académie des sciences.


 DOCUMENT     histoire-cnrs.revues.org   LIEN

 
 
 
 

LES GRANDS INSTRUMENTS DE LA BIOLOGIE MOLÉCULAIRE

 

Les grands instruments de la biologie moléculaire, prémices de la médecine de demain
Pierre Tambourin



The Molecular Biology Large Equipments, Beginnings of the Tomorrow Medicine
Essentially historical, the concept of very large scientific equipments finds its origin in the particle physics large apparatus. Since 1995, it concerns only physics and universe sciences.
With the discovery of DNA in 1953, the emergence of genomics developed the necessity for large biology equipments leading to the creation of the national sequencing and genotyping centers.
DNA is going to exert such a fascination on researchers worldwide that a lot of laboratories will concentrate their research on this molecule. At the end of the 70’s, creation of genetic engineering tools will foster understanding of gene action. These discoveries will necessarily converge in the project of the sequencing of all information contained in DNA. The first efficient sequencing method is due to Frederick Sanger but this method will remain at a very small scale. But in 1986, Leroy Hood and Lloyd Smith, two brilliant researchers, imagine the first automatic sequencer. This tremendous evolution will induce a revolution in biology which will mark the research of Genethon, laboratory of the French Association of Muscular Dystrophy. Their research allowed the publication of the physical map of the human genome in 1992 and of the genetic map in 1993. As in the physics field where practical experiments are almost impossible to realise in laboratory, these new tools lead to the creation of two large facilites in biology: the national sequencing center and the national genotyping center.
Genomics also study the expression of all the genes. It concerns in fact, a new vision of most intimate aspects of the living being that offer conceptual and medical revolutions of which the instruments are high speed data processing and molecular techniques. This new dimension of man and his pathologies will lead to an individual medicine where the study of the human genome will help to deal more specifically with the patient and the increase of the efficiency of a treatment on patients affected with the same disease.
Haut de page


Mots-clés :ADN, séquençage, pathologie, génotypage, biologie moléculaire, Téléthon, AFM, Génopole, gène, bioparc, génome, biotechnologies
Haut de page
Plan

Les nouveaux TGE
Tout commence avec la découverte de l’ADN…
Les pionniers du séquençage
Le pas de géant du laboratoire Généthon
La révolution conceptuelle de la biologie à grande échelle
Le séquençage : artisan de nouvelles techniques moléculaires
Les fondations d’une nouvelle médecine
La nouvelle dimension génétique de l’Homme et de ses pathologies : les besoins en génotypage

1  Longtemps réservés à la physique des particules, les besoins en très grands équipements (TGE) de la biologie deviennent urgents avec l’émergence de la génomique, science qui étudie l’ensemble des informations génétiques d’un être vivant. Ces laboratoires, inédits tant dans leur conception que dans leur taille, offrent une nouvelle vision du vivant dans ses aspects les plus intimes et promettent des révolutions conceptuelles et médicales grâce aux techniques moléculaires et informatiques qui les construisent. Ils offrent, en somme, une nouvelle dimension de l’homme qui substitue à la médecine symptomatique une médecine individualisée où l’étude du génome de l’individu permettra à la fois une prise en charge beaucoup plus spécifique du malade et un accroissement de l’efficacité du traitement chez des patients atteints du même type de lésions.

2  Deux réalisations exceptionnelles marquent, en France, le passage du XIXe au XXe siècle : la construction de l’Observatoire du Pic du Midi à partir de 1878 et celle du grand électro-aimant de Bellevue en 1920. Rien d’étonnant, en somme, que la patrie de Descartes et du pendule de Foucault soit aussi celle où l’histoire des grands instruments commence et se pérennise. Elle prendra ses habits de modernité en 1949, lorsque le physicien français Louis de Broglie propose la création d’un laboratoire scientifique d’envergure européenne, peut-être pour favoriser la reconstruction d’un continent meurtri par la guerre.

3  La mise en service en 1957 du premier accélérateur de particules du Cern1, à Genève, inaugure l’ère de la coopération scientifique internationale qui s’accomplit dans la construction de très grands équipements (TGE) et dont le rythme de création s’accélèrera au début des années 1970. La notion de TGE est donc essentiellement historique et plonge ses racines dans les mystères de l’univers et ceux de la matière, en particulier dans la physique des particules. L’un de ses principaux enjeux n’était-il pas, en effet, l’identification des constituants les plus élémentaires de la matière ?

4  L’échelle de financement et de fonctionnement de ces grands instruments ainsi que leur degré de sensibilité et leurs exigences techniques les placent au-delà des moyens des laboratoires et, parfois, des organismes nationaux de recherche eux-mêmes. Ainsi, les laboratoires du CNRS, organisme de gestion de ces TGE de la physique, sont incapables d’en supporter seuls les coûts. La technique utilisée a donc été celle des budgets protégés qui, isolés des enveloppes classiques, sont affectés à leur construction et leurs frais de fonctionnement.

5  Ces réalisations favorisent une recherche coopérative pluri-organismes dans un contexte national, européen et international. Leur principe de fonctionnement est d’être mis gratuitement au service de la communauté scientifique pour des expériences évaluées par un comité ad hoc. Les synchrotrons, dont ceux de troisième génération comme Soleil2, sont utilisés par plusieurs milliers de chercheurs de diverses disciplines. De même, en physique gravitationnelle, le projet franco-italien Virgo3, s’attaque à la démonstration de l’une des constructions intellectuelles les plus élaborées de la physique : l’existence, selon la théorie de la relativité générale, d’ondes gravitationnelles qui se propagent à travers l’espace, à la vitesse de la lumière.

Les nouveaux TGE
6  Jusqu’en 1995, cette notion de TGE ne concernait, de fait, que les disciplines qui s’articulaient autour de la physique ou de l’astrophysique. Or, des changements considérables sont intervenus dans le travail d’autres secteurs de la recherche, de sorte que l’Office parlementaire d’évaluation des choix scientifiques et technologiques4 (OPECST) estime qu’une simple définition de ces TGE par leur coût et leur financement ou par la désignation d’un instrument unique sur un lieu unique est désormais obsolète.

7  L’exemple de la recherche en sciences de l’homme et de la société est symptomatique de cette évolution car elle a créé des besoins importants comme les bibliothèques numérisées ou les bases de données gigantesques. Même constat pour la recherche génomique et post-génomique où de grands instruments comme les centres de séquençage et les cliniques de la souris deviennent des outils « indispensables ». Or, aujourd’hui, la seule animalerie en France qui possède les caractéristiques d’un TGE est la clinique de la souris fondée à Strasbourg par le professeur Pierre Chambon.

8  L’apparition de ces nouveaux instruments très sophistiqués dans d’autres disciplines que la physique s’est accompagnée d’un changement dans les modalités de leur mise en place : désormais, ils échappent entièrement ou partiellement aux grands organismes de la recherche publique. L’OPECST souligne d’ailleurs qu’une autonomie de gestion est nécessaire aux TGE pour leur construction et leur exploitation et qu’il « serait vain et contre-productif que les plus hautes autorités de la recherche assurent le pilotage direct du lancement des TGE car la direction d’un tel projet exige une expérience de scientifique et de management et au surplus une liberté de manœuvre sinon d’action5 ». Les caractéristiques des TGE imposent donc la création de structures dotées d’une autonomie réelle, concrétisée d’ailleurs par le fait que la plupart des grands équipements sont créés ou gérés par une équipe ayant à sa tête un scientifique reconnu par ses pairs. Ainsi, lors de la création du Cern, Pierre Auger, directeur scientifique de l’Unesco, a joué un rôle essentiel. Enfin, une autre spécificité importante tient au rythme d’utilisation de ces TGE caractérisé par un service continu, 24 heures sur 24 et 7 jours sur 7. Dans ces conditions, les mises à disposition par les organismes de recherche, de personnels soumis aux règles de la fonction publique sont parfois difficiles sinon ingérables. En conséquence, les statuts de droit privé sont mis en avant pour leur plus grande souplesse et les TGE prennent souvent les statuts juridiques de Gip (Groupement d’intérêt public) dérogatoires ou de sociétés civiles qui ont la capacité de recruter leurs personnels.

9  C’est dans ce contexte qu’au milieu des années 1990, les prémices des deux premiers grands instruments de la biologie ont vu le jour dans l’hexagone, à l’intérieur d’une structure de recherche associative, donc privée. Il s’agit du laboratoire Généthon créé par l’Association française contre les myopathies (AFM). En parallèle, un programme de recherche international démarre aux États-Unis sous le nom de Human genome project. Dès lors, l’arrivée de la génomique6 impose la mise en place de nouveaux types de laboratoires faisant évoluer la biologie d’un stade artisanal à un niveau beaucoup plus automatisé, quasi industriel. Il était donc nécessaire de trouver des solutions pour mobiliser des moyens propres à créer les structures ad hoc comme celles qui verront le jour à Évry : le Génoscope-Centre national de séquençage (CNS) et le Centre national de génotypage (CNG). C’est à la suite de ces décisions que fut lancé le projet Genopole.

Tout commence avec la découverte de l’ADN…
10Conséquences du développement rapide de la recherche, ces deux grands instruments s’inscrivent dans les révolutions essentielles qui secoueront la biologie au cours de la seconde moitié du xxe siècle jusqu’au bouleversement très récent (1992) que constitue l’avènement de la génomique.

11  Tout commence en 1913 lorsque l’américain Thomas Morgan découvre que les chromosomes portent les gènes7. Trente ans plus tard, en 1944, le New-Yorkais Oswald Avery démontre que l’acide désoxyribonucléique ou ADN, molécule quasi universelle dans le monde vivant porte l’information génétique de ces êtres vivants. Il fait la démonstration formelle de son rôle dans la transmission d’informations héréditaires. Tout s’enchaîne alors très vite. Le 25 avril 1953, un article des Britanniques James Watson et Francis Crick, paru dans la revue Nature, décrit pour la première fois la structure tridimensionnelle en double hélice de l’ADN. Celle-ci, véritable « mémoire » du vivant, renferme sous une forme chimique, au demeurant assez simple, l’ensemble des instructions élémentaires – ou gènes – nécessaires aux activités et au maintien de l’intégrité d’une cellule ou d’un organisme. La connaissance de ces instructions et surtout de leur combinatoire d’usage est indispensable à la compréhension des phénomènes biologiques au niveau cellulaire et moléculaire.

12  Ce n’est pourtant qu’en 1964 que des recherches montrent comment l’enchaînement linéaire des quatre constituants chimiques qui forment l’ADN peut déterminer la synthèse et surtout la structure d’une protéine8. Découverte fondamentale puisqu’au sein d’un organisme vivant, certaines protéines forment la charpente physique des cellules, d’autres leur permettent de fonctionner. Elles servent de matériau de construction, de récepteurs pour les signaux dans et entre les cellules et de catalyseurs pour les réactions biochimiques. Ainsi, dans bon nombre de maladies génétiques, une altération dans la structure d’un gène (mutation) se traduit par la synthèse d’une protéine défectueuse ou par son absence.

13  L’ADN apparaît alors comme « la molécule essentielle du vivant ». La fascination qu’elle exerce sur les chercheurs génère de nombreux travaux sur ses propriétés : comment se réplique-t-elle ? Comment évolue-t-elle ? De quelle manière diffère-t-elle d’une espèce à l’autre ? À l’occasion de ces recherches très fondamentales, les biologistes découvrent tout un ensemble de protéines-enzymes9 impliquées dans la réplication, dans la recombinaison10 et dans toutes les opérations moléculaires qui gravitent autour de l’ADN. Ces protéines deviennent alors autant d’outils potentiels pour faire in vitro ce que la cellule fait in vivo. Les premiers outils d’un véritable génie génétique11 sont ainsi découverts à la fin des années 1960. Ils vont permettre de comprendre l’intimité du fonctionnement du vivant, en particulier des gènes. Conséquence pratique, dès 1978, les biologistes utilisent des bactéries pour « fabriquer » des hormones humaines : insuline ou hormones de croissance, qu’aucun chimiste ne peut synthétiser. L’ère des biotechnologies nouvelles commence.

Les pionniers du séquençage
14  Dans les années 1970, ces recherches aboutissent à la constitution progressive de ce que j’appelle la « caisse à outils du vivant ». Les outils moléculaires qui la composent sont souvent d’origine bactérienne comme les enzymes de restriction, sorte de « molécules ciseaux » capables de découper l’ADN au niveau de régions très spécifiques. Également très utilisés, les plasmides sont de petits fragments d’ADN circulaires qui se multiplient de façon autonome au sein d’une bactérie qui se divise ; dès les débuts de la génétique dite moléculaire, bactéries et plasmides servent de « tubes à essais vivants ». D’autres enzymes sont disponibles comme les ligases qui aident à recoller des fragments d’ADN double-brin ou les polymérases qui permettent de recopier une séquence d’ADN à l’identique. Les fragments d’ADN peuvent aussi être séparés par leur taille, grâce à un champ électrique généré dans un gel d’électrophorèse. Tout ceci permet, en fait, l’opération simplissime suivante : couper dans une molécule d’ADN d’une espèce donnée un petit morceau choisi à l’avance et situé à un endroit déterminé, pour le greffer dans une autre molécule d’ADN d’une espèce différente, à n’importe quel endroit. Tour de passe-passe rendu possible en raison de la nature même de l’ADN, molécule universelle du vivant.

15  Ces découvertes mènent naturellement à l’idée d’appréhender complètement toute l’information contenue dans l’ADN. Ceci passe par le déchiffrage chimique de l’enchaînement des quatre molécules de base (A, T, G, C), un peu ce que l’on fait lorsqu’on essaie de comprendre un livre, une phrase écrite dans un alphabet inconnu. L’opération s’appelle séquençage. Les premières méthodes permettant de « séquencer » datent de la fin des années 1970. La plus utilisée est celle du Britannique Frederick Sanger dite « séquençage enzymatique de Sanger » qui lui a valu son deuxième prix Nobel de chimie en 1980 avec P. Berg et W. Gilbert. Elle permet de déterminer l’arrangement linéaire des nucléotides A, T, G, C. Avec ces premières techniques, ont peut lire quelques centaines de ces molécules élémentaires. Au milieu des années 1980, ces méthodes utilisées de façon manuelle dans les laboratoires, commencent seulement à être automatisées…

16  En vérité, la plupart des chercheurs ne perçoivent pas les mutations profondes qui commencent à ébranler la recherche en biologie, véritable changement de paradigme dû, justement, au développement de ces technologies. À cette époque, étudier l’expression d’un gène unique occupe la majeure partie du travail d’un chercheur… et une partie de sa carrière ! C’est le biologiste américain Ed Coe qui s’exclame : « Il y a tellement de gènes, et si peu de temps ! ». Chaque gène à étudier demande, de surcroît, une approche adaptée : le scientifique est occupé à développer et optimiser les techniques ; en réalité, il crée des instruments révolutionnaires.

17  Un autre événement décourage la recherche à la fin des années 1980 : Japonais et Américains échouent dans leur tentative de séquençage d’E. coli12. Les techniques utilisées ne sont pas encore assez mûres et les chercheurs n’ont pas intégré la nécessité d’organiser le travail de séquençage de manière industrielle. Les laboratoires travaillent encore de façon artisanale. Inutile, dans ce contexte, d’évoquer le séquençage du génome humain qui passe pour une entreprise réservée aux fous ou aux mégalomanes. Deux chercheurs vont, pourtant, imaginer un appareil qui rend possible un tel projet : en 1986, Leroy Hood et Lloyd Smith présentent la première machine de séquençage automatisée. Ce début de changement de paradigme, né de l’ambition de connaître l’ensemble de l’information génétique d’un individu, provoque une révolution dans la biologie qui va lancer les recherches du laboratoire Généthon, créé par l’AFM.

Le pas de géant du laboratoire Généthon
18  Trouver des solutions thérapeutiques pour traiter les maladies génétiques rares est la vocation première de l’AFM. Or, la découverte de ces molécules suppose de mieux connaître la maladie et donc le gène à l’origine de cette pathologie pour espérer le corriger directement ou améliorer le fonctionnement de la protéine défectueuse. Rechercher un gène dans l’ensemble de l’ADN humain revient à rechercher une ou quelques pages dans un livre d’un million de pages dont on ne connaîtrait à peu près rien.

19  Pour rechercher un gène, il fallait donc mieux connaître le génome de l’Homme. Sur ce dernier point, l’AFM, via son président de l’époque Bernard Barataud, trouve que les recherches ne vont pas assez vite, constat qui emporte alors la décision d’investir dans des recherches axées principalement sur une connaissance plus fine du génome de l’Homme. Le laboratoire Généthon voit le jour en 1990 grâce aux dons du Téléthon et l’appui de l’un de ses principaux inspirateurs, le prix Nobel Jean Dausset ainsi que de son élève Daniel Cohen. Ce dernier est convaincu que la seule manière de s’attaquer sérieusement au génome est de changer d’échelle dans la manière d’aborder ces questions. Il propose l’installation d’un laboratoire révolutionnaire, où plusieurs dizaines de machines fonctionnent en parallèle, où des automates remplacent des techniciens, le tout géré par une informatique de pointe, fonctionnant jour et nuit, 7 jours sur 7. Il va à contre courant de ce qui est usuel en matière de biologie à l’époque, même au États-Unis, en appréhendant le génome globalement, grâce à ces méthodes à grande échelle. Pour cela, il faut beaucoup d’argent. Le Téléthon et son succès arrivent fort à propos. Dans la foulée, Bernard Barataud attire un autre scientifique de renom, Jean Weissenbach, actuel directeur général du Génoscope. Leurs travaux permettent de produire en 1992 la première carte physique du génome humain13 et l’année d’après une carte génétique14 de seconde génération, toujours utilisée dans le monde entier pour accélérer la découverte des gènes impliqués dans les maladies génétiques. Le laboratoire du Généthon, né des efforts de l’AFM pour faire aboutir ses propres recherches, positionne la France au premier rang mondial dans la recherche en génomique. Surtout, il fonde une approche nouvelle qui aboutira à la création des deux grands instruments de la biologie en France.

20  Au milieu des années 1990, de grands équipements similaires apparaissent simultanément dans les grands pays de la recherche en biologie. Le premier d’entre eux est le Sanger Institute, centre de séquençage britannique créé en 1994 par une fondation privée, le Wellcome Trust. Aujourd’hui encore, le Sanger Institute reste le plus grand centre du monde réalisé dans l’esprit d’un TGE de la physique, dans la mesure où il prend complètement en charge des projets que des laboratoires seuls ne peuvent pas accomplir. Dans cette logique, le Wellcome Trust supporte l’essentiel des coûts du Centre et, en échange, le laboratoire travaille gratuitement pour les équipes de recherches dont les programmes ont été acceptés par le comité scientifique.

21  En France, ceci ne se faisait pas en biologie et ce n’est que lorsque l’AFM demanda à l’État, en 1994, de prendre le relais de son action, que le ministère de la Recherche décida, en 1996, de créer le Centre national de séquençage et, en 1998, le Centre national de génotypage. Ce sont les deux premiers grands instruments de la recherche en biologie, premiers « édifices » proches de ce qui se faisait en physique. à ceci près que, lors de leur création, leurs budgets respectifs ont été pris en charge, non par le CNRS mais directement par le ministère de la Recherche, c’est-à-dire l’État. Ces TGE de la biologie à grande échelle15 ont conservé leur lien direct avec le ministère, c’est-à-dire qu’ils reçoivent des moyens leur permettant à la fois de se gérer et d’acquérir les outils dont ils ont besoin. Ils disposent donc d’une certaine indépendance financière… qui échappe dans ce cas au CNRS et à l’Inserm. Notons, sans le commenter, que pendant cette même période, le CNRS acceptera de participer activement à deux autres grands projets de TGE pour la physique : Virgo et Soleil.

La révolution conceptuelle de la biologie à grande échelle
22  Ces grands instruments s’inscrivent pourtant dans un processus qui n’est pas simplement de doter la recherche de moyens financiers protégés. C’est aussi une manière de participer à une évolution qualitative très forte qui peut aboutir à des révolutions conceptuelles et médicales dont on imagine encore difficilement aujourd’hui les conséquences pour demain. Ces technologies nouvelles vont sortir la biologie moléculaire de l’une des critiques essentielles et légitimes qui lui était faite : son réductionnisme. L’une des principales attaques reposait sur la manière de généraliser les résultats : comment peut-on comprendre le vivant et sa complexité en observant le fonctionnement d’un seul gène ? Cela revient à vouloir comprendre la complexité de la sociologie humaine en étudiant un individu particulier, ce qui n’a guère de sens. Toutes ces critiques étaient fondées mais la biologie moléculaire était très réductionniste car… elle ne savait pas faire autrement ! Ainsi, la mission du Centre national de séquençage – Génoscope – qui est de produire et d’interpréter de grands volumes de données de séquences de haute qualité, a fait basculer le travail dans une dimension supérieure.

23  Des centres de séquençage de l’ADN comme le Génoscope, véritable usine à produire des séquences, sont nécessaires car il est impossible de lire d’une traite la séquence des immenses molécules d’ADN – les chromosomes16 – qui renferment l’information héréditaire d’un organisme. Les chromosomes humains contiennent des molécules d’ADN longues de plusieurs dizaines à plusieurs centaines de millions d’éléments. Or, chaque opération élémentaire de séquençage ne livre qu’un fragment de 500 à 1 000 éléments. Il faut donc en réaliser un très grand nombre et même produire un volume de séquences plusieurs fois supérieur à la taille du chromosome, ces lectures répétées permettant de raccorder les séquences les unes aux autres et de s’assurer de la qualité du résultat de chaque lecture individuelle. Déterminer la séquence complète d’un chromosome humain nécessite ainsi des dizaines de millions de lectures. L’opération s’apparente à la reconstitution d’un livre dont on aurait découpé les milliers de pages en petits morceaux de 500 lettres, à la différence près que, dans l’ADN, il n’y a ni virgule, ni point, ni renvoi à la ligne, ni paragraphe visible ou aisément décelable.

24  Avant le séquençage total du génome humain, quelques gènes avaient été identifiés et concernaient, pour la plupart, les maladies génétiques rares dites monogéniques car conséquences de la mutation ou de la modification intervenant sur un seul gène, comme la myopathie, la mucoviscidose ou l’hémophilie. Or, les technologies dites de la biologie à grande échelle permettent de connaître la structure de milliers de gènes de diverses espèces, de suivre le fonctionnement de 20 000 gènes en même temps et d’inventorier un très grand nombre de protéines présentes dans une cellule, c’est-à-dire d’acquérir un jour la connaissance quasi exhaustive du génome et des molécules du vivant. L’idée n’est pas seulement de faire beaucoup plus et d’aller plus vite, mais d’avoir un regard sur le vivant plus proche de la réalité. Et cela est capital. Si au lieu d’observer l’expression d’un seul gène dans une cellule, nous sommes capables d’étudier la manière dont tous ces gènes interagissent dans le temps, nous aurons une représentation plus fidèle de la réalité et du fonctionnement du vivant. De la même façon, si nous pouvons répertorier à un moment donné toutes les protéines (ou presque) présentes dans une cellule, nous aurons une idée beaucoup plus précise de leur fonctionnement.

Le séquençage : artisan de nouvelles techniques moléculaires
25  Ces efforts de séquençages systématiques des génomes de virus, de bactéries et d’organismes dits supérieurs, dont l’Homme, ont conduit à développer les techniques d’acquisition de données moléculaires. Autrement dit, les grands projets de séquençage du génome ont permis de découvrir de nouvelles technologies moléculaires, sorte d’iceberg dont la partie visible est aujourd’hui la génomique structurelle et fonctionnelle17. Demain, la connaissance de la partie immergée mettra à jour un changement de paradigme sur les aspects fondamentaux et appliqués de la biologie. Il s’agit, en fait, d’une nouvelle vision du vivant dans ses aspects les plus intimes, dont les techniques moléculaires et informatiques à grand débit sont les instruments.

26  Au niveau du génome, les puces à ADN18 permettent déjà d’appréhender une dimension nouvelle. Si la génétique permet d’isoler un gène à fonction connue et de l’étudier au niveau moléculaire, la génomique livre une pléthore de gènes dont il faut déterminer les fonctions et les interactions. Ces deux approches ne sont pas antinomiques mais complémentaires.

27  L’étude du transcriptome19 est réalisée via des « puces », ou d’autres méthodes à grand débit comme le Sage20, capables de détecter l’expression de la quasi totalité des gènes d’un organisme à analyser. La génomique permet même de suivre l’expression de tous ces gènes dans le temps, avec de surcroît, les niveaux d’expression de chaque gène interdépendant. Ainsi, toutes ces techniques moléculaires à grand débit comme les puces à ADN ou le procédé de réaction de polymérisation en chaîne (PCR) qui permet de reproduire à volonté et en très grand nombre des fragments d’ADN à partir d’une quantité infime de matériel, modifient le contexte actuel des projets de recherche dans les sciences médicales et la biologie moléculaire humaine.

Les fondations d’une nouvelle médecine
28  Ces recherches prendront toute leur ampleur en médecine et, par exemple, en cancérologie, maladie qui affecte la croissance et les propriétés « sociales » des cellules normales. L’organisme assure un contrôle strict des multiplications cellulaires. Pour diverses raisons complexes, il peut arriver qu’une cellule échappe à la vigilance de notre organisme. Ce phénomène, rare, va entraîner une multiplication incontrôlée et anarchique des cellules, aboutissant à ce que l’on appelle une tumeur locale puis à un cancer généralisé lorsque cette tumeur essaime dans l’organisme.

29  Si nous prenons pour exemple la différence entre les recherches que nous développions en cancérologie il y a vingt ans et ce que l’on fait aujourd’hui grâce à ces nouvelles technologies, le fossé est immense. À l’époque, notre travail visait à tenter d’identifier à l’intérieur d’une cellule cancéreuse, humaine ou animale, les gènes altérés. Quand on avait caractérisé l’un de ces gènes, nous étions très satisfaits, deux gènes très, très heureux, et au troisième gène isolé, nous étions tellement fatigués que l’on passait à autre chose… Le travail n’était pourtant pas fini… Lorsqu’on avait isolé un gène dont on savait pertinemment qu’il était modifié dans une cellule cancéreuse, il fallait essayer de comprendre sa fonction, son mécanisme d’action, comment son altération pouvait aboutir à une croissance anormale et en quoi il pouvait être impliqué dans d’autres types de cancers. Les quinze ans qui ont suivi la découverte des premiers « gènes de cancers » ont été consacrés à cette analyse méthodique et systématique très longue. Le but de cet archivage laborieux était de déterminer les gènes les plus importants. Venaient ensuite d’autres études : si ce gène est altéré dans cette tumeur précise, le pronostic vital est-il plus grave ou moins grave ? Quels traitements peut-on imaginer contre ce gène, son produit, son action ? Tout un ensemble de recherches se concentraient donc autour d’un gène, d’une mutation dont on essayait, bien entendu, de déduire des connaissances générales. Tâche très difficile car sur 100 tumeurs du sein d’apparence semblable, 20 possédaient un gène muté alors que dans 20 autres, le gène n’était pas muté mais seulement fortement exprimé. Tout ceci nous amenait à une situation extrêmement complexe et paradoxale avec d’un côté, des recherches fondamentales très nombreuses, de qualité exceptionnelle et très pointues en cancérologie moléculaire fondamentale touchant à la biologie générale du cancer, et de l’autre, des médecins qui nous reprochaient le peu de progrès des traitements. On en était là jusqu’en 1995.

30  Or, à partir de ces nouvelles technologies, l’identification possible dans la tumeur d’un nombre important d’altérations génétiques devient possible. Ce n’est pas encore simple à faire mais le processus est en cours. De toute évidence, si cet inventaire devient réalisable, la recherche disposera d’un moyen d’établir un portrait moléculaire de la tumeur beaucoup plus complet qu’en observant un seul gène.

31  Cette vision globale autorise une question fondamentale à laquelle les chercheurs étaient incapables de répondre auparavant : les lésions situées dans la tumeur primaire, tumeur du sein par exemple, sont-elles maintenues dans les tumeurs secondaires, les métastases, ou ont-elles déjà évolué ? Dans la foulée, une autre question essentielle devient possible : quels gènes sont exprimés dans cette tumeur à un moment donné ? Si l’on reprend l’exemple des 100 tumeurs du sein très semblables, on trouve que le profil d’expression des gènes n’est pas le même dans toutes les tumeurs, bien que les cellules concernées paraissent morphologiquement identiques. Ceci permet d’établir une forme de classification nouvelle et surtout de rechercher une corrélation entre l’expression des gènes dans une tumeur et la réponse au traitement.

32  Ceci aboutit à un regroupement de tumeurs apparemment de même type en sous-familles et montre que l’on obtient 90 % de bonnes réponses au traitement pour certaines de ces sous-familles alors que pour d’autres, le résultat est quasi nul. Cette observation permet de préciser les traitements adaptés à certains types de tumeurs et d’exclure celles qui ne s’y prêtent pas. L’un des objectifs est d’épargner à des patients atteints de ces lésions un traitement agressif inutile ; un autre est de définir une stratégie visant à trouver d’autres thérapeutiques pour traiter ce type de cancer. À cette observation globale touchant les cellules malades, on peut adjoindre une recherche des caractéristiques génétiques de chaque malade. On sait d’ores et déjà que les traitements seront dans l’avenir optimisés par cette double approche : connaissance des caractéristiques génétiques de la tumeur, connaissance des caractéristiques génétiques du malade. Ces technologies permettent donc de définir de nouvelles voies thérapeutiques qui vont accroître l’efficacité du traitement chez des patients atteints du même type de lésions. Or, cette façon d’aborder la médecine est directement liée à la biologie à grande échelle et sans les grands instruments, comme le CNS et le CNG, on ne serait jamais parvenu à ces résultats.

La nouvelle dimension génétique de l’Homme et de ses pathologies : les besoins en génotypage
33  Cette nouvelle dimension de l’Homme démontre ce que nous savons tous intuitivement : nous sommes tous inégaux face aux maladies. Dans un environnement déterminé, chaque individu aura une réponse différente. Certains, par exemple, fument un paquet de cigarettes par jour et développeront des pathologies rapides, bronchite chronique, allergies ou cancer alors que d’autres gros fumeurs vivront en apparente bonne santé pendant très longtemps.

34  En octobre 1998, le CNG, actuellement dirigé par Mark Lathrop, a repris les activités génomiques de génotypage de Généthon et son objectif est, notamment, l’identification de gènes morbides impliqués dans les maladies fréquentes. Le CNG participe, par exemple, à la réalisation de projets européens de grande envergure tels ceux visant à étudier l’hypertension, le diabète et la compatibilité HLA21 dans les greffes de moelle. Aujourd’hui, nous avons, en effet, une certitude : dans toutes les pathologies humaines, une composante génétique explique, en partie, notre inégalité face à ces pathologies. C’est ce que l’on appelle les gènes de prédisposition qu’il ne faut surtout pas réduire à une vision simpliste car dans ce domaine, il faut appréhender les comportements, les environnements mais également la complexité de l’ensemble du génome. Avoir un gène de prédisposition ne signifie pas que l’on sera malade. Cela indique seulement un risque plus ou moins élevé par rapport au risque moyen.

35  C’est à ce niveau que les recherches du Centre national de génotypage deviennent essentielles. Le génotypage étant la caractérisation de l’ensemble des différences existant entre les génomes, d’un individu à l’autre, ces recherches visent à établir des corrélations entre la présence dans le génome de différents individus de certains allotypes, c’est-à-dire de certaines allèles22 de gènes à des endroits déterminés par rapport à la fréquence d’une pathologie donnée. Un allèle est une version possible naturelle d’un gène. Or, n’oublions pas, à ce stade, que tout individu résulte d’une construction faite par les réunions d’une moitié de patrimoine génétique issue de sa mère et d’une autre moitié de son père. Nous résumons cela en disant que, chez un individu, chaque gène est présent en deux exemplaires, l’un sur le chromosome d’origine paternelle, l’autre sur le chromosome d’origine maternelle, situés au même endroit (dans chaque chromosome). Ces deux allèles sont soit identiques à un endroit donné, l’individu est alors homozygote à cet endroit pour ce gène, soit différents dans leur composition, l’individu est alors hétérozygote pour ce gène. L’objectif du CNG est de fournir une assise scientifique solide à des affirmations de ce type : risques de maladies cardiovasculaires accrues, par exemple, en raison de la présence de deux allèles particuliers. Le CNG est alors capable de comparer massivement et de manière parallèle, le génome de milliers d’individus et d’essayer de discerner, parmi ces différences, celles qui sont impliquées dans des pathologies comme l’obésité, le diabète, les maladies cardiovasculaires, les allergies ou le cancer.

36  Ces recherches ont ainsi permis d’élaborer une nouvelle méthodologie, la génomique structurelle et fonctionnelle, née de la génétique moléculaire et de l’informatique. C’est, en effet, la robotisation et la taylorisation des différentes procédures utilisées couramment dans les laboratoires de biologie moléculaire qui ont facilité sa conception, ainsi que la miniaturisation des supports due au développement des microtechnologies, demain les nanotechnologies. Miniaturisation qui permettra sans doute de concevoir des laboratoires d’analyses moléculaires portables… Alors que les équipements de la recherche en physique sont condamnés à toujours plus de gigantisme, la biologie entrevoit, elle, son avenir à l’échelle de la cellule, par le biais des nanotechnologies…

Haut de page
Documents annexes


Portrait de Bernard Barataud (application/pdf – 12k)
La compétition privé/public: Celera Genomics (application/pdf – 13k)
Haut de page
Notes

1  Le grand accélérateur européen de particules a été construit et est exploité par une organisation connue sous le nom de Cern, le Centre européen de la recherche nucléaire, qui vient de fêter ses 50 ans. Si son siège se trouve à Genève, ses installations se répartissent de part et d’autre de la frontière franco-suisse, sur le territoire genevois et dans le Pays de Gex. Le Cern a le statut d’organisation internationale, ce qui signifie qu’il est financé par les contributions des États membres de la Communauté européenne qui fournissent également les quelque 3 500 personnes qui y travaillent. Actuellement, le synchrotron à protons du Cern (400 GeV) est l’un des plus puissants du monde, juste derrière celui de Fermilab aux États-Unis (500 GeV).
2  Soleil est un accélérateur de particules qui produit un rayonnement synchrotron permettant d’explorer la matière, inerte ou vivante. Ce rayonnement est fourni par un anneau de stockage de 354 m de circonférence dans lequel des électrons de très haute énergie circulent quasiment à la vitesse de la lumière. Situé sur le Plateau de Saclay en Essonne et opérationnel à partir de 2006, Soleil ouvre de nouvelles perspectives pour sonder la matière avec une résolution de l’ordre du millionième de mètres et une sensibilité à tous les types de matériaux. Ses applications seront multiples en physique, en chimie, en sciences de l’environnement, en médecine et en biologie.
3  L’expérience franco-italienne Virgo repose sur un interféromètre géant de 3 km de long et installé à Cascina près de Pise en Italie. Son ambition est de détecter les ondes gravitationnelles produites par de violents phénomènes cosmiques. La construction de l’ensemble de l’interféromètre vient de s’achever. Les premiers tests de Virgo sont en cours et la prise de données scientifiques devrait démarrer en 2005.
4  Rapport de janvier 2001 sur « Le rôle des très grands équipements dans la recherche publique ou privée, en France et en Europe ». L’Office parlementaire d’évaluation des choix scientifiques et technologiques a été créé par la loi n° 83-609 du 8 juillet 1983, à la suite d’un vote unanime du Parlement. Aux termes de la loi, sa mission est « d’informer le Parlement des conséquences des choix de caractère scientifique et technologique afin, notamment, d’éclairer ses décisions ». à cet effet, l’Office « recueille des informations, met en œuvre des programmes d’études et procède à des évaluations ».
5  Ibid.
6  La génomique est la science qui se propose d’étudier la structure, le fonctionnement et l’évolution des génomes.
7  Le gène est un fragment d’ADN qui code pour une protéine. Il peut comporter de quelques centaines à plusieurs centaines de milliers de nucléotides. Chaque gène comprend fondamentalement quatre régions : un promoteur, une séquence codante, un terminateur, des séquences de régulation.
8  L’ADN est un polymère formé de deux chaînes formant une double hélice. Quatre molécules élémentaires nommées nucléotides se succèdent linéairement sur chacune de ces chaînes, qui prennent ainsi la forme d’un très long collier composé de quatre perles différentes, symbolisées par les lettres A, T, G et C. L’ordre de ces nucléotides détermine la signification du message codé par la molécule (gène). En effet, cette molécule est transcrite point par point sous forme d’acide ribonucléique (ARN). Certaines de ces molécules d’ARN servent de messager (ARN messager) pour être traduites en protéines.
9  Les enzymes sont des protéines spécifiques qui catalysent les réactions biochimiques de l’organisme.
10  La recombinaison génétique concerne tout processus permettant d’obtenir un assemblage nouveau d’informations génétiques. Ainsi, la recombinaison méiotique – qui a lieu lors de la méiose-division cellulaire qui aboutit à la formation des gamètes – est produite par un mécanisme dans lequel les chromosomes issus du père et de la mère échangent réciproquement certains segments de leur matériel génétique.
11  Le génie génétique est la partie de la biologie qui utilise les outils de la biologie moléculaire pour modifier la structure ou le fonctionnement d’un ou de plusieurs gènes. Par exemple, certains segments de chromosomes contenant un gène d’intérêt peuvent être isolés et intégrés au génome d’autres organismes : bactéries, levures, plantes… Le génie génétique permet ainsi d’obtenir, à partir de bactéries, la synthèse et la fabrication industrielle de substances comme les hormones ou les vaccins.
12  Escherichia coli est un genre bactérien dans lequel on ne retrouve qu’une seule espèce. Sa culture très facile et sa grande tolérance de variation de pH expliquent son utilisation récurrente dans les manipulations en biologie.
13  La carte physique du génome de l’Homme est la représentation de la disposition des gènes sur les chromosomes, obtenue en utilisant directement le fragment d’ADN qui le contient.
14  La carte génétique du génome de l’Homme est la représentation de la disposition des gènes le long de la molécule d’ADN, utilisant un ensemble de repères moléculaires identifiés et positionnés le long de chaque chromosome. Ces repères – marqueurs – permettent de localiser plus facilement les gènes sur les différents chromosomes.
15  La biologie à grande échelle est un ensemble de techniques permettant d’accélérer l’acquisition et l’analyse des résultats. Elle implique une automatisation des procédures expérimentales en biologie, grâce à l’utilisation de robots, la mise en parallèle d’appareils d’analyses, le tout placé sous contrôle d’une importante informatique de gestion et d’exploitation et de procédures d’assurance qualité.
16  Les chromosomes sont la forme visible au microscope optique que prend la molécule d’ADN condensée, associée à des protéines pendant la phase de division cellulaire.
17  La génomique fonctionnelle concerne la partie de la génomique qui étudie la fonction des protéines codées par un gène, leur régulation et leurs interactions.
18  Les puces à ADN sont des supports solides – petite lame de verre comme celles utilisées en microscopie traditionnelle ou membrane de nylon – sur lesquels des milliers de fragments d’ADN sont déposés de façon géométrique à l’aide d’une micropipette robotisée. Grâce à cette technique, chacun des fragments d’ADN est représenté par un point (ou puce) sur le support. Ils servent de sondes pour fixer de façon très spécifique les fragments de gènes complémentaires (cibles), présents dans les échantillons biologiques à tester.
19  La transcriptomique est l’étude de l’expression totale des transcrits (ARNmessagers) des gènes dans une cellule, un tissu ou un organisme donné.
20  La méthode à haut débit Sage (Serial Analysis of Gene Expression) permet une analyse de la fréquence d’un ARN messager (l’ARNm étant le produit de la transcription de l’ADN, en clair lorsque l’ADN est converti en ARN), quel que soit son niveau d’expression parmi les milliers produits dans une cellule à un moment donné.
21  Les molécules HLA sont des présentoirs pour les déterminants antigéniques. Les chaînes polymorphes qui composent les molécules HLA sont codées par un ensemble de gènes situés sur le chromosome 6, ensemble de gènes très proches les uns des autres. De ce fait, les gènes HLA sont transmis en bloc (haplotype) des parents aux enfants. Chaque enfant hérite d’un haplotype paternel et d’un haplotype maternel. Chaque allèle de chacun des 2 haplotypes est exprimé. L’identification de ces allèles correspond au groupage HLA.
22  Allèle : contraction d’allélomorphe. Version particulière d’un gène porté sur l’un des deux chromosomes homologues d’une cellule, l’un venant du père, l’autre de la mère.
Haut de page
Pour citer cet article

Référence électronique
Pierre Tambourin, « Les grands instruments de la biologie moléculaire, prémices de la médecine de demain », La revue pour l’histoire du CNRS [En ligne], 12 | 2005, mis en ligne le 22 janvier 2007, consulté le 14 mai 2015. URL : http://histoire-cnrs.revues.org/1308
Haut de page
Auteur

Pierre Tambourin
Pierre Tambourin, directeur général depuis son lancement en 1998 de Genopole® à Évry est un ancien élève de l’École polytechnique dont la spécialité en génétique moléculaire l’a naturellement conduit à effectuer et diriger des recherches à l’Inserm pendant de nombreuses années. Essentiellement consacrés à la cancérologie expérimentale, ses travaux visaient à comprendre les mécanismes qui transforment une cellule normale en cellule cancéreuse, puis à identifier les gènes impliqués dans ces mécanismes. À partir de 1989, Pierre Tambourin troque la gestion de la cellule pour celle de l'humain et dirige jusqu'en 1992 la section de biologie de l’Institut Curie puis, de 1993 à 1997, le département des sciences de la vie du CNRS.

Articles du même auteur
Des biotechnologies en bonne santé [Texte intégral]
Paru dans La revue pour l’histoire du CNRS, 17 | 2007


 DOCUMENT     histoire-cnrs.revues.org    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google