|
|
|
|
 |
|
A D N - L'émergence d'outils et de disciplines |
|
|
|
|
|
A D N :
L'émergence d'outils et de disciplines
La connaissance de l'ADN et de son fonctionnement a fortement progressé ces dernières années grâce aux progrès technologiques.
Publié le 25 janvier 2018
L'évolution des technologies a été fulgurante. Dans les années 1990, il a fallu 13 ans pour séquencer les 3,3 milliards de bases du génome humain alors qu'aujourd'hui, une vingtaine de séquenceurs utilisés en simultané permettent de le faire en 15 minutes. Rapidité, faible coût et surtout faible quantité d'ADN requise ouvrent le champ à de nouvelles applications, notamment dans l'épigénétique et le diagnostic médical.
LE SÉQUENÇAGE
Des révolutions technologiques
En 40 ans, le séquençage a connu de vraies révolutions technologiques grâce aux avancées en physique, chimie et aux nanotechnologies. L'activité, coûteuse à ses débuts, a développé une organisation de type industriel et optimise les rendements grâce à des séquenceurs automatiques. Les dépôts d'échantillons se faisaient à la main sur les premiers séquenceurs à gel. Aujourd'hui, un séquenceur (destiné à analyser des génomes autres qu'humains) est intégré dans une clef USB et s'acquiert pour moins de 1 000 euros. La première technique largement utilisée dès 1977 a été la méthode Sanger, du nom du double prix Nobel de chimie qui l'a mise au point. À partir de 2005, apparaissent de nouvelles technologies de séquençage dites de 2e génération, tel que le pyroséquençage. Des millions de molécules, toutes issues du même échantillon, sont traitées en même temps ; c'est l'heure du séquençage haut débit ! Bien qu'elles aient toutes des spécificités très différentes, trois phases les caractérisent. La première, la préparation d'une collection d'ADN d'intérêt. La deuxième : l'amplification de l'ensemble des fragments afin de générer un signal suffisant pour que le séquenceur le détecte. Et enfin la phase de séquençage elle-même : pendant la synthèse du brin complémentaire, un signal est généré à chaque fois qu'un nouveau nucléotide est incorporé. Inconvénient : les séquences sont plus courtes et le taux d'erreur plus élevé que précédemment ; ce problème est aujourd'hui résolu sur les séquenceurs de dernière génération.
Les années 2010 voient se développer de nouvelles plateformes, dites de 3e génération. Ces appareils sont si sensibles qu’ils sont capables de séquencer une seule molécule d’ADN en quelques dizaines de minutes ! La dernière innovation présente un avantage majeur : pas besoin de répliquer l'ADN ni d'utiliser de fluorochromes, substance chimique capable d'émettre de la lumière par fluorescence. Sous la forme d’une puce dotée de nanopores (des canaux qui traversent une membrane), la machine capte directement les signaux électriques de chaque base d'ADN qui traverse le canal et permet de séquencer en un temps record. Cette méthode est pour l’instant réservée à de petits génomes, pas au génome humain.
La course aux génomes
La quête des gènes débute dans les années 1970. Lire la séquence de l’ADN devient indispensable pour les étudier, comprendre leur fonction et déceler les mutations responsables de maladies. Objectif ultime : déchiffrer les quelques 3,3 milliards de bases (3 300 Mb) du génome humain. Le projet est aussi ambitieux et presque aussi fou que celui d’envoyer un homme sur la Lune ! Les chercheurs commencent par de petits génomes. En 1995, le premier séquencé et publié est celui d’Haemophilus influenzae (1,8 Mb), une bactérie responsable de la méningite chez l’enfant. Suivra en 1996 celui d’un génome eucaryote unicellulaire, la levure Saccharomyces cerevisiae (12,5 Mb). Puis ce sera le tour du ver Caenorhabditis elegans (97 Mb) en 1998.
En 30 ans, les séquenceurs ont vu leur capacité augmenter d'un facteur 100 millions !
Quant au projet "Human genome", il démarre officiellement en 1989, pour une durée prévue de 15 ans et un budget global estimé à 3 milliards de dollars. Plus de 20 laboratoires de 7 pays différents sont impliqués. Les deux plus importants sont le Sanger Center (Grande-Bretagne) et le Whitehead Institute (États-Unis). En 1997, la France s'équipe d'une plateforme nationale, le Genoscope, et prend en charge le chromosome 14. La version complète de la séquence du génome humain sera publiée en avril 2003, avec plusieurs années d'avance (les chercheurs la complètent encore aujourd'hui). La course aux génomes continue : en août 2016, la base de données génomique internationale, en libre accès sur le site Gold (Genome On Line Database), faisait état de 13 647 organismes séquencés et publiés.
LA GÉNOMIQUE FONCTIONNELLE
La quête des gènes ressemble souvent à une pêche miraculeuse ! Une fois détectés et annotés, leur fonction reste à vérifier et les conditions de leur expression à découvrir. C'est là que la génomique structurelle atteint ses limites et que la génomique fonctionnelle prend le relais.
Cette dernière dresse un inventaire qualitatif et quantitatif sur deux niveaux : le transcriptome et le protéome. Le premier désigne l’ensemble des transcrits (ARNm) et le deuxième l’ensemble des protéines fabriquées. Alors que le génome est unique pour un organisme donné, il existe autant de transcriptomes et de protéomes que de stades de développement cellulaire ! Grâce aux nouvelles technologies de séquençage, l’étude de l’ensemble des transcrits permet non seulement de réaliser un catalogue des gènes exprimés mais aussi de quantifier l’expression des gènes et de déterminer la structure de chaque transcrit à un moment donné. Une deuxième technologie, les puces à ADN, permet aussi d’étudier le transcriptome par l’observation simultanée de l’expression de plusieurs milliers de gènes dans une cellule ou un tissu donné. L’analyse d’un transcriptome peut, par exemple, indiquer le stade de développement d’un cancer et permettre ainsi d’adapter au mieux le traitement du patient.
LE GÉNOTYPAGE : Le génotypage cherche les différences dans la séquence des génomes d'individus d'une même espèce. Ces différences constituent des " marqueurs génétiques ". Pour les trouver, le génotypage fait appel à trois technologies différentes ; le séquençage, les puces à ADN et la spectrométrie de masse. Les marqueurs potentiellement intéressants sont ceux qui se transmettent au sein d'une famille de la même manière et en même temps que le gène impliqué dans une maladie. Les études génétiques à haut débit consistent à analyser des centaines de milliers de ces marqueurs sur des milliers d'individus afin d'identifier et localiser les gènes prédisposant à des pathologies
LA MÉTAGÉNOMIQUE
Les technologies de séquençage permettent aujourd’hui d’appréhender le génome de tous les organismes d’un même écosystème en même
Le projet international "MetaHIT ”, auquel participe le CEA, a pour objectif d’étudier le génome de l'ensemble des bactéries constituant la flore intestinale humaine. Lourde tâche : le métagénome contient 100 fois plus de gènes que le génome humain et 85 % des bactéries sont encore inconnues. Premier résultat obtenu en mars 2010 : le séquençage de l’ensemble des gènes révèle que chaque individu abrite au moins 170 espèces différentes de bactéries intestinales.
En avril 2011, les chercheurs font une découverte assez inattendue. Ce ne sont pas les 3 signatures bactériennes intestinales identifiées qui sont corrélées à l'origine géographique, à l’âge ou à la masse corporelle des individus mais bien quelques poignées… de gènes bactériens ! La preuve de concept est faite : ces derniers pourront être utilisés comme biomarqueurs pour aider au diagnostic des patients touchés par des maladies comme l’obésité ou la maladie de Crohn. En 2014, une nouvelle approche permet de reconstituer le génome de 238 espèces complètement inconnues. Les chercheurs ont également trouvé plus de 800 relations de dépendance qui permettent de mieux comprendre le fonctionnement global de cet écosystème intestinal.
L'ÉPIGÉNÉTIQUE
Peut-on tout expliquer par la génétique ? Dès 1942, Conrad Waddington souligne l'incapacité de cette discipline à expliquer le développement embryonnaire. Comment, en effet, expliquer la différence entre une cellule du foie et un neurone alors que toutes renferment le même programme ? Ce généticien désigne l'épigénétique comme le lien entre les caractères observables (phénotypes) et l'ensemble des gènes (génotypes).
Comparons l'organisme à une voiture ; la génétique serait l'établi sur lequel sont exposées toutes les pièces mécaniques et l'épigénétique la chaîne d'assemblage des différents éléments. Ainsi, l'épigénétique jouerait les chefs d'orchestre en indiquant pour chaque gène à quel moment et dans quel tissu il doit s'exprimer. Suite à la découverte des premiers mécanismes épigénétiques qui régulent l'expression des gènes, les chercheurs ont appris à « museler » un gène à des fins thérapeutiques.
Première méthode : par modification des protéines sur lesquelles s'enroule l'ADN. Le gène se compacte et devient alors inaccessible à la transcription ; il ne s'exprime plus. Seconde méthode : inactiver directement son ARNm avec des ARN interférence qui bloquent sa traduction. Depuis les années 1990, de nouvelles molécules associées à la régulation épigénétique sont découvertes. L'ensemble de ces molécules, le plus souvent trouvées dans l'ADN non-codant, forme l'épigénome. Complémentaire de la génétique, l'épigénétique donne une vue plus complète de la machinerie cellulaire et révèle une surprenante complexité dans les régulations de l'expression génique. Elle ouvre des perspectives dans la compréhension et le traitement de nombreuses maladies.
CNRGH et GENOSCOPE - Au sein de l'Institut de biologie François Jacob, ces deux services développent des stratégies et thématiques scientifiques distinctes, sur un socle de ressources technologiques communes. Le Centre national de recherche en génomique humaine (CNRGH) est axé sur la génomique humaine et la recherche translationnelle. Les recherches du Genoscope (aussi appelé Centre national de séquençage) portent sur l'exploration et l'exploitation de la biodiversité génomique et biochimique.
LE PROJET TARA
L'expédition « Tara Oceans » a débuté en septembre 2009. Pour explorer la diversité et évaluer la concentration du plancton, 40 000 prélèvements ont été réalisés. Leur analyse permet d'étudier l'effet du réchauffement climatique sur les systèmes planctoniques et coralliens, ses conséquences sur la vie marine et donc la chaîne alimentaire. Elle aidera à mieux comprendre l'origine de la vie sur Terre. Enfin, le plancton représente une ressource de biomolécules potentiellement intéressante pour la chimie verte, l'énergie ou encore la pharmacie. Le Genoscope est chargé de l'analyse génétique des 2 000 échantillons « protistes » et « virus » ! En mai 2016, la goélette est repartie pour l'expédition « Tara Pacific ».
Objectif : Mieux comprendre la biodiversité des récifs coralliens, leur capacité de résistance, d'adaptation et de résilience face aux changements climatiques et à la pollution et dégradations dues à l'Homme. À bord et à terre, les chercheurs continuent leur travail de séquençage pour établir une base de données de tous les échantillons prélevés.
DOCUMENT inserm LIEN |
|
|
|
|
 |
|
Découverte du rôle d’un régulateur cérébral impliqué dans des maladies psychiatriques |
|
|
|
|
|
Découverte du rôle d’un régulateur cérébral impliqué dans des maladies psychiatriques
11 Déc 2023 | Par Inserm (Salle de presse) | Biologie cellulaire, développement et évolution | Neurosciences, sciences cognitives, neurologie, psychiatrie
Il était communément admis que des familles de récepteurs synaptiques transmettaient des messages excitateurs et d’autres inhibiteurs vis-à-vis des neurones. © Adobe Stock
Dans le cerveau, un récepteur supposément excitateur appelé GluD1 se révèle contre tout attente jouer un rôle majeur dans le contrôle de l’inhibition des neurones. Des altérations dans le gène GluD1 étant retrouvées dans un certain nombre de troubles neurodéveloppementaux et de maladies psychiatriques comme les troubles du spectre autistique (TSA) ou la schizophrénie, cette découverte ouvre la voie à de nouvelles pistes thérapeutiques pour lutter contre les déséquilibres entre transmissions neuronales excitatrices et inhibitrices associés à ces maladies. Ce travail, publié dans Science, est le fruit de collaborations de chercheurs et chercheuses de l’Inserm, du CNRS et de l’ENS au sein de l’Institut de biologie de l’ENS (IBENS, Paris) avec le laboratoire de Biologie moléculaire du MRC à Cambridge au Royaume-Uni.
La complexité du fonctionnement du cerveau révèle bien des surprises. Alors qu’il était communément admis que dans l’activité cérébrale, des familles de récepteurs synaptiques (situés à l’extrémité d’un neurone) transmettaient des messages excitateurs et d’autres inhibiteurs vis-à-vis des neurones, une étude copilotée par les chercheurs Inserm Pierre Paoletti et Laetitia Mony à l’Institut de Biologie de l’ENS rebat les cartes.
Pour bien comprendre de quoi il retourne, revenons aux fondamentaux. Une synapse « excitatrice » déclenche la création d’un message nerveux sous forme de courant électrique si un récepteur à sa surface peut se fixer à un neurotransmetteur excitateur présent dans l’espace interneuronal, le plus souvent du glutamate. On parle d’excitation neuronale. Une synapse « inhibitrice » empêche au contraire cette excitation neuronale en libérant un neurotransmetteur inhibiteur, souvent le GABA. On parle d’« inhibition neuronale ». Ainsi, la famille de récepteurs à glutamate (iGluR) et celle des récepteurs à GABA (GABAAR) ont a priori des rôles opposés.
Toutefois, un sous-type de récepteur au glutamate appelé GluD1 intriguait les scientifiques. En effet, alors qu’il est censé avoir un rôle excitateur, celui-ci est préférentiellement retrouvé au niveau de synapses inhibitrices. Cette observation, effectuée par l’équipe de la chercheuse Inserm Cécile Charrier à l’Institut de Biologie de l’ENS en 2019, avait interpellé la communauté scientifique car le gène GluD1 est souvent associé à des troubles du neurodéveloppement comme l’autisme ou à des maladies psychiatriques de type troubles bipolaires ou schizophrénie, dans les études génétiques de population humaine. Comprendre le rôle de ce récepteur représente donc un enjeu de taille. Pour y voir plus clair, l’équipe de Pierre Paoletti a étudié ses propriétés moléculaires et sa fonction, à partir de cerveaux de souris, au niveau de l’hippocampe où il est fortement exprimé.
Un rôle atypique
Les chercheurs savaient déjà que contrairement à son nom, le récepteur GluD1 ne peut pas se lier au glutamate. Mais dans cette étude, ils ont eu la surprise de constater qu’il fixait le GABA. L’équipe de Radu Aricescu à Cambridge a même décrit dans la publication la structure atomique fine du site d’interaction de GluD1 avec le GABA, grâce à une technique appelée cristallographie aux rayons X[1].
Son rôle dans le cerveau n’est donc a priori pas excitateur de l’activité neuronale mais inhibiteur. En prenant en compte ce résultat, peut-on toujours dire qu’il s’agit d’un récepteur appartenant à la famille des récepteurs à glutamate ?
« C’est en effet une interrogation mais toutes les analyses de phylogénie (les liens de parenté entre gènes et protéines) et les données structurales montrent qu’il en fait bien partie. En revanche, il est possible que certaines mutations acquises au cours de l’évolution aient profondément modifié ses propriétés fonctionnelles », explique Pierre Paoletti.
Autre curiosité, ce récepteur ne fonctionne ni comme un récepteur « classique » du glutamate ni comme un récepteur du GABA. Les deux provoquent en effet l’ouverture de canaux dans la membrane cellulaire permettant le passage d’ions responsables de l’excitation ou de l’inhibition du neurone. Le récepteur GluD1, lui, ne permet l’ouverture d’aucun canal. Son activité résulte d’autres mécanismes internes à la cellule qui restent à clarifier.
Enfin, ce travail suggère un rôle régulateur majeur de GluD1 vis-à-vis des synapses inhibitrices. En effet, lorsqu’il est activé par la présence de GABA, la synapse inhibitrice voit son efficacité augmenter. Cela se traduit par une réponse inhibitrice plus importante qui perdure pendant des dizaines de minute.
« Autrement dit, GluD1 renforce le signal d’inhibition. Peut-être en favorisant le recrutement de nouveaux récepteurs GABA à la synapse ? On peut en tout cas parler de régulateur clé », explique Laetitia Mony.
Pour les scientifiques ayant contribué à ce travail, cette découverte marque une véritable avancée.
« Ces résultats ouvrent la voie à une meilleure compréhension des déséquilibres entre messages excitateurs et inhibiteurs dans le cerveau en cas de troubles neurodéveloppementaux et de maladies psychiatriques comme les TSA ou encore la schizophrénie, ou dans des maladies comme l’épilepsie caractérisée par une hyper excitabilité neuronale. Dans un second temps, il sera important d’étudier si GluD1 peut constituer une cible thérapeutique intéressante pour rétablir un meilleur équilibre et réduire les symptômes dans ces maladies », concluent-ils.
[1] Il s’agit d’une technique d’analyse physicochimique qui se fonde sur la diffraction des rayons X par la matière pour connaître sa composition moléculaire et sa structure en 3D.
DOCUMENT inserm LIEN |
|
|
|
|
 |
|
Comprendre les troubles de l’audition |
|
|
|
|
|
Comprendre les troubles de l’audition
En France, chaque année, une surdité bilatérale est détectée chez près de 800 nourrissons, soit environ un nouveau-né sur 1 000. Dans 45 % des cas, le trouble est sévère et profond, avec de lourdes conséquences sur l’acquisition du langage oral et sur le développement socio-affectif. Mais les surdités moyennes ont également un impact négatif sur les apprentissages scolaires, le développement cognitif et l’adaptation sociale.
Passé l’enfance, le nombre de personnes concernées par une déficience auditive ne cesse de progresser avec l’âge : la surdité touche environ 6 % des 15–24 ans, 9 % des 25–34 ans, 18 % des 35–44 ans et plus de 65 % des plus de 65 ans. Ainsi, environ un quart des 18–75 ans présente une déficience auditive, avec des conséquences variables sur la vie sociale. Chez les personnes de plus de 65 ans, une perte d’audition est associée à un déclin cognitif (altération de la mémoire, des capacités d’attention ou encore de l’utilisation de certains éléments de langage), sans pour autant favoriser la survenue d’une démence de type maladie d’Alzheimer. Ce déclin est sans doute lié à un isolement social progressif.
Les surdités acquises sont assez fréquemment accompagnées d’acouphènes, une perception auditive (battements, grésillements, sifflements) en l’absence de tout stimulus externe, qui peut être très invalidante. En savoir plus sur les acouphènes
L’audition : des sons convertis en signaux électriques
L’audition résulte du couple oreille-cerveau : les ondes sonores captées par l’oreille sont transformées en signaux transmis au cerveau pour nous permettre de localiser la source sonore, déterminer la nature du son (bruit, langage, danger…), puis l’interpréter et la mémoriser.
Pour assurer ses fonctions, l’oreille est divisée en trois parties : l’oreille externe se compose du pavillon (la partie visible) et du conduit auditif qui mène jusqu’au tympan. Son rôle est de capter, amplifier et focaliser les sons vers l’oreille moyenne. Lorsque les ondes sonores frappent le tympan, celui-ci se met à vibrer. Ces vibrations parviennent jusqu’à l’oreille moyenne constituée de petits os articulés. Ces osselets les transmettent jusqu’à une membrane appelée « fenêtre ovale », située à l’entrée de l’oreille interne.
Cette dernière renferme la cochlée, une structure en forme de spirale, composée de 15 000 cellules ciliées, des cellules sensorielles capables de transformer les vibrations transmises par les osselets en signaux électriques qui sont transmis au cerveau par le nerf auditif. La destruction des cellules ciliées et du nerf auditif, brutale ou progressive, provoque un déficit auditif irrémédiable.
Fréquence et intensité du son
Un son correspond donc à une onde sonore captée par l’oreille et qui fait vibrer le tympan. Sa fréquence correspond au nombre de vibrations par seconde qu’il génère et s’exprime en Hertz. Si elle est faible, le son est grave. Et à l’inverse, plus elle est élevée, plus le son est aigu. Les fréquences captées par les humains varient de 20 à 20 000 Hz. L’intensité d’un son, exprimée en décibels, dépend quant à elle de l’amplitude des vibrations. Plus elle est importante, plus le son est fort. L’oreille humaine capte des intensités comprises entre 0 et 120 dB. À partir 85 dB les structures de l’oreille interne peuvent être irréversiblement détruites.
Surdité : des causes génétiques, environnementales et liées au vieillissement
Chez le nouveau-né
La majorité des surdités néonatales sont d’origine génétique. Près de 130 gènes impliqués ont déjà été identifiés : leur mutation provoque des anomalies du système auditif qui entraînent le déficit. Une mutation du gène GjB2 est par exemple retrouvée chez près de la moitié des nourrissons concernés (surdités de type DFNB1). Et une altération de la séquence du gène STRC expliquerait au moins 10 % de cas supplémentaires (surdités de type DFNB16). Ces deux gènes permettent la synthèse de protéines de la cochlée.
Les surdités néonatales peuvent aussi être liées à une infection pré, péri ou post-natale, ou à l’administration de molécules otoxiques (toxiques pour les structures de l’oreille interne) à la mère au cours de la grossesse, par exemple celle de certains antibiotiques ou de chimiothérapies.
Au cours de la vie
Les surdités acquises au cours de la vie sont liées à des traumatismes acoustiques, mais aussi à des maladies (otites chroniques dans environ 20 % des cas, tumeurs…), des accidents (plongée) ou encore des toxicités médicamenteuses (liées à des antibiotiques comme les aminoglycosides, des chimiothérapies notamment le cisplatine…). L’exposition régulière et prolongée à des niveaux sonores élevés dans la vie quotidienne est également responsable. Musique au casque plusieurs heures par jour, cinéma, concerts, bruits de la circulation… contribuent à la destruction progressive des cellules ciliées qui jouent un rôle central dans les mécanismes de l’audition.
Le vieillissement peut également être responsable de ce phénomène et conduire à une perte auditive qui apparaît le plus souvent à partir de 50–60 ans. On parle alors de presbyacousie.
Surdité légère ou profonde ?
Plusieurs degrés de pertes auditives sont observés :
* légères (perte auditive de 20 à 40 dB par rapport à l’intensité réelle du son),
* moyennes (perte auditive de 40 à 70 dB),
* sévères (perte auditive de 70 à 90 dB),
* profondes (perte auditive de 90 à 120 dB).
Prévention majeure : réduire l’exposition aux bruits excessifs
L’exposition au bruit est une cause première de troubles de l’audition. Des niveaux sonores élevés détruisent de façon irréversible les cellules ciliées et altèrent les fibres nerveuses auditives.
C’est le cas de nombreux bruits associés à des activités de loisirs (concerts, boîtes de nuit, musique au casque...). Un décret de 2017 fixe à 102 dB pendant 15 min le volume sonore maximal pouvant être diffusé dans un lieu public.
La législation du travail a également fixé des seuils d’exposition dans le cadre professionnel :
* Au-delà de 80 dB, une exposition de plus de huit heures nécessite la mise en place de mesures de protection, avec en particulier le port de protections individuelles de type casque anti-bruit, des périodes de repos ou encore des limitations de durée d’exposition.
* Les valeurs limites d’exposition sont de 87 dB pour une exposition quotidienne au bruit ou 140 dB pour un bruit bref.
À titre d’illustration une perceuse émet environ 85 dB, un marteau piqueur environ 100 dB et un avion au décollage environ 140 dB.
Il existe cependant une grande variabilité individuelle face au bruit. Certains gènes semblent influer sur la sensibilité au traumatisme sonore.
Le dépistage, à tous les âges
Depuis 2014, la surdité permanente bilatérale néonatale est dépistée chez près de 95 % des nourrissons dans les jours qui suivent leur naissance dans le cadre d’un programme national de dépistage déployé dans les maternités. L’examen indolore et rapide consiste à recueillir des données sur le fonctionnement de l’oreille moyenne et de l’oreille interne à l’aide d’oreillettes et d’électrodes placées sur la surface du crâne des bébés. L’objectif est de repérer très précocement les enfants déficients auditifs pour limiter les conséquences délétères de ce déficit. Par la suite, la médecine scolaire ou l’entourage peuvent déceler un déficit. Chez les enfants, les répercussions d’une surdité seront différentes selon qu’elle apparaît avant ou après l’acquisition du langage.
Chez l’adulte, le dépistage est proposé dès l’âge de 45–50 ans dans le cadre de la médecine du travail, et plus précocement et régulièrement dans les situations à risque (travail en milieu bruyant, militaires...).
Lorsque le dépistage décèle un risque de déficience, des tests spécialisés permettent de définir le type de surdité dont un patient est atteint, ainsi que son importance :
* Les otoémissions acoustiques sont des vibrations générées par les cellules ciliées externes de la cochlée suite à une stimulation sonore. Leur enregistrement permet de vérifier que ces cellules et l’oreille moyenne fonctionnent correctement. Il s’agit d’un bon outil de dépistage néonatal,
* Les potentiels évoqués auditifs automatisés s’enregistrent grâce à des électrodes placées sur le cuir chevelu, en stimulant les oreilles avec une intensité sonore. Ce test permet de vérifier le fonctionnement de la cochlée et du nerf auditif.
* L’audiométrie tonale est le test le plus courant. Il consiste à rechercher des réflexes ou des réactions en réponse à des émissions de sons, pour des fréquences allant le plus souvent de 125 Hz (graves) à 8 000 Hz (aiguës).
* L’audiométrie vocale permet d’évaluer la compréhension. Le sujet doit répéter correctement des mots simples et courants qui leur sont énoncés à différentes intensités.
Les tests classiques ne permettent pas toujours de repérer une atteinte partielle des fibres des nerfs auditifs, la présence de fibres résiduelles étant suffisante pour analyser les sons. Ainsi, face à des tests normaux mais à une plainte persistante d’un patient, correspondant notamment à une mauvaise compréhension dans un environnement bruyant, il est nécessaire d’effectuer une audiométrie vocale en environnement bruyant.
Des traitements de plus en plus sophistiqués
Les traitements classiques
Les traitements chirurgicaux permettent de rétablir l’audition lorsque la surdité est liée à un défaut de fonctionnement de la chaîne tympano-ossiculaire, comme une perforation du tympan, une destruction ou un blocage des osselets. Il est aujourd’hui courant de réaliser une greffe de tympan ou remplacer un osselet.
Lorsque l’oreille interne est endommagée, à la suite d’une surdité brusque ou d’un traumatisme acoustique aigu par exemple, une hospitalisation avec administration de corticoïdes par voie générale est préconisée pour réduire l’inflammation et protéger les cellules ciliées. Dans l’idéal, ces médicaments doivent être administrés à fortes doses et dans les quelques heures qui suivent la survenue de la surdité. Leur utilisation est parfois associée à des traitements destinés à restaurer la vascularisation ou l’oxygénation de l’organe : substances vasodilatatrices et/ou oxygénothérapie hyperbare qui permet de délivrer une grande quantité d’oxygène et/ou « hémodilution normovolémique » qui consiste à prélever du sang pour en modifier la viscosité. Toutefois l’efficacité de ces traitements complémentaires n’est pas validée en raison de l’absence de données comparatives issues de groupes témoins non traités.
Les aides auditives
En cas de déficits auditifs légers à modérés, des aides auditives conventionnelles, dites « en conduction aérienne », sont proposées aux patients. Leur fonctionnement repose sur la captation du son par un ou plusieurs microphones. Le signal capté est traité par un microprocesseur, amplifié puis réémis via un écouteur placé dans le conduit auditif externe. Depuis 2021, certains modèles sont accessibles sans reste à charge financier pour les patients.
Des aides en conduction osseuse peuvent également être utilisées. Elles permettent de stimuler directement l’oreille interne à travers les os du crâne : les vibrations sonores sont captées par un microphone et transmises à l’os temporal par un vibrateur placé derrière l’oreille. Les vibrations de la paroi osseuse autour de la cochlée sont alors transférées aux cellules ciliées.
Les implants
Pour les surdités très sévères, voire totales, des implants sont recommandés. Il en existe deux types : l’implant d’oreille moyenne et l’implant cochléaire.
L’implant d’oreille moyenne fonctionne à l’image des aides en conduction osseuse. Il est fixé sur un osselet ou à proximité de l’oreille interne, capte les vibrations et les transmet à l’oreille interne.
L’implant cochléaire permet de restituer une audition quand les cellules sensorielles auditives ont totalement disparu. Son fonctionnement passe par l’excitation électrique de la cochlée pour stimuler sélectivement les terminaisons nerveuses qui correspondent à diverses fréquences de son. Une chirurgie est nécessaire pour implanter des électrodes dans la cochlée. Concrètement, un processeur externe fixé à la surface du crâne capte les sons et les numérise. Les signaux sont alors transmis au travers la peau à la partie interne de l’implant. Cette dernière transforme le signal numérique en stimulations électriques et le distribue sur les électrodes implantées dans la cochlée en fonction de leur fréquence.
Cette technique donne de très bons résultats, mais une période d’apprentissage supervisé par une orthophoniste spécialisée est nécessaire pour que le patient en retire un bénéfice maximal. Globalement, comprendre dans le silence est relativement aisé pour la grande majorité des patients implantés, mais une conversation dans le bruit ou l’écoute de la musique reste encore difficile. Chez les enfants atteints de surdité profonde, l’implantation cochléaire précoce (entre 12 et 24 mois) a montré d’excellents résultats sur l’acquisition du langage. En outre, une étude française a montré que les implants cochléaires avaient un effet bénéfique sur le déclin cognitif.
Une nouvelle tendance consiste à associer aides auditives conventionnelles et implants chez certains patients qui souffrent de surdités sévères mais chez lesquels il existe un reliquat auditif : les implants vont alors stimuler leur cochlée pour les aider mieux percevoir les sons, particulièrement les fréquences aiguës, alors que les aides auditives augmentent leur perception des sons graves.
Les enjeux de la recherche
Vers une meilleure connaissance des mécanismes auditifs
Certaines personnes sont plus vulnérables que d’autres au bruit, ou connaissent une perte des cellules ciliées ou des fibres nerveuses auditives liée à l’âge plus rapide : les chercheurs tentent de comprendre cette variabilité interindividuelle. Parmi leurs hypothèses : l’implication de fibres nerveuses dans la sensibilité au bruit. Il existe en effet deux types de fibres nerveuses connectées aux cellules ciliées dans la cochlée : 95 % des fibres transmettent l’information sonore au cerveau, alors que les 5 % restantes sont des fibres différentes (non myélinisées) dont la fonction a été découverte récemment. Elles s’avèrent spécialisées dans la transmission d’un signal d’alerte en cas de bruit trop intense qui malmène les cellules ciliées. Concrètement, au-delà d’un certain seuil d’inconfort, ces fibres sont activées et envoient au cerveau un message de douleur (ou de sensation désagréable). Ce système prévient qu’il est nécessaire de trouver un environnement plus calme et pourrait jouer un rôle dans la vulnérabilité individuelle au bruit. Des travaux sur ce sujet sont en cours, pour confirmer cette hypothèse.
Des avancées en génétique
Les scientifiques continuent à rechercher des mutations génétiques responsables de surdités. Ces mutations affectent des gènes qui permettent la synthèse de protéines impliquées dans le développement ou le fonctionnement de la cochlée. Leur identification permet de réaliser des diagnostics moléculaires et du conseil génétique pour les familles concernées. Dans certains cas, elle contribue également au choix de la méthode de réhabilitation de l’audition.
Des thérapies géniques à l’étude
Grâce à ces avancées, des équipes développent en outre des thérapies géniques pour traiter des surdités d’origine monogénique, avec certains résultats positifs chez l’animal.
Une collaboration internationale qui inclut des chercheurs Inserm a testé avec succès une thérapie génique dans un modèle murin de surdité profonde d’origine génétique DFNB9. Les sujets atteints de cette surdité sont dépourvus du gène de l’otoferline, une protéine essentielle à la transmission de l’information sonore au niveau des synapses des cellules ciliées. Grâce à l’injection intracochléaire de ce gène, les chercheurs sont parvenus à rétablir la fonction de la synapse auditive et les seuils auditifs des souris traitées à un niveau quasi-normal.
Un autre essai de thérapie génique, impliquant également des chercheurs Inserm, a permis de restaurer l’audition de souris qui modélisent le syndrome de Usher de type 1G (USH1G). Grâce à l’injection locale du gène USH1G codant pour la clarine, les chercheurs ont réussi à rétablir le fonctionnement du signal de transduction mécano-électrique des cellules sensorielles de l’oreille interne.
Une équipe américaine a quant à elle empêché l’apparition d’une surdité d’origine génétique (DFNA36) grâce à l’édition génomique, toujours dans un modèle murin. Grâce à l’outil Crispr/Cas9 et à un vecteur adénoviral, les chercheurs ont remplacé in vivo quelques nucléotides du gène Tmc1 qui permet la synthèse d’une protéine impliquée dans le fonctionnement des cellules ciliées, et dont la mutation est responsable de l’apparition de cette surdité. Les animaux ont conservé leur ouïe au moins un an après la naissance.
Régénérer des cellules ciliées
Des chercheurs travaillent en outre sur la régénération des cellules ciliées à partir d’autres types cellulaires présents dans la cochlée, appelées cellules de soutien. En y insérant le gène Atoh1 grâce à un vecteur viral, ils les forcent à acquérir les propriétés de cellules ciliées dans le but de remplacer les cellules mortes. Les données disponibles indiquent qu’il suffirait d’obtenir quelques dizaines de cellules sensorielles pour améliorer considérablement les performances des implants cochléaires.
Améliorer les aides auditives et les implants
Des progrès technologiques devraient permettre d’améliorer les performances des aides auditives et des implants. À ce jour, les personnes équipées d’implants cochléaires rencontrent de grandes difficultés en cas de sources sonores multiples ou en présence de sons complexes tels que de la musique. Avec une vingtaine d’électrodes implantées, l’excitation électrique des fibres auditives est peu précise : la résolution et le nombre de fréquences de sons traitées sont limités. Les chercheurs expérimentent l’augmentation du nombre d’électrodes, du nombre d’impulsions électriques par seconde, ou encore la prise en compte des variations rapides de fréquences.
D’autres types d’implants sont très prometteurs pour faciliter la compréhension dans des environnements sonores complexes (musique, soirée…) : il s’agit d’implants optogénétiques, développés à l’Institut de neurosciences auditives, à Göttingen en Allemagne. Leur principe est de stimuler très précisément les fibres auditives avec des signaux lumineux. Cette technique permettrait de multiplier le nombre d’électrodes par 10 (pour atteindre 200). Pour cela plusieurs défis techniques sont relevés : modifier génétiquement les cellules de la cochlée pour y introduire le gène de l’opsine destiné à les rendre sensibles à la lumière, puis faire en sorte que l’implant convertisse les vibrations sonores en signaux lumineux acheminés dans une fibre optique insérée dans la cochlée. De premiers résultats ont été obtenus chez des rats sourds qui ont récupéré leur audition. Des essais chez l’Homme sont prévus à priori à horizon 2025.
Enfin, l’intelligence artificielle devrait s’inviter dans la conception des aides auditives. Des appareils permettent déjà certains traitements du signal afin de réduire le bruit de fond. Les algorithmes d’intelligence artificielle permettront, dans l’avenir, de distinguer la parole du bruit. Et, à terme, des dispositifs plus performants pourraient analyser l’activité cérébrale pour identifier les sources sonores d’intérêt et effectuer un réglage en temps réel.
Vers des traitements médicamenteux
La meilleure connaissance des mécanismes de mort des cellules ciliées et des cellules du nerf auditif permet de proposer de nouvelles pistes thérapeutiques. Ainsi, l’équipe Inserm de l’Institut des neurosciences de Montpellier a montré que la perte des cellules ciliées résulte en grande partie d’un programme actif de mort cellulaire appelé apoptose qui fait intervenir différents acteurs moléculaires selon la nature du stress qui le déclenche (traumatisme acoustique, médicament ototoxique...). En outre, il est maintenant démontré que les fibres du nerf auditif sont très sensibles à une libération excessive de glutamate déclenchée par un traumatisme sonore ou lors du vieillissement de la cochlée. Ce phénomène appelé excitotoxicité est responsable de la perte des synapses auditives et de la dégénérescence des fibres du nerf auditif. Aussi, différentes substances sont testées pour protéger ces tissus :
Injecté à travers le tympan, un anti-apoptotique (le D‑JNKI‑1) prévient la mort des cellules sensorielles et les pertes auditives induites par la néomycine (un antibiotique) ou un traumatisme sonore. Un essai clinique impliquant 35 centres européens a été mené chez 210 patients qui présentaient une surdité brusque. Les résultats montrent une amélioration significative de la compréhension et une diminution des acouphènes avec cette molécule, par rapport à ce qui observé après l’injection d’un placebo. Et une autre étude menée auprès de 256 patients atteints de surdité soudaine idiopathique (apparue au cours des 72 dernières heures, généralement en raison d’une infection ou d’un trouble circulatoire de la cochlée), montre également une efficacité.
Autre piste, l’administration de molécules qui modulent le métabolisme des mitochondries, de petits organites qui produisent de l’énergie dans les cellules. Elles protègent en effet l’audition de souris exposées à la néomycine ou au bruit, et atténuent les pertes auditives liées à l’âge. Chez l’Homme, une de ces molécules (la coenzyme Q10 – Ter) administrée sous forme de compléments alimentaires pendant 30 jours favorise la récupération auditive après une exposition au bruit.
Des chercheurs imaginent aussi cibler le stress oxydant, un mécanisme qui endommage les cellules via la production de radicaux libres en excès. Ces derniers peuvent être neutralisés par des agents antioxydants et certains d’entre eux sont testés pour prévenir ou guérir des pertes auditives : la N‑acétylcystéine, l’acide alpha-lipoïque, l’aspirine, les vitamines E, C et D, et le bêta-carotène.
Enfin, l’utilisation de molécules qui miment l’effet des neurotrophines est testée pour protéger les neurones du système auditif et favoriser la repousse de leurs prolongements (neurites). Les neurotrophines sont des facteurs favorables à la survie, la croissance et la différenciation neuronales. Découvrir des substances thérapeutiques qui produisent les mêmes effets et les tester chez les patients est l’un des objectifs du projet Audiocampus porté par l’Institut des neurosciences de Montpellier, une plate-forme participative d’excellence en audiologie clinique sur le site du CHU incluant start-ups, patients, cliniciens, enseignants-chercheurs, étudiants et industriels.
Un centre de recherche dédié
En France, l’Institut de l’audition est un centre de recherche dédié à l’audition. Il est composé de membres de l’Institut Pasteur, de l’Inserm et du CNRS qui collaborent avec les services ORL des CHU de l’AP-HP à Paris et de plusieurs villes en région (Lyon, Clermont-Ferrand, Bordeaux…), ainsi qu’avec des audioprothésistes. Les axes de recherche sont fondamentaux et translationnels : élucider le fonctionnement du système auditif et l’influence du génome et de l’environnement, mais aussi améliorer la prise en charge des patients en caractérisant les différentes surdités, en développant des outils de diagnostic et des approches thérapeutiques innovantes chez l’enfant et chez l’adulte, et en élaborant des méthodes de rééducation auditive fondées sur des connaissances scientifiques fondamentales.
DOCUMENT inserm LIEN |
|
|
|
|
 |
|
Maladie de Charcot : une nouvelle piste pour améliorer le diagnostic et le suivi des patients |
|
|
|
|
|
Maladie de Charcot : une nouvelle piste pour améliorer le diagnostic et le suivi des patients
14 Mar 2024 | Par Inserm (Salle de presse) |
Neurosciences, sciences cognitives, neurologie, psychiatrie
Neurones noradrénergiques présents dans le locus coeruleus de souris et dont le dysfonctionnement contribue à l’hyperexcitabilité corticale dans la SLA. © Caroline Rouaux
La sclérose latérale amyotrophique ou maladie de Charcot est une maladie neurodégénérative qui entraîne une paralysie progressive puis le décès du patient. Le diagnostic est difficile à poser et aucun traitement curatif n’existe à ce jour; autant de défis pour la recherche. Dans une nouvelle étude, la chercheuse Inserm Caroline Rouaux et son équipe au Centre de recherche en biomédecine de Strasbourg (Inserm-Université de Strasbourg), en collaboration avec des chercheurs et chercheuses de l’Université Ludwig Maximilian à Munich, du CNRS et de Sorbonne Université, montrent que l’électroencéphalographie pourrait devenir un outil diagnostic et pronostic de la maladie. Grâce à cet examen, les scientifiques ont pu mettre en évidence un profil d’ondes cérébrales atypique qui pourrait s’avérer spécifique de la maladie. Ces travaux parus dans Science Translational Medicine, ont en outre permis de découvrir une possible cible thérapeutique. Ces avancées fondamentales pourraient à terme bénéficier aux patients.
La sclérose latérale amyotrophique ou maladie de Charcot demeure un véritable défi pour les cliniciens. Cette maladie neurodégénérative qui se déclare le plus souvent entre les âges de 50 à 70 ans conduit à une paralysie progressive et au décès des patients en seulement deux à cinq ans. Elle est due à la mort des motoneurones, les cellules nerveuses qui contrôlent les muscles, à la fois dans le cerveau (motoneurones centraux) et dans la moelle épinière (motoneurones périphériques).
Le diagnostic de la SLA est difficile à poser. En effet, les manifestations de la SLA sont hétérogènes au début de la maladie : faiblesses ou crampes au niveau d’un bras, d’une jambe, difficultés de déglutition ou d’articulation… Par ailleurs, il n’existe pas de biomarqueur spécifique de la maladie. Ainsi, le diagnostic résulte de l’élimination d’autres pathologies pouvant entraîner des troubles moteurs, ce qui prend généralement un à deux ans après le début des symptômes, retarde d’autant la mise en place de mesures thérapeutiques et réduit les chances d’inclusion dans des essais cliniques à un stade précoce.
C’est avec l’objectif de raccourcir ce délai que l’équipe de Caroline Rouaux au Centre de recherche en biomédecine de Strasbourg, en collaboration avec les équipes de Sabine Liebscher à Munich et Véronique Marchand-Pauvert, chercheuse Inserm à Paris, a testé le recours à l’électroencéphalographie1. Cette technique peu coûteuse et facile d’utilisation consiste à placer des électrodes à la surface du crâne pour enregistrer l’activité cérébrale sous forme d’ondes.
L’examen effectué chez des sujets atteints de SLA et dans des modèles animaux correspondants a révélé un déséquilibre entre deux types d’ondes respectivement associées à l’activité des neurones excitateurs et inhibiteurs. Ce déséquilibre, en faveur d’une plus grande activité des neurones excitateurs au détriment des neurones inhibiteurs, traduit une hyperexcitabilité corticale.
« Ce phénomène n’est pas une surprise et avait déjà été décrit avec d’autres méthodes d’investigation, mais celles-ci sont très peu utilisées car elles sont difficiles à mettre en œuvre et ne fonctionnent qu’en tout début de maladie. L’électroencéphalographie, au contraire, est très peu invasive, très peu couteuse, et peut s’utiliser à différents moments de la maladie. En outre, le profil d’ondes cérébrales atypique révélé par électroencéphalographie pourrait s’avérer spécifique de la maladie », explique Caroline Rouaux, chercheuse Inserm et dernière autrice de l’étude.
En effet, l’analyse de l’enregistrement de l’activité électrique du cerveau par électroencéphalographie permet de mettre en évidence divers types d’ondes cérébrales d’amplitudes et de fréquences différentes. L’une de ces ondes appelée « thêta » reflète l’activité des neurones excitateurs qui transmettent des messages stimulant les neurones, tandis qu’une autre onde appelée « gamma », reflète celle des neurones inhibiteurs qui bloquent la transmission des messages nerveux.
L’étude révèle que chez les humains et animaux atteints de SLA, l’interaction entre ces deux types d’ondes est atypique, révélant un déséquilibre entre les activités excitatrices et inhibitrices. Non seulement ce déséquilibre a été retrouvé chez tous les sujets testés, mais les scientifiques ont aussi montré que plus les symptômes de la maladie progressent, plus ce déséquilibre est important. En outre, ce profil d’ondes atypique a été détecté chez l’animal avant même l’apparition des premiers symptômes moteurs.
Si ces premiers résultats se confirmaient, l’électroencéphalographie pourrait dans le futur servir d’outil pronostic pour les patients déjà diagnostiqués afin d’évaluer par exemple la réponse à un traitement médicamenteux, voire même d’outil diagnostic en cas de symptomatologie évocatrice de la maladie.
Dans une seconde partie de ce travail, les chercheurs ont pu étudier chez les patients et les souris les mécanismes à l’origine de l’hyperexcitabilité observée. Tout d’abord, ils ont mesuré les taux des différents neuromodulateurs produits par les neurones pour communiquer entre eux, et ont constaté un déficit en l’un d’entre eux : la noradrénaline était présente en plus faible quantité dans les cerveaux des patients et souris atteints de SLA et par rapport à des cerveaux sains.
Pour vérifier le rôle de la noradrénaline, ils ont bloqué la production de ce neuromodulateur chez des animaux sains, et ont montré que cela provoque une hyperexcitabilité corticale, comme celle observée dans la maladie. Et à l’inverse, en administrant des molécules stimulant l’action de la noradrénaline dans un modèle de souris atteintes de SLA, les scientifiques ont réduit l’hyperexcitabilité et restauré une activité cérébrale équivalente à celle de souris saines.
« Cette découverte pourrait marquer l’ouverture d’une nouvelle piste thérapeutique dans la SLA sous réserve que l’hyperexcitabilité corticale soit bien associée à la progression de la maladie. En effet, à ce jour, nous observons dans notre étude une association entre les deux mais aucun lien de cause à effet n’est encore établi. C’est ce que nous allons vérifier dans les prochains mois. », conclut Caroline Rouaux.
1 L’électroencéphalographie est couramment utilisée à des fins de recherche en neurologie mais aussi en pratique clinique. L’examen renseigne sur l’activité cérébrale en cas de troubles du sommeil, après un accident vasculaire cérébral, ou encore en cas de coma. Il permet également de diagnostiquer une encéphalite, une épilepsie ou encore de confirmer une mort cérébrale.
DOCUMENT inserm LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 ] Précédente - Suivante |
|
|
|
|
|
|