ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

La dmarche scientifique

 


 

 

 

 

 

La démarche scientifique

Publié le 19 septembre 2018
 
Pour comprendre et expliquer le réel en physique, chimie, sciences de la vie et de la Terre, les scientifiques utilisent une méthode appelée la démarche scientifique. Quels sont ses grands principes ? Quels outils sont utilisés pour mettre en place des raisonnements logiques ? Découvrez l’essentiel sur la démarche scientifique.
QU’EST-CE QUE LA DÉMARCHE SCIENTIFIQUE ?

La démarche scientifique est la méthode utilisée par les scientifiques pour parvenir à comprendre et à expliquer le monde qui nous entoure. De façon simplificatrice, elle se déroule en plusieurs étapes : à partir de l’observation d’un phénomène et de la formulation d’une problématique, différentes hypothèses vont être émises, testées puis infirmées ou confirmées ; à partir de cette confirmation se construit un modèle ou théorie. L’observation et l’expérimentation sont des moyens pour tester les différentes hypothèses émises.
    
L’évolution de la démarche scientifique
au fil du temps
De l’Antiquité à nos jours, les moyens d’investigation sur le monde ont évolué pour aboutir à une démarche dont les fondements sont communs à toutes les sciences de la nature (physique, chimie, sciences de la vie et de la Terre).
Dès l’Antiquité, Hippocrate, médecin grec, apporte de la nouveauté dans son traité « Le pronostic », qui détaille, pour la première fois, un protocole pour diagnostiquer les patients. Ce texte est l’une des premières démarches scientifiques.
Le XVIIe siècle est l’âge d’or des instruments et désormais l'expérience est au cœur de la pratique scientifique : on parle de Révolution scientifique. En plus des observations, les hypothèses peuvent aussi être testées par l’expérience. Par ailleurs, l’invention d’instruments tels que le microscope donne la possibilité aux scientifiques d’observer des éléments jusqu’alors invisibles à l'œil nu, comme les cellules, découvertes par Robert Hooke en 1665.
A partir du XXe siècle, la science se fait de manière collective. Les études scientifiques sont soumises au jugement des « pairs », c’est-à-dire à d’autres scientifiques et toutes les expériences doivent être détaillées pour être reproductibles par d’autres équipes. En contrepartie, la publication dans des revues internationales, et sur Internet dès les années 1990, permet aux chercheurs du monde entier d’accroître la notoriété de leurs idées et facilite l'accès aux sciences pour le grand public. Mais avec l'arrivée de l'informatique, il n'y a pas que la communication qui change, la méthode scientifique aussi se transforme. Il devient plus simple de trier de grands nombres de données et de construire des études statistiques. Il faut cependant faire attention à sélectionner les critères pertinents, car les progrès technologiques apportent aux chercheurs d’immenses quantités d’informations, appelées big data.
    
LES DIFFÉRENTES ÉTAPES DE LA DÉMARCHE SCIENTIFIQUE
Observation et formulation d’une problématique
A la base de toute démarche scientifique,il y a au départ une observation d’un phénomène et la formulation d’une problématique.
Par exemple, depuis l’Antiquité, certains savants sont convaincus que la Terre est immobile au centre de l’Univers et que le Soleil tourne autour d’elle : c’est l’hypothèse du géocentrisme. Elle est émise car à l’époque, toutes les observations se faisaient à l’œil nu. Vu depuis la Terre, le Soleil peut donner l’impression de tourner autour de nous car il se lève sur l’horizon Est et se couche sur l’horizon Ouest. Cependant, ce n’était qu’une intuition car à ce stade, aucune véritable démarche scientifique n’est engagée.
Plus tard, quand les astronomes ont observé le mouvement des planètes, ils ont vu que le déplacement de certaines planètes forme parfois une boucle dans le ciel, ce qui est incompatible avec un mouvement strictement circulaire autour de la Terre. Le problème fut résolu en complexifiant le modèle : une planète se déplace sur un cercle dont le centre se déplace sur un cercle. C’est la théorie des épicycles.

Les hypothèses et la construction d’un modèle
Une nouvelle hypothèse fut émise par Nicolas Copernic au XVe siècle. Selon lui, le Soleil est au centre de l’Univers et toutes les planètes, dont la Terre, tournent autour de lui. On appelle cette hypothèse « l’héliocentrisme ». Ce modèle rend naturellement compte des rétrogradations planétaires mais possède quand même des épicycles pour décrire leurs mouvements avec plus de précisions.
Durant l’hiver 1609-1610, Galilée pointe sa lunette vers le ciel et découvre les phases de Vénus et des satellites qui tournent autour de la planète Jupiter. Ses observations l’incitent à invalider l’hypothèse géocentrique et à adhérer à l’héliocentrisme.
Petit à petit, cette méthode est devenue générale. Une hypothèse reste considérée comme valide tant qu’aucune observation ou expérience ne vient montrer qu’elle est fausse. Plus elle résiste à l’épreuve du temps, plus elle s’impose comme une description correcte du monde. Cependant, il suffit d’une seule observation contraire pour que l’hypothèse s’effondre, et dans ce cas, c’est définitif. Il faut alors changer d’hypothèse.
Reste que l’héliocentrisme de Copernic s’est d’abord imposé par la qualité des éphémérides planétaires qui en étaient tirées plus que par la force de son hypothèse, certes plus pratique que l’hypothèse géocentrique mais pas confirmée directement. Pour cela, il fallut encore attendre quelques années, le temps que la qualité des instruments d’observation progresse.

L’observation et l’expérimentation
Si la Terre est animée d’un mouvement autour du Soleil alors on devrait constater un effet de parallaxe, c’est-à-dire de variation des positions relatives des étoiles au fil de l’année. L’absence d’une parallaxe mesurable était utilisée contre l’héliocentrisme. C’est en cherchant à mesurer la parallaxe des étoiles que l’astronome anglais James Bradley découvrit en 1727 un autre effet, l’aberration des étoiles, dont il montra qu’elle ne pouvait provenir que de la révolution de la Terre autour du Soleil. La première mesure de parallaxe, due à l’astronome Friedrich Bessel en 1838, vient clore le débat.
Le mouvement de rotation de la Terre ne fut prouvé que plus tard. En 1851 le physicien Léon Foucault mène une expérience publique spectaculaire : un grand pendule est accroché à la voûte du Panthéon de Paris et la lente révolution de son plan d’oscillation révèle la rotation de la Terre sur elle-même.
On trouve là une autre caractéristique de la démarche scientifique. Une fois le modèle mis au point en s’appuyant sur des observations qui le justifient, il faut en tirer des prédictions, c’est-à-dire des conséquences encore non observées du modèle. Cela permet de mener de nouvelles observations ou de bâtir de nouvelles expériences pour aller tester ces prédictions. Si elles sont fausses, le modèle qui leur a donné naissance est inadéquat et doit être réformé ou oublié. Si elles sont justes, le modèle en sort renforcé car il est à la fois descriptif et prédictif.

    
La communication
Aujourd’hui, la « revue par les pairs » permet de contrôler la démarche scientifique d’une nouvelle découverte, par un collège de scientifiques indépendants. Si les observations et expérimentations vont dans le même sens et qu’elles ne se contredisent pas, la proposition est déclarée apte à être publiée dans une revue scientifique.

QUELS OUTILS POUR DÉCRYPTER
LA SCIENCE ?
La démarche scientifique repose sur la construction d’un raisonnement logique et argumenté. Elle utilise les bases de la logique formelle : l’induction et la déduction.
    

L’induction
L’induction cherche à établir une loi générale en se fondant sur l’observation d’un ensemble de faits particuliers (échantillon).
L'induction est par exemple utilisée en biologie. Ainsi, pour étudier des cellules dans un organisme, il est impossible de les observer toutes, car elles sont trop nombreuses. Les scientifiques en étudient un échantillon restreint, puis généralisent leurs observations à l’ensemble des cellules. Les scientifiques établissent alors des hypothèses et des modèles dont il faudra tester les prédictions par des observations et des expériences ultérieures.

La déduction
La déduction relie des propositions, dites prémisses, à une proposition, dite conclusion, en s’assurant que si les prémisses sont vraies, la conclusion l’est aussi.
Exemple classique de déduction : tous les hommes sont mortels, or Socrate est un homme donc Socrate est mortel.
La déduction est beaucoup utilisée en physique ou mathématiques, lors de la démonstration d’une loi ou d’un théorème.

Raisonnement du Modus Ponens et du Modus Tollens
Le Modus Ponens et le Modus Tollens sont utilisés par les scientifiques dans leurs raisonnements.
Le Modus Ponens est, en logique, le raisonnement qui affirme que si une proposition A implique une proposition B, alors si A est vraie, B est vraie.
Mais si une implication est vraie alors sa contraposée l’est également (même valeur de vérité selon les règles de la logique formelle). Cela signifie que « la négation de B implique la négation de A » (contraposée de « A implique B »).
Le Modus Tollens est le raisonnement suivant : si une proposition A implique une proposition B, constater que B est fausse permet d’affirmer que A est fausse.
Un exemple : On sait que tous les poissons respirent sous l'eau. Or le saumon est un poisson donc il respire sous l'eau (Modus Ponens). La proposition initiale peut être énoncée sous une autre proposition équivalente (contraposée) : si « je ne peux pas respirer sous l’eau, alors je ne suis pas un poisson ». Cela permet de construire le raisonnement suivant : tous les poissons respirent sous l’eau, or je ne respire pas sous l’eau, donc je ne suis pas un poisson (Modus Tollens).

 

    DOCUMENT     cea         LIEN

 
 
 
 

Comment le cerveau apprend lire

 

 

 

 

 

 

 

Comment le cerveau apprend à lire


Des chercheurs du CEA, du CNRS et du Collège de France de NeuroSpin, plateforme de recherche en neuroimagerie au CEA Paris-Saclay, viennent de mettre en évidence comment la région spécifique à la reconnaissance des mots se développe lors de l’apprentissage de la lecture. L’étude, au cours de laquelle 10 enfants de cours préparatoire ont été suivis, a permis de localiser cette « boîte aux lettres » dans l’hémisphère gauche, dans une région encore libre de toute spécialisation. Bloquant toutefois le développement de la zone liée à la réponse aux visages dans l’hémisphère gauche et non dans le droit, l’acquisition de la lecture augmente l’asymétrie entre les deux hémisphères. Ces résultats sont publiés dans la revue Plos Biology le 6 mars 2018.

       
Apprendre à lire est une acquisition culturelle majeure, qui conditionne l'ensemble de la scolarité et de la vie personnelle et professionnelle de tout un chacun. Mais comment le cerveau humain peut-il apprendre à lire et comment est-il transformé par cette nouvelle façon d'accéder au langage, non plus par les oreilles mais par les yeux ? Pendant un an, 10 enfants en cours préparatoire sont venus à NeuroSpin tous les deux mois pour aider les chercheurs à percer ce mystère. Les enfants ont regardé des images d'objets, maisons, visages, corps mais aussi des mots et des lettres dans une IRM. Leur tâche : appuyer le plus vite possible sur un bouton quand « Charlie » le personnage de bandes dessinées apparaissait.

Chacune de ces catégories d'image activait une région visuelle spécialisée, comme chez l'adulte. Et pour les mots ? Dès fin novembre pour certains enfants, une région, qui répondait plus aux mots qu'aux autres images, devenait visible : la « boite aux lettres ». Pour d'autres, cela prenait plus de temps et la réponse de cette région était proportionnelle à leurs performances en lecture. Un an plus tard, une fois la lecture de mots familiers automatisée, seules persistaient dans l'hémisphère gauche la « boite aux lettres » et la région de conversion des lettres en sons dans les régions temporales du langage oral.

Une fois la lecture automatisée, les chercheurs ont cherché à remonter le temps et étudier chez chaque enfant ce que faisaient ces régions, notamment la « boite aux lettres », avant de se spécialiser pour la lecture. Est-ce qu'apprendre à lire déplace les spécialisations déjà acquises pour d'autres catégories visuelles ou la « boite aux lettres » émerge-t-elle dans une région encore « libre » de toute spécialisation ? C'est la deuxième hypothèse qui a été vérifiée. L'équipe de recherche a également constaté que le développement de la lecture dans l'hémisphère gauche (l'hémisphère du langage oral) bloque le développement de la région qui répond aux visages dans cet hémisphère contrairement à ce qui se passe dans l'hémisphère droit. Cette compétition entre mots et visages à gauche, et pas à droite, aboutit à l'augmentation de l'asymétrie hémisphérique chez les lecteurs par rapport aux illettrés et aux dyslexiques observés dans de précédentes études.

Nous apprenons donc à lire aux enfants à un moment de plasticité de cette région, qui augmenterait sa réponse aux visages dans le milieu naturel. L'éducation a donc spontanément découvert les fenêtres de plasticité offertes par le calendrier de maturation du cerveau humain pour permettre un apprentissage efficace.
Et nos explorateurs ? Peut-être de futurs chercheurs gagnés par le virus de l'exploration et de la connaissance. En attendant, ils sont retournés à l'école avec leur cerveau en images et en 3D pour expliquer en classe comment les enfants apprennent.

Références
* "The emergence of the visual word form: Longitudinal evolution of category-specific ventral visual areas during reading acquisition", Ghislaine Dehaene-Lambertz et. al., 6.3.2018, PlosBiology, https://doi.org/10.1371/journal.pbio.2004103

 

DOCUMENT     cea         LIEN
 

 
 
 
 

La mmoire collective faonne la construction des souvenirs personnels

 

 

 

 

 

 

 

La mémoire collective façonne la construction des souvenirs personnels

COMMUNIQUÉ | 16 DÉC. 2019 - 17H00 | PAR INSERM (SALLE DE PRESSE)

NEUROSCIENCES, SCIENCES COGNITIVES, NEUROLOGIE, PSYCHIATRIE


Pour les sociologues, nos souvenirs sont modelés par la mémoire collective de notre communauté. Jusqu’à maintenant, ce phénomène n’avait jamais été étudié au niveau neurobiologique. Des travaux menés par les chercheurs Inserm Pierre Gagnepain et Francis Eustache (Inserm/Université de Caen Normandie/Ecole Pratique des Hautes Etudes/CHU Caen/GIP Cyceron), associés à leurs collègues du projet Matrice piloté par Denis Peschanski, historien au CNRS, se sont intéressés aux représentations collectives de la Seconde Guerre mondiale en France. Ils montrent grâce à l’imagerie cérébrale comment la mémoire collective façonne la mémoire individuelle. Les résultats sont publiés dans la revue Nature Human Behaviour.

Au siècle dernier, le sociologue français Maurice Halbwachs soulignait que les souvenirs individuels sont influencés par les cadres sociaux dans lesquels ils s’insèrent. Selon cette perspective, le fonctionnement de la mémoire des individus ne peut être compris sans s’intéresser également à leur appartenance à un groupe, et aux cadres sociaux liés à la mémoire collective.
Jusqu’ici, ces théories n’avaient jamais été testées par les neuroscientifiques. Les chercheurs Inserm Pierre Gagnepain et Francis Eustache (Inserm/Université de Caen Normandie/Ecole Pratique des Hautes Etudes/CHU Caen/GIP Cyceron), associés notamment à leurs collègues du programme Matrice[1] piloté par l’historien CNRS Denis Peschanski, ont décidé de se pencher sur la question, en utilisant des techniques d’imagerie cérébrale. Ils ont pour la première fois mis en évidence dans le cerveau le lien qui existe entre mémoire collective et souvenirs personnels.
La mémoire collective est constituée de symboles, de récits, de narrations, et d’images qui participent à la construction identitaire d’une communauté. Pour mieux appréhender cette notion, les chercheurs ont d’abord procédé à une analyse de la couverture médiatique de la Seconde Guerre mondiale, afin d’identifier les représentations collectives communes associées à cette période. Ils se sont intéressés au contenu de 30 ans de reportages et de documentaires sur la guerre, diffusés entre 1980 et 2010 à la télévision française, et retranscrits par écrit.
A l’aide d’un algorithme, ils ont analysé ce corpus inédit et identifié des groupes de mots utilisés régulièrement pour parler de grandes thématiques associées à notre mémoire collective de la Seconde Guerre mondiale, comme par exemple le débarquement allié en Normandie. « Notre algorithme identifiait automatiquement les thématiques centrales et les mots qui y étaient associés de façon récurrente, dévoilant ainsi nos représentations collectives de cette période cruciale de notre histoire », précise Pierre Gagnepain.
Mais quel est le lien entre ces représentations collectives de la guerre et la mémoire individuelle ? Pour répondre à cette question, les chercheurs ont recruté 24 volontaires pour visiter le Mémorial de Caen et les ont invités à observer des photos de la période, accompagnées de légendes.
En s’appuyant sur les mots contenus dans ces légendes, l’équipe a pu définir le degré de relation entre les photos et les différentes thématiques de la mémoire collective identifiées précédemment. Si des mots qui avaient précédemment été associés à la thématique du débarquement se retrouvaient dans une légende par exemple, la photo était alors considérée comme associée à cette thématique dans la mémoire collective. Les chercheurs ont ainsi pu établir une proximité entre chacune des images : lorsque deux photos étaient associées aux mêmes thématiques, elles étaient considérées comme « proches » dans la mémoire collective.
Pierre Gagnepain et ses collègues se sont ensuite intéressés à la perception de ces photos dans la mémoire des individus. Ils ont cherché à savoir si le même degré de proximité entre les photos se retrouvait aussi dans les souvenirs individuels. Ils ont donc fait passer un examen IRM aux volontaires, pendant que ceux-ci se remémoraient les images vues la veille au Mémorial. Les chercheurs se sont notamment penchés sur l’activité du cortex préfrontal médian, zone du cerveau associée à la cognition sociale.

Proximité entre les photos
Avec toutes ces données, ils ont ainsi pu comparer le degré de proximité entre les photos, à la fois en s’intéressant aux représentations collectives de la guerre dans les médias, et par le biais de l’imagerie cérébrale, en s’intéressant aux souvenirs individuels que les participants à l’étude avaient de ces images suite à une visite du Mémorial. L’équipe a ainsi montré que lorsqu’une photo A était considérée comme proche d’une photo B, parce qu’associée de la même manière à une même thématique collective, elle avait aussi une probabilité plus élevée de déclencher une activité cérébrale similaire que cette photo B dans le cerveau des individus.
Cette approche novatrice a permis une comparaison indirecte entre mémoire collective et mémoire individuelle. « Nos données démontrent que la mémoire collective, qui existe en dehors et au-delà des individus, organise et façonne la mémoire individuelle. Elle constitue un modèle mental commun permettant de connecter les souvenirs des individus à travers le temps et l’espace », souligne Pierre Gagnepain.
D’autres travaux sont en cours pour mieux comprendre l’interaction entre mémoire collective et mémoire individuelle. Néanmoins, un enseignement peut déjà être tiré de cette étude : aucune recherche sur le fonctionnement de nos souvenirs ne peut se faire sans prendre en compte le contexte social et culturel dans lequel nous évoluons en tant qu’individus.   

[1] Dirigée par l’historien Denis Peschanski, l’équipex Matrice est un programme de recherche sur la mémoire prenant en compte tous ses aspects dans une approche transdisciplinaire, fondée sur les sciences humaines et sociales, les sciences du vivant et celles de l’ingénierie. Les autres laboratoires français impliqués sont le Centre européen de sociologie et de science politique de la Sorbonne (CNRS/Université Panthéon-Sorbonne/EHESS), l’Institut d’histoire des représentations et des idées dans les modernités (CNRS/ENS de Lyon/Universités Jean Monnet, Lumière Lyon 2, Jean Moulin et Clermont Auvergne) et le Laboratoire CNRS d’informatique pour la mécanique et les sciences de l’ingénieur.

 

DOCUMENT        inserm        LIEN

 
 
 
 

LE DVELOPPEMENT DE L'INTELLIGENCE CHEZ L'ENFANT

 

 

 

 

 

 

 

LE DÉVELOPPEMENT DE L'INTELLIGENCE CHEZ L'ENFANT - OLIVIER HOUDE

Conférence du 25 janvier 2000 par Olivier Houde.
D'où détenons-nous ce précieux trésor qu'est notre intelligence ? Pour René Descartes (1596-1650), la réponse était simple : Dieu a déposé dans notre esprit, dès la naissance, des idées logico-mathématiques claires et distinctes, noyau de l'intelligence humaine. Quatre siècles plus tard, en ce début 2000, quelle réponse apporte la science à cette question ?

par Olivier Houdé
Le développement de l’intelligence chez l’enfant
Dans sa leçon inaugurale, François Jacob s’est attaché à montrer que la vie est un processus,
une organisation de la matière et qu’elle n’existe pas en tant qu’entité indépendante qu’on
pourrait caractériser (quelque substance spéciale ou force vitale). Suivant la même logique,
les sciences cognitives contemporaines, notamment la psychologie expérimentale et les
neurosciences, considèrent que l’intelligence n’est autre qu’un processus, une organisation de
la matière (corps, cerveau) et de la vie.
Il n’en fut toutefois pas toujours ainsi dans l’histoire des idées. On sait qu’à la question
« D’où détenons-nous ce précieux trésor qu’est notre intelligence ? », René Descartes (1596-
1650) répondait, avec une évidence qui semblait s’imposer à lui, Dieu a déposé dans notre
esprit, dès la naissance, des idées logico-mathématiques claires et distinctes, noyau de
l’intelligence humaine. Quatre siècles plus tard, en cette année 2000, quelle réponse précise
apporte la science à cette question ?
Entre Descartes et nous, deux événements-clés à retenir. Il s’agit d’abord de l’introduction par
Charles Darwin (1809-1882) de l’idée d’une évolution progressive de l’intelligence animale et
humaine (à travers la phylogenèse ou évolution des espèces), où s’imbriquent la Matière, la
Vie et la Pensée - excluant Dieu de l’explication. Il s’agit ensuite de la reprise de cette idée
dans l’étude de l’ontogenèse (l’intelligence se construit petit à petit du bébé à l’adulte) par
Jean Piaget (1896-1980), en psychologie de l’enfant, et par Jean-Pierre Changeux en
neurobiologie, avec le « darwinisme neural-mental ».
Selon Piaget, le développement de l’intelligence chez l’enfant se caractérise, comme l’histoire
des sciences, par une succession de coordinations cognitives nouvelles, chacune définissant
un stade.1 Il s’agit d’étapes, datées en années et en mois, dans la construction de structures
logico-mathématiques de plus en plus complexes, relatives à l’objet, au nombre, à la
catégorisation (ou classification) et au raisonnement. Cette conception est linéaire et
strictement cumulative en ce qu’elle est systématiquement liée à l’idée d’acquisition et de
progrès : de l’intelligence sensori-motrice du bébé (sens et actions) à l’intelligence
conceptuelle et abstraite de l’enfant et de l’adolescent.
En fait, les données expérimentales actuelles indiquent que les choses ne se passent pas ainsi.2
D’une part, il existe déjà chez le bébé des capacités cognitives assez complexes
(connaissances physiques, mathématiques et logiques) ignorées par Piaget et non réductibles à
un fonctionnement strictement sensori-moteur. D’autre part, la suite du développement de
l’intelligence, jusqu’à - et y compris – l’âge adulte, est jalonnée d’erreurs, de biais perceptifs,
de décalages inattendus et d’apparentes régressions cognitives. Ainsi, plutôt que de suivre une
ligne ou un plan du sensori-moteur à l’abstrait (les stades de Piaget), l’intelligence avance de
façon tout à fait biscornue ! Mais cette forme de développement doit bien correspondre à une
logique neurale et cognitive dans le cerveau humain. Laquelle ?
Le constat de compétences précoces chez le bébé, s’il peut amener à reconnaître le caractère
inné de certaines d’entre elles (sans qu’il s’agisse pour autant d’un don de Dieu comme
l’affirmait Descartes), conduit aussi et surtout à retenir l’idée de mécanismes de raisonnement
physique, numérique, etc., associés à une faculté très précoce d’apprentissage par la
2
perception, notamment visuelle, ou par les couplages perception-action (faculté du bébé
humain partagée, sur certains aspects, avec les primates non-humains comme l’avait pressenti
Darwin). Et ce processus de construction cognitive – sans doute déjà conceptuel ou protoconceptuel
- est à l’évidence beaucoup plus rapide que ne le pensait Piaget.
Mais l’essentiel n’est pas là. Le plus intéressant tient à ce que le cerveau de l’Homme, outre
ses mécanismes innés, ses capacités puissantes d’apprentissage, de raisonnement,
d’abstraction, etc., est une sorte de jungle où les multiples compétences du bébé, de l’enfant et
de l’adulte, sont à tout moment susceptibles de se télescoper, d’entrer en compétition (en
même temps qu’elles se construisent) : d’où les erreurs, les biais et les décalages inattendus
(exactement comme dans l’histoire des sciences et des savants !). Il en ressort la nécessité -
pour être intelligent - d’un mécanisme de blocage tout aussi puissant : l’inhibition. « Je pense,
donc j’inhibe » ! (et non pas seulement, comme le suggérait Piaget, « je pense, donc j’active
et je coordonne »).3
Un tel mécanisme inhibiteur est actuellement considéré, dans un cadre évolutionniste, comme
un élément-clé de l’adaptation comportementale et cognitive qui a conduit à Homo sapiens
sapiens; une forme « d’algorithme darwinien ». A l’échelle de l’ontogenèse de l’enfant, ce
mécanisme doit aussi (re)devenir efficace - chez l’adulte, le rester - pour les domaines de la
construction de l’objet, du nombre, de la catégorisation et du raisonnement.
Ainsi, l’une des façons actuelles de chercher à percer le mystère de l’intelligence est
d’étudier, du bébé à l’adulte, le rôle de l’inhibition comme mécanisme de sélection.
L’activation/inhibition étant une logique de fonctionnement tant neurale que cognitive, les
techniques utilisées sont ici à la fois celles de la psychologie expérimentale et de la biologie
humaine (l’imagerie cérébrale fonctionnelle). En voici deux exemples : le nombre chez le
bébé et l’enfant, et le raisonnement logique chez l’adulte.
Selon Piaget, avant d’arriver à la notion de nombre, l’enfant doit maîtriser certaines capacités
comme celles de classer, d’inclure et de sérier (aspects cardinal et ordinal du nombre). Il peut
alors réussir l’épreuve dite de « conservation du nombre ». Dans ce test, qui introduit une
interférence entre le nombre et la longueur (avec deux alignements d’objets de même nombre
mais de longueur différente après l’écartement de l’un d’entre eux), l’enfant considère jusqu’à
6-7 ans que « longueur = nombre », donc « qu’il y en a plus là où c’est plus long » ! Cela
signifie, selon Piaget, que l’enfant d’école maternelle est encore intuitif, au sens où il est
« prisonnier » du cadre perceptif. Ce n’est qu’à 6-7 ans qu’il devient « conservant », critère de
l’atteinte du concept de nombre.
Le développement de l’intelligence est donc ici long et laborieux : il faut attendre « l’Age de
raison » cher aux philosophes. Mais les découvertes plus récentes d’une psychologue
américaine, Karen Wynn, publiées dans la revue Nature en 1992, ont reposé avec force la
question de l’émergence (précoce ou non) de la notion de nombre.4 Ces travaux montrent que,
dès 4-5 mois, des bébés observés au niveau de leur regard (enregistrement des temps de
fixation visuelle) sont capables de détecter la transgression ou la « conservation » du nombre
lorsqu’on leur présente des événements numériques impossibles, c’est-à-dire magiques, ou
possibles (sans le piège perceptif de la longueur introduit par Piaget). Selon Wynn, ces
résultats suggèrent que les bébés possèdent déjà de véritables concepts numériques (avec
encodage de la relation d’ordre) – ce qui était inconcevable pour Piaget ! On sait aussi, depuis
peu, que les singes rhésus ont des capacités numériques précises jusqu’à 9.5
3
Nos travaux, publiés en 1997 dans la revue Cognitive Development, ont par ailleurs montré, à
partir d’une adaptation de l’expérience de Wynn au niveau verbal, que les jeunes enfants de 2
à 3 ans, observés en crèche, sont moins performants pour raisonner sur le nombre à travers le
langage cette fois que ne l’étaient les bébés de 4-5 mois ! (ils font des erreurs que ne font pas
les bébés dans leurs réactions visuelles).6 Tout se passe donc comme si le tout début (2-3 ans)
de l’apprentissage du vocabulaire des nombres et de la distinction linguistique
singulier/pluriel (qui oppose 1 à tous les autres nombres considérés globalement) entraînait un
décalage de performance, une régression cognitive, empêchant un jugement numérique exact
et précis (d’où l’impression erronée qu’ont les éducateurs, face à l’enfant de cet âge,
d’observer le tout début de l’acquisition du nombre !). En revanche, il apparaît qu’après une
reconstruction cognitive (ou reconceptualisation), les enfants de 3-4 ans, observés à l’école
maternelle, retrouvent, à travers le langage, le niveau de performance des bébés de 4-5
mois (avec, dans ce cas, la possibilité d’une argumentation numérique).
Mais comment expliquer alors que si l’on introduit, comme Piaget, une interférence entre le
nombre et la longueur (deux alignements d’objets de même nombre mais de longueur
différente), ces mêmes enfants sont à nouveau en situation d’échec, intuitifs, perceptifs,
considérant qu’il y en a plus là où c’est plus long ? Les techniques de la psychologie
expérimentale permettent aujourd’hui de démontrer que l’épreuve de Piaget teste avant tout la
capacité d’inhiber la stratégie visuo-spatiale « longueur = nombre » (une heuristique de
quantification perceptive souvent pertinente et encore utilisée par l’adulte) et non les capacités
numériques per se. Le développement du nombre est donc à la fois beaucoup plus rapide et
ensuite plus complexe (compétition entre stratégies) que ne l’imaginait Piaget. Au-delà des
compétences précoces dans des situations optimales (les recherches de Wynn sur le bébé),
être intelligent c’est non seulement « reformater » (reconstruire à travers le langage), mais
c’est aussi inhiber.
Et cela reste vrai chez les adolescents et les adultes dont on peut montrer que face à des
problèmes de raisonnement logique, ils redeviennent comme le jeune enfant, intuitifs et
perceptifs – contrairement à l’intelligence abstraite et logico-mathématique décrite par Piaget
à ce dernier stade du développement. Ainsi, une erreur classique de logique (plus de 90% des
réponses), mise en évidence par le psychologue anglais Jonathan Evans, est le biais
d’appariement perceptif qui affecte le raisonnement déductif lors de tâches de réfutation ou de
vérification de règles conditionnelles.7 Pour l’exemple de la règle à réfuter « S’il n’y a pas de
carré rouge à gauche, alors il y a un cercle jaune à droite », ce biais consiste à préférer les
éléments cités dans la règle considérée (d’où la réponse erronée « carré rouge à gauche, cercle
jaune à droite », soit antécédent faux et conséquent vrai : FV) et à négliger les éléments
logiquement pertinents (une situation de type VF : par exemple, carré bleu et losange vert) dès
lors qu’ils ne sont appariés ni à l’antécédent ni au conséquent. Nos travaux de psychologie
expérimentale et d’imagerie cérébrale fonctionnelle, qui vont bientôt paraître dans le Journal
of Cognitive Neuroscience (en collaboration avec l’équipe du Pr. Bernard Mazoyer et du Dr.
Nathalie Tzourio-Mazoyer de l’Université de Caen, CEA et CNRS), indiquent qu’après un
apprentissage à l’inhibition du biais d’appariement perceptif, les sujets interrogés donnent (à
plus de 90%) une réponse logique (autre stratégie de résolution disponible en mémoire).8
Outre le fait que l’inhibition leur fait changer radicalement de mode de raisonnement lors
d’une « microgenèse » (c’est-à-dire avant et après apprentissage), le plus intéressant tient à ce
que s’opère simultanément une véritable « bascule cérébrale » de la partie postérieure du
cerveau (un réseau perceptif à la fois ventral et dorsal) à la partie antérieure : un réseau
préfrontal.
4
On peut penser qu’une telle dynamique neurale et cognitive doit être au coeur de ce qui se
passe dans le développement de l’intelligence chez l’enfant (à démontrer par les techniques
d’imagerie cérébrale), qu’il s’agisse de la construction de l’objet, du nombre, de la
catégorisation, etc., à chaque fois que se posent des problèmes de sélection de stratégies en
mémoire : par exemple, l’inhibition de la stratégie perceptive inadéquate « longueur =
nombre » dans la tâche de Piaget. Sachant que la taille relative du cortex préfrontal est la plus
importante chez les êtres humains et qu’elle diminue successivement chez les autres primates,
carnivores et rongeurs, on peut aussi penser qu’une telle dynamique postéro-antérieure,
marque de l’inhibition comportementale et cognitive, a dû jouer un rôle-clé dans l’évolution
(de la matière à l’intelligence) qui a conduit à l’Homme moderne.

Notes et références
1. Piaget, J., & Inhelder, B. (1966). La psychologie de l’enfant. Paris : PUF (Que sais-je ?).
2. Houdé, O. (1998). Développement cognitif. In O. Houdé et coll. (Eds), Vocabulaire de
sciences cognitives. Paris : PUF.
3. Houdé, O. (1995). Rationalité, développement et inhibition : Un nouveau cadre d’analyse.
Paris : PUF.
4. Wynn, K. (1992). Addition and subtraction by human infants. Nature, 358, 749-750.
5. Les données de Brannon & Terrace publiées dans la revue Science en 1998 (282, 746-749)
ont, en effet, mis en évidence la capacité non verbale de singes rhésus à ordonner précisément
des ensembles numériques de 1 à 9 objets, indépendamment de leurs caractéristiques
physiques de taille, de forme et de couleur.
6. Houdé, O. (1997). Numerical development : From the infant to the child. Wynn’s (1992)
paradigm in 2- and 3-year-olds. Cognitive Development, 12, 373-392. Voir aussi : Houdé, O.
(1999). De la pensée du bébé à celle de l’enfant : L’exemple du nombre. In J.-F. Dortier (Ed.)
(1999), Le cerveau et la pensée. Auxerre : Sciences Humaines Editions.
7. Evans, J. (1989). Biases in human reasoning. Hove and London : Erlbaum.
8. Houdé, O., Zago, L., Mellet, E., Moutier, S., Pineau A., Mazoyer, B., & Tzourio-Mazoyer,
N. (2000). Shifting from the perceptual brain to the logical brain : The neural impact of
cognitive inhibition training. Journal of Cognitive Neuroscience (à paraître).

Biographie
Né le 28 Juin 1963, Docteur en psychologie, Olivier Houdé est Professeur de psychologie
cognitive à l’Université René Descartes (Paris 5 - Sorbonne) et Membre junior de l’Institut
Universitaire de France. Ses recherches portent sur le développement et le fonctionnement
cognitifs, du jeune enfant à l’adulte, dans les domaines du nombre, de la catégorisation et du
raisonnement. Il articule les méthodes de la psychologie expérimentale et de la biologie
humaine (imagerie cérébrale fonctionnelle) en collaboration avec le Groupe d’imagerie
neurofonctionnelle du Professeur Bernard Mazoyer à Caen. Il est l’auteur ou co-auteur de 6
livres aux Presses Universitaires de France : Catégorisation et développement cognitif (1992),
Pensée logico-mathématique (1993), L’homme en développement (1993), Rationalité,
développement et inhibition (1995), Vocabulaire de sciences cognitives (1998) et L’esprit
piagétien. Hommage international à Jean Piaget (2000). Les travaux d’Olivier Houdé ont
également conduit à la publication de 25 articles dans des revues scientifiques spécialisées de
psychologie du développement et de neurosciences cognitives.

 

 VIDEO       CANAL  U         LIEN 

 
 
 
Page : [ 1 2 3 4 5 6 7 ] - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google