ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

linguistique

 

 

 

 

 

 

 

linguistique
(de linguiste)

Consulter aussi dans le dictionnaire : linguistique
Science qui a pour objet l'étude du langage et des langues.

Le terme apparaît au xixe siècle en même temps que naît la discipline sous le nom de « grammaire comparée ». Le souci des comparatistes a très vite été de constituer une linguistique générale, ce que l'un d'entre eux, Ferdinand de Saussure, a réalisé au début du xxe siècle en élaborant une linguistique formelle et en se détachant du même coup du comparatisme. Il faut dire aussi que l'on trouve déjà chez W. D. Whitney (1827-1894), aux États-Unis, la tentative très intéressante de constituer la linguistique en science. Après Saussure, la linguistique structurale va se développer sous l'impulsion de Troubetskoï (1890-1938) et d'un groupe de chercheurs tchèques dont fera aussi partie R. Jakobson (« le cercle de Prague ») et, parallèlement, en Amérique avec notamment L. Bloomfield et Z. S. Harris. Le Danois L. Hjelmslev (1889-1965) tentera de son côté de développer une véritable axiomatique linguistique. Puis N. Chomsky proposera une théorie du langage qui fait dépendre la « compétence » du locuteur de modèles innés. C'est lui qui sera à l'origine de la « grammaire générative », censée fournir certains modèles capables de rendre compte du processus de formation des phrases grammaticalement correctes. En même temps, des courants – de la sociolinguistique issue de Meillet, ou encore de l'analyse du discours représentée par Benveniste et sa théorie de renonciation, ou enfin de la pragmatique anglo-saxonne – renouent avec les préoccupations du xixe siècle concernant, par exemple, la situation des locuteurs ou les effets non purement informatifs que produisent les énoncés.

Les débuts de la linguistique
Depuis l'Antiquité, on s'est occupé du langage, et pas seulement en Occident. Mais ni la philosophie du langage ni les traités de grammaire ou les spéculations théoriques sur la nature et l'origine des langues ne sont la linguistique. Celle-ci ne prend véritablement naissance qu'au xixe siècle après la découverte en Europe du sanskrit et l'étude comparée des langues qui s'ensuit. De ce courant linguistique, que l'on a appelé comparatisme, F. Bopp (Système de conjugaison du sanskrit, comparé à celui des langues grecque, latine, persane et germanique, 1816), F. Schlegel et J. L. C. Grimm sont les représentants les plus notables. C'est précisément en comparant les langues européennes et le sanskrit que les comparatistes font l'hypothèse linguistique (et non plus seulement métaphysique) d'un groupe d'origine d'où proviendraient ces langues. Ils nomment ce groupe l'« indo-européen ». Ce qu'ils comparent, ce sont les éléments grammaticaux, pour tenter d'établir une correspondance entre ces langues ; en fait, « ils cherchent quel élément x de l'une tient la place de l'élément x′ de l'autre » (O. Ducrot, T. Todorov, Dictionnaire encyclopédique des sciences du langage) sans chercher à savoir quelle évolution a mené de la langue mère aux langues modernes (qu'ils regroupent par familles). L'histoire, d'ailleurs, n'est généralement prise en compte par eux que pour expliquer l'érosion des langues et le déclin de la langue originelle, l'Ursprache.

De la variété des descriptions au besoin de généralité
La fin du xixe siècle se caractérise en linguistique par le besoin de constituer une science générale du langage, que Schleicher, par exemple, appellera « glottique », sur la nécessité de laquelle Baudouin de Courtenay insistera dans les années 1870 et dont, en France, M. Bréal, notamment, montrera l'importance. La linguistique historique, à côté de laquelle se constitue la linguistique générale, permet sans doute désormais d'éviter les discours spéculatifs incontrôlés ; en même temps, les problèmes qu'elle pose seront au point de départ de la linguistique générale. En voulant être unifiante, la linguistique va devoir tenter une redéfinition globale du langage qui serve de critère d'unité. En fait, comme le souligne Claudine Normand (la Linguistique générale – 1880-1928), la linguistique générale essaie de résoudre les difficultés rencontrées dans leur pratique par les linguistes qui tentent d'éclairer la relation de la linguistique aux autres sciences et à la philosophie, de passer de la description à l'explication, de revoir les problèmes légués par la tradition grammaticale ou simplement de réfléchir sur la méthode.

Ferdinand de Saussure
Le Cours de linguistique générale n'a été publié qu'après la mort de Saussure, survenue en 1913, d'après les notes prises par ses élèves. Saussure lui-même a très peu publié ; outre son mémoire sur le système primitif des voyelles dans les langues indo-européennes, ses écrits, parus en 1922 de façon posthume, rassemblent sa thèse, soutenue en 1880, sur l'emploi du génitif absolu en sanskrit et quelques articles techniques. Pourtant, l'importance historique du Cours est considérable tant pour la linguistique que pour les sciences humaines.
Saussure est au départ un comparatiste ; son originalité viendra de sa réflexion sur la méthode linguistique et de sa volonté de constituer la langue en objet scientifique en tentant de la dégager en même temps de toute analyse positive. Pour Saussure, c'est « le point de vue qui crée l'objet ». « Hors d'une relation quelconque d'identité, un fait linguistique n'existe pas. Mais la relation d'identité dépend d'un point de vue variable qu'on décide d'adopter » (Sources manuscrites, Gödel).

Langue/parole
La confusion entre langue, langage et parole est constante au xixe siècle. Un des mérites de Saussure est de clarifier les rapports entre ces trois concepts. Ainsi, selon lui, la langue est un ensemble de conventions qui permet la faculté du langage chez l'individu, celui-ci ne pouvant « ni la créer ni la modifier ». Quant à la parole, elle est « l'acte de l'individu réalisant sa faculté au moyen de la convention sociale qu'est la langue ».
Cette convention qu'est la langue est par ailleurs définie comme « un système de signes ». Ces signes sont « arbitraires » : aucune loi ne commande que tel son corresponde à tel sens. Le rapport entre les deux est immotivé (à l'exception très relative des onomatopées). La convention s'impose néanmoins à tout locuteur comme une nécessité. La langue, dit encore Saussure, est « la partie sociale du langage » ; elle est une sorte de contrat tacite passé entre les membres de la communauté.

Le système de signes
Le signe linguistique est une « entité à deux faces » composée d'un signifié et d'un signifiant ou encore, comme dit parfois Saussure, d'un concept et d'une image acoustique. Tous deux sont indissociables et on ne peut pas plus les séparer que les deux faces d'une même feuille de papier. Ce qu'il est important de comprendre dans cette définition, c'est que le signe n'unit pas un nom et une chose. Le signifié est une représentation et le signifiant « une empreinte psychique des sons ». Ainsi, l'ordre de la langue est indépendant de l'ordre de la réalité.
Quand Saussure dit que la langue est un « système de signes », il indique par là que « tous ses termes sont solidaires » et que « la valeur de l'un ne résulte que de la présence simultanée des autres ». Si la valeur d'un mot réside dans sa propriété de représenter une idée, elle est bien sûr un élément de la signification mais elle tient en plus au rapport des signes entre eux, les valeurs étant toujours constituées « 1°) par une chose dissemblable susceptible d'être échangée contre celle dont la valeur est à déterminer ; 2°) par des choses similaires qu'on peut comparer avec celle dont la valeur est en cause ».

Synchronie/diachronie
Si la langue est bien un système, il n'empêche que ce système évolue. Le problème de l'évolution de la langue, ou diachronie, était central chez les comparatistes ; il n'est que dérivé pour Saussure, qui s'intéresse davantage à l'aspect synchronique de la langue, à son caractère systématique. Si la langue évolue, c'est sous l'action de la parole (en général, un individu n'y peut rien changer). Si diachronie et synchronie sont en réalité deux points de vue sur un même objet, c'est le second que Saussure privilégie, la synchronie n'étant pas seulement identifiée à l'« état de la langue » mais devant être prise « comme un concept qui permet la définition théorique d'un système abstrait ».

Chomsky et la grammaire générative
Chomsky va chercher à créer des modèles de compréhension du fonctionnement de la langue comportant « un ensemble fini de règles qui, à partir d'un nombre fini d'unités et grâce à des transformations successives en nombre fini, rend compte de la formation de l'infinité des phrases correctes d'une langue et de celles-là seules ».

Les présupposés épistémologiques
Outre les références au cartésianisme, à K. Popper et à sa théorie de la falsifiabilité, Chomsky va prendre position au début des années 1950 contre les psychologues béhavioristes, et en particulier contre Skinner, en leur reprochant de se limiter à faire fonctionner des techniques expérimentales pour elles-mêmes. La maîtrise des règles extrêmement complexes du langage suppose d'autres mécanismes que l'enregistrement passif par l'enfant des données empiriques. Le schéma stimulus/réponse fournit de ce point de vue un modèle beaucoup trop simple.
Il faut, pour rendre compte de ce processus, postuler une construction active des règles de la langue, qui permet à l'enfant, à partir de données particulières, d'expérimenter des formes de syntaxes spécifiques suivant des contraintes générales ; ces dernières témoignent de l'existence de règles « profondes » qui l'empêchent de faire n'importe quelles hypothèses, en particulier celles qui ne seraient pas compatibles avec les langues naturelles. C'est ce que Chomsky appelle la grammaire universelle, qui « est un ensemble de principes qui caractérise la classe des grammaires possibles en préconisant la manière dont sont organisées les grammaires particulières ». Chomsky est alors de plus en plus préoccupé par l'inscription de la linguistique dans la neurobiologie et par les travaux sur l'intelligence artificielle.

La compétence
En opposition aux conceptions béhavioristes, telles celles de L. Bloomfield (1887-1949), Chomsky a toujours estimé que le comportement linguistique humain était « créateur ». Ainsi, il ne nous est pas possible de prévoir quel sera le type d'énonciation d'une phrase compte tenu des stimulations sensorielles qui pourront affecter un locuteur au moment qui précède cette énonciation. Les théories grammaticales ne prétendent pas non plus pouvoir prédire le comportement linguistique. Leur propos est de chercher à « caractériser l'état cognitif qui permet au locuteur de se montrer créateur ». C'est cet état cognitif que Chomsky nomme la « compétence grammaticale ».

La grammaire générative
Chomsky, comme Saussure, énumère les mécanismes de la langue qui échappent au locuteur dans la mesure où il en dispose sans les connaître consciemment, mais il s'intéresse essentiellement à ceux qui permettent de produire des phrases. La grammaire doit être capable de prévoir toutes les phrases possibles de la langue et de produire des jugements sur la « grammaticalité » ou l'« agrammaticalité » d'une phrase. « Une grammaire générative du français se proposera non seulement d'engendrer toutes et rien que les phrases grammaticales du français, de représenter la structure catégorielle des phrases, mais aussi de représenter les relations grammaticales qui unissent les divers constituants. » D'où les indicateurs syntagmatiques, ou « schémas en arbre », qui symbolisent ces relations.

Sociolinguistique, analyse du discours, pragmatique
Ainsi, la sociolinguistique refuse de prendre en considération l'« objet langue » puisque celui-ci n'existe pas dans la réalité (il est en effet l'objet d'une construction). Refusant l'idéalisation – ce qui équivaut, aux yeux d'un Chomsky, à de l'irrationalisme –, elle réintègre dans sa perspective la variété empirique et privilégie le rapport de la langue au social. On trouve les origines de cette discipline au xixe siècle chez W. von Humboldt mais surtout chez A. Meillet et plus récemment chez W. Labov. Pour Humboldt et ceux qui ont repris ses idées, l'étude de la langue permet de comprendre l'esprit de ceux qui la parlent et de les caractériser en tant que groupe distinct. Ainsi se manifeste l'esprit d'une nation. Meillet cherchera de son côté à rendre compte du changement linguistique par le seul changement social.

Analyse du discours et pragmatique
L'analyse du discours naît avec É. Benveniste. Ce qui est pris en compte, c'est l'énonciation, c'est-à-dire la manière particulière dont un locuteur s'empare d'un énoncé ; c'est l'acte de le produire et non son contenu qui importe ici. L'énonciation « peut se définir par rapport à la langue comme un procès d'appropriation » (Problèmes de linguistique générale, II). En même temps qu'il devient locuteur, celui qui parle postule un allocutaire.
C'est cette position du sujet dans la langue par rapport à d'autres sujets, sur lesquels il agit en les intimidant, en les flattant ou en les commandant, par exemple, que la pragmatique va analyser, à la suite des travaux du philosophe anglais J.L. Austin sur les speech acts. Ces actes « illocutionnaires » ne concernent pas le contenu de l'énoncé mais la position même du locuteur.

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
 

REPORTAGE. Cogni'classe : quand les sciences cognitives entrent à l'école

 


 

 

 

 

 

CERVEAU ET PSY

REPORTAGE. Cogni'classe : quand les sciences cognitives entrent à l'école

Par Joël Ignasse le 30.05.2018 à 20h00

Reportage au sein de la "Cogni'classe" de CE2 de l'école Francoise Césari à Septèmes-les-Vallons, où est testée une nouvelle forme d'enseignement intégrant des pratiques pédagogiques innovantes issues des recherches en sciences cognitives.


VALENTINE VERMEIL
Ce mardi 17 avril 2018, les élèves de CE2 entrent calmement dans leur classe de l'école François Césari à Septèmes-les-Vallons. Depuis septembre 2017, ils expérimentent une nouvelle forme d'enseignement avec des pratiques pédagogiques innovantes issues des recherches en sciences cognitives (lire notre dossier sur Les sciences cognitives à l'école dans le Sciences et Avenir n°856, en kiosque en juin 2018). Dix-huit classes et 450 élèves sont concernés dans la région PACA par ces "cogni'classes", une expérimentation de grande échelle qui sera prolongée en CM1 et CM2 pour ces derniers.

Temps calme et outils technologiques
La matinée commence par un "temps calme" : élèves debout et chaises contre le bureau, ils enchainent pendant cinq minutes quelques exercices de relaxation basés sur du contrôle du souffle et des massages des tempes et du front. Tous les élèves sont silencieux et réceptifs. "Ils apprécient ce petit moment de retour sur soi du matin. Ce temps calme a permis de faciliter la gestion du groupe et certains le font d’eux-mêmes quand ils se sentent énervés" souligne Andrée Elbaz, leur maitresse. Après, place aux choses sérieuses ! Avec les mathématiques. Mais point de leçon au tableau, les élèves vont jouer au Mathador, une sorte de "Des chiffres et des lettres". Chaque lundi, l'enseignante leur présente un nombre qu'ils vont décomposer tout au long de la semaine pour arriver à le retrouver avec d'autres chiffres et opérations. Chacun planche donc sur son ardoise, toujours dans le calme, et la maitresse les interroge tour à tour. Ce jour-là, tous les comptes ne sont pas bons mais cette semaine, le nombre choisi était particulièrement compliqué apprend-on !

Le Mathador consiste a décrypter un nombre et à le reconstituer à la façon Des chiffres et des Lettres. Crédit : Valentine Vermeil pour Sciences et Avenir.
Et les ateliers se poursuivent avec les Plickers, des plaquettes portant une sorte de symbole orientable, croisement entre un QRcode et un origami. Les élèves peuvent le tenir selon quatre orientations possibles correspondant aux lettres A, B, C, D. L’enseignante pose une question avec 4 choix possibles et les élèves répondent en mettant le symbole dans la position qui correspond à leur choix puis le tienne bien droit devant eux. L’enseignante n'a plus qu'à filmer la classe avec son téléphone qui via l'application dédiée va lire les réponses des élèves. Elle peut ainsi évaluer d'un seul coup toute la classe, repérer les erreurs et les corriger dans la foulée. Pratiques et ludiques, les Plickers ont très vite remporté l'adhésion de tous à l'école. La journée de classe sera ainsi rythmée par différents exercices dont certains sont répétés à intervalles réguliers sur plusieurs mois. Cette répétition est essentielle à la consolidation des savoirs. Andrée Elbaz travaille ainsi le vocabulaire avec le logiciel Anki qui met en forme des cartes-mémoires et permet de programmer des répétitions plus ou moins espacées dans le temps. "Une méthode qui permet le stockage d'un vocabulaire réflexe commun à toutes les matières" explique l'enseignante.
Grâce aux Plickers, l'enseignante peut vérifier les réponses de toute une classe d'un seul coup de scan avec son téléphone. Crédit : Valentine Vermeil pour Sciences et Avenir.

Les évaluations en 2019

A ces activités journalières s'ajoutent d'autres temps d'apprentissage, moins fréquents, comme des projections de films (un tous les quinze jours) sur le fonctionnement du cerveau et qui sont le sujet de discussions de groupe après diffusion. Toutes ces méthodes dont le déploiement "demande un peu plus de travail personnel et au début plus de temps en classe" précise Andrée Elbaz semblent en tout cas enchanter élèves et professeurs. Mais ont-ils des impacts concrets sur ces jeunes cerveaux en apprentissage. "C'est difficile pour le moment d'évaluer leur efficacité même si la plupart des retours sont très positifs" répond Isabelle Roos, Inspectrice de l'Education Nationale, très impliquée dans la mise en place des cogni'classes dans la région. A la fin de l'année scolaire des questionnaires seront remplis par les parents et les enfants pour connaître leur ressenti et à la rentrée 2018 une évaluation du vocabulaire acquis avec des tests pré et post CE2 et une comparaison avec d’autres classes aura lieu. Ils permettront de mieux apprécier les résultats de ces nouvelles méthodes pédagogiques.

 

  DOCUMENT   sciences et avenir.fr    LIEN

 
 
 
 

Voici comment le libre arbitre naît dans le cerveau

 


 

 

 

 

 

CERVEAU ET PSY

Voici comment le libre arbitre naît dans le cerveau

Par Lise Loumé le 29.07.2016 à 17h30, mis à jour le 29.07.2016 à 17h30

Lecture 3 min.
Des chercheurs américains ont été les premiers à visualiser des zones du cerveau humain impliquées dans la décision volontaire d'agir.

Des chercheurs sont parvenus à visualiser des zones du cerveau humain impliquées dans le libre arbitre.

© CREATIVE COMMONS
Existe-t-il plus intangible que le libre arbitre, la faculté qu’aurait l'être humain de se déterminer librement et par lui seul, à agir et à penser ? Probablement pas, ce concept ayant fait l’objet d'interrogations et critiques philosophiques (le libre arbitre ne revient-il pas à nier l’influence des motifs ou des mobiles qui déterminent nos choix et nos actions ?) et psychanalytiques (le libre arbitre n'est possible que si l'on est en mesure de dominer son inconscient). Pour les neurologues, tout l'enjeu est de déterminer comment le libre arbitre se forme dans le cerveau et quelles zones sont impliquées. Des chercheurs de l'Université Johns Hopkins (États-Unis) ont fait un grand pas en ce sens, en visualisant pour la première fois des zones du cerveau humain impliquées dans le libre arbitre.

Une zone du cerveau pour délibérer, une autre pour agir
Même si les techniques d'imagerie actuelles permettent de visualiser parfaitement les zones cérébrales en jeu dans une action, "voir" le libre arbitre s'avérait pour les chercheurs un véritable casse-tête : comment inciter un volontaire à exercer sa propre volonté d'agir tout en lui demandant de réaliser une action ? Comment se passer de commandes intrusives pouvant influencer son choix et donc compromettre l'expérience ? Après maintes réflexions, les chercheurs ont conçu le protocole expérimental suivant : sous IRMf (imagerie par résonance magnétique dite fonctionnelle car elle permet de visualiser l'activité cérébrale), 12 participants ont regardé un écran divisé en deux sur lequel défilaient numéros et lettres colorés d'un côté et de l'autre, et ce de manière aléatoire. Ils étaient invités à prêter attention à un côté pendant un certain temps, puis de décider par eux-mêmes quand regarder l'autre partie de l'écran, et ainsi de suite pendant plus d'une heure. Les chercheurs ont ainsi guetté les moments où le choix de passer d'un écran à l'autre s'est fait, et les instants précédent et suivant cette décision. Puis ils ont comparé les scans à ceux obtenus lorsque les participants, dans un second temps, ont été invités à détourner leur attention. Plutôt simple comme méthodologie, mais encore fallait-il y penser.
Selon ces travaux, la délibération a lieu dans le cortex frontal (voir schéma ci-dessous), dans les zones impliquées dans le raisonnement et le mouvement, et dans les noyaux gris centraux, responsables d'une variété de de fonctions moteurs, y compris la possibilité de démarrer une action. L'activité du lobe frontal a été plus rapide que lorsque les participants ont été explicitement invités à détourner leur attention, ce qui montre clairement que le cerveau se préparait à une action purement volontaire plutôt que de se contenter de suivre un ordre. Quant à la véritable décision de passer d'un côté à l'autre, il s'est effectué dans le lobe pariétal, à l'arrière du cerveau.
Les chercheurs espèrent désormais utiliser cette même méthodologie pour étudier des processus de prise de décision plus abstraits, comme le fait d'opter pour un beignet ou une pomme pour grignoter : ils veulent en particulier décortiquer notre manière de peser le pour et le contre dans le choix d'un aliment plus sain que l'autre et le moment où l'on bascule vers l'un des deux, généralement le plus gras...

 

DOCUMENT   sciences et avenir.fr    LIEN 

 
 
 
 

La démarche scientifique

 


 

 

 

 

 

La démarche scientifique

Publié le 19 septembre 2018
 
Pour comprendre et expliquer le réel en physique, chimie, sciences de la vie et de la Terre, les scientifiques utilisent une méthode appelée la démarche scientifique. Quels sont ses grands principes ? Quels outils sont utilisés pour mettre en place des raisonnements logiques ? Découvrez l’essentiel sur la démarche scientifique.
QU’EST-CE QUE LA DÉMARCHE SCIENTIFIQUE ?

La démarche scientifique est la méthode utilisée par les scientifiques pour parvenir à comprendre et à expliquer le monde qui nous entoure. De façon simplificatrice, elle se déroule en plusieurs étapes : à partir de l’observation d’un phénomène et de la formulation d’une problématique, différentes hypothèses vont être émises, testées puis infirmées ou confirmées ; à partir de cette confirmation se construit un modèle ou théorie. L’observation et l’expérimentation sont des moyens pour tester les différentes hypothèses émises.
    
L’évolution de la démarche scientifique
au fil du temps
De l’Antiquité à nos jours, les moyens d’investigation sur le monde ont évolué pour aboutir à une démarche dont les fondements sont communs à toutes les sciences de la nature (physique, chimie, sciences de la vie et de la Terre).
Dès l’Antiquité, Hippocrate, médecin grec, apporte de la nouveauté dans son traité « Le pronostic », qui détaille, pour la première fois, un protocole pour diagnostiquer les patients. Ce texte est l’une des premières démarches scientifiques.
Le XVIIe siècle est l’âge d’or des instruments et désormais l'expérience est au cœur de la pratique scientifique : on parle de Révolution scientifique. En plus des observations, les hypothèses peuvent aussi être testées par l’expérience. Par ailleurs, l’invention d’instruments tels que le microscope donne la possibilité aux scientifiques d’observer des éléments jusqu’alors invisibles à l'œil nu, comme les cellules, découvertes par Robert Hooke en 1665.
A partir du XXe siècle, la science se fait de manière collective. Les études scientifiques sont soumises au jugement des « pairs », c’est-à-dire à d’autres scientifiques et toutes les expériences doivent être détaillées pour être reproductibles par d’autres équipes. En contrepartie, la publication dans des revues internationales, et sur Internet dès les années 1990, permet aux chercheurs du monde entier d’accroître la notoriété de leurs idées et facilite l'accès aux sciences pour le grand public. Mais avec l'arrivée de l'informatique, il n'y a pas que la communication qui change, la méthode scientifique aussi se transforme. Il devient plus simple de trier de grands nombres de données et de construire des études statistiques. Il faut cependant faire attention à sélectionner les critères pertinents, car les progrès technologiques apportent aux chercheurs d’immenses quantités d’informations, appelées big data.
    
LES DIFFÉRENTES ÉTAPES DE LA DÉMARCHE SCIENTIFIQUE
Observation et formulation d’une problématique
A la base de toute démarche scientifique,il y a au départ une observation d’un phénomène et la formulation d’une problématique.
Par exemple, depuis l’Antiquité, certains savants sont convaincus que la Terre est immobile au centre de l’Univers et que le Soleil tourne autour d’elle : c’est l’hypothèse du géocentrisme. Elle est émise car à l’époque, toutes les observations se faisaient à l’œil nu. Vu depuis la Terre, le Soleil peut donner l’impression de tourner autour de nous car il se lève sur l’horizon Est et se couche sur l’horizon Ouest. Cependant, ce n’était qu’une intuition car à ce stade, aucune véritable démarche scientifique n’est engagée.
Plus tard, quand les astronomes ont observé le mouvement des planètes, ils ont vu que le déplacement de certaines planètes forme parfois une boucle dans le ciel, ce qui est incompatible avec un mouvement strictement circulaire autour de la Terre. Le problème fut résolu en complexifiant le modèle : une planète se déplace sur un cercle dont le centre se déplace sur un cercle. C’est la théorie des épicycles.

Les hypothèses et la construction d’un modèle
Une nouvelle hypothèse fut émise par Nicolas Copernic au XVe siècle. Selon lui, le Soleil est au centre de l’Univers et toutes les planètes, dont la Terre, tournent autour de lui. On appelle cette hypothèse « l’héliocentrisme ». Ce modèle rend naturellement compte des rétrogradations planétaires mais possède quand même des épicycles pour décrire leurs mouvements avec plus de précisions.
Durant l’hiver 1609-1610, Galilée pointe sa lunette vers le ciel et découvre les phases de Vénus et des satellites qui tournent autour de la planète Jupiter. Ses observations l’incitent à invalider l’hypothèse géocentrique et à adhérer à l’héliocentrisme.
Petit à petit, cette méthode est devenue générale. Une hypothèse reste considérée comme valide tant qu’aucune observation ou expérience ne vient montrer qu’elle est fausse. Plus elle résiste à l’épreuve du temps, plus elle s’impose comme une description correcte du monde. Cependant, il suffit d’une seule observation contraire pour que l’hypothèse s’effondre, et dans ce cas, c’est définitif. Il faut alors changer d’hypothèse.
Reste que l’héliocentrisme de Copernic s’est d’abord imposé par la qualité des éphémérides planétaires qui en étaient tirées plus que par la force de son hypothèse, certes plus pratique que l’hypothèse géocentrique mais pas confirmée directement. Pour cela, il fallut encore attendre quelques années, le temps que la qualité des instruments d’observation progresse.

L’observation et l’expérimentation
Si la Terre est animée d’un mouvement autour du Soleil alors on devrait constater un effet de parallaxe, c’est-à-dire de variation des positions relatives des étoiles au fil de l’année. L’absence d’une parallaxe mesurable était utilisée contre l’héliocentrisme. C’est en cherchant à mesurer la parallaxe des étoiles que l’astronome anglais James Bradley découvrit en 1727 un autre effet, l’aberration des étoiles, dont il montra qu’elle ne pouvait provenir que de la révolution de la Terre autour du Soleil. La première mesure de parallaxe, due à l’astronome Friedrich Bessel en 1838, vient clore le débat.
Le mouvement de rotation de la Terre ne fut prouvé que plus tard. En 1851 le physicien Léon Foucault mène une expérience publique spectaculaire : un grand pendule est accroché à la voûte du Panthéon de Paris et la lente révolution de son plan d’oscillation révèle la rotation de la Terre sur elle-même.
On trouve là une autre caractéristique de la démarche scientifique. Une fois le modèle mis au point en s’appuyant sur des observations qui le justifient, il faut en tirer des prédictions, c’est-à-dire des conséquences encore non observées du modèle. Cela permet de mener de nouvelles observations ou de bâtir de nouvelles expériences pour aller tester ces prédictions. Si elles sont fausses, le modèle qui leur a donné naissance est inadéquat et doit être réformé ou oublié. Si elles sont justes, le modèle en sort renforcé car il est à la fois descriptif et prédictif.

    
La communication
Aujourd’hui, la « revue par les pairs » permet de contrôler la démarche scientifique d’une nouvelle découverte, par un collège de scientifiques indépendants. Si les observations et expérimentations vont dans le même sens et qu’elles ne se contredisent pas, la proposition est déclarée apte à être publiée dans une revue scientifique.

QUELS OUTILS POUR DÉCRYPTER
LA SCIENCE ?
La démarche scientifique repose sur la construction d’un raisonnement logique et argumenté. Elle utilise les bases de la logique formelle : l’induction et la déduction.
    

L’induction
L’induction cherche à établir une loi générale en se fondant sur l’observation d’un ensemble de faits particuliers (échantillon).
L'induction est par exemple utilisée en biologie. Ainsi, pour étudier des cellules dans un organisme, il est impossible de les observer toutes, car elles sont trop nombreuses. Les scientifiques en étudient un échantillon restreint, puis généralisent leurs observations à l’ensemble des cellules. Les scientifiques établissent alors des hypothèses et des modèles dont il faudra tester les prédictions par des observations et des expériences ultérieures.

La déduction
La déduction relie des propositions, dites prémisses, à une proposition, dite conclusion, en s’assurant que si les prémisses sont vraies, la conclusion l’est aussi.
Exemple classique de déduction : tous les hommes sont mortels, or Socrate est un homme donc Socrate est mortel.
La déduction est beaucoup utilisée en physique ou mathématiques, lors de la démonstration d’une loi ou d’un théorème.

Raisonnement du Modus Ponens et du Modus Tollens
Le Modus Ponens et le Modus Tollens sont utilisés par les scientifiques dans leurs raisonnements.
Le Modus Ponens est, en logique, le raisonnement qui affirme que si une proposition A implique une proposition B, alors si A est vraie, B est vraie.
Mais si une implication est vraie alors sa contraposée l’est également (même valeur de vérité selon les règles de la logique formelle). Cela signifie que « la négation de B implique la négation de A » (contraposée de « A implique B »).
Le Modus Tollens est le raisonnement suivant : si une proposition A implique une proposition B, constater que B est fausse permet d’affirmer que A est fausse.
Un exemple : On sait que tous les poissons respirent sous l'eau. Or le saumon est un poisson donc il respire sous l'eau (Modus Ponens). La proposition initiale peut être énoncée sous une autre proposition équivalente (contraposée) : si « je ne peux pas respirer sous l’eau, alors je ne suis pas un poisson ». Cela permet de construire le raisonnement suivant : tous les poissons respirent sous l’eau, or je ne respire pas sous l’eau, donc je ne suis pas un poisson (Modus Tollens).

 

    DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 ] - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google