Neuroscience

De Ekopedia
Révision de 7 février 2008 à 12:38 par Mamat (discussion | contributions) (-suppr)

Aller à : navigation, rechercher
Noia 64 apps kdict.png
Cet article fait partie du
Thème Apprendre

Activités d'éveil
Astuce de Grands-Mères
Éducation
Réseau échanges savoirs
Ressources non libres de droits
Ressources libres de droits
Alternatives pour mieux apprendre
Neuroscience
Catégorie apprendre


Approche neurolinguistique de la parole

Les neurosciences au service de l'apprentissage des langues et de la rééducation des parole(s) perturbées.

C'est le cerveau qui gère notre fonctionnement physiologique lorsque nous parlons et écoutons la parole, dans l'inconscience la plus totale de l'implication de nos organes phonatoires. C'est donc au cerveau qu'il est nécessaire de s'adresser pour influer sur notre production ou notre perception de la parole puisque c'est le cerveau qui commande simultanément (ou plutôt chronologiquement) tous les organes de parole et assure leur coordination.

S'adresser au cerveau présuppose que l'on ait un minimum de connaissances sur son fonctionnement:

  • Le cerveau se compose de deux hémisphères (le gauche HG, le droit, HD).
  • Chaque hémisphère joue un rôle spécifique dans la perception et la production de parole (ils ne sont symétriques ni anatomiquement ni fonctionnellement).
  • HG est plus impliqué dans le traitement des sons de parole et des intonations linguistiques (accents, accentuations spécifiques de la langue).
  • HD est plus impliqué dans le traitement des intonations affectives du discours qui expriment, par la parole l'état émotionnel du sujet.

L'expression de la langue et l'expressivité du sujet parlant constituent les deux dimensions complémentaires et indissociables de la communication par la parole. Ces divisions correspondent à l'investissement respectif de chaque hémisphère cérébral, le gauche (HG) gérant majoritairement la dimension expression (lexico-grammaticale, syntaxique), le droit la composante expressivité (prosodique, kinésique).

  • Les deux hémisphères cérébraux jouent donc, dans la perception et la production de la parole, quelle que soit la langue, des rôles essentiels et complémentaires.
  • La parole de HG isolé, purement mécanique - puisque dépourvue d'affectivité - perdrait son pouvoir de communication humaine qui est la fonction même de la parole.
  • La parole de HD isolé - réduite à sa composante affective - serait une modulation sans mots, exprimant les émotions à la manière d'un animal familier.
  • HG et HD entretiennent parfois, sous un même crâne, des relations conflictuelles, comme en témoignent les observations de patients au « cerveau dédoublé » (dont on a séparé les deux hémisphères chirurgicalement). Il apparaît que HG brime son jumeau et l'empêche de s'extérioriser.
  • Les méthodes d'apprentissage s'adressent majoritairement à une moitié du cerveau, la moitié gauche, par le recours à l'explication analytique.
  • Le fait de proposer des documents sonores (parole) en langue étrangère ne peut, seul, répondre aux objectifs recherchés (apprendre la langue authentique, la comprendre et la produire) puisque la parole étrangère est perçue par l'intermédiaire d'une oreille, (d'un cerveau) conditionnée à/par la langue maternelle. Les sons, rythmes, intonations spécifiques de la langue étrangère passent par le filtre solidement constitué de la langue maternelle. L'expression en « parole étrangère » des apprenants, quand elle est sollicitée, se révèle être une parole « étrange » constituée, au mieux, d'un idiome étranger porté par les caractéristiques musicales et acoustiques de la parole maternelle.

Propositions

Pour enseigner la dimension prosodique de la parole sur laquelle viendront se greffer les mots de la langue, nous suggérons :

  • d'adresser à HD la dimension prosodique, musicale, de la parole étrangère, porteuses des manifestations émotionnelles,
  • d'adresser simultanément à HG la dimension linguistique du message en langue étrangère.

Il faudra aussi « court-circuiter » l'influence dominatrice de HG, qui, en prenant le meilleur sur HD, concentre l'attention de l'apprenant sur le seul contenu linguistique, au détriment de la dimension prosodique.

Le système que nous proposons au chapitre suivant,(un outil pour la rééducation: i-lang), en maîtrisant les contraintes évoquées ci-dessus, permet de mettre l'apprenant dans les meilleures conditions de perception et de reproduction de la langue d'apprentissage.


Un outil pour la rééducation : i-lang

Montage et administration

Pour réaliser les objectifs évoqués au chapitre précédent nous avons conçu le dispositif i-lang qui permet d’adresser à l’hémisphère droit (HD), en dessous du niveau de conscience, la dimension prosodique (fréquentielle) de la parole, tandis que le message linguistique (séquentiel) est adressé synchroniquement, en totalité, à l’hémisphère gauche ( HG).

Ainsi, i-lang sépare les deux composantes prosodiques de la parole :

  • la composante prosodie linguistique, naturellement intégrée à l’énoncé global, intrinsèque à la langue (HG),
  • ET
  • la composante prosodie émotionnelle, spécifique de l’état émotionnel du locuteur (HD).

Perception du patient

  • Au plan de la perception, le patient, coiffé d’écouteurs stéréo indique qu’il ne perçoit rien dans l’oreille gauche (HD), qui reçoit cependant la dimension prosodique du discours, alors que le discours total est normalement perçu dans l’oreille droite (HG).

Il suffit d’obturer l’oreille droite un instant pour percevoir, dans l’oreille gauche un « murmure intoné » qui n’est autre que la dimension prosodique isolée du reste du discours. Le patient reçoit donc dans son HD la dimension prosodique du discours sans en être conscient.

Conclusion partielle et provisoire

Le cerveau gère notre fonctionnement physiologique lorsque nous parlons et écoutons.

Le montage i-lang démontre l'existence de la notion contestée de perception auditive subliminaire et ouvre la voie à la sollicitation cérébrale spécifique comme outil de rééquilibrage de l'activité des hémisphères cérébraux. Les évaluations par l'IRMf révèlent chez les patients testés une activation cérébrale qui confirme la réalité de la mobilisation simultanée des ressources de chaque hémisphère. Dans un article publié online par Human Brain Mapping, une équipe de recherche (citée en bibliographie spécifique) présente les images d'activation cérébrale obtenues sur dix patients sollicités dans les conditions du montage i-lang (voir description succinte ci-dessous). Certes l'IRMf n'est qu'un outil et non une preuve . Il n'empêche que l'activation déclenchée par le filtrage i-lang est supérieure a celle déclenchée dans toutes les autres situations d'écoute. [1]

Confirmation par l'IRMf de l'activation cérébrale spécifique déclenchée par le dispositif i-lang

Dans le cadre d'une étude visant à évaluer l'impact éventuel de l'utilisation du dispositif i-lang sur l'activation cérébrale(blood-flow)dans chaque hémisphère, une équipe de recherche de l'Université de Bordeaux a étudié les variations du flux sanguin dans les quatre conditions suivantes:

NN: discours oral normal adressé à chaque oreille par l'intermédiaire d'écouteurs, simultanément.

FN: discours filtré passe-bas adressé à l'oreille gauche(HD),discours oral normal adressé à l'oreille droite (HG) simultanément.Cette condition correspond strictement au montage i-lang tel qu'il a été décrit dans le brevet d'invention en 1988, et différents textes cités en bibliographie.

NF: discours oral normal adressé à l'oreille gauche (HD), discours filtré passe-bas adressé à l'oreille droite (HG) simultanément.

FF: discours filtré passe-bas adressé à chaque oreille simultanément.

L'opération effectuée sur dix hommes droitiers (moyenne d'âge 28,6 ans), (résumée dans un article, voir bibliographie) révèle que la condition FN (qui schématise l'utilisation du dispositif i-lang décrit plus haut) présente une activation beaucoup plus importante que les autres conditions, en terme de localisation mais aussi en surface activée sur chaque hémisphère.

Ce résultat ouvre des perspectives inédites, tant dans le domaine de l'apprentissage des langues que dans celui de la rééducation de la parole perturbée.


Voir aussi

Liens internes

Liens externes

Références

  1. L'article cité est paru en ligne le 31 mai 2005 sur www.interscience.wiley.com

Bibliographie spécifique

  • Parole(s) de cerveau, J. Alliaume, 2005
    • Fondation Fleur de Lys, info@manuscritdepot.com, Lévis, Québec, Canada.
  • Cerebral mechanisms of prosodic sensory integration using low-frequency bands of connected speech, Hesling, Dilharreguy, Clement, Bordessoules, Allard., 2005
    • Laboratoire d'imagerie moléculaire et fonctionnelle ERT CNRS 5543, Université Victor Segalen, Bordeaux, France.

Bibliographie générale

  • ABRAMSON, A.S. 1972.- "Tonal experiments with whispered thaï" in Papers on linguistics and phonetics in memory of Pierre Delattre, Valdman ed., Mouton, The Hague, pp.31-34.
  • ADAMCZEWSKI, H, 1983.- Grammaire linguistique de l’anglais, Armand Colin, Paris.
  • ALLIAUME J., 1989.- Procédé de traitement de certaines composantes acoustiques de la parole et appareil de mise en œuvre, Brevet d'invention,N°2 642 557, Institut National de la Propriété Industrielle.
  • ALLIAUME, J. 1989.- "Prosodie et apprentissage des langues", Les Cahiers de l'APLIUT, 33, 96-104.
  • ALLIAUME J., 1993.- « Cerveau et langage », Carilang, Les cahiers du CERALEC, Gondwana Editions, Martinique.
  • ALLIAUME J., 1993.- « Approche neurolinguistique des phénomènes prosodiques » in Séminaire pratique de linguistique anglaise, ( Lapaire J.R et W. Rotgé., Eds ), Presses Universitaires du Mirail, Toulouse, pp.213-231).
  • ALLIAUME J 1999.- « Pour l’utilisation harmonieuse du cerveau dans le système éducatif français : un outil pour l’apprentissage des langues », Colloque journées internationales de linguistique appliquée, JILA 99, Nice.
  • ALLIAUME J 1998.- Le langage et les deux cerveaux, Editions du CERALEC, Fort de France.
  • BROCA, P. 1865.- "Sur le siège de la faculté du langage articulé", Bulletin d'Anthropologie, 6, pp. 377-93.
  • CAMBIER J. & P. VERSTICHEL, 1998.- Le cerveau réconcilié, Masson, Paris.
  • CUTTING, J. et ROSNER, B. 1974.- "Categories and boundaries in speech and music" in Perception and Psychophysics, 16.
  • CYTOWIC, R.E., 1995.- The man who tasted shapes, Warner Books, New York.
  • DAMASIO, A.R., 1995.- L’Erreur de Descartes, O.Jacob, Sciences, Paris.
  • DEGLIN V., 1976.-“Voyage à travers le cerveau”, Le Courrier de L'UNESCO, Paris, pp. 4-20. 190, pp. 597-610.
  • DELATTRE. P., 1968.-"Divergences entre nasalités vocaliques et consonantiques en français", Word, 24, pp. 64-72.
  • DIXON, N.F., 1993.- "Perception subliminaire", Le Cerveau, un inconnu", R. Laffont, 1007-1012.
  • FRY, D.B. 1958.- "Experiments in the perception of stress" in Language and speech, 1, p.126-152.
  • GALABURDA, A.M. , SANIDES, F. 1968.- "Cytoarchitectonic organization of the human auditory cortex", in The Journal of Comparative Neurology, 19O, 597-610.
  • GESHWIND N. & W LEVITSKY, 1968.-“Human brain: Left-right asymmetries in temporal speech region”, Science, 161, pp. 186-187.
  • GIL, R. 1996.- Neuropsychologie, Masson, Paris.
  • GUBERINA, P. 1974.- "Structuration et dépassement des structures perceptives et psycholinguistiques dans la méthodologie SGAV" in Actes du 3e colloque international SGAV pour l'enseignement des langues, Paris, Didier, 41-48.
  • GUBERINA P., 1985.- The role of the body in learning foreign languages, Revue de Phonétique Appliquée, n°73-74-75.
  • HABIB M. & A.M. GALABURDA, 1986.-“Déterminants biologiques de la dominance cérébrale”, Revue de Neurologie, Paris, 142, pp. 869-894.
  • ISRAEL, L., 1995.- Cerveau droit, cerveau gauche-cultures et civilisations-, Plon, p.79.
  • IVRY, R., LEBBY, P. cités par VAUCLAIR, J. , FAGOT, J. juin 1995.- "L'asymétrie du traitement visuel", Science et Vie (hors série), 195, 42-51.
  • JAYNES, J. 1976.- The Origin of Consciousness in the Breakdown of the Bicameral Mind, Houghton Mifflin, Boston
  • JOSEPH, 1992.- The Right Brain and the Unconscious, Plenum Press, New York.
  • KIMURA D., 1967.- “Functional asymmetry of the brain in dichotic listening”, Cortex, vol. 3, 2, pp. 163-178.
  • LADEFOGED, R. et D BROADBENT, D.1975.- "Information carried by vowels" in Journal of the Acoustic Society of America, 29, 98-104.
  • LIEBERMAN, P. et MICHAELS, S.B. 1962.- "Some aspects of fundamental frequency and envelope amplitude as related to the emotional content of speech" in Journal of the acoustic society of America, vol.34, 7, 922-927.
  • LUBKER, J. et GAY, T. 1982.- "Anticipatory labial co-articulation: Experimental, biological and linguistic variables" in Journal of the Acoustical Society of America, 71, 437-448.
  • MALMBERG B., 1954.- La Phonétique, Que sais-je?, PUF, n°1875
  • ROSS E., 1981.- “The aprosodias. Functional anatomic organization of the affective components of language in the right hemisphere”, Archives of Neurology, 38, pp. 561-564.
  • SACKS O., 1988.- L’homme qui prenait sa femme pour un chapeau, Le Seuil, Paris.
  • SHANKWEILER D.& M. STUDDERT-KENNEDY,1966.- "Lateral differences in perception of dichotically-presented synthetic C-V syllables and steady-state vowels", Journal of the Acoustic Society of America,39,6,1256.
  • TEZNER, D., TZAVARAS, J., GRUNER, J., HECAEN, H. (1972). "L'asymétrie droite-gauche du planum temporale" in Revue neurologique, 12, 6, 444-449.
  • VYGOTSKY L.S., 1962.- Thought and language, The MIT press, Cambridge.
  • ZATORRE, R. 1993.- "Fonctions cérébrales et traitements auditifs complexes" .Revue de Neuropsychologie, vol.3, N°4, 407-425.


Noia 64 apps kdict.png
Portail Apprendre – Accédez aux articles Ékopédia concernant les pédagogies.