samedi 5 mai 2012

La clef des sons




Cet ouvrage (Érès, première édition 1991- deuxième édition 1994) s'appuie sur la physiologie et de la psycho-acoustique. Il fait le tour des liens connus entre le son dans ses différents attributs (intensité, hauteur, timbre, localisation, ...) et l'être humain considéré comme un organisme à la fois corporel et psychique. Il s'agit non seulement des jouissances esthétiques de la musique, mais surtout, d'explorer les multiples composantes du son dans leurs effets, ce qui peut conduire, non seulement à un usage thérapeutique ou rééducatif du son, mais aussi à l'exploration d'effets voulus au niveau des émotions les plus intimes. Comme l'affirme Yehudi Menuhin "le Son pénètre directement notre corps. Ce que l'oreille peut accomplir à l'intérieur de notre cerveau, à l'intérieur de nos vies, rien d'autre ne peut le faire." Il ajoute "l'emploi des hautes fréquences nous ouvre tout un nouveau monde. La thérapie sonique a un effet spécifique qui semble avoir des implications étendues et des résultats étonnants. Je crois que cela constitue une percée de plus grande efficacité pour la musique et la santé". Les basses et moyennes fréquences ont aussi des effets qui leur sont propres, de même la stimulation différentielle des deux oreilles, la nature des rythmes, etc... : tout un ensemble de constatations à la disposition du musicien, du créateur de jingles, de l'acteur, du danseur, du cinéaste, etc... La stimulation et l'exercice des fonctions auditives au moyen de techniques appropriées peut changer l'avenir d'un individu qui se motive tout à coup pour la lecture et les études, noue des relations, entreprend des actions dont il se désintéressait auparavant ! Le développement ou, pourrait-on dire, la sur-éducation de son système d'écoute (ou sa remise en forme en cas de difficulté) sont pour l'artiste producteur de sons tout aussi justifiés que la pratique de l'entraînement pour le sportif professionnel : le jogging n'est plus un luxe mais un impératif quotidien. Ainsi, pensons nous, du chanteur ou du musicien qui joue autant avec son oreille qu'avec son larynx ou ses mains.

Entendre suppose un son (physique), une oreille pour le capter, un système nerveux pour le recevoir.
Ecouter est un processus actif supposant préférences et répulsions pour tel son ou telle séquence sonore.
Ce processus actif est évidement présent lorsque tout l'être aiguise sa perception pour saisir tel signal précis dans la masse confuse des bruits extérieurs : la voiture de l'aimé, la sirène de police, la pub télévisée, etc. L'écoute est donc modelée par les expériences de toute la vie antérieure depuis que l'audition est fonctionnelle : environnement sonore familial, paysage sonore de la collectivité rurale ou urbaine. Evoquons les avions près d'un aéroport, l'effet ultérieur des sons intra-utérins, le phénomène de sélection des phonèmes reconnaissables lorsque l'enfant évolue dans un milieu linguistique donné, etc.
Nous devons décrire ou inférer les mécanismes propres à assurer cette attitude active vis-à-vis de l'information sonore : pavillon de l'oreille externe et ses muscles, dispositif de réglage de l'oreille moyenne et des cellules réceptrices de la cochlée, jeu des pressions liées aux mouvements de la tête, aux ouvertures et fermetures de la trompe d'Eustache, rôle du bâillement... Enfin investissement plus ou moins important des diverses zones corticales ou sous-corticales chargées de l'intégration sonore : activation globale ou modulée de ces zones et de leurs parties, éveil plus ou moins grand du cortex (rôle de protection de l'audition et sans doute d'une écoute sélective à l'égard des sons menaçants)... Il ne s'agit pas uniquement d'une activation électrique, mais aussi d'une irrigation sanguine accrue...

Le son

Il est sans doute bon d'en donner une brève description physique : il s'agit de modifications de la pression à périodicité plus ou moins complexe et régulière. A côté des sons que l'audition nous permet de connaître, il existe des vibrations qui échappent à ses compétences.
Infrasons : si les variations de pression sont trop lentes, elles ne seront pas perçues au niveau de l'ouïe mais, pour des intensités suffisantes, elles le seront au niveau des récepteurs de la peau ou de l'organe labyrinthique : on parle alors d'infrasons (un exemple nous est fourni par certaines souffleries de conditionnement d'air).
Ultrasons : si les variations de pression sont trop rapides, elles échapperont également à l'audition mais pourront, lorsqu'elles sont très puissantes, déclencher des réactions dans l'organisme selon des mécanismes parfois mal connus : il s'agit d'ultrasons. On a remarqué le fait que le foetus semble fortement réagir lorsqu'on abuse de l'échographie : ce procédé utilise des ultrasons de forte puissance et de fréquence pourtant extrêmement éloignée du domaine audible.
Nous savons tous que certains sons, trop aigus pour notre perception humaine sont facilement reçus par le chien, le chat ou la vache. La chauve-souris s'en sert pour se guider (phénomène d'écholocation). Ainsi, ce qui est " son " pour le mammifère volant est " lettre morte " pour le setter irlandais, et notre fidèle compagnon répond au sifflet d'un maître qui ne l'entend pas. Plus le chiroptère est petit et plus les fréquences qu'il utilise sont élevées, ce qui lui donne un avantage évolutif pour la chasse des petits insectes, d'autant plus "visibles" avec précision que la fréquence est élevée [1]
Emile Leipp (1977a) insiste sur le fait que cette disparité existe aussi entre les individus : en deçà de 60 hertz, Pierre ne perçoit pas le grondement qui gêne Paul ; au-delà de 15 000 hertz, le papa n'entend rien alors que son jeune enfant dresse l'oreille. On sait que les élèves des collèges ou des Lycées abusent de ce fait en programmant sur leur portable une sonnerie qu'ils entendent alors que le Pr, plus âgé, ne s'aperçoit de rien !
Grosso modo, les sons désignent des vibrations accessibles à la plupart des êtres humains : grossièrement de 20 à 20 000 hertz. Il convient de remarquer qu'en dehors du laboratoire les vibrations disponibles sont toujours extrêmement complexes, même lorsqu'il s'agit de la voix humaine ou de sons musicaux que nous apprécions pour leur pureté et leur apparente simplicité.
Hauteur approximative des notes du piano et des composantes de la voix
Hertz
27
55
110
220
440
880
1 760
3 520
Piano
La-2
La-1
La1
La2
La3
La4
La5
La6
Formants
       
500
1 500
2 500
3 500
Cette complexité inextricable au premier regard devient davantage compréhensible si nous considérons le phénomène de résonance : lorsque le chanteur pousse un peu sa voix, il fait vibrer certains objets qui l'environnent et pas les autres. Il en va de même pour la note que joue un instrument de musique. Si la Castafiore casse le verre du capitaine Haddock, c'est parce qu'une des notes qu'elle émet a une longueur d'onde compatible (en rapport arithmétique simple) avec les dimensions du verre. On dit que les vibrations ainsi provoquées aux alentours le sont par résonance. Et parmi toutes les possibilités, certaines seulement se manifestent, dépendant de la masse de l'élément, de sa rigidité, de sa forme, etc. Il est donc besoin, non seulement d'un excitateur et d'un résonateur, mais aussi d'un couplage entre ces deux partenaires ; il y a un double mouvement dont rend compte ce couplage : de l'excitateur au résonateur bien sûr, mais aussi le résonateur réagira sur la source...
Dans le cas de la voix humaine, chantée ou parlée, la signification vient davantage de l'ensemble des phénomènes de résonance et de bruits surajoutés, déclenchés au niveau des cavités de la face (bouche, sinus, nez, etc.) que du son de base émis par les cordes vocales (fondamental). On désigne comme partiel les sons émergents grâce aux renforcements sélectifs de cette production laryngée. Si la fréquence d'un partiel est dans un rapport arithmétique simple avec celle du fondamental, on le qualifie d'harmonique. Le musicien exécute généralement une note précise, et les résonances induites de manière systématique selon la structure de l'instrument constituent les harmoniques en rapport mathématique simple avec cette note.
Ces considérations ne doivent pas cacher le fait qu'aiment à souligner Guy Maneveau et Pierre Josserand : pour le physicien, le son en un point donné, au creux de l'oreille par exemple, est entièrement connu quand on possède la courbe de la pression en fonction du temps. Le temps est omniprésent dans la nature physique du son, dans sa perception physiologique et dans sa signification psychodynamique (cf. chap. 10, 11 et 12).
D'un point de vue physique, par exemple, il intervient au niveau du rythme, bien sûr, de la mélodie qui est une succession de notes, et même de l'harmonie, dans la mesure où les phénomènes de résonance sont de nature oscillatoire et donc liés à un mouvement dans le temps. Si le temps s'arrête : plus de musique, plus de son. Le silence ! Nous n'avons pas, sur le plan sonore, d'équivalent à l'" arrêt sur image " que nous connaissons avec le magnétoscope... Echo est vraiment bien différent de Narcisse !
C'est dire que le phénomène sonore est beaucoup plus temporel que spatial, à la différence du toucher et surtout de la vue qui embrasse l'étendue. L'espace auditif se réduit au fait que nous avons deux oreilles. La comparaison entre elles permettant, assez grossièrement, de dire où se situe la source. Encore convient-il de remarquer combien ce " où " dépend d'un autre espace qui sert de référence. Espace de l'action bien sûr. Espace de référence visuel (hormis les cas de cécité)...
*
Alfred Tomatis affirme que " l'éveil auditif ", spécialement dans sa composante esthétique, exige la présence d'au moins trois fréquences simultanées. L'écoute est un phénomène d'ensemble géré non seulement suivant son flux linéaire (avant/après) mais aussi selon l'axe haut/bas. Ce vecteur est distinct de celui du géomètre, puisque sans rapport univoque avec le cadre extérieur.
D'autres auteurs ont insisté sur cet étalement des fréquences sur la spirale cochléaire, médiateur entre l'espace physique et la dimension psychophysiologique... Ces travaux montrent, par dégradation progressive du matériel sonore, les liens très étroits qui existent entre la signification du message et son déroulement temporel d'une part, l'effet esthétique et sa structure fréquentielle d'autre part. Ceci est également connexe aux fonctions respectives de chaque hémisphère cérébral (que nous détaillerons au chapitre 6 (structures diachroniques/traitement digital/sémantique/cerveau gauche ; structures synchroniques/traitement analogique/esthétique/cerveau droit).
Parasons (ou extrasons) : je veux regrouper ici la perception de vibrations non perceptibles par l'audition ou le sens labyrinthique, mais qui stimulent des récepteurs cutanés spécialisés; on est ici dans le domaine de la "tribologie" par exemple. Notre peau se montre capable de nous renseigner sur des vibrations subtiles qui nous apparaissent comme empreintes de douceur et qui diminuent d'éventuelles sensations de douleur ou d'inconfort.
Ce sont ces vibrations cutanées, localisées notamment à la pulpe de la dernière phalange de nos doigts, qui nous informent quant au lissage, à la brillance et à la "douceur" de cheveux que nous touchons. Un appareillage imitant ce type de perception (sonde tribo-acoustique) permet d'ailleurs d'étalonner ce type de perception (cf. ttp://www.cnrs.fr/cw/dossiers/doschim/decouv/cheveux/liss_brill_douc.html et http://www.cnrs.fr/cw/dossiers/doschim/decouv/cheveux/loupe_mes_douc_chev.ht ml)
Notre équipement sensoriel, à ce niveau, n'est pas du tout négligeable puisque il existerait quelques 2000 capteurs par millimètre carré au niveau de la pulpe des doigts. Il existe plusieurs types de capteurs qui, tout comme au niveau de l'appareil auditif, se sont spécialisés dans des bandes de fréquences bien déterminées et spécifiques de chacun d'eux.
Pour les psycho-physiologistes, les récepteurs extéroceptifs sont sensibles à la pression (corpuscules de meckel), à l'étirement et aux vibrations (corpuscules de pacini), au toucher (corpuscules de meissner que l'on trouve à la base des poils).
Les corpuscules de Pacini (appelés également corpuscules de Vater Pacini), ont été découverts par l'anatomiste italien Filippo Pacini (1812-1883); ce sont des récepteurs sensoriels formés de terminaisons encapsulées situés en profondeur dans la peau. Ils sont sensibles aux étirements et aux vibrations. Il détecte le début et la fin d'une pression mécanique (récepteur ON/OFF). Le corpuscule de Pacini est encapsulé "en bulbe d'oignon". Il est muni d'une formation neuronale myélinisée.
Les corpuscules de Pacini pourraient détecter des fréquences aux alentours de 300 Hz (sensibilité maximum) à des amplitudes très minimes (de quelques microns à peine).
corpuscule de pacini, image wikipedia
Les corpuscules de Meissner, découverts par l'anatomiste Georg Meissner (1829-1905), sont des récepteurs sensoriels formés de terminaisons encapsulées, situés dans la partie supérieure du derme, particulièrement sensibles au toucher léger. Les corpuscules de Meissner répondraient à des fréquences de l’ordre de 50 Hz (toucher appuyé).
Les capteurs de Ruffini déterminent la profondeur d’enfoncement de la peau, ce qui traduit son degré de raideur superficielle et détermine les conditions de glissement du toucher.
corpuscule de Meissner in wikipedia
Les capteurs de Merkel ont une structure rigide. Par ailleurs, ils ne sont pas encapsulés ce qui leur permet de donner une réponse de longue durée, à adaptation lente (sous forme de potentiels d'action ou "spikes") lorsqu'il y a une déformation mécanique de la peau qui peut être de très faible amplitude, de l'ordre de 1 micron. Cette extrême précision est utilisée par les non-voyants pour lire le braille. Au niveau fréquentiel, leur pic de sensibilité se situe dans la zone de 5 à 15 Hz.
On voit que l'ensemble des récepteurs cutanés est sensible aux très basses fréquences mécaniques (de 5 Hz à 400 Hz) dont une partie sont celles des sons hypergraves acoustiques que peut percevoir notre ouïe (L0 et L1 de Leipp; SB1 et SB2 de Millot).
Quand nous voulons apprécier la douceur d'une surface, notre exécutons un geste d'effleuremente avec la main ce qui va faire vibrer nos récepteurs xutanés et produire un bruit qui dépend de la plus ou moins grande rugosité de cette surface.
Le Laboratoire de tribologie et dynamique des systèmes (LTDS), étudie les mécanismese de ce bruit de frottement notamment par rapport à la peau humaine dont un sujet veut éprouver la douceur.
Ce laboratoire développe avec les laboratoires Pierre-Fabre Dermocosmétique, une sonde tribo acoustique* (brevet international CNRS/LTDS) qui tend à mesurer la qualité du toucher de la peau et des cheveux, grâce à cet appareil apte à mesurer les frottements et vibrations. Des tests "subjectifs" ont permis de valider les qualités métrologiques de cet outil.
Cette approche a permis d’identifier les modifications sonores lors du vieillissement cutané ou de l’hydratation de la peau humaine avec différents produits.
Variations gravitationnelles : elles seront captées et connues grâce à la mise en jeu de nos récepteurs vestibulaires : saccule, utricule, canaux semi-circulaires.

L'oreille

"Il y aura un temps où l'on ne supportera pas le sain enseignement ;
au gré de leurs passions les hommes se donneront quantité de maîtres à penser :
ils ont des oreilles qui leur démangent
et ils détourneront leurs oreilles de la vérité pour se tourner vers des fables
"
(II Timothée 4, 3-4

On a coutume de décrire l'oreille en trois parties : externe, moyenne, interne.
1. L'oreille externe répond à la partie visible de l'organe :
  • le pavillon bien sûr, et
  • le conduit auditif " externe " en communication directe avec l'extérieur.
La forme du pavillon, peu ou très plissé, celle du conduit, plus ou moins contourné, vont permettre de collecter les sons et d'augmenter le niveau sonore de 10 à 15 décibels, sur une gamme de fréquences comprises entre 1 500 et 7 000 hertz (Shaw, 1974) avec une résonance à 3 kHz.
La plupart des animaux possèdent une musculature mobilisatrice du pavillon bien développée (le cheval a 17 muscles). Ceci les autorise à viser spatialement le son, avec une précision dont nous sommes incapables. Remarquons pourtant que l'homme est pourvu de trois muscles en état de marche ; un peu d'entraînement nous permettrait de les mettre en Suvre. L'efficacité du procédé paraît minime dans notre espace ; ainsi, ces mouvements du pavillon représentent plutôt l'indice d'une attention accrue qu'un moyen très précis de visée sonore.
Le rôle localisateur du pavillon concerne essentiellement les aigus, supérieurs à 2 000 hertz. Le bénéfice maximum se situe à 7 000 hertz, quand l'émission sonore est dans l'axe du conduit auditif externe. Ainsi peut être repérée la direction de la source. Dans la plupart des situations (surtout chez l'homme), le mouvement de la tête contribue, plus que ceux du pavillon considéré isolément, à cette orientation.
Si la tête est fixe, c'est la diffraction par le pavillon qui permet à l'auditeur de distinguer si un son, situé au milieu, vient de l'avant ou de l'arrière (Blauert, 1983).
Les sons aigus ont un rôle particulier vis-à-vis de l'attention auditive qu'ils induisent, leur efficacité directionnelle prend sans doute une part dans l'explication de ce fait. Ils font, mieux que d'autres, dresser l'oreille et orientent le regard (comme les photographes l'ont bien compris, faisant précéder la prise de vue d'un sifflement irrésistible)...
Le pavillon comporte une multitude de points dont les caractéristiques électriques semblent liées au fonctionnement des autres parties de l'organisme, au point que la stimulation (acupuncture) des points perturbés pourrait améliorer le fonctionnement des organes invoqués. L'auriculothérapie, à la suite des travaux du Français P. Nogier, inaugure peut-être la découverte d'un principe de fonctionnement plus général, dans lequel toute partie de l'organisme répondrait à toutes les autres et réciproquement ; un tel mécanisme a déjà été présumé par Pribram en ce qui concerne le fonctionnement cérébral, mais il pourrait s'agir, je pense, d'une loi tout à fait fondamentale des organismes vivants ou même des unités structurées en général (Auriol, 1985a).
Doit-on admettre une action sur l'organisme entier des vibrations sonores touchant le pavillon et qui, selon la structure de ce dernier, ébranlent de manière variée ses différents points ? Cela entraînerait une sorte de massage différencié avec pour conséquence éventuelle des modifications touchant tel ou tel organe par un effet d' "auriculothérapie" !. Quelque chose d'analogue au massage des points réflexes du pied lors de la marche sans chaussures. Les sourds aussi bien que les entendants seraient, bien sûr, accessibles à un tel phénomène. Il est clair qu'il s'agit là, pour l'instant, d'une pure spéculation....
Il sera sans doute moins excessif de rappeler les interactions (que j'ai souvent vérifiées) entre des sons inconsciemment mal acceptés et l'état de l'oreille externe, moyenne (et sans doute interne) : oedème du pavillon, eczéma du conduit, hyper ou hypo sécrétion de sébum, otites et même par un mécanisme différent, déchirement du tympan lors d'un nettoyage abusif au coton-tige, etc.
Le rôle du canal auditif externe est assez peu valorisé par les physiologistes, il joue pourtant un rôle, peut-être déterminant !
source : www.audition.fr
Fig. 1. L'oreille humaine (© Copyright Luis Godinho - www.audition.fr)"

L'oreille moyenne et l'oreille interne habitent à l'intérieur de l'un des os du crâne, le temporal ou, plus précisément, dans une partie trapue et tourmentée de cet os : la pyramide pétreuse ou rocher. Ce "rocher" ou "pars petrosa" est une partie de l'os temporal (squamma temporalis). Le terme de "rocher", de "pétreux" ou "pierreux" a été retenu "à cause de sa dureté et de son inégalité qui est comme des rochers et des aspretez" (Gasapard Bartholin, Institutions anatomiques, traduction de Du Prat, Paris, 1647; cité parA. Bert et C. Pellanda, in La Nomenclature Anatomique et ses origines, explication des termes anciens employés de nos jours, Alcan, 1904).

2. L'oreille moyenne (fig. 1) est une cavité remplie d'air. Elle a pour limite extérieure le tympan, membrane qui la sépare du conduit auditif externe. Du côté de l'oreille interne, on trouve deux orifices ménagés dans l'os : la fenêtre ovale munie de l'étrier et la fenêtre ronde fermée par une membrane (fig. 2) ; vers l'arrière du crâne on trouve les cellules mastoïdiennes qui criblent l'os d'un dédale de petites cavités. Vers l'avant se trouve la trompe d'Eustache qui fait communiquer l'oreille moyenne avec l'arrière-gorge ; si des variations de pression durables surviennent dans le milieu externe, la personne pourra ouvrir ce conduit afin de rétablir l'équilibre : c'est ce qui se passe en montagne ou dans un avion non pressurisé, d'où le besoin d'avaler qui entraîne cette ouverture réflexe. Le bâillement a le même effet à cet égard... En fait, même si la pression atmosphérique ne bouge pas, la pression de la caisse du tympan diminue insensiblement par dissolution de l'air dans les vaisseaux sanguin de sa paroi d'où la nécessité d'avaler fréquemment (une fois par minute pendant la veille et une fois toutes les cinq minutes au cours du sommeil) (Burgeat, 1973). Fait remarquable, ce conduit reste toujours fermé pendant l'acte de parole.
Fig. 2. La caisse du tympan vue d'en haut (d'après Gellé).

Contrairement à beaucoup d'autres schémas, celui-ci permet de comprendre la raison d'être des organes et les mécanismes en présence. Le système de leviers articulés, grâce aux muscles, peut être modifié en raideur (impédance), par voie réflexe ou volontaire. Lorsque les amplitudes du tympan sont trop fortes, elles sont atténuées (30 dB) par ce dispositif. Lorsqu'elles sont trop faibles, les muscles permettront de réaliser une impédance optimale, compte tenu de la composition acoustique du phénomène. Cette adaptation d'impédance se fait nécessairement avec modification de la courbe de réponse du système ; en " tendant " l'oreille, on peut donc adapter de façon optimale les pointes de cette courbe au phénomène à percevoir. Dessin extrait de E. Leipp (1977a, p. 57).
L'oreille moyenne est traversée par une chaîne de petits os articulés qui relient le tympan à la fenêtre ovale. Les osselets sont : le marteau lié par son manche au tympan, l'enclume et, finalement, l'étrier, solidaire de la membrane qui obture la fenêtre ovale. Il est merveilleux de constater que ces os lilliputiens sont mobilisés par de non moins minuscules moteurs : le muscle du marteau et celui de l'étrier. Nous aurons à reparler de ces petits êtres !
3. L'oreille interne (fig. 3). Son anatomie est complexe. Et quelque peu rébarbative... Essayons pourtant de nous en faire une idée claire.


Fig. 3. Labyrinthe membraneux du côté droit, vu par sa face externe.

1. utricule. - 2. canal demi-circulaire supérieur. - 3. canal demi-circulaire postérieur. - 4. canal demi-circulaire externe. - 5. saccule. - 6. canal endolymphatique, avec : 7 et 7', ses canaux d'origine ; 8. son cul-de-sac terminal. - 9. colimaçon (cochlée). Dessin extrait de Testut et Jacob (1905, p. 314).

On la compare à un labyrinthe creusé dans l'os et garni d'un deuxième, système membraneux et plus labyrinthique encore !
A l'utricule, organe de l'horizontalité, se rattachent les trois canaux semi-circulaires, système dynamique participant à l'équilibration : ils nous disent les variations de vitesse au cours de nos déplacements (accélération, freinage, rotation, etc.) selon les trois directions de l'espace. Au saccule, organe de la verticalité, revient de nous renseigner sur les inclinaisons de la tête sur le côté, en avant ou en arrière ; à lui se rattache la cochlée, spécialisée dans le son. Le saccule est lui-même apte à percevoir les sons très graves.
On a pu montrer, de plusieurs manières (Toupet, 1981), que le saccule est parfaitement sensible aux sons de basse fréquence. C'est par cette voie que bien des sourds profonds conservent une certaine capacité auditive. Cependant, ce type de capteur est plus sensible aux rythmes qu'aux fréquences et a, de ce fait, un rôle informationnel médiocre. C'est à lui que s'attache l'appareil auditif cochléaire, logé dans le limaçon. Intimité bien étroite entre les organes qui disent notre situation dans l'espace et ceux qui nous renseignent sur les vibrations sonores ; d'où la fascination de la danse. Elle unit les membres du groupe dans un mouvement d'allégresse commune, scandé par les rythmes sonores traditionnels.
A l'intérieur de la cochlée (fig. 4), nous trouvons deux tubes : la rampe tympanique qui s'abouche directement à la fenêtre ronde et la rampe vestibulaire qui par l'intermédiaire du saccule peut subir les variations de pression captées par la fenêtre ovale (sur laquelle est fixé l'étrier). Cette rampe vestibulaire est à son tour subdivisée en deux tubes (fig. 4) dont le plus intéressant est le canal cochléaire : au niveau de son socle se trouve la membrane basilaire qui porte l'organe de Corti recouvert par la membrane tectoriale. C'est là que se fait la stimulation vibratoire des récepteurs nerveux. Au sommet du colimaçon, les deux rampes se rejoignent (par une ouverture très petite l'hélicotréma).
Fig. 4. Une coupe de la cochlée. Dessin extrait de E. Leipp (1977a).

Les variations géométriques de différents éléments ont depuis longtemps frappé l'imagination des théoriciens : la membrane basilaire, étroite, épaisse et raide à la base du limaçon, s'élargit en s'amincissant et s'assouplissant jusqu'à son sommet ; la longueur des piliers de Corti croît progressivement de la base au sommet (apex) selon un schéma analogue ; même la longueur des cils se conforme à cette distribution lorsqu'on quitte les cellules de la base (cils très courts) pour remonter jusqu'au sommet (cils très longs); le diamètre du canal cochléaire complète cette série puisqu'il s'élargit progressivement de la base au sommet (apex) alors que la rampe tympanique s'amenuise dans les mêmes proportions pour lui faire place...
Tout ceci n'évoque-t-il pas la flûte de Pan, les cordes du clavecin, du piano ou de la harpe ? On n'est donc pas surpris d'apprendre qu'un des premiers résultats de la physiologie auditive fut de montrer que les régions du sommet perçoivent les graves et les régions de la base les aigus... Il s'agit d'une analogie suggestive qui aurait pu (Leipp, 1977a) n'être qu'un éblouissant caprice du hasard. Un certain nombre de constatations nous indiquent plutôt que cette configuration géométrique est au service d'un fonctionnement optimal de l'audition ...
Sur la base des travaux de Pujol et ses collaborateurs ont peut montrer qu'il semble exister une relation linéaire entre la longueur des Cellules Ciliées externes (exprimée logarithmiquement) et la fréquence caractéristique de chacune d'elle (figure ci-dessous) ; c'est à dire la fréquence qu'elles renforcent alors qu'elles amortiront toutes les autres.

Variation de la fréquence codée par les CCE en fonction de leur longueur
(dans diverses espèces animales, y compris l'être humain)

(calculs de B. Auriol sur la base des données de PUJOL R., LENOIR M., LADRECH S., TRIBILLAC, F. and REBILLARD G., 1991 - Correlation within and across species between the length of outer hair cells and the frequency coding of the cochlea. In: "Auditory Physiology and Perception", Cazals, Demany and Horner (eds), Pergamon Press, pp. 45-52)

L'oeil entend-il ?


Lenhardt (2007) a stimulé le globe oculaire avec des ultrasons, et montré que l'oeil capte les ultrasons lesquels seraient mécaniquement transmis à la cochlée !
"The eye can serve as an acoustic window to the ear via the intracranial soft tissues. The frequency response is in the low ultrasonic range, and this type of hearing is termed eye conduction. Auditory and vestibular coding is postulated. (Martin L. Lenhardt, Eyes as Fenestrations to the Ears: A Novel Mechanism for High-Frequency and Ultrasonic Hearing, International Tinnitus Journal, 13, 1, Jan-Mar, 2007).

L'audition : mécanisme

Le Nobel pour une théorie séduisante

La théorie classique est celle du cheminement de la vibration tympanique par les osselets. Ces derniers, à leur tour, ébranlent la membrane de la fenêtre ovale, avec un rendement énergétique optimum (fig. 2). A cette première hypothèse, la théorie admise ajoute la suivante formulée par Von Bekesy en 1928. Elle lui valut le prix Nobel de 1961 et rangea sous sa bannière la quasi-unanimité des physiologistes depuis cette date : les vibrations de la fenêtre ovale se transmettraient aux liquides cochléaires, sous forme de vagues - comme celles qu'on voit, à faible profondeur, près du rivage. On aurait alors des déformations concordantes de la membrane basilaire dont le maximum d'amplitude se produirait d'autant plus loin de la base que le son est grave. Cette membrane se comporterait comme une série de filtres passe-bas, mis bout à bout. Cette théorie est dite de " l'onde propagée " ou des " tourbillons " (les vagues) par opposition à l'idée d'Helmholtz pour qui la cochlée se comportait comme une batterie de résonateurs.

Le baron se revanche

Dancer et Franke (1987) ont récemment remis en chantier la deuxième hypothèse, redorant ainsi le blason de von Helmholtz (1863)_.
En fait, la théorie de Von Bekesy avait tiré sa force de ce qu'elle expliquait assez bien des phénomènes_ dont on sait maintenant qu'ils sont du ressort des processus ciliaires actifs. Ainsi devenue inutile, minée par la nécessité d'en appeler de toute façon à des phénomènes de résonance (Sellick et coll., 1982), il devenait urgent de la remettre en question à la suite de Wilson (1983) et de Johnstone (1986). Sans parler des commentaires de Tomatis qui l'avait tenue pour logiquement inacceptable depuis plus de dix ans. Tous ces auteurs adoptent donc l'hypothèse d'une batterie de résonateurs excités simultanément (et couplés plus ou moins étroitement).
A l'issue d'une revue minutieuse des données expérimentales disponibles, Dancer et Franke (1987) concluent : " Il n'existe pas de phénomène hydromécanique significatif que l'on puisse qualifier d'onde propagée. Tout semble plutôt indiquer que la cochlée se comporte comme une batterie de résonateurs, plus ou moins amortis, qui seraient excités simultanément par une onde de pression transmise à la vitesse du son dans la périlymphe vestibulaire ; l'onde propagée, si elle existe, ne serait au plus qu'un épiphénomène ! " La célérité des ondes sonores est plus grande dans l'eau (1 524 m/s) que dans l'air (343 m/s) ; dans la cochlée, cependant, elle est très diminuée en raison du très petit diamètre des canalicules cochléaires (343 m/s < c < 1 524 m/s). Ils insistent aussi sur l'idée que ces résonateurs devraient être très faiblement couplés entre eux. Des mesures directes par sonde capacitive (Wilson, 1973) et par la méthode radioactive de Mössbauer (Rhode, 1971) ont montré que la courbe d'accord mécanique au niveau de la membrane basilaire est d'autant plus pointue que le niveau de stimulation sonore est faible (Khanna et Leonard, 1982). On peut en rendre compte en admettant que le couplage des résonateurs augmente avec l'amplitude des vibrations. Il y a un effet d'inhibition des cellules ciliées externes voisines de celles dont l'amplitude est meilleure. il s'agit d'une augmentation de la sélectivité par renforcement des contrastes.

Il est passé par ici, il repassera par là ?

Nous devons aussi poser quelques questions à propos du cheminement qui conduit la vibration sonore du tympan aux cellules réceptrices. Les classiques la font transiter par la chaîne des osselets dont nous avons vu qu'elle était composée du marteau, de l'enclume et de l'étrier. Il existe aussi deux muscles très actifs l'un pour l'étrier, l'autre pour le marteau (fig. 2).

Transmission par les osselets ?

Pour Von Bekesy et la plupart des physiologistes, la chaîne des osselets assure l'amplification et la transmission de la vibration tympanique à l'oreille interne qui devra en prendre livraison et la coder pour en informer le cerveau. Les mouvements du tympan entraînent le marteau, l'enclume et finalement l'étrier : les pressions reçues par la fenêtre ovale seraient amplifiées 22 fois par rapport au tympan (ce qui correspondrait à un gain de 27 décibels), d'une part en raison du mécanisme de levier attribué à la chaîne des osselets (amplification de x1.3), d'autre part à cause de la différence des surfaces (tympan 10 fois plus vaste que la fenêtre ovale) (fig. 2). Sans cette adaptation, dit-on, la transmission de l'énergie acoustique du milieu aérien au milieu liquidien de l'oreille interne se ferait avec une perte de 999/1 000 ! Un millième seulement de l'énergie source dépasserait la fenêtre ovale, ce qui représenterait une perte de 30 décibels (Burgeat, 1973, p. 46) !...
*
Tomatis fait remarquer le fait, peu encourageant pour la précédente théorie, de la présence d'une sorte de hiatus, d'espace mal serré, entre l'enclume et l'étrier qui s'articulent de manière qu'il décrit comme très lâche. Leipp (1970) énonce une contestation analogue. Un tel hiatus est-il de nature à interdire le classique cheminement du son par les osselets ? Il serait hasardeux de se prononcer de manière péremptoire, d'autant que l'interruption de la chaîne ossiculaire (entre l'enclume et l'étrier selon les expériences de Wever et coll. en 1948) entraîne une chute de 50 décibels dans l'audition ! En revanche, les anciens auteurs prétendaient que la destruction simultanée du tympan et de la chaîne des osselets, si elle conservait un étrier mobile, laissait au sujet une " audition relativement bonne " (Laurens, 1941, p. 130) ! Elle a été, depuis, évaluée à 25 décibels (Fernandez, 1958). De même, P. Josserand (1970) rappelle le phénomène de la " prothèse rétro-myringienne de Yearsley : un malade n'a plus de tympan ni d'osselets. On prend une boulette de coton imprégné de gomme arabique que l'on met au contact de la fenêtre ronde. Le malade gagne 40 décibels sur toute la gamme audible. " Ainsi, la chaîne ossiculaire n'interviendrait que pour 20 décibels ou moins !...
La théorie de la transmission par les osselets se pare de résultats expérimentaux nombreux, quoique parfois très discutables : on a, par exemple, mesuré les déplacements de la platine de l'étrier (fig. 2) (Nuttal, 1974) ; or Emile Leipp avait montré, dès 1970, le caractère illusoire d'une telle mesure. Les déplacements vibratoires perçus sont dans certains cas inférieurs au diamètre d'une molécule d'hydrogène, de sorte qu'en dehors des basses fréquences, inférieures à 500 Hz, les mouvements enregistrables sont simplement des fluctuations liées aux contractions accommodatrices des muscles de l'étrier et du marteau dans leur rôle de protection et de discrimination évoqué plus loin. Il en va peut-être autrement de la pression intra-cochléaire (Franke, 1978 - Zwislocki, 1975) dont la mesure semble en assez bon accord avec ce qu'on attend d'une transmission des pressions tympaniques par les osselets.
L'otospongiose est une maladie qui rend sourd en ankylosant la platine de l'étrier. Cette surdité est très améliorée si on enlève les osselets et qu'on les remplace par une prothèse. Ceci va au moulin de la théorie classique. Rappelons cependant que, dans ce cas, on peut aussi améliorer la fonction auditive en pratiquant un nouveau trou, obturé par une membrane, dans la paroi osseuse du canal semi-circulaire (Toupet, 1981). Ce fait me semble appuyer la fonction adaptative du système ossiculaire plus que son rôle éventuel de transmission. De même - toujours dans l'otospongiose -, la paracousie lointaine, qui exagère la sensibilité aux vibrations osseuses quelle que soit leur place dans le corps, met en évidence une transmission qui se fait sans la contribution des osselets et qui manifeste un manque d'adaptation criant !

Des mini-muscles mais ils font le maximum

Quelle que soit leur théorie de l'audition, tous les spécialistes admettent l'importante utilité du dispositif ossiculaire avec ses deux muscles (muscle de l'étrier et du marteau : fig. 6). Le muscle du marteau est tenseur du tympan et il augmente aussi la pression dans l'oreille interne. Le muscle de l'étrier jouit de propriétés inverses : il diminue la tension tympanique ainsi que la pression intra-cochléaire (Rouvière, 1932, I, 363). La tension du premier tend à protéger l'ensemble cochléaire des trop fortes variations de pression acoustique, la tension du second permet au contraire plus de mobilité du tympan et plus de variations de pression dans la cochlée. C'est dire que la "gymnastique" des muscles du marteau et de l'étrier devrait avoir pour effet de rendre le système d'écoute à la fois plus robuste (capable de se mettre à l'abri de sons trop puissants) et plus sensible.
Leur mise en tension selon les besoins produit l'augmentation du pouvoir séparateur temporel qui permet de discriminer deux sons très brefs séparés par un silence très court (Leipp, 1970), ainsi que l'atténuation des sons trop intenses (ce qui permet un élargissement de la dynamique), de sorte qu'un animal dont ces muscles ont été coupés devient plus facilement sourd à la suite d'un traumatisme sonore (Roulleau, 1964).


De quoi il faut rapprocher l'amélioration de l'audition des aigus (muscle de l'étrier), que Simmons (1964, cité par Burgeat, 1973) fait intervenir dans les phénomènes d'attention et de charge corticale. La tension du muscle de l'étrier prépare l'oreille chaque fois que nous allons nous exprimer à haute voix. Il atténue ainsi les graves liés aux voyelles et permet de rester apte à entendre ce qui se passe autour de nous quand nous nous exprimons. Par ailleurs, sa mise en tension améliore de 50 décibels l'écoute de la parole humaine lorsqu'elle est noyée dans un bruit de fond important (Borg, 1989).
En revanche, la paralysie de ce muscle entraîne une exagération globale de l'audition, telle que le moindre bruit devient assourdissant. Ceci est à mettre en regard de la théorie tomatisienne selon laquelle le premier travail auditif est de filtrer les bruits gênants de basse fréquence (par exemple le bourdonnement vasculaire, les bruits de fond, etc.).
La mise en tension du muscle du marteau permet l'amélioration de la perception des basses fréquences d'après Hughson (cité par Leipp, 1970). On ne sait déclencher la contraction de ce muscle, en clinique ORL, que par la stimulation de la cornée de l'oeil.
Des contractions différentes dans l'oreille droite par rapport à l'oreille gauche jouent un rôle dans la localisation des sources acoustiques (d'après Möller, Simmons et Legouix cités par Burgeat, 1973).
On a pu montrer que la contraction ou le relâchement de ce système est accessible à la décision volontaire chez certains sujets de manière spontanée et peut-être chez tous après entraînement (par appareil modificateur d'écoute spécialement). Leipp (1970) suppose que " la totalité des musiciens ou des gens soumis à des bruits fluctuants dans leurs activités professionnelles " en bénéficient. Ces muscles agissent comme adaptateurs d'impédance ; ils interviennent pour permettre une plus grande dynamique, protéger l'oreille des sons trop forts, et favoriser la transmission des sons très faibles : aigus (étrier) ou graves (marteau).

Leipp (1977a) et les aigus

Selon lui, les aigus (d'une fréquence supérieure à 10 kHz par exemple) ne peuvent passer efficacement par les osselets. Il rappelle que lorsque la fenêtre ovale est bloquée, l'étrier détruit, on entend moins bien mais on entend encore !
Il fait l'hypothèse d'une transmission aérienne allant du tympan à la fenêtre ronde, directement, en ébranlant l'air de l'oreille moyenne, sans intermédiaire osseux ! Il considère que l'objection basée sur la forte impédance de la fenêtre ronde, due à ce qu'elle est une interface air/eau, est seulement valable pour les fréquences moyennes ou basses mais perd sa pertinence au-delà de 10 kHz. D'autre part, la partie du tympan la plus sensible aux aigus, au-dessous du manche du marteau, est juste en face et très proche de la fenêtre ronde.
Ces observations sont reprises de manière plus détaillée et argumentée par Jahn and Santos-Sacchi (2001).

Transmission par la pyramide pétreuse ?

Tomatis (1974b) avance l'idée qu'il pourrait s'agir d'une transmission osseuse : le tympan stimulé, en mobilisant son pourtour, comme la corde du violon en fait vibrer l'âme, mettrait en branle l'os pétreux, dans lequel est logé tout le système. Cette hypothèse inattendue n'est pas sans intérêt et s'appuie sur une première constatation : la conduction osseuse existe bel et bien et se montre tout à fait efficace lorsqu'on applique un vibreur sur la peau de la mastoïde, du front, du vertex ou de toute autre partie du crâne ! Elle serait surtout performante dans les aigus (Viaud, 1967, p. 605).

Les pressions significatives mesurées sur le cadavre humain après interruption de la chaîne des osselets, pour certaines fréquences aiguës (> 4 kHz) au niveau des scalae vestibuli and tempani, suggèrent qu’il existe une autre voie de transmission que les osselets : probablement une voie de conduction osseuse (Nakajima et al., 2009), ce qui avait été suspecté dès 1967 (Viaud et al., 1967: 605; Tomatis, 1974b ; cf. aussi Leipp, 1977).
référence : Nakajima Hideko Heidi, Dong Wei, Olson Elizabeth S., Merchant Saumil N., Ravicz Michael E., and Rosowski John J., Differential Intracochlear Sound Pressure Measurements in Normal Human Temporal Bones, J Assoc Res Otolaryngol. 2009 March; 10(1): 23–36

Est-ce le piston qui fait marcher la machine ?

Nous verrons (p. 36) que l'écoute se fait grâce aux cils des cellules cochléaires. Ces cils sont orientés, de sorte que la cellule ne réagit qu'à la composante du mouvement qui est parallèle à sa direction caractéristique propre !
Cette directivité semble sans utilité ; à moins de contester le schéma de Von Bekesy, non seulement au niveau de la seconde hypothèse (dont nous venons de voir combien elle est devenue fragile), mais aussi en ce qui concerne la première et la mieux reçue : la transmission des vibrations par la chaîne des osselets agissant comme un piston (Guinan, 1967 ; cité par Burgeat, 1973) pour déclencher les phénomènes vibratoires intra-cochléaires.
Il est important de prendre ici en considération la complexité des structures anatomo-histologiques de la cochlée. On commence à envisager que la stimulation sonore passerait à la fois par l'onde de Von Békésy dans l'axe de la rampe vestibulaire et par des phénomènes de résonance locale, selon une direction radiaire, mettant en jeu la géométrie de la membrane basilaire comme les phénomènes actifs propres aux cellules ciliées externes. Ces petites unités musculaires se contracteraient au maximum au passage de la vague de Békésy et augmenterait dans de très grandes proportions la perception de la fréquence correspondante. Ceci, tout en inhibant l'activité des cellules ciliées externes voisines (d'où une très puissante augmentation de la sélectivité). Ce phénomène n'est peut-être pas lui même indépendant de mécanismes plus exotiques, telle la mise en jeu des propriétés piézo-électriques de l'os; ici, de l'os temporal (cochléaire) dont on sait qu'il est le plus (ou un des plus) dense du squelette.
Si on refuse au piston ossiculaire son rôle d'amplification et de transmission, on le regardera comme un simple dispositif de régulation : le son cheminerait par la boîte crânienne (via la pyramide pétreuse) et non par les osselets qui auraient plutôt un rôle d'accommodation ; les vibrations du labyrinthe déclencheraient des phénomènes localisés, en raison de la géométrie de la cochlée, de telle sorte qu'il y aurait stimulation transversale des cellules réceptrices et formation secondaire de tourbillons liquidiens. Cette ingénieuse construction est affaiblie, au moins dans son versant critique, par l'étude expérimentale directe à l'aide d'une sonde à pression miniature : Dancer et Franke (1979) ont ainsi démontré l'existence de variations initiales de pression, en conformité avec la théorie classique. Il se pourrait cependant que ces variations traduisent l'accommodation permanente du système pour éviter un éblouissement par les sons de basse fréquence.

La conduction osseuse

Il est remarquable que la théorie commune méprise l'écoute par conduction osseuse qu'elle a beaucoup de mal à expliquer clairement. C'est ainsi qu'on déclarait aux étudiants (Burgeat, 1973) que la boîte crânienne connaît deux modes vibratoires : l'un par translation, l'autre par compression.
  • Dans le premier cas, la tête oscille en bloc sous l'effet des sons graves (au-dessous de 1 500 Hz environ), cependant que les osselets, " suspendus dans leur cavité d'une manière assez lâche ", resteront plus ou moins inertes : ainsi se reproduirait le fameux mouvement de piston de l'étrier par rapport au liquide cochléaire, dont on assure qu'il est le véritable stimulus auditif.
  • Dans la deuxième éventualité, le crâne se dilate et se contracte tour à tour (sons au-dessus de 1 500 Hz)... Lors de la compression des cavités osseuses, on aurait une protrusion (gonflement) de la fenêtre ronde et de la fenêtre ovale. Sauf que pour cette dernière, la présence de l'étrier en affaiblirait l'intensité, ce qui engendrerait une différence entre elles, reproduisant encore une fois les mouvements de piston !...
Dans les deux cas, les sons (aigus surtout), adressés par vibreur, deviendraient impossibles à localiser et les auteurs font état d'une pseudo-constatation selon laquelle il en serait bien ainsi. Hirsh (1956, p. 286) renchérit : " Il est pratiquement inconcevable que l'on puisse exciter une seule cochlée quand on applique un corps vibrant sur le crâne " ! C'est une position controuvée, en désaccord avec une observation sans préjugé (Legouix cité par Burgeat, 1973, p. 95). Il est vrai que les sons proposés en conduction osseuse entraînent plus d'erreurs de localisation qu'en conduction aérienne, mais la qualité de cette perception est souvent très convenable. Elle est, de plus, amendable par l'entraînement !
Pour qu'il y ait localisation, il faut qu'intervienne entre les deux cochlées, pour les aigus une différence d'intensité, pour les graves une différence de phase. Il est vrai que l'os vivant, étant un milieu de structure intermédiaire, à mi-chemin entre un état solide et un état liquide, le son y cheminera beaucoup plus vite que dans l'air. Les différences entre les deux côtés représenteront un temps plus court (pour la phase). L'amortissement, pour les aigus est suffisant pour être détecté, grâce non seulement à la distance parcourue qui sera différente, mais aussi aux variations d'impédance liées aux jonctions entre les os du crâne. Rappelons que la précision de localisation, en conduction aérienne, peut atteindre trois degrés (et même moins). Le calcul montre qu'elle est alors assurée par des différences de temps de l'ordre de 0,00001 seconde (Viaud, 1967, t. II, p. 608) !

Le système des cavités pneumatiques intra-pétreuses (notamment mastoïdiennes)

Il est, par ailleurs, curieux d'observer que les physiologistes, s'ils décrivent avec minutie les différents éléments de l'appareil auditif, négligent de s'intéresser au rôle de l'un d'entre eux : les cellules mastoïdiennes qui semblent n'être là que pour inquiéter les ORL (la fameuse " mastoïdite "...).
Leur situation en arrière de la caisse du tympan, leur forme, les désignent pourtant comme des résonateurs dont on sait l'importance en acoustique. On doit supposer qu'elles sont utiles à l'audition : par analogie avec les cavités résonantes des instruments de musique dans lesquels la source vibrante est couplée à des cavités propres à lui donner une certaine ampleur. Ce rôle de résonateur serait de peu d'usage dans la théorie classique : on n'en voit l'importance que pour la conduction osseuse (et la conduction aérienne intra-tympanique, si E. Leipp a raison).
Onchi (cité par Aubry, 1968) a réalisé des expériences sur des cadavres. Elles démontrent que ce système de cavités facilite les sons au-dessous de 1 kHz et les affaiblit entre 1.5 et 4 kHz. Ainsi, les fréquences " conversationnelles " sont très amoindries : est-ce une façon d'atténuer la conduction osseuse par rapport à la conduction aérienne, notamment quand le sujet s'exprime vocalement (fig. 6) ?

Bone Conducted Sonic and Ultrasonic Signals in Hearing Assessment
N.Schiopu, H.Kunov, P.Madsen (Institute of Biomedical Engineering, University of Toronto)
Une prothèse auditive ou la chirurgie améliorent souvent la qualité de l'écoute chez les patients présentant des troubles auditifs. Habituellement, on utilise une prothèse auditive en conduction aérienne. Un tel dispositif amplifie les vibrations de l'air et les transmet à l'oreille externe du patient.
Dans certains cas (comme les malformations congénitales du canal auditif ou les maladie chroniques de l'oreille moyenne), si la chirurgie reconstructrice échoue ou ne peut pas être exécutée, une prothèse auditive en conduction osseuse sera employée. Dans ce cas, le dispositif conventionnel est appliqué à la mastoïde (la structure osseuse située derrière l'oreille) avec une force constante afin de réduire au minimum l'atténuation du signal due à la peau et aux tissus mous. En raison de la pression exercée par ce dispositif, on peut observer une irritation de la peau avec la gène qui en résulte. En outre, la prothèse auditive est inconfortable et son rendement est faible à cause de l'atténuation du signal par la peau et les tissus mous.
La prothèse auditive directe en conduction osseuse est fixée à une vis en titane implantée dans la mastoïde. Cette méthode d'ancrage permet une pénétration sans contre-réaction et un contact rigide avec le massif osseux mastoïdien. Selon un sondage auprès des patients, ce type de dispositif donne une meilleure qualité de son, est plus confortable, et plus esthétique. En raison de l'atténuation réduite du signal, des niveaux plus faibles du signal de sortie sont suffisant pour fournir une qualité similaire de la perception.[ Hakansson, 1985]
Le niveau du signal de sortie de la prothèse en conduction osseuse doit être calibré et les possibilités d'entendre en conduction osseuse par le patient doivent être évaluées. On utilise généralement une mastoïde artificielle pour calibrer le niveau du signal de sortie de cette prothèse. On simule ainsi l'atténuation due au passage par la peau et les tissus mous dans la gamme des fréquences conventionnelles (250-4000Hz) ainsi que l'impédance mécanique d'une tête humaine "moyenne". Son signal de sortie peut être mesuré grâce à la connexion d'un sonomètre. Pour évaluer le seuil d'audition du patient en conduction osseuse, on fournit au sujet des signaux audio à l'aide d'un dispositif piézoélectrique ou magnétique (vibrateur osseux) placé sur le front ou sur une des mastoïdes. Comme l'audiométrie conventionnelle, cette méthode de recherche peut permettre de différencier une surdité de conduction d'une surdité de perception.
La conduction osseuse électrique utilise deux électrodes recouvertes de mylar pour fournir des signaux modulés en amplitude à la tête du patient. Les électrodes peuvent être placées dans diverses positions c.-à-d. une sur chaque mastoïde ou bien une sur le front et l'autre sur un bras. Un signal porteur de 60kHz est modulé par le signal audio et envoyé aux électrodes. Le volume du signal perçu est proportionnel à l'amplitude du courant injecté, puisque le patient est capacitivement couplé à l'instrument [Tonndorf, 1984].
L'existence d'une perception sonore résultant de stimuli ultrasoniques en conduction osseuse dans les fréquences allant de 20 kHz jusqu'à 100 kHz a été démontrée déjà dans les années cinquante. La hauteur du signal perçu est décrite comme allant de 11 kHz et 13 kHz, avec une courbe d'audibilité en conduction osseuse s'étendant jusqu'à 100 kHz pour des sujets otologiquement et audiométriquement normaux. Les tests auditifs dans les hautes fréquences peuvent avoir un avenir dans la détection précoce des dommages de cellules ciliées par utilisation de drogues ototoxiques aussi bien que pour distinguer divers types de désordre auditif [Abramovich, 1978].
On a montré [Lenhardt, 1991] que des signaux vocaux modulés en amplitude par la parole dans la gamme de fréquence proche-ultrasonique et fournis par un vibrateur osseux peuvent être perçus, même par des sujets à l'audition déficiente. En tant qu'élément d'une étude en cours, le volume perçu des signaux ultrasoniques fournis à un sujet par vibrateur a été calculé pour des signaux dans la gamme de fréquence 20 kHz à 52 kHz aux niveaux d'entrée du vibrateur de 10, de 15 et de 20 Vpp (voltage crête à crête). Le volume perçu était évalué sur une échelle de 0 à 10 quand le vibrateur a été placé soit sur le front du sujet soit sur chaque mastoïde: ce volume perçu croit de manière monotone en fonction de l'amplitude du signal d'entrée au niveau du vibrateur. En tous les cas un niveau de volume maximal a été obtenu à des fréquences test centrées sur 41 kHz, avec une asymétrie marquée entre l'oreille droite et l'oreille gauche, probablement en raison de seuils d'audition différents. On envisage de poursuivre cette recherche afin d'évaluer la faisabilité pratique d'une utilisation de la stimulation auditive ultrasonique.
Hearing aid or surgical procedures often improve the quality of hearing in patients with auditory disorders. Usually, an air conduction hearing aid is used. This device receives and amplifies airborne signals and transmits them into the patient's external ear canal.

In some cases such as congenital malformations of the external ear canal and the middle ear or chronic middle ear disease, if reconstructive surgery fails or cannot be performed, a bone conduction hearing aid is used. The conventional bone conduction device is applied to the mastoid process (the bony structure behind the ear) with a constant force in order to minimize signal attenuation across the skin and soft tissue. Because of the pressure applied by the device skin irritation and discomfort can result. In addition, the hearing aid is uncomfortable to wear and has poor performance due to signal attenuation in the skin and soft tissue.

The direct bone conduction hearing aid is attached to a titanium screw implanted in the bone of the mastoid process. This anchoring method provides a reaction-free penetration and a rigid contact with the mastoid bone. Based on a patients' survey, this type of device gives better sound quality, is more comfortable to wear, and has better aesthetics. Due to reduced signal attenuation, lower output signal levels are needed to provide a similar perception quality [ Hakansson, 1985].
A bone conduction hearing aid's output signal level must be calibrated and the patient's bone-conducted hearing capability must be assessed. The artificial mastoid is the instrument widely used to calibrate the output signal level of the bone conduction hearing aid. It simulates the attenuation of the skin and soft tissue in the conventional frequency range (250-4000Hz) and the mechanical impedance of the average human head. Its output signal can be fed to a sound level meter and measured in force level units. To assess the patient's bone-conducted hearing threshold level, audio signals are delivered to the subject by means of a piezoelectric or magnetic device (bone vibrator) placed on the forehead or one of the mastoids. Together with conventional audiometry, this investigation method can also be used to discern between conductive and sensorineural hearing loss.

Electric bone conduction uses two mylar-coated electrodes to deliver amplitude- modulated signals to the patient's head. The electrodes can be placed in various positions i.e. on the two mastoid processes or on the forehead and one arm. A 60kHz carrier signal is modulated by the audio signal and then sent to the electrodes. The loudness of the perceived signal is proportional to the amplitude of the injected current, since the patient is capacitively coupled to the instrument [Tonndorf, 1984].
The existence of sound perception due to ultrasonic bone-conducted stimuli in the 20 to 100kHz frequency range has been demonstrated as early as the 1950's. The pitch of the perceived signal is described as being between 11 and 13kHz, with a bone conduction audibility curve ranging up to 100kHz on otologically and audiometrically normal subjects. High-frequency hearing tests may have potential in early detection of hair cell damage due to the use of ototoxic drugs as well as in discriminating between various types of hearing disorders [Abramovich, 1978].
More recently [Lenhardt, 1991], it has been shown that speech amplitude-modulated signals in the near-ultrasonic frequency range and delivered through a bone vibrator can be perceived, even by hearing impaired subjects. As part of an ongoing study at the Institute, the perceived loudness of ultrasonic signals delivered to one subject through a custom-made bone vibrator has been derived for signals in the frequency range 20 to 52kHz at bone vibrator input levels of 10, 15 and 20 Vpp (Vpp = peak-to-peak voltage). The perceived loudness was rated on a scale from 0 to 10 when the bone vibrator was placed on the subject's forehead and on each mastoid and it varied monotonically with the amplitude of the input signal to the bone vibrator. In all cases a peak loudness level was obtained at test frequencies centered on 41kHz, with a marked asymmetry between the right and left ear, probably due to different hearing threshold level of the subject. Further investigation will be undertaken in order to assess the feasibility of otoacoustic emission stimulation using ultrasonic excitatory signals.
 
References:

1- B. Hakansson, A.Tjellstrom, U.Rosenhall: 'Acceleration Levels at Hearing Threshold with Direct Bone Conduction Versus Conventional Bone Conduction', Acta Otolaryngology, 100:240-52, 1985
2 - J.Tonndorf, B.Kurman: 'High Frequency Audiometry', Annals of Otology, Rhinology & Laryngology, 93:576-82, 1984
3 - S.J.Abramovich: 'Auditory Perception of Ultrasound in Patients with Sensorineural and Conductive Hearing Loss', Journal of Laryngology & Otology, 92(10):861-7, 1978
4 - M.L.Lenhardt, R.Skellet, P.Wang, A.M.Clarke: 'Human Ultrasonic Speech Perception', Science, 252:82-5, 1991


Dans le cas ordinaire du sujet " bien écoutant ", la perception en conduction osseuse est tout à fait comparable à l'aérienne ; à ceci près que le vibreur, pour communiquer un ébranlement suffisant doit être appliqué avec des amplitudes supérieures : mais il existe entre l'appareil et l'os des tissus mous qui gênent leur solidarisation par simple contiguïté... Par ailleurs, le couplage entre le tympan et le sillon osseux dans lequel il s'encastre pourrait être tout à fait performant, à l'image de la peau de tambour sur sa caisse. Un argument de poids alimente cette thèse : l'acuité auditive est détériorée non seulement lorsqu'on observe une lésion de la chaîne des osselets, mais aussi, quoique différemment, lors des maladies affectant la structure de l'os, spécialement du " rocher " (Henkin, 1972). A notre charge de montrer qu'une telle détérioration n'affecte pas suffisamment les osselets eux-mêmes pour que les modifications perceptives observées ne puissent s'expliquer à ce seul niveau !
Des chercheurs toulousains (Bruno Piérot) ont proposé avec succès un système de communication sonore dans l'eau, utilisant la conduction osseuse. Beethoven avait déjà utilisé ce principe : il glissait entre ses machoires une planchette reliée aux cordes de son piano dont il pouvait ainsi, malgré sa surdité, percevoir les sons. Le son se propage plus vite dans l'eau que dans l'air mais le tympan humain n'est pas adapté à transmettre à la cochlée ces vibrations aquatiques. On peut utiliser un signal électrique - que transmet convenablement l'eau salée sur une distance de quelques dizaines de mètres - pour véhiculer le son et le retransformer en vibration à l'arrivée, vibration utilisée au niveau des machoires... Les dauphins utilisent une écoute via leur machoire inférieure et sans besoin d'électricité ! (cf.National Geographic, 3.2, N°11, Aout 2000)
Une firme japonaise propose des appareils similaires "VOICEDUCER bone conduction Headgear HG17 series". Les vibreurs sont placés au niveau des tempes et le microphone capteur de vibrations est placé au sommet du crâne. On obtient ainsi une communication claire, notamment en ambiance très bruyante, avec l'intérêt supplémentaire de pouvoir utiliser des bouchons d'oreille afin de s'abstraire du vacarme de l'environnement.

Une machine à faire du silence ?

Le bruit d'une respiration normale (Bosser, 1985), proportionnel au débit de l'air, n'est pas négligeable, notamment au niveau du thorax et de la glotte où il est aussi important à l'expiration qu'à l'inspiration. Sa fréquence s'étend des graves jusqu'à 1 kHz avec un maximum vers 230-240 Hz (fréquence de résonance du thorax) où il peut atteindre 50 dB !
Fig. 6. Cellules mastoïdes (coupe frontale).

Dessin extrait de P. Tillaux (1903) / apophyse mastoïde ; P peau ; / LS sinus latéral ; R rocher / M muscle auriculaire postérieur ;

Il faut remarquer l'étroite proximité de l'artère carotide (Testut, 1905, p. 312) et de la cochlée : le cheminement de cette artère dans l'os ne saurait se faire sans l'ébranler au rythme des battements cardiaques ; or le système auditif nous épargne ce vacarme et Tomatis semble fondé à dire que l'oreille est au moins autant une machine à faire du silence qu'un capteur sonore.
Rappelons la paracousie lointaine qui permet aux malades atteints d'otospongiose d'entendre le diapason qu'on applique... à leur rotule (test de Bonnier) ! C'est dire combien la chaîne des osselets est importante pour affaiblir les bruits internes ou externes gênants, spécialement les fréquences les plus graves qui ont un effet masquant. Les mouvements de piston de l'étrier, qui existent bien, pourraient constituer un adaptateur d'impédance et se laisser comparer au diaphragme de l'iris relativement à la quantité de lumière. A moins qu'on n'envisage une compétition fonctionnelle entre écoute aérienne véhiculée par le piston ossiculaire et écoute osseuse transmise de tout point osseux du corps à la pyramide pétreuse et par là, à la cochlée. Cette compétition pourrait avoir plusieurs aspects et concerner notamment la perception intériorisée par rapport à la perception visant les sons externes.

Deux voies ?

Quant à nous, forts d'une longue pratique de l'audiométrie archi-répétitive chez chacun de nos clients, nous croyons savoir que les distorsions en courbe osseuse et aérienne peuvent être indépendantes, ce qui implique qu'au moins en un maillon de la chaîne qui va du son aux fibres réceptrices les mécanismes de transmission osseuse et aérienne soient différents. Il n'est pas suffisant, pour s'en expliquer, de faire appel aux mécanismes régulateurs de l'oreille moyenne seule : en effet, il peut s'agir de variations importantes touchant des fréquences proches. On dirait qu'il existe un contrôle cochléaire ou supra-cochléaire différencié selon la provenance du son : quand le tympan est porteur d'une stimulation importante et en tout cas supérieure aux vibrations osseuses, un premier type de contrôle interviendrait aboutissant à la courbe d'écoute aérienne ; quand l'inverse a lieu (stimulation par vibreur, émission vocale, etc.), un second type de contrôle prendrait le relais, rendant compte de la courbe d'écoute osseuse. Hypothèse audacieuse, mais à laquelle je ne vois pas comment échapper...
Ainsi lorsque l'auditeur d'autrui se transforme en locuteur (et en auditeur de soi), il passerait de l'écoute aérienne à l'écoute osseuse. Cela implique deux façons distinctes, voire très divergentes, de traiter le signal au niveau cochléaire et supra-cochléaire et constituerait une explication du phénomène de l'enregistrement de soi non reconnu : le sujet éprouve sa propre voix enregistrée fidèlement comme très différente de celle qu'il a cru émettre... Le même pattern sonore a subi deux traitements divergents qui le rendent méconnaissable pour le locuteur, quoique parfaitement reproduit aux oreilles de tous les autres.
En utilisant un vibreur capable d'une suffisante fidélité, on devrait pouvoir administrer la contre-épreuve, à savoir : faire écouter l'enregistrement du locuteur par conduction osseuse ; il devrait alors trouver l'enregistrement beaucoup mieux reconnaissable qu'en écoute aérienne.
Examinons dans cette perspective le très classique test de Weber (ou celui, plus sophistiqué de Sullivan). Son mécanisme est mal élucidé parce que mal élucidable dans la théorie békésienne ! Il s'agit d'appliquer un diapason excité au sommet du crâne, très exactement au milieu du méridien des oreilles. Ce faisant, le sujet présentant une hypoacousie unilatérale entend soit du côté sain (problème cochléaire), soit du côté malade (atteinte de l'oreille moyenne). Ce deuxième cas est réalisé aussi lorsque le conduit auditif est bouché par du cérumen ou même avec le doigt... Ce phénomène concerne les basses fréquences inférieures à 2 500 Hz environ. Pour les aigus il disparaît.
Ici, comme dans le test de Bonnier (cf. plus haut), tout se passe comme si une oreille moyenne moins ou pas efficace entraînait une meilleure performance de l'écoute osseuse : cela peut être dû à l'interférence des bruits aériens survenant du côté sain, mais on peut également invoquer l'hypothèse que nous avons formulée il y a quelques instants d'un antagonisme relatif entre écoute aérienne et écoute osseuse. A ce moulin va l'eau des bruissements qu'on entend là où il n'y a plus de bruit : en chambre " sourde ". L'oreille n'est pas bouchée mais ne reçoit aucun son " aérien " ; alors apparaît cet acouphène si particulier, si étonnant, ce bruit de souffle, qui vient sans doute du corps, par l'os... Ou bien doit-on avec Alfred Tomatis admettre que l'oreille moyenne est surtout un instrument " à faire du silence " sur les bruits internes, en contractant par exemple le muscle de l'étrier, ce qui éteindrait les bruits corporels et favoriserait les aigus ?... Barany (1938) pense, lui, que c'est l'appareil auditif pris dans son ensemble qui tend à minimiser les effets de la conduction osseuse : mastication, respiration, circulation du sang, etc. Bekesy a pu montrer que nous ne percevons pas nos propres voix avec l'intensité (intolérable) qu'elles devraient avoir par le cumul de la conduction osseuse et de la conduction aérienne (Hirsh, 1956, p. 285).
L'expression " crier comme un sourd " se réfère à une atténuation de l'écoute aérienne, c'est le cas du sujet qui tient à se faire entendre de l'extérieur et contrôle l'amplitude de sa propre voix par le canal extérieur (attitude extravertie).
L'interlocuteur s'insurge : " Je t'entends ! Ne crie pas si fort ! " Au contraire, celui qui a une " voix sourde ", parle " entre ses dents ", comme s'il ne parlait qu'à lui-même. De fait il ne prend conscience de son trouble que s'il prête attention aux incessantes demandes qu'il reçoit de hausser le ton (attitude introvertie).

Perspectives de recherche

Il conviendrait de vérifier très soigneusement l'existence et la stabilité à moyen terme de courbes hectiques divergentes en conduction osseuse et en conduction aérienne. Si cette recherche s'avérait positive, la suggestion faite ici d'un double traitement de l'information en fonction de la voie prédominante de transmission prendrait beaucoup de poids...
Qu'il y ait deux voies demande à peine démonstration et déjà Von Békésy a pu montrer qu'il est loisible de supprimer l'audition d'une fréquence donnée par voie osseuse et aérienne de manière distincts. Il suffit pour les faire taire toutes deux de modifier convenablement (en tâtonnant) l'amplitude et la phase d'un des deux canaux...

Des cils sourds !

Le canal cochléaire comporte (fig. 4) des cellules ciliées internes (3 500 formant une seule rangée) et des cellules ciliées externes (12 000 disposées sur trois ou quatre rangs). Ces deux types de cellules se sont d'autant plus différenciées qu'on s'élevait dans l'évolution des espèces.
Les cellules ciliées de mammifère commencent déjà à réagir alors que l'extrémité du pinceau de cils se déplace de moins de 100 picomètres (soit 0,000 000 000 1 m, ce qui est à peine le diamètre de certains atomes !) (Hudspeth, 1983). Les souris dépourvues de cellules ciliées internes sont totalement sourdes, même si elles conservent leurs cellules ciliées externes (Deol, 1979). Ce sont donc les premières qui sont directement réceptrices.
L'altération des cellules ciliées externes, même en conservant de bonnes cellules ciliées internes, engendre une écoute grossière, mal différenciée, peu sélective et annonce bien souvent la surdité. La membrane basilaire qui les supporte ne démontre sa parfaite sensibilité par résonance que si les cellules ciliées externes marchent bien. Elles sont donc nécessaires et il faut leur accorder, avec Rémy Pujol (1987), un rôle de préampli (comme dans une chaîne hi-fi).

Il a des bourdonnements d'oreille : elle ne peut dormir !



Les bruits (acouphènes) dont se plaignent certains patients, assiégés en permanence et sans grand moyen de défense, sont parfois des bruits réels (pouvant dans un cas atteindre 60 dB SPL). L'oreille est non seulement un récepteur, mais aussi un générateur de sons : on parle d'" oto-émissions acoustiques spontanées ".
Kemp (1978) généralise ce résultat. Il a montré que si l'on envoie un son dans l'oreille, celle-ci renvoie une sorte d'écho : elle reproduit un son identique, très rapidement ; ce deuxième son est parfaitement objectif et enregistrable ! Il s'agit alors d'" oto-émission acoustique provoquée ".
Cette réponse existe déjà pour des stimulations en dessous du seuil d'audition (elles peuvent être inférieures de 10 dB à ce seuil, c'est-à-dire qu'elles sont beaucoup plus sensibles). Cette constatation explique peut-être la possibilité, dont nous reparlerons, d'améliorer l'audition par l'entraînement (sous couvert d'un appareil modificateur d'écoute convenable).


image de Turk et Degroot
Léonard (3); c'est un quoi déjà ?
Dargaud-Lombard, Bruxelles
p.10, ligne 4 G - 2010

Rôle des externes

Les cellules ciliées externes ont un rôle d'amplification ou, au contraire, d'amortissement selon les sons qui leur parviennent. Elles font vibrer activement (Wilson, 1983) tous leurs cils lorsque le plus long d'entre eux se trouve déformé. Cette vibration est d'une fréquence particulière suivant le lieu de la cochlée où l'on se place. Si la fréquence du son extérieur et celle des cils coïncide, il y a résonance entre les deux et très forte amplification. Au contraire, lorsque la fréquence propre de la cellule ciliée externe diffère de celle du son, en particulier si ce dernier est plus grave, un amortissement se produit.
Le système ne réagit, en chaque point, qu'à la " fréquence propre " de ce lieu. On dit qu'il est sélectif. C'est ce qui nous permet de distinguer les sons les uns des autres, de pouvoir les analyser, leur donner un sens, etc. Sans cela, nous entendrions seulement du bruit, quel que soit le son parvenu à notre oreille. Des phénomènes électro-physiologique renforceront encore la distinction entre fréquences voisines. En effet, les cellules ciliées externes réagissent aux déformations dont elles sont le siège, du fait des sons, par l'émission à leur base d'un potentiel électrique. Il est dénommé " potentiel microphonique " car il suffit de l'amplifier et de l'envoyer à un haut-parleur pour entendre ce que l'oreille reçoit ! On pense qu'il peut relayer l'excitation mécanique, ou au moins s'ajouter à elle, pour informer les cellules ciliées internes. La cochlée réunirait donc un récepteur acoustique et un récepteur électrique.
Les cellules externes reçoivent beaucoup de fibres en provenance du cerveau. Ces fibres pourraient avoir le rôle de renforcer ou d'affaiblir la sensibilité pour telle ou telle fréquence : l'affaiblir en cas de stimulation répétitive non informative (habituation), en cas de stimulation excessive (saturation) ; la renforcer en cas d'événement sonore imprévu, faible en intensité ou sous l'effet d'une attention aiguisée, pour détecter un pattern précis correspondant à un désir ou une crainte (le chien dresse l'oreille quand son maître approche !). Il ne s'agit pas toujours d'attention volontaire. Un bruit insignifiant pour la conscience peut avoir du poids pour les attentes inconscientes, et submerger la plus farouche des envies de ne pas entendre. Réciproquement, " il n'est pire sourd... "
Par ailleurs, les oto-émissions de l'oreille droite diffèrent de celles de l'oreille gauche, ce qui nous permet d'envisager une spécialisation dans leurs fonctions et leurs attentes.

Rôle des internes

Les cellules réceptrices du système nerveux sont donc les cellules ciliées internes : quand aucun son n'intervient, c'est selon un rythme assez lent, et apparemment au hasard, qu'elles émettent leurs décharges excitatrices.
Si un événement vibratoire proche de leur fréquence d'accord surgit, les cellules réceptrices (cellules ciliées internes) répondent par une flambée d'impulsions dont le rythme décroît si la stimulation se prolonge : on dit qu'elles s'y adaptent. Le silence revenu, les excitations disparaissent tout à fait pour reprendre, peu à peu, leur rythme de repos (quelques rares impulsions survenant au hasard). Dans les basses fréquences, la décharge des fibres suit assez bien le rythme du son : pour un hertz, une impulsion nerveuse ; cela n'est plus possible au-delà de 2 000 hertz et un codage prend le relais.
Si, au lieu de considérer les neurones isolés, nous enregistrons ce qui se passe dans l'ensemble du nerf, nous obtenons un potentiel d'action composite : ce sont les cellules chargées de recevoir les aigus qui contribuent le plus à sa formation, montrant, dès ce stade, leur importance... C'est aussi du côté des aigus que la sélectivité_ est maximum : une fibre donnée ne réagit à aucun des sons plus élevés que sa fréquence propre. Elle réagit - quoique de manière atténuée - aux sons plus graves.
Les fibres provenant d'une même région restent voisines dans leur voyage, si bien que le nerf montre une organisation " tonotopique " qui persistera aux étages supérieurs et jusque dans le cortex (cf. plus loin le tableau Tonotopie).

Mécanismes de rétrocontrôle

Nous avons brièvement évoqué les phénomènes régulateurs liés au fonctionnement des muscles de l'oreille moyenne. Ces formations minuscules manipulant des os lilliputiens revêtent une très grande importance. Non seulement ils nous évitent certaines lésions par traumatisme sonore, mais encore ils permettent une adaptation d'impédance, une " visée " grossière du son, l'un se tendant à l'écoute des graves, l'autre à celle des aigus.
Ce dispositif de focalisation sur certaines qualités du son n'est pas isolé : il existe des mécanismes centraux dont les plus complexes nous sont accessibles par la recherche psychologique et psychanalytique : mots qu'on n'entend pas, lapsus auditu, etc. D'autres phénomènes de contrôle sensoriel, plus simples, ont été mis en évidence par la neurophysiologie (comme les illusions sonores perceptives). Enfin et surtout, nous devons insister sur l'existence, maintenant bien établie, de mécanismes beaucoup plus fins. Notre cerveau sensibilise la cochlée à tel ou tel ensemble sonore, suit son évolution dans le temps, atténue les fréquences qui pourraient le masquer. Ces commandes arrivent à la cochlée par les fibres efférentes de Rasmussen_.
Ces actions efférentes se font, pour l'essentiel, par le biais des contractions actives des cellules ciliées externes. Comme il s'agit de formations contractiles, il n'est pas absurde d'imaginer qu'elles soient prises dans un feed-back, comparable à la boucle gamma_ qui prend en charge le " tonus musculaire ". Il existerait alors un " tonus de l'écoute ", d'où les variations de performance audiométrique selon l'heure de la journée ou le degré d'éveil. Les potentiels évoqués auditifs (ondes cérébrales enregistrées au cours d'une stimulation sonore répétitive) sont très modifiés par le sommeil : quant à leur latence et quant à leur forme. S'expliquerait de la même façon certaines constatations quotidiennes ; par exemple, les variations de l'intensité et du timbre des sons, perçus à l'assoupissement, devant la télé ou face à l'orateur.
On sait, depuis les travaux de Hoff et Silbermann (Gutton, 1967) sur des blessés crâniens (le cerveau étant insensible, certaines opérations neurochirurgicales peuvent se dérouler avec une simple anesthésie locale), que certaines excitations du cortex temporal peuvent conduire à une plus grande sensibilité de l'écoute (hyperacousie relative) ! C'est dire que les centres nerveux pilotent, pour les améliorer ou les affaiblir, les performances cochléaires.
Rappelons notre hypothèse " des deux voies " pour dire que la distinction des sons " osseux " et des sons " aériens " pourrait se faire selon le modèle suivant : les vibrations osseuses stimulent directement les cellules ciliées internes proches justement de la lame osseuse du limaçon. Les événements " aériens " bénéficieraient du prétraitement qu'on attribue aux cellules ciliées externes et à leur activité de type musculaire, avant d'être enregistrés à leur tour par les cellules ciliées internes. Ceci rejoindrait une des théories du codage des intensités qui envisage " deux systèmes transducteurs commandant deux voies à dynamique différente " : l'une implique les cellules ciliées externes et coderait les intensités de 0 dB à 90 dB, l'autre mettrait en jeu uniquement les cellules ciliées internes et permettrait les sensations de 90 à 120 dB (Burgeat, 1973, p. 86).

La cochlée : une usine chimique

Le message auditif (cellules ciliées internes / fibres nerveuses) utiliserait le glutamate ou un corps analogue. Ce message est contrôlé par des enképhalines et du GABA sécrétés par le système efférent latéral.
Le système de préamplification est surtout géré par le système efférent médian qui lui envoie de l'acétylcholine (se montrant en cela identique aux synapses des muscles striés). Leur inhibition se fait mieux par anesthésie à l'uréthane. On peut conclure de ces données une " influence certaine du système nerveux central " sur les mécanismes actifs (oto-émissions) (Robertson, 1985).
On trouvera ici une magnifique synthèse des données actuelles sur le fonctionnement cochléaire.

Les formations nerveuses sous-corticales

Je crois inutile et fastidieux de développer ici toute l'architecture anatomique et histologique de ces formations extrêmement complexes (cf. fig. 7). Elles permettent une analyse très poussée du son perçu : quant à sa provenance (par comparaison de l'intensité pour les hautes fréquences et de la phase pour les basses fréquences), quant à sa nature (par analyse des composants fréquentiels et de leurs amplitudes respectives), quant à sa dynamique (modulation de fréquence, modulation d'amplitude). On y a même découvert certains détecteurs phonétiques (Keidel, 1974).


Fig. 7. Aspect schématique des voies cochléaires centrales.
voir aussi =>
1. Corps genouillé interne ; 2. tubercule quadrijumeau postérieur ou colliculus inférieur ; 3. zone bulbo-protubérantielle ; 4. cochlée ; 5. projections temporales.

Il existerait deux entités fonctionnelles dès le noyau cochléaire : la région ventrale servirait surtout à la localisation spatiale, la région dorsale permettant plutôt de repérer des " formes acoustiques " (Buser, 1987, p. 305). On pourrait bien sûr retrouver ces deux types d'activité dans les formations supérieures et jusque dans le cortex. Cette division du travail rappelle ce qui se passe au niveau des autres sens et jusque dans l'activité complémentaire de nos deux hémisphères (cf. chap. 6).
C'est au niveau du complexe olivaire supérieur (fig. 7) que les informations en provenance de l'oreille droite et de l'oreille gauche commencent à s'échanger. Certaines cellules font la somme des influx provenant des deux oreilles. Ainsi sont perçus des sons qu'une oreille seule n'entendrait pas_ (Viaud, 1967). D'autres font la différence du son venant des deux côtés. Le côté le plus fort est déclaré vainqueur : c'est de ce côté-là que se trouve la source du bruit perçu. C'est aussi dans cette région (bras du tubercule quadrijumeau postérieur ou colliculus inférieur) que se fait l'appréciation des intensités mais surtout la discrimination tonale (la section de cette zone enlève toute possibilité de reconnaître si deux sons sont de hauteur égale ou différente et dans quel sens se marque cette différence). Au niveau du colliculus inférieur (qu'on appelle aussi tubercules quadrijumeaux postérieurs, fig. 7), on trouve des " cellules à délai " qui répondent d'autant plus fortement qu'un certain délai, bien précis, existe entre les stimulations venant de droite et celles venant de gauche. Nouvel atout pour situer la source...
Quand on bloque expérimentalement l'oreille moyenne, on observe un surprenant accroissement de l'activité métabolique des neurones impliqués dans cette voie, pourtant devenue " sourde ". On en a rapproché l'existence des " acouphènes ", sons fabriqués par un système qui ne perçoit rien !... Cette constatation insiste une fois de plus sur le caractère parfaitement subjectif de la perception qui est un acte et ne saurait se réduire à un modelage passif par les événements physiques externes (l'oreille n'est pas un simple microphone !).
Le colliculus supérieur (tubercules quadrijumeaux antérieurs), qu'on ne croyait pas impliqué dans l'audition, en gère pourtant les caractéristiques spatiales d'ensemble. Là se dessine un véritable espace sonore d'une grande finesse, parfaitement connecté à l'espace visuel (ce centre commande le mouvement des yeux). Les mêmes cellules répondent, pour une bouffée sonore ou un éclat lumineux, pourvu qu'ils proviennent de la même région de l'espace environnant ! Ce lieu est très lié à l'attention, la concentration et la mémorisation (on a récemment montré que la mise en mémoire s'accompagnait de clignements des yeux, le regard indique à quoi on s'intéresse, les aigus stimulent et appellent, etc.) (Stern, 1988). C'est là aussi que se règle la tension des petits muscles de l'oreille moyenne pour tendre plus ou moins le tympan et faire varier la pression moyenne à l'intérieur de la cochlée et de tout l'ensemble vestibulaire. Cela permet d'assurer une impédance convenable à tout le système afin de l'adapter à de très larges variations dynamiques. Cela permet aussi d'orienter la perception vers les aigus ou vers les graves.
Le thalamus met en relation les différents sens : il reçoit en effet des neurones venant de l'appareil vestibulaire, du cortex visuel, des récepteurs de la peau et des muscles de tout le corps. On y a trouvé des cellules détectrices de sons complexes (vocalisations, cris significatifs) et qui ne bronchaient pas pour des sons plus élémentaires. On peut voir ici le fondement anatomique des correspondances multiples que nombre de praticiens en musicothérapie, audio-psycho-phonologie, psycho-phonie, etc. revendiquent comme postulat de leurs constatations empiriques lorsqu'ils associent une somatotopie à la tonotopie.
Il est frappant de voir que cette tonotopie se retrouve à tous les niveaux et se " polycopie " à partir des noyaux cochléaires. Il existe plusieurs représentations de l'échelle des sons qui en soulignent l'importance et comportent une forte analogie avec les différentes somatotopies sensorielles ou motrices. Les aigus correspondant au haut du schéma corporel et les graves au bas ; cette remarque converge avec les troublantes constatations que nous avons pu faire sur le lien statistique entre symbolisme des chakras et audiogramme (Auriol, 1977, 1983, 1984, 1987).
C'est peut-être aussi à l'un - ou plusieurs - de ces niveaux intermédiaires, entre cochlée et cortex, que se fait la détection (utile à l'expression vocale) de la provenance aérienne ou osseuse d'un son ou d'un ensemble de sons : l'identité de phase et d'intensité entre les deux oreilles, la stabilité de toutes les caractéristiques malgré les mouvements de la tête, la construction résonantielle liée à la structure des cavités propres à l'individu, etc., permettent au système nerveux de repérer l'origine individuelle et osseuse d'une partie ou de la totalité de la fourniture sonore à un instant donné. Pour distinguer les sons personnels des sons externes, le système nerveux peut comparer les informations venant de droite et celles venant de gauche. Si elles sont identiques selon toutes leurs modalités, y compris malgré les petits mouvements de la tête, c'est qu'elles sont d'origine interne. C'est pour cela que le son du walkman a tendance à se faire entendre au milieu de la tête, surtout en monophonie. Peuvent alors se mettre en place les régulations destinées à atténuer l'amplitude des sensations d'origine interne au profit des informations extérieures (cf. théorie des deux voies que j'ai proposée plus haut ; on ne peut exclure cependant que ce repérage soit beaucoup plus précoce et situé déjà au niveau de la cochlée elle-même).
TONOTOPIE
Cochlée
médian
bf
hf
latéral
Noyaux cochléaires
dorsal
bf
hf
ventral
caudal
bf
hf
rostral
Olive
médian
bf
hf
latéral
 
dorsal
bf
hf
ventral
Lemniscus latéral
dorsal
bf
hf
ventral
Colliculus infér. (tub.quad.post.)
dorsal
bf
hf
ventral
Thalamus
latéral
bf
hf
médian
caudal
bf
hf
rostral
ventral
bf
hf
dorsal
Cortex temporal (chez le macaque) (Buser, 1987)
 
A1
rostrolatéral
bf
hf
caudomédial
RL
caudal
bf
hf
rostral
L
rostral
bf
hf
caudal
bf : basses fréquences hf : hautes fréquences
Le cortex auditif (fig. 8 et 9)

Il est situé en profondeur au niveau de la face insulaire de la première circonvolution temporale, enfouie dans la scissure de Sylvius. On trouve (Brugge, s. d.) au niveau de cette aire corticale cinq régions au moins. Trois d'entre elles sont porteuses d'une représentation de l'échelle des sons et reçoivent les informations des deux oreilles.
Chacune de ces régions reçoit aussi des messages issus des deux autres, et de l'hémisphère opposé, ceci dans le respect de la tonotopie, c'est-à-dire que les portions recevant des aigus sont reliées aux portions recevant elles-mêmes des aigus, et de même pour chaque bande fréquentielle. Notons à ce propos que, ici aussi, les aigus sont représentés sur des surfaces beaucoup plus grandes que les graves.
Chez le singe Rhésus (Biao Tian et coll.), les parties caudales du cortex auditif sont spécialisées dans la reconnaissance des formes sonores (reconnaissance des cris d'appels émis par un congénère) alors que les zones antérieures seraient plus liées à la localisation spatiale de ces cris d'appel.

Fig. 8. La radiation auditive et sa terminaison dans le gyrus temporal transverse, ses rapports avec la radiation optique sur une coupe frontale schématique de l'hémisphère gauche.
( Dessin extrait de Delmas et Delmas, p. 181.)

Fig. 9. Aires corticales auditives (Aubry et Pialoux, 1957)
( Dessin extrait de Delmas et Delmas, p. 181 ).

Les interactions entre ces aires " cochléotopiques " et le reste du cerveau sont très complexes et tendent à atténuer la belle simplicité dont il vient d'être question telle qu'on l'observe chez l'animal anesthésié. Lorsqu'il est conscient, les réponses sont moins bien localisées... Il est possible que d'autres données sensorielles (visuelles par exemple) et des informations non directement sensorielles (images sonores du passé évoquées par l'expérience actuelle, projet d'action dans lequel est engagé l'animal, etc.) interfèrent. Il y a même des cellules spécialisées dans ces sortes " d'interférences " : certaines, par exemple, ne s'excitent qu'à la perception d'un cri précis et la réponse est modulée par l'émotion ou l'attention. Ce mécanisme s'est développé et assoupli chez l'homme pour permettre l'intégration du langage.

 

Les mouches ont l 'oreille fine
Certaines mouches entendent probablement aussi bien que les humains.

Canada, États-Unis
05/04/2001 - On ne le devinerait pas en regardant ses « oreilles », mais la mouche Ormia ochracea localise aussi bien les sons que les humains et a probablement une aussi bonne acuité auditive qu'eux.
Les deux tympans de la mouche Ormia ochracea sont derrière sa tête.

Les humains savent habituellement d'où provient un bruit parce que leurs oreilles, éloignées l'une de l'autre, ne reçoivent pas ce bruit exactement en même temps. Mais, comme l'ont découvert Andrew Mason et ses collègues, Ormia ochracea entend aussi bien que les humains alors que les deux tympans qui lui servent d'oreilles sont séparées d'à peine... 0,5 millimètres !

Pour se reproduire, cette mouche se pose près des criquets puis leur saute sur le dos pour y pondre ses oeufs. Dans l'étude publiée dans le Science du 30 mars, la mouche a écouté les chants de cet insecte alors qu'elle était en laisse et posée sur une balle de ping-pong placée sur un jet d'air. Les mouvements de la balle ont alors montré qu'Ormia Ochracea suivait le chant du criquet à deux degrés d'angle près.
Le très performant appareil auditif de cette mouche va servir de modèle pour appareiller des malentendants. Deux « tympans de mouche » dans chaque oreille permettraient, en effet, se situer précisément les sons et donc, de distinguer la voix des bruits de fond. « Nous avons déjà fabriqué un tel appareil auditif, explique Ron Hoy, un des auteurs de l'étude. Il ne fonctionne pour l'instant que dans les ultrasons, mais il n'y a pas de doute que d'autres fréquences seront bientôt disponibles, dont celles utilisées par la parole humaine ».
Anick Perreault-Labelle
d'après Cybersciences du: 05/04/2001
La complexité, signalée pour les niveaux sous-corticaux, se retrouve bien sûr magnifiée à l'étage temporal ! On a pu repérer des zones de sensibilité à telle ou telle intensité, à tel ou tel type de modulation, à tel son complexe caractéristique, etc.
Bien des auteurs se sont émerveillés devant notre incroyable capacité à dégager l'information alors même que les instruments fabriqués reçoivent surtout du bruit dans lequel le message semble parfaitement noyé. Ceci est certainement lié à la capacité de réduire plus ou moins au silence les régions spectrales les plus riches en bruit et d'utiliser ce qui reste, grâce à la redondance quand elle existe (et c'est tout spécialement le cas du langage).
Une deuxième étape intervient ici qui est la reconstruction de la partie signifiante dans ce qui a été éliminé : un témoignage nous est connu qui se multiplie de tous les patients soumis à l'audition de musique filtrée. Ils reconnaissent parfaitement des oeuvres dont ils entendent essentiellement les harmoniques au-delà de 8 000 Hz ! L'esprit semble - et il le fait - reconstruire les fondamentaux, tellement bien que la restitution ultérieure des graves aboutit à des sons tout nouveaux pour le sujet. Il s'agit de super-graves qu'on peut comparer à l'illusion connue des super-couleurs qui sont obtenues en contemplant longuement une surface rouge par exemple puis en portant l'oeil sur du vert. On voit alors un super-vert, jamais vu ni visible naturellement ; en effet, il s'ajoute à la perception normale de la couleur présentée l'impression d'un vert de compensation qui serait là même en fermant les yeux.
Nous savons que le rôle tout à fait propre au cortex est d'attribuer aux sons reçus une signification, surtout lorsqu'il s'agit de patterns sonores compliqués (Dewson, 1970), de mémoriser, à court terme, un profil de séquence sonore, de localiser une source, de mettre en relation les perceptions auditives et les autres informations : celles des autres sens mais aussi les vagues de la mémoire, les craintes, les soucis ou les attentes. Les physiologistes ont insisté sur le rôle du cortex dans la reconnaissance de séquences sonores, même brèves.
Cette interférence est bien connue dans le cas du langage où elle produit le malaise caractéristique des films mal doublés. McGurk et McDonald ont pu montrer que le mélange des informations visuelles et auditives régnait dans la reconnaissance de ce qui est dit par l'interlocuteur présent. Si on voit les lèvres prononcer GA pendant que la bande sonore fait entendre BA, on n'entend ni l'un ni l'autre mais plutôt DA ! De même si le son est PA alors que l'image des lèvres correspond à KA, la perception sera TA. Ou encore, si l'on synchronise le son MA avec des mouvements articulant DA, GA, TA ou KA, on percevra NA dans ces diverses substitutions !
Il apparaît que toute activité cérébrale concomitante interfère avec ce qui est entendu, le modifie qualitativement ou/et quantitativement, jusqu'aux extrêmes de l'hyperacousie lors de " l'audition divine " de certaines techniques spirituelles (Milstein, 1977) ou, au contraire, de la quasi-surdité, lors de l'obtusion sensorielle due à une émotion trop forte.
On a montré qu'il existe entre deux interlocuteurs des tendances permanentes plus ou moins marquées à l'imitation réciproque, quasi synchrone ou à contretemps selon la nature de leur relation. Jeu entre eux comme une danse, efficace à tel point que le bègue nous fait bégayer et le bailleur bailler
Ces condensations se diversifient et se multiplient lorsque, quittant les convergences purement sensorielles, on jette un regard sur le lapsus auditu dont Freud a fourni une ingénieuse explication psychologique. La signification parvenant au sujet conscient combine alors les données perceptives (auditives, visuelles, etc.), le contexte relationnel et un grand nombre de déterminants enfouis dans l'inconscient de l'auditeur pour produire chez ce dernier une erreur d'interprétation, dont la psychanalyse parvient à démasquer l'origine dans les désirs et les répressions infantiles mal intégrés.
Voies effectrices
Cortex
=> Thalamus
=> Colliculus inf.
=> Formation réticulée
=> Noyau olivaire principal (+)
=> Noyau péri-olivaire (-)
=> Noyaux cochléaires
=> Cochlée : CCI : enképhalines

CCE : acétylcholine (-)
acide glutamique (+)
La transmission chimique utilise de acétylcholine et de l'acide glutamique
En fait, les interactions se manifestent à tous les étages du système d'écoute. Nous avons évoqué les dialogues nécessaires qui lient dès la réception les cellules ciliées externes et internes. Nous avons également fait allusion aux évaluations spatiales liées au pavillon de l'oreille et aux mouvements du crâne. Les intensités globales sont gérées par les muscles de l'étrier et du marteau qui règlent l'impédance au niveau du tympan et de la fenêtre ovale. Plus encore : il existe une réciprocité partielle entre le cortex auditif et les formations sous-corticales. Il y a dialogue entre les centres supérieurs et les relais intermédiaires. Puis nouvel échange d'informations et de directives entre relais intermédiaires et cellule réceptrice.
Beaucoup d'études insistent sur des effets extrêmement grossiers. Nous devons attendre des recherches plus fines et plus ingénieuses qui rendront compte de la complexité du système, de sa hiérarchie, de ses relais, de la pluralité des médiateurs chimiques employés. S'il s'agissait simplement d'atténuer le son ou d'augmenter un peu la sélectivité, tout cela serait parfaitement redondant : en fait nous avons un ensemble de moyens qui autorisent les centres à piloter activement les récepteurs, de sorte que soient perçus préférentiellement tel " pattern " sonore et ses proches au détriment de bruits éventuellement plus intenses et plus complexes, mais éloignés de ce que l'individu a besoin de discerner (accroissement du rapport signal/bruit) (Buser, 1987, p. 296-297). Un pas de plus et nous aurons l'explication des liaisons curieuses observées entre certaines fréquences et certaines caractéristiques de la personnalité.

Incursion chez nos frères inférieurs


Avec beaucoup de sagacité et beaucoup d'efforts, les savants cherchent bien souvent à souligner ce qui différencie l'espèce humaine de toutes les autres catégories d'animaux. Spécialement au niveau de l'intelligence et du langage qu'on tente de soustraire à toute contamination venant du bas... Simultanément, on s'émerveille des prouesses communicatoires des abeilles, fourmis, termites et autres lions de mer pour déclarer tout à trac que " ça n'a quand même rien à voir " et qu'ils sont à jamais bannis de l'Eden Symbolique. Ainsi Buytendijk (1958) : " La parole n'a pas d'origine, elle est origine (ursprung = saut originel). Elle naît en un saut à la manière d'un changement, d'un éveil, d'une mutation. "




De la grande masse de recherches dont les comptes rendus sont aujourd'hui disponibles, nous pouvons, au minimum, dégager les constatations suivantes :
L'audition est un sens qui s'est développé surtout comme outil d'alerte : il signale l'approche du danger. C'est secondairement qu'il a été utilisé pour la communication entre individus. " Il apparaît comme plus émotif, affectif, subjectif que représentatif et objectif. En cela, il se distingue considérablement de la vue " (Viaud, 1967).
Des scientifiques ont enregistré pour la première fois le son émis par octopus vulgaris (le poulpe commun).
Le suivi d'un poulpe commun (pieuvre), harcelé par un groupe de poissons des côtes des Baléares et par un plongeur en train de le filmer, a beaucoup surpris les spécialistes. En analysant la bande sonore de la caméra, on a pu identifier un bruit semblable à un coup de feu émis par le céphalopode. Au même moment, un éclair lumineux était visible.
Jusqu'à présent, seuls des bruits émis par des calamars au moment d'expulser l'eau avaient été enregistrés.
Les chercheurs pensent qu'il s'agit d'une stratégie de défense de la part du poulpe pour échapper aux prédateurs. En raison de l'énergie nécessaire, il utiliserait ce bruit seulement en cas de danger extrême.
Comment le poulpe a-t-il pu produire un bruit aussi fort ?
L'hypothèse de Guerra et de ses collègues est qu'il s'agit d'un mécanisme de cavitation: "le processus a pu être produit par une contraction extraordinairement forte et rapide des muscles du manteau du poulpe devant une situation d'extrême danger". L'incidence de la lumière solaire sur les bulles d'air produites pourrait expliquer la lumière observée.
Des poissons bavards
Les poissons crapauds vocalisent pour protéger leur territoire, intimider leurs adversaires ou courtiser des partenaires. Ce type de cris dériverait d'une structure cérébrale archaïque que l'on trouve chez l'ancêtre commun de certains poissons, oiseaux et mammifères (Andrew Bass, et coll., de l'Université Cornell).
Pour émettre un son, les poissons crapauds se servent de leur vessie natatoire, une poche de gaz qui se déforme et vibre, connue pour son rôle de gestion de leur flottabilité).
L'étude embryologique du développement cérébral des larves de poissons crapauds (Opsanus beta, Opsanus tau et Porichthys notatus), ont permis à ces chercheurs de trouver une région qui se développe dès que les muscles vocaux atteignent la vessie natatoire; cette région serait impliquée dans la commande des vocalises (cette aire est proche de celle qui innervera pour innerver l'organe vocal des oiseaux et des grenouilles.
d'après B. S.L. Science, vol. 321, pp. 417-421, juillet 2008 ;
© POUR LA SCIENCE - Perspectives scientifiques

Il serait hardi d'en inférer, chez l'homme, une opposition aussi simple. L'évolution a plus d'un tour dans son sac et n'hésite pas au saut périlleux, à la culbute de pantin qui lui permet d'utiliser les moindres organes à des fins supérieures ! D'instrument d'alerte, l'ouïe se hissera jusqu'au symbolique en outrepassant l'imaginaire ; gardant toutefois sa connexion première au tout ou rien, à la menace soudaine et cachée, aux événements de derrière (cf. chap. 10).
La communication acoustique apparaît lorsque le dur s'intègre à la vie : dur de la carapace chez les arthropodes et surtout de l'os chez les vertébrés (elle n'existe pas chez les protozoaires, les coelentérés, les spongiaires, les échinodermes, les vers, les mollusques..).
Chez les arthropodes et les vertébrés inférieurs, les émissions sonores ont pour rôle principal d'assurer la rencontre des partenaires sexuels et, parfois, le maintien du couple pendant la saison de reproduction. Ceci a pour résultat notoire d'interdire les rapports sexuels avec des individus d'une autre espèce. Elles peuvent aussi servir à marquer le territoire. Le signal acoustique est un mécanisme au service d'une fonction.
Comment engraisser son lapin en musique
Dans les cages à lapin du Territoire de Belfort, c 'est la fiesta. De sorte à adoucir les moeurs sauvages dans les clapiers, Alain Coureau, un éleveur de Saint Dizier l'Evêque envoie des décibels dans les oreilles de ses lapines stressées. Jusque là, au moindre bruit inopiné, les pauvres bêtes faisaient des fausses couches, abandonnaient leurs petits, se blessaient contre les grilles et étaient terrassées par des crises cardiaques. Depuis, de 6 heures à 22 heures, « la musique améliore considérablement le bien être physique et psychologique des lapines », constate Alain Coureau. Ensuite, c 'est le silence absolu. Les femelles mettent bas ou elles s 'envoient en l 'air. Une méthode d 'élevage qui risque de faire beaucoup de bruit à l 'aube du prochain millénaire.
(Extrait de Marianne du 25 Décembre 2000, p.23 )
Chez les mammifères, les relations se nuancent, le signal devient un échange ajusté plutôt qu'un déclencheur automatique. Le son sert la vie sociale qui se laisse décrire en termes de partage, coparticipation, échange d'influences, adaptation incessante. Ainsi la communication se libère-t-elle, en partie, de la fonction ; l'expression n'est pas une simple conséquence d'un déterminisme externe. Lorsque les circonstances changent radicalement, la même activité phonique peut resservir, se mouler sur le contexte et permettre, entre autres, les relations avec d'autres espèces - spécialement avec l'homme (domestication).




Ce manque de correspondance stricte entre un type de performance sonore et une situation donnée de comportement explique la difficulté, pour les éthologistes, de catégoriser le " langage " des mammifères d'après les circonstances de sa production, comme on le fait pour les vertébrés inférieurs ou les arthropodes (appel sexuel, d'alarme, de combat, etc.) ; ils préfèrent alors se rabattre sur les particularités acoustiques elles-mêmes et parlent de grognements, grondements, jappements, pleurnicheries, gémissements, cri perçant, miaulement, meuglement, feulement, chevrotement, bêlement, etc.
Plusieurs de ces appellations invitent à imaginer que certaines sonorités auraient une signification semblable - au moins grossièrement - chez tous les vivants. Quelques arguments plus sérieux vont bien dans ce sens d'un " fonds commun " : on trouve des types de cri similaires chez des espèces proches de par leur habitat. Bien sûr, cette communauté de structure des cris ne subsiste que lorsqu'elle ne nuit pas à la nécessité vitale de se faire reconnaître comme distinct. Les cris d'alarme pour avertir les congénères d'un danger n'ont pas besoin d'une telle précision et ceux de certains oiseaux ressemblent à s'y méprendre à ceux que produisent dans les mêmes circonstances divers cercopithèques (singes).
Depuis plusieurs années, l’APIEU développe dans la réserve naturelle du Lez, en partenariat avec le Parc de Lunaret, des animations sur le thème des oiseaux.
Ces ateliers s’efforcent d’initier les enfants à l’identification et à la biologie des oiseaux. Rougegorges, mésanges, pinsons, merles et autres pics y sont régulièrement observés. Mais le plus souvent, c’est par leurs cris que les nombreuses espèces séjournant sur le site trahissent leur présence. Ainsi, lorsque je suis avec une classe et que l’ambiance est propice à l’écoute des sons, je pose aux enfants la question : « Est-ce que vous savez pourquoi les oiseaux chantent ? » Et bien neuf fois sur dix, ils me répondent avec naïveté et poésie : « Parce qu’ils sont contents !!! »…
Et ça me rend gai comme un pinson.
Seb

On a pu démontrer, par ailleurs (hybridation), qu'il existe une transmission héréditaire de la façon de vocaliser ; mais non des circonstances dans lesquelles il sera opportun de le faire de telle ou telle façon : il y faudra quelque éducation.
Il existe deux formes de l'expression vocale chez les mammifères.
1. D'une part, des sons " discrets ", autrement dit bien individualisés, séparables (ces sons existent aussi chez les autres vertébrés et chez les arthropodes). Ils sont assez strictement reproductibles quoique avec un début de variabilité, notamment chez les singes : ils s'imprègnent d'une intonation qui caractérise tout à la fois l'individu et son vécu du moment. Ce type de vocalisations est utilisé lorsqu'il faut communiquer sans se voir (distance).
Les rorquals sont des petites baleines curieuses : elles s'approchent souvent des bateaux. On a découvert qu'elles émettent des sons qu'on a comparé aux bruits lasers de la Guerre des Etoiles ! "Une centaine de vocalisations ont été enregistrées, dont certaines réellement étonnantes. Complexes, facilement reconnaissables, ces vocalisations sont d'une grande amplitude. elles utilisent des fréquences allant de 50 à 9500 hertz et sont composées d'unités distinctes qui se répètent". (d'après le JASA cité par CyberSciences)
2. D'autre part, des sons " gradués ", de structure variable et mal définie. Cette gradation du répertoire augmente en fonction du degré de socialisation des espèces. De tels sons se prêtent très bien à toutes sortes d'interactions entre l'émetteur et le récepteur. Ils peuvent recevoir de constants ajustements. Ils reflètent un jeu de communication et d'échange, dépendant de la personnalité de chaque protagoniste, de l'histoire de leurs relations antérieures et des aléas de la situation socio-écologique du moment. Ce type de communication ne peut se produire que s'il existe une certaine proximité entre eux : en effet la modulation en fonction de l'autre exige que ce dernier soit visible. Ces échanges favorisent l'harmonie de la mère et de ses petits ou des congénères d'une même troupe. Ils interviennent aussi dans les relations de hiérarchie, de cour nuptiale, de jeu gratuit, etc.

Les souris mâles chantent en présence de femelles

Université Washington à SAINT LOUIS, Missouri (AP) - Les scientifiques savent depuis longtemps que les souris mâles de laboratoire peuvent produire des sons à haute fréquence, inaudibles pour l'oreille humaine, lorsqu'elles détectent l'odeur d'une femelle. Un chant qui aurait pour but de séduire la belle, même si les scientifiques n'en n'ont pas la certitude."Il est rapidement apparu que ces vocalises n'étaient pas des gazouillis incohérents mais des chansons", a souligné Timothy Holy, principal auteur de l'étude. "Elles ont une structure et ressemblent beaucoup à des chants d'oiseaux."
Pour pouvoir entendre les sons émis par le rongeur, les chercheurs les ont enregistrés sur une bande et reconstitués quatre octaves plus bas. M. Holy précise que le chant des souris répond à deux critères: des syllabes distinctes et des thèmes récurrents.
Si l'analyse des chercheurs est confirmée, les souris pourraient rejoindre la liste des animaux capables de chanter en présence du sexe opposé, qui comprend les oiseaux, les baleines, les marsouins, les insectes et peut-être les chauves-souris.
D'après "Public Library of Science Biology" Octobre 2005

On assiste non seulement à des dialogues, mais aussi à des clameurs collectives qui ont invinciblement conduit les observateurs à parler de " choeurs " ; contagion imitative (chez les loups par exemple), défense sonore du territoire commun (surtout chez les animaux nomades), mais certainement aussi temps fort de socialité...
Cette richesse vocale est liée d'une part à une audition plus performante que celle des insectes ; d'autre part à une phonation plus complexe, utilisant un larynx mieux développé pour faire résonner les cavités du nez, de la bouche (surtout chez l'homme qui peut alors " articuler ") et du pharynx pour produire des ensembles sonores caractéristiques et modulables, les " formants " (Leipp, 1971a).
C'est le répertoire des singes anthropomorphes qui contient la plus grande diversification de sons gradués en intensité, durée et fréquence. Ils peuvent aussi établir des catégories, c'est-à-dire poser une frontière au sein d'une gradation physiquement continue, tout comme les Français apprennent à distinguer le phonème " b " du " p "... Certains primatologues ont insisté sur les analogies qui lieraient les " gradations " vocales des chimpanzés et certains phonèmes fréquents dans les langues humaines (Marler, 1976 ; Green, 1977). D'autres considèrent que le cercopithèque d'Ethiopie est capable d'un accès au symbole [1] puisque, par exemple, l'un d'eux informe ses congénères de la présence d'un serpent et du fait qu'il est ou n'est pas venimeux (Seyfarth cité par Gautier, 1983). Point de vue contesté, cela va sans dire.

Parlêtre

Ce besoin de durcir la frontière entre l'homme et l'animal est surprenant ! Ne serait-ce pas qu'il y va d'une certaine philosophie (occidentale pour sûr), anthropocentrique et bien embarrassée lorsque pointe la possibilité (génie génétique avec sa compétence à créer un éventuel " chimpanzome ") d'une série indéfinie de " chaînons intermédiaires " entre le singe et l'homme. On tient à savoir à quel moment ça se dénature (Vercors) même s'il est évident qu'au bout du compte, spécialement chez les plus doués d'entre nous, " la communication orale, en devenant langage, se libère de l'immédiateté du réel ; l'homme posant une distance entre le réel et lui ", une coupure entre la vie et la civilisation, fût-ce au prix de pas mal de renoncements et d'un certain malaise.
Personnellement je suis peu enclin à enfoncer ce clou, à élargir les césures qui n'existent - justement - que pour le langage et pour l'action. Les sons, les attitudes, les gestes et l'intime sont liés. Ces liens peuvent être décodés par celui qui écoute ou regarde. Il peut ensuite les utiliser intentionnellement, pour évoquer le passé, suggérer l'avenir : ils deviennent la meilleure des choses. Et la pire ! Outils de communication, mensonges pour une vérité. Un degré de plus, et les voilà habités de sens, triomphalement intronisés dans la sphère symbolique, aptes à produire du discours philosophique, endocrines de l'inconscient.
Ces étapes (et d'autres sans doute) se franchissent quand tout est prêt. Mais aussi quand l'étape précédente est suffisamment investie, déployée, exercée. Quand tout est prêt fonctionnellement et anatomiquement : on sait par exemple que chez les primates non humains - comme chez le jeune enfant - le comportement vocal est essentiellement dépendant des aires sous-corticales ; ils ne peuvent sans doute pas exercer sur lui de contrôle intentionnel. Cependant le petit Mowgli est capable de mieux, de contrôle cortical notamment. Voyons donc comment s'installent les prérogatives de parlêtre [2] .
Il survient, parfois sans intention, rarement à l'improviste. Pas tant lié aux migrations des cigognes ou à la floraison des rosiers qu'aux mystères étymologiques de la petite chambre. Il se niche tout autant dans le berceau des projets que dans la tente utérine ! Françoise Dolto, tout au long de son action, de ses discours et de ses écrits, l'annonce et le martèle, jusqu'à l'extrême étonnement de ces phrases une fois dites, qui sculptent le destin. La mère dit : " Que cela soit " et cela fut. Voilà ! (Gen. 1). Sauf exception... c'était bon.
L'enfant est d'abord une image dans l'espoir idéal que porte la famille, parfois fantôme d'un disparu, idole d'un grand-père. Après que sa chair s'est moulée réellement aux données génétiques pater/maternelles et aux flux psycho-somatiques du placenta (de sorte que le bébé est comme le sceau de ceux qui lui donnent le jour), il se calque à leurs attentes, réalise leurs fantasmes, écrit ce qu'ils ne doivent dire ou ce qu'ils osent à peine suggérer. Tout cela se marque dans les dits et les non-dits, dans les prénoms qu'on hésite à lui donner, les cadeaux qui l'environnent, les grimaces qu'on lui fait. Avant tout : le sang qui le construit, le lait qu'il suce, les cris et les chuchotements, les mots...
*
Les aptitudes à l'écoute ainsi que les dons pour s'exprimer vocalement se développent généralement (chez le petit d'homme) selon le schéma que je vais esquisser maintenant.
H. D. Wing (1968) a pu montrer que ce type d'aptitudes, qui a une plus ou moins grande valeur pour un individu donné, à un moment précis de son évolution, permet de définir un " quotient musical " (Q. M.) que l'on calcule comme le quotient intellectuel (Q. I.) en faisant le rapport de l'" âge musical " à l'âge légal. Ce quotient musical est constant chez un individu donné (à moins d'entraînement particulier ou d'accident, maladie, etc.) et relativement indépendant du quotient intellectuel.
Outre un facteur général, on peut repérer dans cette compétence musicale un facteur " mélodique " et un facteur " harmonique ". D'autres études évoquent également une composante " rythmique "... Cette remarque tend à confirmer l'impression commune, selon laquelle certaines personnes sont " douées " (Mozart...), alors que d'autres seraient notoirement et définitivement incompétents. Nous verrons la part de préjugé que cela comporte.
Les problèmes de l'acquisition du langage, chez certains enfants (autistes par exemple), font l'objet de débats pour savoir quelle est la part de l'hérédité et celle de l'environnement dans ce genre de troubles.
Le chapitre que je consacre au test d'écoute pourra nuancer le point de vue monolithique faisant du quotient musical une donnée invariable. La pratique de l'audio-psycho-phonologie et des thérapies soniques en général montre à l'évidence que l'écoute est éducable, susceptible d'améliorations parfois spectaculaires. On ne devrait plus entendre le professeur assener : " Toi, ne chante pas, tu vas faire pleuvoir ! "

Le foetus

A partir du sixième mois de la grossesse et, comme toutes les mères du monde, dès la plus haute antiquité, l'avaient prétendu, le foetus perçoit certains sons.

Un gène-clé dans l'évolution du cerveau humain ?
Des recherches publiées en Août 2006 dans Nature montrent que le gène HAR1F pourrait expliquer l'évolution du cerveau humain. .
"Il semble qu'il tienne une part très immportante dans le développement du cerveau", a déclaré Sofie Salama, coauteur de l'étude, chercheur en biologie à Santa Cruz.
On sait que ce gène se met en marche dans le foetus humain vers la fin du deuxième mois après la conception, et qu'il s'éteint vers la fin du cinquième mois, c'est à dire, lorsque le foetus se met à l'écoute du monde sonore.
http://www.nature.com/nature

De nombreux chercheurs, à la suite de Forbes (1927) ou Rousteau (1988), ont pu le montrer. Si on enregistre les mouvements du foetus ou les battements de son coeur, on observe qu'il réagit à certains sons extérieurs (dès la 26e semaine de gestation pour Tanaka, 1969). Il est également en mesure de s'habituer à un son, y réagissant de moins en moins, pour répondre à nouveau très vivement si on utilise une fréquence différente, plus aiguë ou plus grave ; son système nerveux est donc également capable de distinguer les fréquences.

Age
(en années)
critères
(très minimalistes)
0-1
Réagit aux sons.
1-2
Spontanément créatif avec les sons : "fait de la musique".
2-3
Commence à reproduire des bribes de chansons.
3-4
Saisit le plan général d'une mélodie.
4-5
Peut discriminer grossièrement les hauteurs
Peut reproduire des rythmes simples.
5-6
Peut comparer les variations d'intensité, les rythmes et les réalisations tonales dans des cas faciles.
6-7
La justesse du chant s'accroît.
7-8
Recherche la consonance et évite la dissonance.
8-9
Amélioration des réalisations rythmiques.
9-10
Perception de la polyphonie, sens de la cadence.
Les jalons du développement musical selon Shuter-Dyson (1981)

Pour qu'un enfant gitan devienne musicien, on décidait que, pendant les six dernières semaines avant sa naissance et les six premières semaines de la vie de cet enfant, tous les jours, le meilleur musicien d'un instrument irait jouer pour lui auprès de la mère enceinte, puis accouchée et allaitante. " Et, paraît-il, l'enfant désirait plus tard jouer de cet instrument et y excellait (Dolto, 1985). A la clinique de Pithiviers, les parents sont invités à dialoguer avec leur petit au travers de la paroi utérine ; les médecins ont constaté que, après la naissance, ces enfants jouissaient d'un meilleur équilibre corporel, s'asseyaient beaucoup plus vite que les autres, se montraient moins angoissés, etc.
Dans des conditions naturelles, le foetus est exposé à toutes sortes de bruits (Tomatis, 1963), à commencer par ceux des battements cardiaques, respiratoires, intestinaux et vocaux de sa mère. On doit y ajouter toute la cohorte des sons externes provoqués par les actions maternelles (claquement des talons sur le sol, moteur de la voiture et roulement du métro, bruits de l'activité ménagère, professionnelle ou de loisir) ou qui sont produits autour d'elle (voix du père, des autres membres de la famille, des collègues de travail et de diverses relations, bruits de la maison, de la rue, etc.).
Certains de ces bruits sont extrêmement répétitifs et constituent une sorte de " paysage sonore " auquel le petit être s'habitue nécessairement, finissant par ne plus y réagir. Le degré de cette redondance est très variable et s'échelonne sans doute, à peu près selon l'ordre dans lequel je viens de les énumérer... (coeur > respiration > intestin > bruits de pas ou de moteur > bruits externes monotones > voix maternelle > voix familières > autres voix ou bruits inaccoutumés). Dire qu'il n'y réagit plus c'est remarquer qu'il ne les intègre plus comme des informations ; ils deviennent plutôt le " fond " familier nécessaire, facteur de sécurité, outil de repérage, par rapport auquel vont se différencier des " formes " qui seront recevables en tant qu'information.
La voix de la mère occupe une place privilégiée, centrale, située qu'elle est à mi-chemin de l'habitude et de la variété ; elle représente par là le prototype de toute musique qui ne saurait se réduire ni à la répétition ni à l'imprévisible.
Les sons qui furent présents dès la conception, même s'ils sont violents et agressifs (bruits d'avion auprès d'un grand aéroport par exemple), seront mieux intégrés et causeront moins de perturbation psychologique à l'enfant une fois né que si ces mêmes bruits avaient débuté plus tard au cours de la grossesse. Ils ont alors des conséquences redoutables : angoisse, insomnie, etc. Dans tous les cas, de telles agressions touchant la mère et/ou l'enfant induisent une moins bonne santé physique du nouveau-né qui présente statistiquement un plus faible poids de naissance (Ando, 1970). Or on sait que l'hypotrophie du foetus peut avoir des conséquences néfastes jusque très tard dans la vie (tendance dépressive chez l'homme en particulier).
Une longue polémique a opposé Tomatis (1981) et Feijoo (in Herbinet, 1981) au cours de différents congrès et publications ; il s'agissait de savoir si, parmi tous les sons que le foetus reçoit, figure la voix de sa mère ; dans cette éventualité, qu'est-ce qui, de cette voix, parviendrait dans l'utérus ? Enfin, que retiendrait, de cette fourniture, le foetus ou le prématuré ?
  1. Tomatis, s'émerveillant du fait que les oeufs d'oiseaux chanteurs couvés par des oiseaux non chanteurs donnent naissance à des oiseaux qui ne chantent pas, estime que les petits de l'homme doivent aussi bénéficier de la voix de leur mère. Si les oeufs de canard auxquels Konrad Lorenz adressait des discours ont donné naissance à des canetons qui le prenaient pour leur mère, comment imaginer que les enfants du Bon Dieu puissent se montrer plus sauvages et ignorer la voix de celle qui les a portés ?
    Tomatis considère que cette voix doit être physiquement modifiée par le liquide dans lequel baigne le foetus, lequel doit surement se débrouiller pour écouter sa maman parler, plutôt que les bruits de son ventre pourtant très forts. S'appuyant alors sur quelques manipulations acoustiques et sur sa longue expérience thérapeutique d'utilisation de la voix maternelle filtrée à 8 000 Hz en passe-haut (on ne conserve que les aigus au-delà de 8 000 hertz), il affirme que le foetus a un commerce permanent avec la voix de sa mère qu'il tend à écouter plus que tous les bruits graves liés au fonctionnement organique (tam-tam du coeur, soufflet des poumons, gargouillis intestinaux, etc.).
  2. Feijoo prétendait que ce sont uniquement les graves qui peuvent atteindre l'oreille du foetus. De ce fait, il entendra son père. Mais pas sa maman !
    Lorsque la mère se détend, le foetus (peut-être moins " serré " par les tensions musculaires du ventre maternel) se met à bouger. Plusieurs fois, alors qu'elle va se reposer, nous faisons entendre Pierre et le Loup à son bébé. Il apprend ainsi que cette musique est une annonce ; l'annonce de la détente : il va pouvoir bouger. Après plusieurs essais, le bébé n'attend plus que survienne la détente prévue de ce qui le serre. Il se met aussitôt à bouger ! Ce conditionnement peut persister après - et même très longtemps après - la naissance. L'enfant qui fut soumis à l'expérience réagit de manière spectaculaire lorsqu'il entend " pour la première fois " (?) Pierre et le Loup ! Il ouvre les yeux, s'arrête de pleurer, cesse de s'agiter pour remuer doucement. Feijoo ne parvient pas à produire un tel apprentissage avec des sons plus aigus que 1 000 à 2 000 Hz, ce qui le conforte dans ses hypothèses.
Le groupe de Réflexion sur les Sons que nous animions avec le Pr Pierre Josserand (LAMI - Toulouse) avait proposé de réaliser une expérience cruciale pour en avoir le coeur net ! En fait, c'est grâce aux travaux de M.-C. Busnel (in Herbinet, 1981) et de Querleu (1981) prenant en compte nos débats avec Feijoo, que la question s'est beaucoup éclairée. Ils ont montré, en plaçant un hydrophone miniaturisé dans le vagin, puis dans l'utérus gestant, que l'enfant était dans une ambiance assourdie. Tous les sons lui parviennent filtrés en passe-bas, de sorte que, physiquement, il peut capter tous les bruits que nous avons énumérés, y compris la voix maternelle (et cette dernière est tout particulièrement repérable dans les enregistrements) ; mais c'est surtout la partie grave de ces sons qui est acheminée, la zone aiguë, au-delà de 3 000 Hz, étant atténuée. On trouvera un texte intéressant à ce sujet sur le site de LA FORGE.
On peut cependant remarquer qu'atténuer n'est pas supprimer et qu'il en subsiste assez pour " tirer l'écoute " vers les aigus. Ces derniers sont d'autant plus intéressants qu'ils ne parviennent que mal et rarement jusqu'à l'oreille du petit être. Même des sons extrêmement aigus (situés bien au-delà des capacités auditives de l'humain), tels ceux de l'échographie ultra-sonore, semblent avoir des conséquences (par un biais thermique ou chimique ?) sur le foetus qui s'agite souvent pendant l'examen. Ils auraient même un retentissement sur son avenir : la dyslexie serait plus fréquente lorsque les échographies ont été nombreuses (avec cette objection que ces multiples examens étaient probablement liés à une inquiétude particulière dans l'esprit des soignants et des parents) (Messadié, 1987).
Ce débat n'est pas sans conséquence. En effet, les cures Tomatis comportent une phase d'écoute en voix maternelle filtrée (en passe-haut, à 8 kHz). Ce filtrage permet-il au patient d'écouter les sons qu'il entendit jadis dans le ventre de sa mère ? N'est-ce pas plutôt cette part de la voix maternelle qu'il découvrit à la naissance ? Le défiltrage de cette voix, appelé " accouchement sonique ", en est peut-être un (Dolto, 1985) et a des effets cliniques parfois très démonstratifs. Cependant les sons filtrés de Tomatis ne correspondent plus, dans cette hypothèse, à une évocation de la vie intra-utérine, mais plutôt à une répétition sonore caricaturée des tout premiers temps après la naissance. Il n'est pas étonnant, dès lors, de constater le rôle dynamogène d'une telle écoute et le fait qu'elle puisse parfois évoquer certaines données biographiques associées à la vie post-natale (Auriol in Herbinet, 1981).
Tomatis (1981, p. 50 et suiv.), desservi par certaines contraintes expérimentales qu'il explique très clairement, à partir de son intuition remarquable, avait été conduit à ce résultat, à une erreur de signe près pour ainsi dire, puisqu'il avait pris pour un filtre passe-haut ce qui fonctionnait en passe-bas... " Je fondais toute mon expérimentation sur ce fait, dit-il, bien m'en a pris. Seulement tout était faux ". Utilisant alors quelques arguments embryologiques (qui semblent montrer que la zone cochléaire de la base, réceptrice des aigus, pourrait se développer avant la région des graves) et surtout le succès considérable de sa méthode de traitement par sons filtrés en passe-haut, il conclut hardiment que le filtrage utérin passe-bas est sur-corrigé par un filtrage cochléaire de sens inverse selon le schéma suivant :
Source
Filtrage utérin
Filtrage cochléaire
Réception
Large bande (!!)
Passe-bas (!)
Aigus amplifiés (?)
Passe-haut (??)
Encore beaucoup de travail reste à faire, pour déterminer l'évolution anatomo-histologique qui fait passer le foetus d'une audition par les CCE à une audition adulte par les CCI. Ces dernires profitent alors de la structure amplificatrice des CCE pour affiner notre écoute adulte.
Question : Didier Dulon comment fonctionne l'élément sensoriel de l'audition ?

Didier Dulon

L’organe auditif (organe de Corti) est composé de deux types de cellules sensorielles: les cellules ciliées internes (CCIs) et les cellules ciliées externes (CCEs). Chacun de ces deux types de cellules ciliées a un rôle bien particulier. Les CCEs jouent le rôle d’ « ampli-tuner » des vibrations acousto-mécaniques incidentes et n’envoient pas de message nerveux vers les centres auditifs. Les CCIs codent le potentiel récepteur ou potentiel microphonique en impulsions nerveuses au niveau des fibres afférentes du nerf auditif. Au contraire des neurones, les CCIs ne génèrent pas de potentiel d’action mais un potentiel récepteur (dépolarisation phasique) proportionnel à l’intensité de la stimulation acoustique qui déclenche une libération tonique et phasique très précise du neurotransmetteur (glutamate) au niveau de la fibre afférente du nerf auditif.

Question : Que trouve t'on de particulier dans ce "cablage" cellules ciliés - neurones ?

Didier Dulon

Au cours du développement du système auditif, l’essentiel des connexions synaptiques des fibres afférentes du nerf auditif, est de manière très surprenante, concentré au niveau des CCEs (cellules ciliées externes). Ces connexions synaptiques afférentes au niveau des CCEs sont transitoires. Au cours de la maturation du système auditif, elles se rétractent progressivement des CCEs et contactent uniquement les CCIs. Le rôle de ce « switch » synaptique au cours du développement du système auditif reste encore inconnu.

Que démontre vos travaux ?
Didier Dulon
Notre étude publiée dans Journal of Neuroscience démontre que les CCEs immatures ont une activité électrique spontanée pendant cette période transitoire du développement. Ces CCEs immatures déclenchent des potentiels d’action calciques spontanés à l’origine d’une activité d’exocytose vésiculaire synaptique.
Nous montrons que cette exocytose calcium-dépendante des CCEs immatures est perdue chez la souris dont le gène de l’otoferline est inactivé. Le gène OTOF [Le gène OTOF code pour la proteine otoferline], isolé dans le laboratoire de Christine Petit à l’Institut Pasteur, est responsable quand il est muté de la surdité récessive DFNB9 chez l’homme.
Cette protéine, dont le rôle précis dans la synapse à ruban des cellules ciliées restent encore à définir, est constituée de plusieurs domaines C2 et présente une organisation structurelle ressemblant aux synaptotagmines : les senseurs calciques des synapses neuronales.
Nos résultats démontrent que, comme pour la CCI mature (Roux et al. 2006), l’otoferline est essentielle à l’activité synaptique des CCEs au cours du développement. Cette activité synaptique spontanée des CCEs immatures doit certainement jouer, comme montré dans le système visuel au cours du développement, un rôle essentiel dans l’établissement de la cartographie nerveuse des centres auditifs.

citation de http://www.inb.u-bordeaux2.fr/siteneuro2/pages/archiindex/Dulon/otoferlin.php

Et que dire du rôle du bouchon gélatineux qui obstrue l'oreille du foetus (Moch, 1985) : n'est-il pas responsable d'un nivellement entre écoute aérienne et écoute osseuse ? et par là d'une indistinction entre les sons venant de l'intérieur du foetus et ceux dont la source est ailleurs (c'est-à-dire le corps maternel et les bruits du monde extérieur) ?
D'autant que le simple fait de baigner dans un liquide pourrait restreindre le mécanisme auditif à la seule conduction osseuse (Hollien, 1969) ou à une conduction purement liquidienne cheminant par les parties molles qui restent au niveau de ce qui donnera plus tard le crâne; Ce type de conduction est plus apte à transmettre la voix maternelle, notamment dans ses composantes moyennement aigües  !
Sans pouvoir conclure de manière tout à fait sûre ces débats théoriques, je me contenterai d'exprimer ici une opinion. Le foetus apprend tout d'abord à s'orienter dans un monde à quatre dimensions, grâce au système vestibulaire qui lui donne à percevoir l'espace statique et ses repères : la verticale, l'horizontale. Les canaux semi-circulaires lui apprennent une dynamique dans cet espace : à savoir qu'il est modifié plus ou moins brutalement (en fonction des déplacements de la mère) selon trois axes d'accélération.
Certains des mouvements perçus le sont en fonction d'un axe temporel qui est marqué par l'accumulation de rythmes assez réguliers : mouvements et bruits (coeur marquant à peu près la seconde, rythme des pas, respiration marquant à peu près les cinq secondes, cycles péristaltiques intestinaux toutes les 90 minutes environ, alternances d'activité et de repos marquant les 24 heures, etc.).
Sur la base de cet espace-temps, le foetus se prépare à communiquer, il associera mouvements inattendus et sons nouveaux, chant du langage maternel et balancements respiratoires, ambiances rythmo-mélodiques et variations de l'état de conscience (angoisse ou bonheur par le biais du chimisme sanguin), etc.




Ler Dr Sylvie Bijaoui pose la question de l'usage d'un instrument à percussion par la femme enceinte.
- "une de mes patientes enceintes joue de la timba (sorte de djembé métallique d'origine brésilienne) y-a-t-il des effets indésirables à la pratique de cet instrument" :
  • en début de grossesse ?
  • => pour cette période, comme le remarque le Dr Sylvie Bijaoui, le système auditif du foetus n'etant pas encore mature n'y a probablement aucun effet indésirable.
  • au sixième mois et en fin de grossesse?
    => le foetus baigne dans l'univers maternel et bénéficie, non seulement des sons de la voix maternelle (très positifs surtout si elle est sereine) mais aussi des synchronies entre mouvements du corps maternel et sons musicaux. La danse et même la simple marche tranquille sont porteurs d'harmonie rythmique et expliquent l'efficacité apaisante pour le bébé après sa naissance du bercement dans les bras, sur le dos ou dans le berceau.
    => De même l'usage d'un instrument vecteur de rythmes, à condition de ne pas exagérer le volume du son par des amplifications excessives, et surtout si cet instrument est joué par la mère elle-même, parait bénéfique; notamment s'il s'agit de rythmes que la mère éprouve comme joyeux, positifs et sereins.
    24 Mai 2008
La sécurité de base va avec le rythmique, la qualité de nouveauté (l'information) va avec le mélodique et tout spécialement la voix maternelle dans la zone fréquentielle des médiums. Quelques excursions dans l'aigu marquent certains faits exceptionnels.
A la naissance, le paysage sonique se bouleverse. Les rythmes sont acquis au niveau interne mais le nouveau-né s'en trouve " castré " au niveau externe, lorsqu'il ne bénéficie pas d'un contact étroit avec sa mère (allaitement, port sur le dos, câlin, etc.). La voix de sa mère se laisse repérer à ses composantes rythmiques portées par les graves et il s'accroche à elle chaque fois qu'il le peut. Il découvre toute une nouvelle richesse en l'espèce des harmoniques de cette voix qui soudain se dévoilent, ce qui est tout à la fois excitant et apaisant. Il marque lui même ses propres rythmes, par exemple au niveau d'un mouvement de succion deux fois par seconde environ lors de la tétée.
Cette métamorphose dans la sécurité lui permet d'intégrer sans mal l'énorme afflux de sons nouveaux qui l'escortent : tous les aigus de ce monde aveuglant. De là aussi l'association, commune à tout être vivant, entre sons aigus et luminosité, sons graves et obscurité. De là aussi (puisque la lumière vient d'en haut) l'association des aigus et du haut, des graves et du bas, etc. Tout ce symbolisme d'allure " archétypal ", c'est-à-dire commun à tous les mammifères, l'est, non pas en fonction de quelque mystérieuse inscription génétique ou pour des raisons " spirituelles " ; il dépend tout bonnement de ce phénomène simple qu'est le changement de milieu (liquide/aérien) à la naissance.
26° ?
La "découverte" de la lumière à la naissance va de pair avec la découverte des sons aigus. Dans la grande majorité des naissances naturelles (en OIGA) cela va de pair avec une entrée dans le monde par le haut du corps (la tête). L'expérience la plus commune de la vie courante, dans la plupart des circonstances naturelles, nous fait tenir la tête en surplomb du corps et nous fait ainsi recevoir la lumière d'en haut. Cela nous a paru suffisant pour engendrer le symbolisme universel qui place la lumière et les aigus dans la partie haute de notre espace environnant. Reste que la mesure du phénomène a quelque chose d'intrigant :
"Les psychologues avaient observé que notre cerveau traite les images comme si la lumière venait toujours d'en haut. Cet a priori vient d'être quantifié : nous supposons que la lumière provient du haut, mais avec un décalage sur la gauche de 26° par rapport à la verticale" (La Recherche, 346, Oct 2001, p.11 - d'après P. Mamassian et R. Goutcher, Cognition, 81, B1, 2001).
Cet angle est-il lié à la position habituelle dans les derniers mois de la grossesse ?

C'est le même principe que nous retrouverons dans l'acquisition de la valeur " symbolique " de la droite et de la gauche (cf. chap. 6). Ces significations de l'espace, du son, des phonèmes aussi comme nous le verrons ailleurs, et toute l'anthropologie psycho-physiologique du yoga tantrique sont universelles et pourtant profondément enracinées dans la chair. Elles ne doivent rien à l'arbitraire du langage qui plutôt se fonde en elles. Elles insistent sur les plis de passage qui relient le Symbolique, le Réel et l'Imaginaire.
Ces remarques expliquent sans doute, pour une part, l'observation empirique suivante : l'audiogramme semble comporter, chez la plupart des gens, trois grands blocs de fréquences.
·        Un bloc grave (30 à 800 Hz environ) qui correspond à l'ensemble des bruits organiques dont nous avons parlé. Ce bloc est le véhicule essentiel de la part rythmique audible dans un morceau musical. On a utilisé depuis longtemps le bruit des battements cardiaques pour calmer les jeunes enfants (cf. Murooka, 1976). Certains sons graves et forts (250 Hz, 85 db) peuvent arrêter les pleurs du nouveau-né aussi bien qu'une sucette sucrée (Birns, 1966). J'ai moi-même pu constater, avec l'aide des élèves de Gerda Boysen (Y. Brault et J. Besson) et une directrice de crèche [3] , que les bruits intestinaux ont un impact particulier sur les jeunes enfants. Il se pourrait que cet impact soit fonction des caractéristiques individuelles de chaque bébé comme de l'état plus ou moins stressé ou harmonieux du fonctionnement intestinal considéré (le clapotement intestinal en glouglou de rivière semble apaisant, les grondements, rugissements et grincements se révèlent angoissants). La démarche maternelle permet au foetus d'être bercé, selon des modalités extrêmement caractéristiques du psychisme maternel (Digelman, 1971 et Auriol, 1987a) ; en même temps, il perçoit, et très vivement, le bruit des pieds sur le sol, le rythme respiratoire et cardiaque, à savoir tout un orchestre où dominent les percussions... Ainsi est-il, pour la première fois, initié à la danse...
·        Un bloc médium (800 à 3 000 Hz environ) correspondant à ce que le foetus peut percevoir de la voix maternelle et qui fondera plus tard la zone fréquentielle du langage parlé. Ce bloc sera plus tard le véhicule privilégié de la part mélodique reconnue par l'écoute musicale.
·        Un bloc aigu (3 000 Hz et au-dessus) découvert à l'occasion de la naissance, qui conservera un rôle d'appel en cas de détresse, de socialité, de sublimation, etc. Ce bloc portera l'essentiel de ce que l'écoute musicale appelle harmonie et permettra de distinguer différents " timbres ".

Tout cela peut-il avoir des retombées pratiques ?

Mme Moch (1985) insiste avec juste raison sur les conséquences désastreuses que pourrait entraîner un mésusage des sons en regard du foetus : trop de bruit qui le stresse jusqu'à la surdité, avec le risque d'avortements et de malformations ; trop de silence qui le prive d'un entraînement indispensable comme on l'a démontré chez l'animal : difficultés dans l'audition et l'intégration des sons, dans la capacité de reconnaître des structures sonores complexes (Granier-Deferre in Herbinet, 1981). Les agressions sonores seraient spécialement nocives au cours du sixième et septième mois de la grossesse.
Mosser (1990) a obtenu une diminution de la fréquence cardiaque, une respiration plus régulière, un arrêt des pleurs (9 fois sur 10) et une sédation de l'agitation avec une tendance à l'endormissement chez les prématurés exposés à des mélodies grégoriennes (interprétées par Reznikoff), des chants traditionnels puisés dans toutes les cultures et également, quoique à un moindre degré, avec des bruits de vagues et le chant de berceuses. La musique de Mozart a été écartée de l'étude en raison de l'ampleur de sa dynamique qui produisait sporadiquement des stimulations excessives. Les bruits de coeur enregistrés ont un effet calmant déjà bien connu ; cependant une utilisation itérative voit leur efficacité s'épuiser à l'inverse des stimulations musicales. Il semble qu'un phénomène analogue affecte l'exposition à un enregistrement de bruits intestinaux (recherche personnelle en crêches, à Toulouse).
photos 2005 / NBC

La voix maternelle est-elle sédative ?

31 janvier 2002 – La voix maternelle est-elle plus efficace que la musique douce pour calmer les enfants atteints de maladies graves ? C'est ce que suggère une petite étude auprès de 29 enfants âgés de trois mois à huit ans sous ventilation artificielle et sédatifs, hospitalisés pour des maladies graves.
Les chercheurs leur ont fait écouter à deux reprises trois cassettes audio : une sans aucun son, une autre avec de la musique douce et une dernière avec de la musique douce et la voix de la personne qui s'occupe habituellement de l'enfant (généralement la mère mais parfois le père), chantant, lisant un livre ou récitant un poème. Les signes d'agitation tels que la toux et le remuement ont ensuite été comptabilisés dans l'heure qui a suivi l'audition des enregistrements.
Or, la combinaison de la voix maternelle et de la musique a permis de stabiliser ou de faire diminuer les signes d'agitation alors que la musique seule et le silence ne les ont pas modifiés ou les ont fait augmenter. Selon Beverly Shirk, infirmière en soins pédiatriques et principale auteur de la recherche, une voix associée par les enfants à la sécurité a un effet observable sur leur comportement. Cependant les différences mesurées étaient trop petites pour tirer des conclusions sûres.
Les chercheurs qui ont présenté leurs résultats à une réunion de la Society of Critical Care Medicine souhaitent que des études de plus vaste envergure soient effectuées. En effet, si l'effet sédatif de la voix des mères était confirmé, il pourrait être possible d'écourter les séjours hospitaliers et de réduire les doses de sédatifs. Ces derniers sont généralement administrés pour calmer les enfants et les empêcher d'arracher leur tube raccord de ventilation mais ils entraînent aussi des effets secondaires tels que dépendance, faiblesse de la digestion et convalescence prolongée. Tous les sédatifs ont des effets secondaires et leur utilisation prolongée requiert un temps de désaccoutumance important.
Élisabeth Mercader - Réseau Proteus
D'après Reuters Health, 28 janvier 2002
© 2000 Totalmédia inc.

Par ailleurs on doit à Françoise Dolto d'abondants témoignages (1982, p. 120 par ex.) sur le fait que la parole maternelle, prononcée pendant la grossesse ou très peu de temps après la naissance, pourrait entraîner des perturbations, parfois très graves, chez le fruit de ses entrailles, jusque très tard dans la vie... Parfois, ce serait l'absence d'un éclaircissement, l'excès de secret qui seraient responsables de troubles. Ses interventions, qui lui ont valu tant de succès, parfois miraculeux - ce qui m'a incité à parler d'un " effet Dolto-magique " -, paraissent assez surréalistes : comment peut-on donner une " interprétation " psychanalytique à un nouveau-né vagissant, quel impact ont les mots dits à un foetus à l'abri de toute compréhension verbale ?
L'hypothèse la plus simple serait d'imaginer que telle ou telle phrase, dite dans un contexte particulier (changement de ton ou de vitesse dans la voix, bouleversement chimique, hormonal, changement des rythmes ou de posture, etc.), soit " engrammée ", mise de coté telle quelle, dans la mémoire. Elle serait reprise, suite à l'apprentissage du langage, par l'inconscient et acquerrait alors son pouvoir pathogène. Cette explication me semble plutôt à rejeter puisque les effets de parole ou de silence que nous repérons peuvent se manifester bien avant cette acquisition de la compréhension des mots.
Sous le terme de " communication d'inconscient à inconscient " on décrit certaines transmissions d'informations surprenantes qui se font au cours d'une psychanalyse sans l'emploi des mots. Tous ne croient pas qu'il s'agisse de " télépathie ", au sens parapsychologique, mais il devient de plus en plus délicat de refuser sans examen ce dernier point de vue (Combourieu, 1985 ; Auriol, 1987d). Peut-être un phénomène de ce type est-il à l'oeuvre entre le foetus et sa mère dont les dits et non-dits pourraient refléter ce qu'elle accepte de s'avouer à elle-même ou non et ce qu'elle accepte ou non de lui transmettre par voie " extra-sensorielle ", messages ultérieurement symbolisés ou au contraire soigneusement tenus à l'écart de toute parole et de toute maîtrise. Question ouverte...
Il s'agit, plus vraisemblablement, d'une action qui touche la mère et l'environnement du bébé en général. L'attitude à l'égard de ce dernier peut évoluer, subtilement mais puissamment, si certaines données relationnelles sont rendues explicites plutôt que masquées. Les thérapies familiales nous ont rendu moins étrange une telle supposition...
La culture de différentes civilisattions font référence à cette vie utérine, qu'il s'agisse de son vécu mémorisé peut-être ou de son symbolisme que se sont approprié les religions (bains rituels : mikve, baptèmes) et les poëtes...

L'enfant

Le nouveau-né (dès le premier jour) est capable de tourner les yeux (ou même la tête) vers certains sons (par exemple une clochette). Selon ce qu'on lui donne à entendre, le rythme de son c±ur se modifie, il tète plus vite ou plus lentement ; s'il dort, un bruit assez intense peut le réveiller. L'existence de ces réactions a permis d'étendre considérablement les compétences auditives du nouveau-né (Eisenberg, 1976). Ces aptitudes ne doivent pas faire illusion sur l'usage qu'il pourrait en faire. Il les réceptionne au niveau sous-cortical pour l'essentiel, y répond de manière réflexe (mécaniquement), mais ne les maîtrise pas, n'en a pas conscience, ne peut s'en servir que de façon très primitive.
Dans ces limites il est quand même stupéfiant de constater que non seulement il peut entendre, mais aussi discriminer certaines modalités du son (telles que fréquence et volume). Il perçoit l'intonation, la mélodie et le rythme de la voix humaine (Bertoncini, 1982). On a pu montrer qu'il préfère la voix de sa mère à toute autre ; viennent ensuite les autres voix féminines puis la voix paternelle et enfin les autres voix masculines (Decasper, 1980). Il sait distinguer une langue étrangère de la langue maternelle, même si tout est dit par la même personne (Zacklad, 1986). Il préfère même une comptine, déjà dite par sa mère pendant la grossesse, à tout autre texte qu'elle dirait pour la première fois après sa venue au monde (Busnel, 1963).
Babies Can "See" Language (05.24.07)

Introduction
Researchers at the University of British Columbia have shown that babies can tell when a person switches to a different language just by watching the speaker's face. Researchers showed infants videos of three bilingual speakers reciting sentences. After being trained to become comfortable with a speaker reciting a sentence in one language, babies aged 4 and 6 months spent more time looking at a speaker reciting a sentence in a different language ? demonstrating that they could tell the difference. Infants will likely lose this ability before their 1st birthday if they're not continuously exposed to language switching.
 
Infants can tell the difference between two languages without hearing the spoken words, simply by watching the face of the adult who is talking, a Canadian study says.
"It is important, because it tells us how babies are prepared to learn multiple languages," said Whitney Weikum, a doctoral candidate in neural sciences at the University of British Columbia who led the experiment.
Working under the supervision of Janet Werker, a professor of psychology at the university, Weikum had three groups of infants, ages 4, 6 and 8 months, from bilingual Canadian homes watch silent video clips of an adult speaking either French or English.
"The baby watches the screen and sees the faces of the people talking," Weikum said. "When the baby's looking time declines, the computer switches and starts a clip of an adult talking the other language. The baby notices the switch and starts watching the screen again."
That ability to tell the difference can diminish over time, depending on what languages are spoken in the home, the study found. Eight-month-old babies from bilingual French-English homes would return their attention to the screen when the language was changed. But the ability to tell the difference was lost at about 8 months of age by babies from homes where only one language was spoken.
One point made by the study, published in the May 25 issue of the journal Science, is that "language is multimodal," Weikum said. "Studies have shown that aural cues are important. This now shows the importance of visual cues."
Laura-Ann Petitto, a cognitive neuroscientist who is director of the Cognitive Neuroscience Laboratory for Language, Bilingualism and Child Development at Dartmouth College, said: "This is a landmark study about the ways that babies use multiple cues to enable them to distinguish between languages. The study suggests that, at an abstract and deep level, the learning brain might not be tied to speech itself."
It has been known that young deaf babies use visual cues to help them learn language, Petitto said, "but we never dreamed that a hearing baby can also be learning language using visual cues."
Petitto said the study has "important implications," because "it supports the belief that the brain can use multiple cues in language processing and suggests that multiple cues in teaching languages can be beneficial."
The findings also have practical applications for remedial speech teaching, Petitto said. "Various remedial tools use multi-stimuli," she said. "This is wonderful confirmation that the multiple cues that we give babies are actually useful."
Peter Gordon, associate professor of speech and language pathology at Teachers College of Columbia University, said an interesting follow-up study would be to add another language to the mix.
"If we gave them say, Russian or Chinese, a language that they are not adapted to, we would predict that they would be like the monolingual group," he said.

Le bébé se montre tout à fait capable de faire la différence entre " ba " et " pa ", " ba " et " ma ", " pa " et " ta ", etc. Pour peu qu'on l'y entraîne, il parvient même à différencier des phonèmes appartenant à une langue quelconque, même très éloignée de celle de ses parents. Progressivement, il se met à restreindre cette faculté et à sélectionner les distinctions phonétiques présentes dans sa langue " maternelle ".
Dès la naissance (et peut-être avant ?), selon une étude de Condon et Sander (1974), les mouvements du bébé peuvent se rythmer sur la voix maternelle, en quelque langue qu'elle se fasse entendre. Il se pourrait que ce fait soit fondamental et perdure, a minima, toute la vie, comme le souligne l'expression : " Je me suis laissé bercer par sa voix. " L'acquisition de ce " verbo-mimisme " (Jousse, 1969) pourrait précéder la naissance, dans la mesure où les mouvements du corps de la mère portante se font de manière synchrone à sa propre voix. L'enfant perçoit cette voix, notamment dans ses composantes les plus graves, et se trouve " bercé " par les mouvements de sa mère que son labyrinthe enregistre... Dès le huitième jour, la voix humaine suscite le sourire plus facilement que d'autres sons (Wolff, 1963).
Les vagissements, les cris, dépendent de la situation et informent l'entourage (spécialement la mère) d'un état d'inconfort ou de besoin du bébé (faim, douleur, hyperstimulation, isolement, etc.). Il existe au moins trois types de cris :
1. Normophonation : cri dont la fréquence centrale se situe entre 200 et 600 Hz, d'intensité régulière, accompagné de fréquences plus graves et plus aiguës, d'intensité moindre. Il dure une demi-seconde environ ; il est suivi d'une brusque inspiration sifflante. (Appel banal ; par exemple, lorsque l'enfant a faim ou est mouillé. Manifestation de joie.)
2. Dysphonation : cri rauque d'aspect rude. Le bébé le produit en donnant plus de force à l'air qu'il envoie à travers les cordes vocales ; cela produit des turbulences qui se traduisent par des distorsions des bandes de fréquences habituelles. (Appel urgent, par exemple, en cas de douleur ; l'auditeur y entend de la rage ou de la colère.)
3. Hyperphonation : cri dont le timbre se modifie brusquement. Il devient très aigu, sifflant et correspond à un état de détresse majeure, douleur importante, frustration. On peut le rapprocher des cris de détresse du chimpanzé qui comporte jusqu'à huit harmoniques et dont l'énergie se concentre sur les fréquences élevées (6 à 8 kHz) (Goustard, 1982).
Cette typologie laisse la place à de nombreux cas intermédiaires, à de nombreuses variations chez un même individu ou entre différents nouveau-nés. Ainsi les bébés de faible poids de naissance, prématurés ou non (souffrance intra-utérine ?), ceux qui présentent un état physiologique de fragilité (enfants " à risque ") et, plus généralement, tous les enfants considérés comme " plus difficiles " par leur mère (Zeskind et Lester, 1978), s'expriment sur un mode plus " appelant ", plus " grinçant " et acoustiquement plus aigu. Leurs cris durent plus longtemps, sont plus fréquents et s'approchent de l'hyperphonation, d'autant que la situation est plus grave.
Les mères sont très souvent capables de reconnaître leur bébé à sa façon de crier et peuvent même ne s'éveiller que pour lui, continuant à dormir pour les vagissements d'un autre (Formby, 1967).
Des ultrasons dans la voix du bébé ?
C'est au moins ce que les travaux de Valérie Desjardins, et de l'équipe avec qui elle travaille, nous font prendre en compte !
Il ne faut pas plus de deux ou trois jours pour que la plupart des mères parviennent à reconnaître les pleurs et cris de leur bébé (Cismaresco, 1986). A trois semaines, elles savent ce que veut dire le " pleur truc " : simple désir d'attirer l'attention. Il s'agit de gémissements prolongés auxquels la mère ne répond pas toujours, attendant qu'ils se calment ou se transforment en véritables pleurs.
Bell et Ainsworth (1972) ont montré que ces caractéristiques individuelles des pleurs pouvaient beaucoup se modifier durant la première année de la vie selon l'attitude maternelle : plus elle répond vite, moins elle " laisse pleurer ", et plus diminuent la fréquence et la durée des cris et des larmes. Par ailleurs, plus le bébé continue à crier et pleurer, moins il se montre capable de communiquer par les gestes et d'autres formes vocales de communication. Inversement, plus la mère a pris soin de lui, moins il crie, plus il diversifie sa communication et moins il a besoin qu'on " s'occupe de lui " vers la fin de la première année. Lebovici (1983) insiste avec raison sur l'idée que la réponse rapide de la mère au bébé n'est pas utilisable en tant que " recette " : ses conséquences favorables étant très certainement dues à l'ambiance globale des relations mère-enfant, plus qu'à la réaction purement matérielle aux cris du bébé.
Les anomalies du cri, trop perçant, trop fort, etc., pourraient être à l'origine d'une dysharmonie entre la mère et l'enfant : elle risque de désinvestir le bébé, de répondre de façon mal adaptée à ses besoins. Ce qui, en retour, peut accroître les cris, amorçant ainsi un cercle vicieux. Une thérapie mère-enfant ou de l'un et l'autre séparément sera envisagée lorsque les choses n'évoluent pas dans le bon sens. Dans de tels cas, en effet, les sentiments positifs et négatifs pourraient aller à des extrêmes dans les deux sens.
On a voulu se servir de musiques variées, de la voix maternelle ou paternelle, de battements cardiaques (de borborygmes intestinaux), etc., pour calmer les pleurs du nouveau-né ou du nourrisson. Tous ces essais ont conduit au succès ; il semble d'ailleurs que n'importe quel son, pas trop intense, puisse avoir un effet d'apaisement sur les cris du bébé : ces derniers constituent un appel et le bruit modéré a une fonction rassurante, lié peut-être à la présence qu'il atteste (Bench, 1969). Les sons graves (qui rappellent l'époque utérine ?) ont un effet plus apaisant que les hautes fréquences.

Vers 1 mois

Le bébé cesse de pleurer quand on lui parle. Il s'essaie à de petits sons gutturaux : " lé-lé " ou " la-la " ou " a-a " (lallations). Comme nous l'avons déjà remarqué chez le nouveau-né, il distingue certains phonèmes pourtant très voisins tels que " p " et " b ". Pour le découvrir, Eimas (1971) fait correspondre aux mouvements de succion d'un bébé de trente jours le son " ba-ba-ba " : il montre son intérêt en suçant vigoureusement ; puis il s'y habitue et diminue son action. Dans un deuxième temps, on remplace " ba " par le son " pa " et le nourrisson manifeste qu'il a repéré ce changement en redoublant de mouvements sur la tétine (Eimas, 1971).

A partir de 2 mois : le babil

Il s'immobilise ou tourne la tête quand on lui parle. Il émet des vocalises différenciées (voyelles orales surtout antérieures : " ah ", " eh ", " oh ") isolées et occasionnelles, souvent gutturales, de petits cris brefs et clairs et des couinements de plaisir. Parmi les consonnes (parfois difficiles à transcrire phonétiquement) : " p ", " b ", " t/d ", " rr " (Campos, 1988). Même dans leur aspect le plus primitif, ces chants (lallations) ne sont pas dépourvus de structure ni formés au hasard ; bien au contraire, ces efforts de débutant assureront la base des performances ultérieures, fussent-elles très sophistiquées [4] .

3 mois : souris et gazouillis

C'est le stade [5] du " gazouillis " de Pichon [6] . La vue du visage humain provoque son sourire (Spitz, 1968). Il ne se contente plus de crier, il fait appel à vous pour dire son besoin (Bühler, 1934 ; Lacan, 1975a). Il se met à jouer - même quand il est seul : vocalisations prolongées (avec les mêmes sons qu'à deux mois qu'il maîtrise de mieux en mieux [7] ). Et d'essayer " are-are ", " ague-ague " ou " agre-agre ". Il parle " en langues ", concoctant même des consonnes étrangères. Ces premiers " marqueurs phonologiques " (Bruner, 1976) inaugurent les futures oppositions sémantiques. Cette empreinte mélodique [8] inscrite dans les processus articulatoires supportera l'apprentissage linguistique ultérieur. Début certes ! Marquant l'ineffable continuité du réel que s'efforce de gommer notre effort de clarté conceptuelle !
Entre trois et six mois, le bébé commence à répondre activement à la musique au lieu de la recevoir passivement : il se tourne vers le violon ou le tam-tam ! Son plaisir est évident ! Il s'étonne ! Il invente la danse, exécutant des mouvements d'accompagnement assez bien rythmés. Il se montre même capable de distinguer deux mélodies (chromatiquement différentes). En revanche, si la mélodie est transposée à l'octave, il ne fera pas la différence !
A la même époque (quatre mois, dit-on), il tourne la tête pour regarder quand on l'appelle. Il reprend, à la suite de sa mère et dans son ton, rit aux éclats, répond par des modulations variées aux paroles qu'on lui adresse.
De fait, c'est à cette période que la mère commence à nommer son enfant, à s'adresser à lui sous un prénom au lieu de se cantonner à quelques vagues mots doux (" ma bibiche ", etc.) (Robin, 1985). Elle vocalise puis marque une pause, recommence, et encore, et encore. Comme un discours fait de phrases. Ces " phrases " sont composées de phonèmes appartenant à sa langue mais pas forcément de mots. Elle allonge les voyelles, majore les aigus, ralentit le passage d'un timbre de voix à l'autre (d'où un caractère chantonnant).
On s'aperçoit qu'elle répète plusieurs fois le même ensemble de sons et avec la même durée. Ceci contribue puissamment à l'apprentissage des phonèmes et de la mélodie de la parole (intonations), que la société reconnaît exprimer la joie, la surprise, la menace, etc. Il y a dialogue chantant, antienne et répons, unissons, plaisir partagé (Stern, 1975, 1981). Elle lui demande déjà : " Qu'est-ce que tu racontes ? ", prévoyant qu'il vient à l'univers du conte et de la fable, au monde imaginal...

5 mois : première chanson

Lacan nous a donné le stade du miroir : après avoir, selon toutes sortes de modalités, y compris visuelles, identifié sa mère, le bébé s'identifie à elle comme unité personnante et à l'icône (Peirce, 1885) qu'elle a de lui (projets, regrets, enthousiasmes, déconvenues, traits fantomatiques et idolâtres, etc.). Lézine (1977) a insisté sur l'importance du " parler bébé " pour introduire le nourrisson au langage, ancrer, pour ainsi dire, les phonèmes dans son corps (Ebtinger, 1984). Incarnation préparatoire à l'opération de l'esprit qui engendrera l'avènement symbolique.
Il pousse des cris de joie (aigus), rit et vocalise en manipulant ses jouets. Cette vocalisation semble de type prémusical plutôt que prélangagier : sons de hauteurs variées modulant une voyelle ou très peu de syllabes (" ba ", " gue ", " ké "). Avant d'apprendre, il s'ingénie : ses chants ne doivent rien aux transistors et compacts... de l'environnement, construits en dehors de tout système diatonique, rythmiquement amorphes (les pauses surviennent selon les besoins de la respiration).
Cet exercice ludique du chant spontané va se poursuivre, se perfectionner et se socialiser tout au long de la première année. A la même époque le bébé reconnaît les changements qu'on fait subir au contour mélodique, à la zone fréquentielle ou à la structure rythmique. Dowling (1982) a montré que l'adulte ne procède pas autrement s'il se trouve confronté à des productions atonales ou des mélodies éloignées de sa propre culture.

6 mois : bébé se déchaîne [9]

En réponse ou en prévision des compétences accrues et toujours croissantes du bébé, la maman utilise des stratégies aptes à favoriser ces acquisitions : elle monte la hauteur de sa voix, surtout en fin de " phrase ", parle de manière chantante, se fait parfois confidentielle, chuchotant les premiers mystères, ou solennelle, exprimant avec faste et lenteur quelque vérité première ! Elle y emploie des mots choisis (pour leur simplicité), des expressions brèves, avec peu de variantes, moultes fois reprises (Rondal, 1983 ; Lhuillier, 1988).
Jusque-là, depuis la conception, les échanges de matières et d'informations ne méritaient le terme de dialogue que par abus. A ce proto-dialogue se substitue peu à peu un échange authentique dans lequel l'enfant se met à jouer sa partie avec initiative ! L'alternance des rôles s'institue, le découpage du monde, tel que le foyer le transmet, à travers tous les gestes - et déjà les mots - de la mère et de ses adjoints, devient un bien partagé qui permet au bébé de manifester certaines relations entre les événements, les choses et les personnes.
On a parlé d'un " déchaînement psycho-moteur ", à cet âge : il s'assoit, se retourne, rampe, saisit les objets... Il crée certaines sonorités avec des instruments de musique improvisés : par exemple, il tape sur la table ou la frotte avec une cuiller. Il se " gargarise " avec sa voix (préverbiage), faisant des roulades (modulations variées avec changement de ton : sons comme " rrr " ou " gurgur " reproduits en série). Il exerce les labiales " ppp ", " bbb ", avec projection de salive. Il peut imiter la hauteur, la faire varier, détecter les changements du contour mélodique.
A ces premières libertés s'opposent les premières interdictions : " laisse cet objet ", " ne touche pas ça ", et les premières références à une responsabilité volontaire : " Qu'est-ce que tu veux ? " A cette étape s'épanouit la " fonction instrumentale " que Halliday (1975) symbolise, précisément, par " je veux... " (pour décrire l'interaction avec les adultes).

7 mois : attention ! il mord

Il vocalise plusieurs syllabes bien définies (combinaisons de labiales et de voyelles, apparition de dentales avec voyelles, syllabes nettes : " ba ", " da ", " ta ", " pa ") [10] . Apparaissent aussi " l ", " y ", " s ", " v ", des diphtongues (sia, lia, boi)... En fait, toutes sortes de consonnes, inconnues dans la langue maternelle, font partie du jeu (Rondal, 1979). C'est par la suite, comme il advient pour les neurones et les synapses, que les sélections définitives s'opéreront ; si bien que nous aurons, plus grands, toutes sortes d'avanies à subir pour accéder aux langues étrangères.

8 mois : coucou [11]  !

Nous assistons aux premières tentatives pour se séparer de la mère (en rampant) sans perdre son contact (par le regard ou les bruits). Il jette un objet puis le réclame (" jeu de la bobine " décrit par Freud), tâchant, sur le plan émotionnel, de maîtriser le degré de proximité de l'" objet maternel ".
Il participe à " coucou me voilà ", se cache, se montre en appelant avec une excitation joyeuse. En revanche, il manifeste de l'angoisse à la vue d'un visage étranger (Spitz, 1968). La crainte ou le vécu d'un abandon plus ou moins réel (maladie ou voyage d'un proche) peut entraîner des cris fréquents, une tristesse dont l'entourage ne comprend pas toujours le sens : il est à rechercher dans ce que Le Senne (1934) appellera les " dialectiques de séparation ", consistant à considérer comme absolus les obstacles qui nous séparent d'autrui (aussi bien que de Dieu et du monde).
Il accède au vécu de la Présence et de l'Absence (Lacan, 1953-1975, p. 53) et, par là, montre qu'il a constitué une image stable, dès lors nommable comme personne (Lavelle, 1951). De fait, Jean Piaget a montré que, vers cette époque, le jeune enfant apprend à admettre la " permanence des objets ", même lorsqu'ils échappent à sa perception. L'édification d'images stables, la conjugaison de la présence et de l'absence, permettent de construire des lieux et des temps : à partir de quoi peuvent commencer les questions ! Et la nuance interrogative de pénétrer l'intonation (Lhuillier, 1988). On assiste ainsi à la maturation de la fonction régulatrice (" Fais ce que je te dis... "), de l'intention significative (Halliday, 1975). La maman en rajoute qui lui demande, à la sortie de la crèche : " Raconte à maman ce que tu as fait aujourd'hui. "
Il commence à " fabriquer " des sons, frappant deux objets l'un contre l'autre de plusieurs façons pour jouïr du résultat entendu et en tirer de la fierté : c'est le début de la musique instrumentale ! Il élimine progressivement certaines possibilités de vocalisation, par abandon des gestes vocaux sans valeur pour l'entourage. Les formants deviennent plus graves et s'organisent (Pfauwadel, 1981).

9 mois : et le voilà qui jase [12]  !

Son babillage s'appelle maintenant " jasis [13]  " : il comporte des creaks qui évoquent " de la friture sur la ligne ". Le squealing (que sauront retrouver les adultes du Roy Hart) est un énoncé dans l'extrême aigu (1 200 Hz, ce qui est très élevé pour un fondamental), émis sans crier et même faiblement. Il chante aussi ! Et des mélodies assez variées : descendantes, plates, en pin-pon, ondulantes, complexes, etc.
Le proto-langage est utilisé plus rarement et se laisse repérer à quelques oppositions par rapport au précédent : tessiture réduite, plus grande stabilité acoustique, simplification mélodique. Ça ressemble de plus en plus à une parole ! On dirait qu'il raconte quelque chose ! Il montre sa capacité d'imiter des modèles sonores nouveaux et de dépasser son " répertoire " personnel par imitation des phonèmes qu'il entend (écholalie).
Il s'amuse à faire des onomatopées, imite la mélodie du langage adulte, peut dire un mot de deux syllabes (" papa ", " maman " ou autre) avec un sens, et réagit à certaines expressions familières. En bref, il se met à comprendre " en gros " ce qu'on lui dit.
Vers cette époque (cela peut aller de 6 à 18 mois), il arrive que s'installe une curieuse affection : le " spasme du sanglot ". Dans la " forme bleue ", il crie et sanglote à la suite d'une réprimande ou d'une frustration, puis il se met à respirer très fort jusqu'à se bloquer, poumons pleins : il devient bleu et perd connaissance. Dans la " forme pâle ", à la suite d'une émotion intense, il crie puis pâlit et tombe. On observe parfois des contractures (opisthotonos), des secousses musculaires, un plafonnement du regard. Tout ceci présente, en soi, peu de gravité et tend à disparaître vers 3 ans.

A partir de 10 mois : au trot, la parlote !

L'enfant comprend une défense, peut arrêter un acte si on lui en donne l'ordre, peut donner son assentiment, devient capable de " détour ", de " distance " (dans certaines limites !).
Il se met à grouper des choses, à les aligner : genèse plus ou moins " nominaliste " de son apprentissage vers l'abstraction. Il dégage une sorte de logique concrète qui établit des relations matérielles : traîner et pousser des objets (âge " déménageur " de Gesell), arracher, casser, démonter, voir " ce qu'il y a dedans ".
Il montre beaucoup de goût pour l'imitation, les " singeries ", les analogies élémentaires.
Hubert Montagner et son équipe ont montré (chez l'enfant de 1 à 5 ans) certains enchaînements typiques de la communication usant volontiers de mimiques et de sons n'appartenant pas à la langue : amitié (tête penchée sur le côté, sourire, vocalisation, balancements du haut du corps), menace (vocalisation aiguë, bouche grande ouverte), agression (ruades, coups, etc.). C'est dire qu'il fait son entrée dans le collectif, le social élémentaire, qu'il accède à la " fonction interactionnelle " de Halliday (1975).
L'enfant se met à " faire de la musique ", créer des chants rudimentaires cependant qu'on assiste à un véritable " bourgeonnement verbal ". Il manifeste un vif intérêt pour les mots, il leur fait véritablement la chasse ; c'est là que démarrent les jeux syllabiques, les répétitions litaniques. Ces jeux avec les mots conduiront aux jeux de mots, conscients et inconscients de l'adulte : calembours, assonances, rimes, allitérations, double sens, lapsus, etc. Mais chaque terme revêt beaucoup plus de significations qu'il ne devrait, chacun est un " mot-valise " ; par exemple " bébé " pourra signifier tour à tour enfant, glace ou images.
C'est aussi (entre 12 et 18 mois) un mot-phrase (" caca ! " pour dire " je viens de faire mes selles "). Il s'agit en tout cas d'un langage social d'affirmation de soi, d'abord simple imitation de celui de l'adulte mais de plus en plus personnalisé, le vocabulaire s'enrichissant très vite. C'est à cela que correspond la " fonction personnelle " de Halliday (1975) ; pour lui, l'enfant veut exprimer sa présence : " Me voici ! Je fais... j'exprime. "

Vers 16 mois : virgilant

Les contrastes de l'intonation (suite de montées et de chutes) sont parfaitement intégrés ; de même les oppositions dans les durées (syllabes longues et brèves) tellement importantes dans certaines langues (Virgile !). C'est ainsi que s'exprime déjà une grande variété de sentiments : joie, tristesse, déception, mécontentement, etc.
La nasalisation des voyelles (qui pourrait avoir un lien avec une expression de la culpabilité) est maîtrisée. L'intention expressive intègre une fonction imaginative : " faisons semblant que... " (Halliday, 1975 ; Campos, 1988).

A partir de 18 mois : le " petit nègre "

Certaines vues d'ensemble deviennent possibles : au niveau de l'action, par exemple, l'enfant, après avoir accumulé les essais et les erreurs, arrête tout à coup son tâtonnement pour résoudre, instantanément, le problème. Sur le plan langagier le même phénomène de globalisation permet le début de la pré-phrase ou pseudo-phrase : deux puis trois mots sont utilisés ensemble sans souci de grammaire (" bébé dodo bobo " pour " je me suis cogné au lit et ça fait mal ") : parler " petit nègre ". Au plan fonctionnel, il manifeste l'intention de donner des informations (Halliday, 1975 : " J'ai quelque chose à te dire ").
La maman ou les éducateurs continuent à s'exprimer en " dialogue " avec l'enfant. Nicolay (1986) a montré que les productions verbales qui suscitent le mieux des réponses comportent environ cinq mots et durent à peu près une seconde. Des temps de silence, de repos doivent entrecouper ces stimulations, sous peine de lasser le petit.
Dans le domaine relationnel, c'est durant cette période, avec un maximum à 20 mois, que l'on observe le plus souvent le comportement d'offrande pour apaiser un agresseur ou nouer une relation (Montagner, 1978).
La musique est, elle aussi, globalisée : l'enfant multiplie les mouvements qui se coordonnent au rythme de la musique et peut même tenter de " danser " avec quelqu'un. Jusqu'à 19 mois ses chants développent des glissandi plutôt que des successions de notes. Ensuite il peut séparer les notes, utilisant les intervalles les plus communs chez les adultes, toutes cultures confondues : seconde majeure, tierce mineure, octave.
Le développement des intentions significatives (Halliday, 1975)
Age
Fonction
Intention Significative
 
6 mois
Fonction instrumentale
" Je veux... "
Ça
8 mois
Fonction régulatrice
" Fais ce que je te dis... "
Toi
10 mois
Fonction d'interaction
" Oui !... "
toi et moi Nous
12 mois
Fonction personnelle
" Me voici... je fais... "
Moi
14 mois
Fonction heuristique
" Dis-moi ... "
Quoi ?
16 mois
Fonction imaginative
" Faisons semblant que... "
Si
18 mois
Fonction informative
" J'ai quelque chose à te dire... "
Voici

 

Le jugement apparaît : " Ceci est cela. " Il sait employer les pronoms (tu, il) mais se désigne comme s'il était un autre (non avec " je " mais avec " il ") ! Il veut maintenant mettre, sur tout, une étiquette. Pour connaître le nom des objets, il les désigne d'un air interrogateur, disant : " qu'est-c'est-ça ? " Et lorsqu'on lui a répondu, il répète en écho. Puis, sans se lasser, repose la même question à un autre... pour vérifier le mot nouveau, l'entendre une fois de plus, socialiser, universaliser, symboliser... La poussée inconsciente qui le porte ainsi est liée, fondamentalement, à la découverte de la différence des sexes (Freud) et au besoin de s'orienter dans le monde, s'y repérer, s'y reconnaître (Campos, 1988). Les mots se réfèrent encore à des actions possibles plus qu'à des objets (Piaget) : ce sont des modèles plus que des concepts. Il fait aussi nombre d'acquisitions syntaxiques (phrases de plusieurs mots, verbes), intègre des analogies complexes.
Il devient capable de reproduire des portions de chansons entendues et les incorpore dans ses jeux, se laissant intoxiquer par telle ou telle phrase qu'il chante et rechante indéfiniment : il produit des hauteurs bien séparées, garde un contour mélodique et une structure rythmique constants. Ces répétitions l'entraînent à une maîtrise croissante de la voix. Elle se complexifie à force de répétitions. Ces processus sont parallèles et analogues à ceux qui règnent dans les acquisitions syntaxiques et les progrès biologiques en général (accumulation, masse critique, saut qualitatif) (j'opère cette généralisation en m'inspirant de Desprels-Fraysse, 1987).

A partir de 26 mois : parler et savoir dire " non ! "

Elle est bien connue des parents cette " période d'opposition " au cours de laquelle l'enfant manifeste sa différence, son individualité ; il emploie les pronoms " je ", " me ", " moi " : d'abord lorsqu'il est fortement ému, puis en toutes circonstances.
Au niveau du chant on observe l'utilisation des intervalles de seconde mineure, de tierce majeure puis de quarte et de quinte, et, d'une manière générale, l'acquisition des intervalles les plus spécifiques de la culture environnante. Aux alentours de 28 mois l'organisation rythmique est totalement acquise, les mots sont chantés avec le rythme exact.
Signes de surdité chez le jeune enfant (Dussert, 1987)
De 0 à 3 mois  Absence de réaction aux bruits inattendus,
sommeil trop calme
avec pourtant des réactions bien marquées au toucher.
De 3 à 12 mois Les sons émis ne sont pas mélodiques.
Pas de sons articulés.
Communique par gestes (montrer les objets).
Après 12 mois Pas de parole articulée
Emissions vocales incontrôlées
Ne remarque rien de ce qui s'entend et ne se voit pas.

A partir de 3 ans : pourquoi ?

Voici le lancinant " pourquoi ? ", " qui a fait (telle action ou tel objet) ? " Le questionnement s'adresse, dans sa racine, à la procréation... Pour Halliday (1975), les prémisses de cette " fonction heuristique " pourraient s'esquisser beaucoup plus tôt (14 mois), même en l'absence des mots les plus adéquats pour l'exprimer.
A coté de l'interrogatif, c'est l'exclamatif qui s'épanouit : l'enfant démontre de la crédulité et de la " naïveté " (l'absence d'esprit critique, de capacité d'analyse et de synthèse), une tendance au " subjectivisme égocentrique ". On note alors son goût pour les récits mythologiques, les contes de fées, le Père Noël, les enfants qui naissent dans les choux, etc. (ce besoin accompagne la formation de l'" idéal du moi "). Les prémisses de cette " fonction imaginative " (que Halliday caractérise par " faisons semblant, imaginons que ") pourraient être beaucoup plus précoces (vers 8 mois !).
L'impératif prend de l'importance, est recherché et s'intériorise : " il faut ", " on doit ", etc. (constitution du " surmoi ").
L'enfant utilise une modélisation concrète en guise de pensée, les sensations, images et action ont le pas sur la pensée-langage, le globalisme ou syncrétisme prévaut : l'enfant est " travaillé par le démon des analogies " (Mallarmé). Il insiste sur les oppositions exclusives (" ou bien, ou bien "). S'il dessine un bonhomme, c'est le " tadpole man ", le bonhomme têtard dans lequel l'ensemble de l'organisme est représenté par un cercle sur lequel se greffent les yeux, les bras et les jambes.
Au niveau musical, la chanson est, elle aussi, schématisée, réduite à sa structure essentielle (" outline songs " des chercheurs de Boston). Pourtant il accède à une véritable " conversation " et s'adonne volontiers à des jeux de signifiants, répétant à plaisir des mots qui lui paraissent étranges, difficiles ou comiques.
La prononciation des voyelles et semi-voyelles est progressivement maîtrisée jusque dans le détail (4 ans). Il conçoit le plan général d'une mélodie et fait ses délices de comptines auxquelles il ne comprend mie (Osterrieth, 1971)... S'il apprend à jouer d'un instrument, on voit parfois apparaître le phénomène de l'" oreille absolue [14]  " dont on a montré que sa présence chez l'adulte exigeait un apprentissage très précoce du solfège !
Pour Sébastien Bohler (Cerveau & Psycho) l’oreille absolue est un mythe surfait. Il explique "Certes, il est toujours impressionnant d’entendre un musicien donner en un tournemain le nom de la note de musique que vient de lui jouer un comparse, mais démystifions cette faculté : elle n’a rien d’un talent extralucide, et peut-être même l’oreille absolue ne serait-elle qu’une question d’apprentissage". En effet, il s'agit surtout de s'y prendre de bonne heure ...
L'enfant de quatre ans devient également capable de reproduire des rythmes simples et d'écouter attentivement certains morceaux de musique.
Les recherches de Carolyn Drake ( Cf HS La Recherche, 5, 85-87, 2001) ont montré que le tempo spontané des enfants se ralentit avec l'âge : à 4 ans l'IOI est de 400 ms, à 8 ans de 500 ms et à 10 ans de 600 ms. La dispersion des résultats selon les individus et pour chaque individu, selon la tâche qui lui est demandée s'accroissent également, ce qui montre l'effet de la culture sur ces paramètres et l'intérêt de la musique pour enrichir le fonctionnement du cerveau et du cervelet.

Entre 5 et 7 ans : l'école des fans

Au niveau dessin, l'enfant représente ce qu'il sait plutôt que ce qu'il voit (réalisme intellectuel de Luquet). Au niveau sonore, la musique tonale est mieux perçue que la musique atonale. Il peut évaluer les variations d'intensité (sons forts/faibles), sait comparer des morceaux simples au point de vue rythmique et tonal. Il améliore la justesse de son chant. Il possède un vaste répertoire de comptines locales qu'il reconnaît et apprend plus facilement que celles venues d'ailleurs. Pas question d'apprendre tout à la fois : d'abord les paroles, puis le rythme, ensuite le contour et finalement les intervalles. L'enfant affine et " remplit " les mailles du chant " ébauche " (" outline song ") constitué les années précédentes (cf. tableau ci-après). Il se montre d'autant plus " sûr " de lui qu'il s'agit de standards culturels tandis que ses propres créations sont plus hésitantes et moins stables.
Le " fondamental " de la voix s'abaisse un peu chez les deux sexes. De 7 ans à la puberté il va continuer à décroître, passant de 300 Hz à 250 chez la fille et de 270 à 180 chez le garçon. La maîtrise élocutoire des consonnes occlusives (5 ans) et fricatives (6 ans) ne pose plus de problème. Le codage verbal reste très instable et imparfait : les significations sont encore bien souvent approximatives, floues, incertaines.
1. Topologie Longueur, nombre et ordre des " phrases musicales " respectés, largement établis sur la structure du texte.
La pulsation sous-jacente est présente dans le chant.
La mesure est établie
2. Rythme de surface L'enfant peut capter le rythme de surface et le jouer note pour note sur un tambour en le synchronisant sur la pulsation sous-jacente.
Il chante approximativement, selon le contour mélodique, les vers les plus caractéristiques, mais ne peut maintenir la stabilité tonale d'un vers sur l'autre.
Il chante des intervalles différents d'une fois à l'autre.
3. Contour mélodique Il essaie d'harmoniser le contour des hauteurs pour chaque vers,
mais la stabilité tonale d'une partie à l'autre est encore absente ;
les intervalles varient encore selon les prestations.
4. Stabilité tonale Les trois étapes précédentes sont bien établies.
Claire projection d'un centre tonal à travers toutes les parties de la chanson quoique les intervalles puissent rester incorrects.
Il peut extraire la pulsation sous-jacente des rythmes de surface.
Apparition de la capacité d'opérer des transformations expressives (par ex. ralentir l'allure pour produire une version " triste ").
Etapes de l'acquisition du chant vers 5 ans
(d'après Davidson et al., 1981)

 

De 7 à 11 ans : savoir mentir ! est-ce bien raisonnable ?

" L'âge de raison " de l'Eglise catholique (Dolto, 1985) consacre l'accès à la " logique concrète " (Piaget) qui organise le réel mais pas encore le possible. La pensée fait retour sur elle-même, l'introspection apparaît, car l'enfant perd son ingénuité, se met à juger sa propre pensée, abandonne pas mal d'illusions (" père Noël "...) et devient capable de dessins réalistes (réalisme visuel de Luquet).
Il accède au monde du roman d'aventure de type chevaleresque et devient capable de mentir avec succès ; l'analyse et la synthèse deviennent accessibles, la logique se constitue ; " mais " et " pourtant " relativisent le discours.
La mort se découvre dans sa réalité définitive et se différencie d'une simple absence. A côté de la honte prend place la culpabilité. Au point de vue musical, la consonance est plus appréciée que la dissonance, et A. Zenatti situe dès cette époque l'accès à la polyphonie et le sens de l'harmonie... Les capacités de production rythmique croissent (8-9 ans).

Vers 9-10 ans : les Petits Chanteurs à la Croix de Bois

La mémoire mélodique se fortifie, le sens de la cadence est acquis : contrairement à ce que suggèrent des expressions comme " marcher en cadence ", " accélérer la cadence ", etc., ce terme, dérivé de cadenza (italien) et de cadere (" tomber " en latin), exprime la résolution musicale d'une tension. Après avoir obtenu un effet de suspense, de tension, d'incertitude ou d'inquiétude par quelque accord " dissonant ", le compositeur vous fait grâce et vous convie à la détente, une sorte d'accomplissement, par un accord plus consonant, voire parfait. Ce sentiment, qui comporte des éléments liés à la culture, dénote une maturation de l'écoute. En altérant d'une façon spécifique la " résolution " attendue par l'auditeur, on peut suggérer différentes formes de ponctuation (prosodèmes). La cadence introduit donc toute une expressivité prosodique dans le discours musical classique (cf. tableau ci-après). L'accès à la polyphonie, le sens de l'harmonie s'établissent au décours de la même période (10-11 ans) (mais plus tôt, vers 6-7 ans, pour Zenatti)...

 

Cadence Musicale
Signe de ponctuation
Signification
N° Chakra
Cadence parfaite
(dominante / tonique)
point final
terminé
VII
Semi-cadence
(tonique / dominante avec accord parfait)
point d'interrogation
question
VI
cadence plagale
(sous-dominante / tonique)
point d'exclamation
cri du coeur
V
Cadence rompue
(dominante / non tonique avec accord parfait)
deux points
énumération
IV
Cadence évitée
(dominante d'un ton / dominante d'un autre ton)
flèche
mouvement vers
III
Cadence phrygienne
points de suspension
indéfini, vague
II
Cadences et prosodèmes

 

A partir de 12 ans : maths et musique

Le voilà capable de raisonner sans se soucier de la valeur des prémisses. Le raisonnement " expérimental " devient également accessible [15] . A cette même époque Claparède situe la survenue d'un très grand intérêt pour la musique... La mue survient à la puberté sous l'influence des modifications hormonales ; le fondamental s'abaisse de trois à quatre tons chez la fille et d'une octave entière chez le garçon (fréquence moitié de sa voix d'enfant).

Après 70 ans : la voix des sages

En quelques mois, au moment où les caractères sexuels secondaires s'atténuent, la voix devient chevrotante (caricature du vibrato) et change de hauteur : elle devient plus aiguë chez l'homme, plus grave chez la femme. Les harmoniques mal répartis se raréfient et l'étendue vocale se rétrécit (Giovanni, 1987). La durée des mots, et des silences entre ces derniers, s'allonge. L'intensité peut s'accroître (en parallèle à la diminution des performances de l'écoute : presbyacousie, appauvrissement du traitement cognitif).

Le son des ages

Des astrophysiciens se sont plu à donner une représentation sonore de l'évolution de l'Univers depuis le Big-Bang.... (cliquez pour l'entendre)

Mesure de l'écoute : audiogramme

Le chapitre relatif à l'écoute nous a conduit à penser que la perception des sons se faisait non seulement par un processus anatomique et physiologique, mais comportait aussi des modalités, le plus souvent non conscientes, liées aux circonstances et à la personnalité. Cette remarque permet de distinguer deux façons de mesurer l'audition : selon qu'on la considère uniquement sous l'angle mécanique, quitte à faire la part du pauvre aux troubles fonctionnels auxquels on ne peut échapper (surdité psychogène), ou selon qu'on y implique, en permanence, l'ensemble du système nerveux et de la psyché. Dans la première hypothèse, il s'agit surtout de déterminer si le sujet est sourd ou en passe de le devenir, quel traitement chirurgical ou chimique il conviendrait d'appliquer, quelle prothèse conseiller, si la perte auditive constatée mérite quelque pécule en tant que maladie professionnelle, s'il s'agit d'un simulateur, etc. Toutes ces considérations sont nécessaires à l'art de l'oto-rhino-laryngologiste. Il s'en contente et montre quelque ironie au psychologue qui veut entrer dans des finesses dont il ne saurait que faire. De là résultent deux protocoles de test différents : audiogramme pour le premier, test d'écoute pour le second. Les appareils de mesure (audiomètres) sont semblables. Il existe pourtant des nuances notables dans la façon de s'en servir : l'ORL insiste, stimule l'attention, refait les mesures, en cas d'irrégularité de la courbe ; le psychologue prend des précautions afin de détecter ces irrégularités liées à une attention variable selon la fréquence. En fait, lorsque ces irrégularités sont très marquées, elles ne peuvent être facilement surmontées et peuvent passer pour une surdité localisée (" scotome " auditif).



 
L'entrée de l'électronique et de l'informatique en ce domaine laisse prévoir une modification profonde des appareillages qui permettront l'étude plus fine des seuils autour d'une fréquence problématique donnée, l'administration et l'enregistrement automatique des résultats, l'usage de stimuli moins ponctuels (bandes de bruit, série d'impulsions administrées avec une durée précise, à intervalle temporel maîtrisé, etc.).
Autrefois on se contentait - et c'est une pratique encore respectable lorsqu'on ne dispose pas d'un appareillage moderne - d'acoumétrie. Dans l'acoumétrie phonique, on se place à 6 mètres du sujet, dans l'axe de son conduit auditif et on parle à haute voix. S'il n'entend pas, il y a un déficit ; on s'approche alors à 5 mètres, 4 mètres, etc., pour évaluer la perte. On opère de même pour la voix chuchotée qui doit être perçue à 60 centimètre ; sinon, on approche à 50 centimètres, 40 centimètres, etc. Pour l'acoumétrie instrumentale, on disposait de diapasons qui conduisaient à une évaluation grossière de l'audition et ont permis à beaucoup d'auteurs ingénieux de nous laisser leur nom pour diverses épreuves encore utiles (tests de Weber, Schwabach, Bing, Rinne, Gellé, Lewis, Bonnier...).

L'audiométrie

On utilise un son pur. On l'adresse au sujet à une intensité très faible puis de plus en plus forte jusqu'à ce qu'il l'entende. On peut aussi partir d'une intensité qu'il perçoit et la diminuer jusqu'au moment où il ne l'entend plus. On aura ainsi déterminé le " seuil audiométrique " pour le son pur en question. On fera de même pour d'autres sons purs de façon à explorer les aigus, les médiums et les graves. Ces mesures seront effectuées pour chaque oreille, avec un casque d'écoute et avec un vibreur (conduction osseuse). Les fréquences sont exprimées en hertz (nombre de cycles par seconde) ; les intensités en décibels .
On porte alors la valeur obtenue sur un graphique qui permet une comparaison immédiate avec un seuil, théoriquement normal pour cette fréquence, qualifié de zéro dB. Les sujets plus compétents que la moyenne se verront attribuer des valeurs négatives (-5, -10 dB), alors que les sourds auront une valeur largement positive (+ 80, +100 db). On admet une marge d'erreur de 5 dB. Les stimulations peuvent être déclenchées par un opérateur humain ou régies automatiquement (appareil de Von Bekesy).
Le stimulus utilisé peut être un son pur sinusoïdal auquel on reprochera son caractère très artificiel, ou une voix humaine préenregistrée qui ne permet pas beaucoup de précision ni de finesse. On a cependant fait de notables progrès par l'utilisation de listes de logatomes (mots sans signification) et de listes phonétiques (Lafon). Certains praticiens préconisent maintenant un type de stimulus à la fois bien calibré et précis, comme dans l'audiométrie " tonale " traditionnelle et cependant pas trop éloigné de ce que l'oreille a coutume de capter (comme dans l'audiométrie " vocale "). Il s'agira par exemple de bandes étroites de bruit " blanc " filtré ou, mieux, de son wobulé.
Ces procédés passent nécessairement par la coopération active et consciente du sujet qui doit, par exemple, lever la main ou actionner un bouton poussoir lorsqu'il entend (ou n'entend plus) le signal. Si le patient cherche, dans le cadre d'un examen de santé militaire ou pour une expertise, à passer pour handicapé, il lui est loisible de tricher. De même certains troubles de la personnalité peuvent conduire à fausser les résultats ou même à interdire carrément l'examen !
Nombre d'animaux ont des performances d'audition bien supérieures à l'oreille humaine. La technologie elle même relève le défi et permet une sensibilité 1 000 000 de fois meilleure que l'ouïe humaine, comme l'indique l'information ci-contre =>


Pour éviter toute tricherie et vérifier le bon fonctionnement de la cochlée elle-même, d'une manière aussi " pure " et objective que possible, on peut mesurer directement les décharges qui en émanent (électrocochléographie). On peut également avoir certaines indications concernant surtout le fonctionnement de l'oreille moyenne (caisse du tympan, chaîne des osselets) grâce à l'impédancemétrie.

Potentiel évoqué auditif (PEA)

On s'est avisé que la réception sonore s'accompagne, comme tout processus sensoriel, de phénomènes électriques. Ils courent de la cochlée au cortex. Les O.R.L. ont su en tirer parti pour mettre au point un examen " objectif " de l'audition, qui permet de faire correspondre à une centaine de clics une série de " potentiels évoqués " recueillis sur le cuir chevelu. On en fait la moyenne pour mieux les différencier des autres événements électriques du tronc cérébral qui produisent un important et permanent " bruit de fond ". On peut ainsi déterminer un seuil de l'audition et supputer où se trouvent certaines lésions, lorsqu'elles existent (fig. 10).
Cependant, l'écoute n'est pas seulement liée au bon état de marche des différents organes par lesquels elle transite. Même si l'oreille externe, l'oreille moyenne, l'oreille interne, le nerf auditif et les différents centres récepteurs du cerveau sont intacts et parfaitement aptes à fonctionner, il peut exister certaines distorsions de l'écoute telles que certaines fréquences soient moins bien perçues que d'autres. Ce phénomène appelle immédiatement deux questions : tout d'abord, quels mécanismes sont en jeu ? puis, pour quelle raison ce processus est-il activé plutôt pour telle fréquence que pour une autre ? Subsidiairement, ces distorsions ont-elles un fondement adaptatif ; l'organisme a-t-il - ou a-t-il pu avoir - intérêt à procéder de la sorte ?

Mécanismes

Une première éventualité tient aux contractions des muscles mis en jeu pour écouter : muscles du pavillon, muscles de la tête et du cou qui en modifient l'orientation et permettent ainsi de faire varier le rapport des graves et des aigus pour une source un tant soit peu éloignée. Ceci est surtout vrai chez l'animal, par exemple le chien ou le chat, tout à fait habitués à " dresser l'oreille " d'une façon bien plus concrète que nous.
Fig. 10. Potentiel évoqué auditif chez l'homme (P.E.A.) se trouve sur l'ouvrage papier....
On a représenté, sur une échelle Log du temps, la réponse au clic, avec ses diverses composantes. Cette réponse est en réalité la somme, moyennée par ordinateur, de 100 réponses à autant de clics successifs. Une déviation vers le haut désigne une activité négative par rapport à la référence (N) et vers le bas une composante positive (P) (Buser, p. 321).

Composantes à latence brève : I à VI (d'origine sous-corticale)
  • I : nerf auditif
  • II : noyau cochléaire
  • III : complexe olivaire supérieur
  • IV : région pontique
  • V : colliculus inférieur
  • VI : corps genouillé médian
Composantes à latence moyenne : No à Nb (d'origine temporale)
Composantes à longue latence : P1 à N2 (d'origine fronto-centrale)

N'oublions pas qu'il existe aussi des muscles dans l'oreille moyenne pour tirer sur les petits os de la caisse du tympan : muscles de l'étrier et du marteau. Nous savons déjà qu'ils affaiblissent ou favorisent, selon nos besoins, les aigus et les graves de manière spécifique. Selon ce que nous craignons ou désirons entendre, des réglages incessants se produisent, si bien qu'on a pu dire qu'ils étaient des muscles toujours " au charbon ", sans relâche, comme le coeur !
Une autre source de variation de l'audition selon la fréquence considérée réside probablement au niveau des influx que les centres supérieurs envoient aux cellules ciliées externes. C'est par ce biais que pourraient avoir lieu des effets très " pointus ", ne touchant qu'une bande étroite de fréquences.

La liste des effets néfastes du tabac sur la santé semble sans fin : facteur de risque cardio-vasculaire, cancers, grossesse à risque, peau terne, etc ... Jusque ici, l'effet du tabac sur l'audition n'était pas le plus connu ; on en sait désormais un peu plus grâce à une étude japonaise qui met en évidence les effets délétères du tabac sur l'ouïe. Cette étude japonaise a été menée pendant 5 ans sur près de 1500 hommes ne présentant pas de problèmes auditifs au début de l'étude. Les résultats mettent en évidence que la consommation de tabac augmente le risque d'atteinte de l'audition dans les aigus ; plus la personne consomme de cigarettes, plus le risque est grand. En effet, en cas de consommation de plus d'un paquet et demi de cigarettes par jour, le risque de présenter une hypoacousie est multiplié par deux. Voilà une nouvelle qui vous fera peut être entendre la raison et entamer un sevrage tabagique !
effet du tabac sur l'audition

Fig. 11. Le champ auditif (Moch, 1985).
Les travaux de Pujol (1984, 1985) indiquent avec certitude que si les pertes auditives s'accompagnent d'acouphènes, ce n'est pas forcément " l'illustration délirante d'une reconstruction à la place d'une perte des informations sonores, non tolérée par le sujet " (Grateau, 1977), mais parfois, quoique assez rarement, un phénomène psychosomatique dépendant d'une création sonore réelle par le tapis des cellules ciliées externes demeurées opérationnelles alors que les cellules ciliées internes auraient, en partie, perdu leur fonction. C'est dans de tels cas que les physiologistes sont en mesure d'enregistrer un son réel émanant de l'oreille.
A côté de ce phénomène étrange et exceptionnel, on a expliqué certains acouphènes par la destruction de cellules ciliées externes, destruction accompagnant une forme de surdité, d'hypoacousie ou de scotome auditifs. Là où manquent ces cellules, le système auditif ne transmet au cerveau aucune information exploitable et les zones du cortex pourraient avoir tendance à créer du bruit pour compenser cette perte. C'est ce phénomène de "son fantome" (semblable au problème si pénible du membre fantome) qui expliquerait les acouphènes dont les fréquences sont dans la fourchette des vibrations externes inaccessibles.
Non seulement notre système d'écoute peut se rendre attentif ou sourd à certaines fréquences ou certains patterns spectraux, mais il peut aussi construire de toutes pièces des sons fantômes, comme dans le cas des " sons de Zwicker " (1964). Il a découvert que l'écoute prolongée d'un bruit duquel on a supprimé une demi-octave dans un lieu précis du spectre entraîne ensuite chez le sujet d'entendre un son qui n'existe pas et dont la fréquence apparente est située, précisément, dans l'encoche qu'on avait ménagée !
On peut rapprocher ce mécanisme d'un phénomène beaucoup plus central survenant lors des processus d'intériorisation choisie (yoga, soufisme, etc.) ou subie (attitude de rêverie poétique, introversion excessive, isolement sensoriel, préalable d'une perte de connaissance brève, dépression très intense avec désinvestissement massif de l'environnement, phénomène critique de dépersonnalisation, débuts d'hallucinations auditives, etc). Tout se passe alors comme s'il se produisait une déafférentation des organes cellulaires périphériques de type fonctionnel avec pour conséquence une création de novo par le cortex des sons ainsi perdus... Il existe aussi des formes curieuses d'acouphène liè à certaines tension craniennes, par exemple au niveau de la machoire.
De tels acouphènes peuvent être nettement localisés et ne surviennent parfois, dans des cas très léger que lors d'appui sur l'os cranien ou la machoire (son souvent de type très fin, très aigu). On peut imaginer que certaines tensions ou discrètes malpositions puissent avoir un impact sensibilisateur sur ce phénomène. Il ne s'agit pas forcément d'un phénomène pathologique. C'est un signe très sensible que vous pouvez tester sur vous-même : appuyez avec la main droite sur votre crâne, au dessus de l'oreille, à droite (ou de même avec la main gauche, à gauche) et un grand nombre d'entre vous entendre un son très fin et très aigu, aux alentours de 6 ou 8 KHz. Ceci est fréquent même parmi ceux qui ont une excellente oreille (musiciens),
Une forme d'acouphène peut correspondre à l'audition de sons "internes". Tomatis a souvent insisté sur le rôle de "faiseur de silence" qu'on doit attribuer à notre oreille. Si ce système perd son efficacité, on pourra entendre des sons généralement ignorés : vibrations osseuses (cf le phénomène de paracousie lointaine), bruits de la respiration et surtout de la circulation. C'est probablement ce qui arrive à Boris Goudounov lorsqu'il se plaint du remords :
"qu'il te vienne une tache, une seule tache, par hasard, et l'âme brûle comme d'une pestilence, et le coeur s'emplit de poison, et l'on traîne un boulet, et des marteaux vous battent aux oreilles le reproche et la malédiction. Et l'on ne sait quoi vous étouffe... et la tête vous tourne... devant vos yeux, l'enfant ensanglanté" ( (Pouchkine et Moussorgski, version originale de 1869 publiée par le Théatre du Capitole de Toulouse, 2005, Cinquième Tableau).
Il est convenable d'imaginer que, lors d'une déconnexion sensorielle auditive liée à l'absence des stimuli externes ou à une inhibition de leur perception (au cours d'une attitude très introvertie), un phénomène similaire puisse se produire. Ceci expliquerait l'apparition de " sons mystiques ", lors des sessions de méditation ou d'oraison. On en connaît de nombreux stades allant du " murmure indistinct d'un cours d'eau " (Padoux, 1975, p. 90) aux " sons de cloches ". Il a été largement décrit par les soufis islamiques (Gardet, 1950, p. 359) aussi bien que par les yogis hindouistes (Padoux ,1975, p. 38, 86, 106 et 159) ou certains chercheurs occidentaux (" bruit moléculaire ", " bruit de vie " de Tomatis, 1981, p. 151). On sait que ces manifestations (dont certaines peuvent survenir à la première phase de l'attaque d'hystérie classique : Tourette, 1895, t. I, p. 21) ne sont pas retenues dans le cadre des phénomènes surnaturels par la théologie catholique et sont considérées comme de simples incidents de parcours par la plupart des spiritualités orientales.
Les phénomènes actifs, cette émission de vibrations qui accompagne l'écoute, ne sont pas seulement une découverte " culturelle ", aussi gratuite que fondamentale, propre à exciter notre esprit ; on peut en utiliser la mesure pour détecter certaines formes de surdité.
Zwicker a montré que les seuils auditifs sont meilleurs à la fréquence des oto-émissions-acoustiques quand elles existent : tout se passe alors comme si le sujet générait en permanence le son auquel il sera le plus sensible. D'où l'hypothèse (Aran, 1988) qu'il engendre le son qu'il tend à viser : soit qu'il désire, soit qu'il craigne de l'entendre (pour des raisons conscientes ou non), soit, plus simplement, qu'il l'imagine (y compris parce qu'on en a évoqué devant lui la survenue). Ceci permet à l'écoute d'atteindre la limite quantique (Bialek, 1984). Bien sûr, rien ne permet d'exclure une action plus haut située qui modifierait le signal en provenance des cellules réceptrices.
Je ne doute pas que ces différents facteurs puissent jouer un rôle variable en fonction d'un grand nombre de paramètres externes ou internes (heure de la journée, paysage sonore, humeur du moment, intérêt de l'action menée, dangers encourus, plaisirs escomptés, etc.). Ce rôle continu, producteur de modifications aléatoires dans les seuils auditifs aux différentes fréquences, ne peut éliminer l'éventuelle existence, chez certains sujets, de distorsions stables, affectant de la même façon, quel que soit le moment test, certaine(s) bande(s) de fréquences, toujours identique(s) chez un sujet donné. Notre pratique attentive de la mesure des seuils chez des centaines de patients, depuis plus de dix ans, nous permet de confirmer l'existence de ce fait.
Ces distorsions peuvent fort bien, tout comme une surdité psychogène globale, être d'origine psychique : scotomes " fonctionnels " ou " attentionnels ". Les phénomènes attentionnels interviennent aussi pour modifier la perception de la hauteur tonale : lorsqu'un harmonique du son test est plus " intéressant " chez un sujet donné que le son de référence lui-même, il peut induire cette personne à confondre leurs hauteurs.
Dans un son complexe périodique, certains harmoniques sont privilégiés, soit en raison de caractéristiques tenant au système nerveux en général, soit en fonction de particularités individuelles. Celles-ci nous intéressent spécialement, car, à l'instar des seuils d'écoute, elles permettent d'évaluer l'attraction ou la répulsion du sujet pour telle ou telle zone de fréquences.
L'expérience suivante (Moore, 1985) pourrait probablement se muer en test : dans un son périodique complexe formé par addition de fréquences ayant toutes la même amplitude (1f, 2f, 3f, 4f, 5f), on augmente de 2 ou 3 % la fréquence de l'une d'elles. Le sujet perçoit alors que la hauteur fondamentale du son global est plus élevée. Cette illusion est plus ou moins forte selon l'harmonique qui a été modifié : plus elle l'est et plus cet harmonique sera considéré comme important pour cette personne.
Nous avons parlé plus haut des sons fantômes de Zwicker : ceci rejoint une caractéristique tout à fait générale dans les réseaux de neurone : les populations de cellules excitées inhibent leurs voisines, renforçant ainsi les contrastes. Ce phénomène est redoublé quand une population silencieuse est prise en sandwich entre deux autres qui sont excitées. Quand l'excitation s'arrête, il y a une forte inhibition des cellules qui parlaient et désinhibition des zones silencieuses : cela peut aller jusqu'à leur " donner la parole " ! C'est bien là ce qui se passe. En thérapie, lorsque nous observons des courbes très distordues, plutôt que de combler les trous par des surstimulations et d'atténuer les hypersensibilités par des privations (ce qui, bien souvent, aggrave les distorsions, comme si l'individu défendait ses positions menacées), nous pratiquons à l'envers, homéopathiquement pourrait-on dire : en adressant au patient des sons filtrés non pas contre mais selon ses distorsions ! Là où il a un scotome nous réjectons, là où il a une hypersensibilité nous filtrons en passe-bande. Autrement dit, nous atténuons ce qu'il refuse et exagérons ce qui l'attire. Il se montre ensuite beaucoup mieux capable de percevoir correctement tous les sons sans déficit ni exagération et d'acquérir ainsi une courbe d'écoute plus lisse !

Hypothèses quant aux localisations fréquentielles

Pour quelle raison notre organisme devrait-il se centrer sur certaines " formes acoustiques ", certains " patterns sonores " ? D'un point de vue adaptatif, il a intérêt à éliminer où mettre en vedette certaines informations profitables. Il peut ainsi se rendre sourd à un bruit répétitif et devenir hypersensible à ce qui se rapproche d'une information essentielle, désirable ou terrifiante (approche d'un être chéri où d'un ennemi).
La deuxième raison de cette capacité tient à ce que l'organisme établirait, par construction, un lien entre sa structure énergétique d'ensemble (l'investissement relatif des différentes parties du système bio-psychologique) et les différentes parties de l'audiogramme tonal. Ceci en raison d'une loi plus générale se rapportant à tout système fonctionnant comme une unité  : dans une telle unité, la structure spatio-temporelle d'un élément comporte des variations dépendantes de la structure spatio-temporelle de l'ensemble et inversement. La deuxième explication pourrait, si elle était retenue, faire plus ou moins bon ménage, selon les données biographiques, avec la première. La première hypothèse devrait faire l'objet d'études, de type idiographique ou psychanalytique. La seconde se prête mieux à la statistique et nous montrerons plus loin qu'elle n'est pas sans fondement.
Tomatis (1972) a signalé le premier l'existence possible, et même fréquente, chez le sujet non sourd, de " distorsions " audiométriques. Il propose de les évaluer en fonction d'une écoute idéale qu'il définit ainsi : " La courbe est ascendante avec une pente de 6 dB/octave, de 125 Hz à 2 ou 3 000 Hz, c'est-à-dire que le profil de la courbe obtenue dessine alors le schéma d'une ascension fréquentielle d'octave en octave - puis légèrement descendante au-delà de 3 000 Hz (tout au moins en ce qui concerne l'oreille française). " Une telle courbe serait tout à fait indispensable au violoniste, au chanteur de haut niveau, au mélomane de goût. Une courbe " trop plate " signerait un esprit manquant de discrimination, de compréhension musicale.
Lorsqu'il y a des troubles adaptatifs ou somatiques, on assisterait à des modifications (trop bonne ou trop mauvaise écoute relative), pour une fréquence ou toute une série de fréquences : trop bonne écoute des graves, faiblesse des aigus ou, plus rarement, fléchissement dans les médiums, déséquilibre entre courbe de l'oreille gauche et de la droite, etc.
L'acquisition de la " courbe idéale " correspondrait à " l'harmonisation du jeu des deux muscles de l'oreille moyenne permettant de régler en permanence la pression de la vésicule labyrinthique en faisant intervenir les phénomènes de moindre impédance " (Tomatis, 1974a). En revanche " les distorsions qui s'installent, les blocages qui s'instituent, les défaillances qui apparaissent, ne sont là que pour freiner la motivation, empêcher l'échange, perturber le dialogue, troubler la communication ". Ces affirmations dérivent à la fois de la pratique empirique de l'auteur et de son goût pour la généralisation et la simplicité. Nous avons vu que les recherches les plus récentes sur le fonctionnement des cellules ciliées externes de la cochlée complètent l'explication par d'autres processus, allant dans le même sens, et permettant de rendre compte des distorsions limitées à une bande de fréquences très étroite, y compris dans les médiums !
A. Tomatis propose de lire le test d'écoute en accordant des significations différentes aux différentes zones spectrales  :
1. De 125 à 1 000 Hz, il s'agirait de la " viscéralité ", de l'" ego ", de l'" inconscient " (?)... Il remarque chez les sujets préoccupés de leur santé l'existence de perturbations, de " pointes " dans cette région.
2. De 1 000 à 2 000 Hz : le langage, la communication à autrui. Les distorsions, lorsqu'elles touchent les médiums seraient un signe d'agressivité.
3. De 2 000 à 8 000 Hz : la spiritualité, l'intuition, l'idéal, les aspirations.
Cette tripartition est tout à fait analogue (aux connotations idéologiques près) à la topique freudienne (ça, moi, surmoi), et au symbolisme de l'espace des graphologues. La courbe en pente descendante des graves aux aigus serait signe de dépression ou de fatigue.
L'auteur propose aussi des correspondances qui permettraient (à la limite) de poser un diagnostic somatique sur l'examen de l'audiogramme !... " On peut lire sur un test d'écoute l'image du corps intégrée, depuis les pieds (fréquences graves) jusqu'à la tête " (fréquences aiguës) (ibidem, p. 27). A 125 Hz, c'est le bassin, les pieds, les organes génitaux et la sexualité. A 250 Hz, la jonction bassin-lombes, le genou, le colon. A 500 Hz, la jonction dorso-lombaire, le coude, l'intestin grêle, les problèmes dermatologiques. A 750 Hz, la vésicule biliaire, les problèmes hépatiques. A 1 000 Hz, la région médio-dorsale et l'estomac. A 1 500 Hz, la partie dorso-cervicale et les poumons. C'est là que se manifesteront l'asthme, les rhinites allergiques, les toux psychogènes et l'eczéma (confirmé par Bérard, 1982). A 2 000 Hz, la région cervico-occipitale. A 3 000 Hz, le crâne en sa partie haute.
Il propose encore une projection du crâne sur l'ensemble de l'audiogramme, de sorte que la dominance des graves entraînerait un port de tête où le menton s'élève (lordose cervicale exagérée), la courbe idéale plaçant le crâne verticalement, avec effacement de la lordose !
Guy Bérard (1982) a proposé de noter, outre le seuil de l'écoute, celui du refus. Pour chaque fréquence testée, il commence par les intensités les plus faibles jusqu'à déterminer le seuil de perception (par ex. 5 dB), puis il augmente progressivement jusqu'à 100 dB. Dans certains cas, le sujet présente une intolérance accusée, à des intensités bien inférieures au seuil courant de la douleur (par ex. il jette le casque à 40 dB). Cette découverte est importante car elle enrichit le test d'écoute, permet une interprétation plus fine et conduit à certaines mesures thérapeutiques dont nous aurons à reparler.
Une déficience auditive partielle pour les sons purs, tout comme une résistance à la stimulation auditive se voient assez fréquemment chez les enfants atteints d'une dysphasie réceptive. On comprend l'intérêt qu'il y a, dans de tels cas, à utiliser des exercices automatiques de stimulations auditives (par oreille électronique ou lexiphone).
Une évaluation de la dynamique de l'oreille pour chaque fréquence testée est proposée aussi par H. Urgell (Charles, 1982), afin de proposer pour le sourd certaines caractéristiques de la prothèse optimale. Une relation extrêmement intéressante et encore mal expliquée semble relier la valeur de la différence (D) entre seuil liminaire et seuil douloureux (par ex. 70 dB HL) et la valeur (R) qui sépare le seuil liminaire pour commencer à entendre quand on part du silence et le seuil au-delà duquel on n'entend plus quand on décrit le parcours inverse (du son vers le silence) ; la relation empirique annoncée est linéaire en première approximation : D = 6 R. Cette découverte, si elle se confirme, permettra de tester les fréquences mal tolérées sans pour autant agresser le sujet par des intensités à la limite du supportable !
Les autistes sont connus pour être très souvent " phonophobes " à certains bruits particuliers (pour un de mes patients par exemple : bruit du moulin à café électrique de ses parents). La proposition de Bérard conduit à considérer qu'ils sont beaucoup plus perturbés au niveau de leur courbe d'intolérance sonore que de leur courbe d'écoute. En fait, les recherches sur les potentiels évoqués dans l'autisme (Garreau, 1988) ont montré qu'il existait trois catégories de PEA corticaux correspondant à deux formes d'autisme : PEA semblables au sujet non autiste, PEA de très faible amplitude, PEA de très grande amplitude. Les PEA faibles se voient chez l'autiste insensible aux stimulations et d'un calme pétrifié, les PEA forts se voient chez les autistes très agités
Fig. 12. Courbes isosoniques normalisées (d'après Didier, 1964).
Une étude de Descouens (comm. pers. 1998) suggère que des oto-émissions exagérées pourraient, en retrouvant l'état archaïque du nouveau-né, signer une immaturité ou une régression fonctionnelle, non seulement chez certains autistes, mais aussi dans différents cas d'introversion avec hypersensibilité aux sons. On observe parfois ce phénomène sur une seule des deux oreilles .
On peut rapprocher de ces constatations le phénomène des courbes " très bonnes " chez certains sujets schizophrènes : piège des audio-psycho-phonologistes qui se risquent à un parallélisme strict entre les perturbations de l'écoute et celles du psychisme ! Les seuils de refus abaissés se trouvent généralement situés dans la zone des aigus au-dessus de 4 kHz, parfois moins, et s'accompagnent d'une conduite d'évitement à l'égard des ambiances hurlantes. Cette personne recherche les endroits calmes, les voix masculines plutôt que féminines, les adultes plus que les enfants.
Certains sujets suicidaires auraient, selon Bérard (1982), une hyperaudition à 2 et 8 kHz avec une hypo-acousie à 6 kHz. Ces sujets se caractériseraient par l'impulsivité de leurs passages à l'acte et leur intérêt pour le problème de la mort. C'est la courbe gauche qui serait la plus parlante. Je ne sais si les statistiques confirmeront un jour ces prétentions, mais j'ai personnellement été frappé par l'importance d'un scotome à 6 kHz chez un sujet particulièrement impulsif, plus agressif que suicidaire.
L'hyperaudition à 1 kHz ou 1,5 kHz, associée à 8 kHz, serait également signe de dépression ou de troubles fonctionnels, mais sans passage à l'acte autodestructeur, si ce n'est sous la forme (lente) de l'alcoolisme ou de la toxicomanie. La perte à 500 Hz traduirait l'agressivité. Bérard comme Tomatis associent étroitement diagnostic et traitement, de sorte que les troubles reflétés dans le test d'écoute pourraient s'amender sous l'effet de filtrages sonores appropriés.


Se servir de notre oreille n'aurait qu'un mince intérêt s'il s'agissait seulement de dire qu'il y a du son plutôt que du silence. Nous devons non seulement capter un bruit, mais surtout le transformer en signal, suivre à la trace la " forme " intéressante dans le flux confus qui nous parvient et négliger ce dont nous n'avons que faire.




Les différences d'intensité

Les musiciens décrivent toute une palette allant du pianissimo à peine audible jusqu'au fortissimo, en passant par le piano et le forte... Pour mesurer la capacité d'un individu à apprécier ces différences, on lui demandera de dire si un son est plus fort, plus faible ou égal au précédent (son étalon). La différence d'intensité la plus petite qu'un sujet moyen sait percevoir est de 0,5 dB (Miller, 1947). En fait, le temps de silence séparant les deux sons à comparer joue un rôle  : quand l'intervalle est très court, le premier son est vécu comme plus fort qu'il ne devrait (Postman, 1946). C'est redire combien l'audition peut dépendre de facteurs globaux (attention consciente ou non, mémoire, etc.). Les études les plus récentes, sans permettre de préciser tous les mécanismes en jeu, conduisent au moins affirmer que " le système combine, à un niveau nécessairement central, des informations multiples en provenance de l'ensemble des fibres périphériques "... (Botte, 1989 ; Baruch, 1987).

échelle des intensités
Effet Physiologique
dB(A)
Exemples de bruits
Notation Musicale
Destructeur
140
Moteur à Réaction


130
Marteau piqueur

Seuil de la douleur
Très nuisible
120
Avion à Réaction à 100m


110
Orchestre Symphonique à pleine puissance

Zone Critique
100
Marteau piqueur à 1 m
fff

90
Camion (à quelques mètres)


80
Carrefour très animé
ff

70
Voiture particulière
f

60
Conversation à 50 cm
mf

50
Bruit de fond en zone calme
p
Zone Acceptable
40
Voix à 3 m, musique douce
pp

30
Chuchotement


20
Logement calme
ppp

10
Bruissement d'une feuille


0
seuil de perception


-10
Hyperacousie


La capacité d'analyse tonale [1]

Les musiciens appellent " comma " une variation d'un neuvième de ton. C'est la plus faible différence de hauteur (du do dièse au ré bémol par exemple) dont ils tiennent compte. Et encore ! Le violoniste en joue tandis que le piano la néglige [2] . La psycho-physiologie cherche à établir quelle est la plus petite différence fréquentielle notable par l'être humain. La première idée fut de s'intéresser aux sons purs : ils sont faciles à produire ou à reproduire car parfaitement définis en fréquence comme en amplitude. Ils permettent des mesures et ne prêtent à aucun flou expérimental. Ce seuil différentiel fréquentiel (*) est de 0,003.
(*) La valeur moyenne de ce seuil pour des sujets très entraînés (Wyatt, 1945 ; Demany, 1985) est de 0,003. C'est à dire qu'il faut multiplier la fréquence considérée au départ par cette valeur pour savoir quelle est la variation minimum de fréquence que l'être humain "normal" est apte à percevoir. Ainsi elle sera de 20 Hz aux alentours de 7 000 Hz (7 000 x 0,003 = 21) et de 3 Hz pour un son référence de 1 000 Hz (1 000 x 0,003 = 3).




Il est six fois plus fin que le comma (0,018) (**) et laisse leur plein intérêt esthétique aux musiques indiennes ou aux recherches sophistiquées des compositeurs actuels. Cependant, ce type de recherche n'est pas le seul possible et une assez vaste littérature concerne les sons complexes, tellement plus proches de notre paysage sonore ordinaire.
(**) Silvain Dupertuis corrige les chiffres que nous donnions ici, ce dont nous le remercions. Ce correctif nous permettra ultérieurement d'approfondir et de clarifier encore ce sujet.
Il écrit :
Le comma vaut bien comme vous le dites 1/9 de ton (environ!). C'est l'intervalle correspondant au rapport de fréquence 81/80 soit un écart de 1/80 = 1,25 %, très différent de votre 0.018.
Il s'agit là le comma syntonique (ou harmonique). Deux autres petits intervalles sont aussi appelés «commas» et en sont très proches :

Le comma de Holder, 1/53 octave, donne un écart de 1,32 %


Le comma pythagoricien, écart du cycle des quintes, donne un écart de 1,36%, toujours bien loin de votre 1,8 %

Avec cela, votre seuil différentiel de 0.003 (j'ai trouvé ailleurs une valeur de 1/300, qui est semblable), représente un quart de comma et non un sixième. Il vaut environ 5 cents (centième de demi-ton tempéré). Ce seuil est d'ailleurs petit petit pour les musiciens... pour ce qui me concerne, j'ai pu tester que je peux en tout cas différencier des sons à 3 cents.


 
Il est un fait curieux : deux sons séparés par une octave fusionnent. On dirait qu'ils ne font plus qu'un, qu'ils ont la même hauteur. Ils semblent beaucoup plus proches que si leur différence se réduisait à un demi-ton ! Ainsi chacun des degrés de la gamme a-t-il une sorte de couleur (chroma) qui se répète à la gamme suivante. La sensation de hauteur est faite de cette sensation de chroma qui s'ajoute à la composante purement fréquentielle (tonie [4] ).
Ces capacités d'analyse sont le fait de sujets très entraînés, ou au moins moyens. Nous pouvons nous demander dans quelle mesure un sujet donné se montre capable, lorsqu'il entend un son, de le distinguer d'un autre d'amplitude analogue [5] , mais de hauteur nettement différente, et de caractériser avec justesse le sens de la variation perçue : est-il plus aigu ou plus grave ? Cette capacité est dépendante de l'individu, de la fréquence étalon choisie et de l'interaction de ces deux facteurs (Demany, 1985). Pour effectuer cette mesure, il convient de faire entendre les deux sons l'un après l'autre, ce qui améliore la sensibilité. La durée du silence intermédiaire ne joue pas ici de rôle perturbateur tant qu'il est compris entre 1/10e de seconde et 1 seconde (Postman, 1946 ; Harris, 1952).
L'ouïe, comme les autres sens et comme le système nerveux dans l'ensemble de ses connexions, tend à souligner les contrastes entre éléments voisins : il en résulte ici que les sons de hauteur différente présentés dans un temps court semblent encore plus différents qu'ils ne sont, comme s'ils se repoussaient (Larkin, 1978 ; Rakowski, 1980). Les seuils différentiels de fréquence et d'intensité sont très améliorés si on les mesure pour les deux oreilles simultanément ; elles semblent alors conjuguer leurs efforts pour une plus grande sensibilité ; le mécanisme de cette synergie, qui se manifeste aussi pour les seuils absolus, n'est pas totalement explicité pour l'instant. Cependant voir p. 42, note 30, et p. 83.

Discrimination fréquentielle en clinique

Certains musiciens ont le don particulier de qualifier immédiatement un son dans l'échelle grave-aigu, de déclarer qu'il s'agit du la2 ou du do4 sans exiger d'entendre au préalable un son référence. On dit qu'ils ont " l'oreille absolue".
Il semble que l'oreille absolue soit d'autant plus fréquente que l'analyse des sons a été entreprise tôt dans la vie. Ainsi, les enfants ayant fait du solfège avant six ou sept ans auraient très fréquemment cette capacité. De même les locuteurs de langues à ton (par exemple le mandarin) auraient l'oreille absolue s'ils ont bénéficié de leur bain linguistique dès la naissance ou avant !
La plupart des musiciens, s'ils n'ont pas cette faculté, ont au moins la compétence d'évaluer l'écart de hauteur entre deux sons (tierce, demi-ton, etc.). Chacun doit au moins percevoir la variation d'une quarte (au moins son sens, sinon sa valeur) qui fait aller du do au fa ou au fa dièse, par exemple...
Pourtant, même dans un orchestre professionnel, on rencontre des exécutants qui ne peuvent le faire : si les sons présentés sont purs, privés des harmoniques qui en font, d'habitude, des notes de musique, des notes de tel instrument de musique, avec son timbre, sa physionomie bien reconnaissable d'objet sonore, spécifiquement produit par le piano, la guitare ou la contrebasse.
Ceci est particulièrement vrai des fréquences supérieures à la plus haute note du piano : au-delà de 4 kHz. Les erreurs, quand elles existent, sont presque toujours localisées dans cette zone chez les professionnels de l'orchestre ou du chant. Il serait excessif d'en conclure que ces fréquences sont non musicales ! Elles le redeviennent pour peu qu'on éduque le sujet à leur écoute (Auriol, 1988b).
Tomatis (1974a), se basant sur l'hypothèse que la capacité de différencier un son pur d'un autre serait fortement corrélée au degré de sélectivité du système aux alentours de la fréquence choisie comme terme de comparaison, a donné le nom de " fermeture de la sélectivité ", " fermeture du diaphragme auditif " à ce phénomène qui peut se manifester à tous les points de l'audiogramme ou seulement sur une de ses portions. Harrison (1981) a fait remarquer l'impropriété du terme de " sélectivité " pour désigner ce qu'il vaudrait mieux appeler, comme l'admet Tomatis lui-même (comm. pers., 1975), la " sériation fréquentielle ". On peut aussi bien utiliser le terme de CAT, ou capacité d'analyse tonale, comme je l'ai suggéré au Congrès du RESACT (Auriol, 1988c).
Voici la méthode qu'il propose pour l'évaluer : on fait entendre à l'une des deux oreilles du sujet un son pur, le plus aigu disponible, avec une amplitude raisonnablement supérieure au seuil moyen, puis un autre situé


A. Variation de la fraction différentielle Df/d en fonction de la fréquence, à 40 dB (SL). La fraction différentielle est donnée en % en ordonnées. Baisse de l'acuité relative au-dessous de 0,5 kHz et au-dessus de 2 kHz.
B. Seuil différentiel de fréquence Df d'un bruit de bande passe-haut en fonction de la fréquence de coupure. A titre de comparaison, en tiret, courbe du seuil différentiel de fréquence f d'un son pur. Fréquence de modulation 4 Hz.
figure 13 : Seuil différentiel de fréquence (Buser, 1987)
1/2 octave au-dessous et il doit indiquer si les deux sons étaient de même hauteur ou si leur intervalle était de type ascendant ou descendant... On recommence de quinte en quinte, depuis 8 000 jusqu'à 125 Hz. On opérera de même, ensuite, avec l'autre oreille.
Une durée de stimulation inférieure à 200 ms (Moore, 1973) peut rendre le test plus sensible, surtout pour les fréquences au-dessus de 4 kHz. Pour certains intervalles, aucune différence de hauteur n'est indiquée, ou même cette différence est évaluée dans le sens opposé à sa réalité !...
Bérard (1982) indique que les résultats sont à peu près les mêmes lorsqu'on présente les fréquences à comparer dans leur ordre décroissant ou croissant... Il confirme, comme tous les usagers de ce test, que les résultats varient peu dans le temps, à moins de choc psychologique (fermeture) ou de thérapie sonique (ouverture).

Une oreille plus haute que l'autre ?

Si bien des sujets se révèlent incapables de distinguer très clairement un son grave d'un son plus aigu, il en est aussi pour déclarer plus haut tel son adressé à une oreille par rapport à ce même son envoyé à l'autre. La " diplacousie " pathologique consiste en ceci que l'auditeur, écoutant des deux oreilles simultanément une fréquence pure, l'entend plus aiguë à une oreille qu'à l'autre. Il perçoit simultanément deux hauteurs pour un même son. Ce trouble est assez fréquent dans les phénomènes de dysmusie et d'amusie.
La " variation latérale " est un phénomène beaucoup plus fréquent et non pathologique d'un point de vue ORL. On présente le stimulus à chaque oreille de manière séparée ; l'auditeur doit indiquer si les deux sons ont la même hauteur ou si l'un est plus aigu que l'autre. Le musicien peut annoncer fréquemment une différence d'un demi ou même d'un ton ! Les déviations les plus grossières se situent aux extrémités du spectre alors que, dans les fréquences " médium ", elles sont généralement faibles (ce qui est homogène à tout ce que l'on sait par ailleurs de la compétence auditive le long de l'échelle des sons). Ce type d'erreur survient notamment quand la sensibilité d'une oreille devient très inférieure à celle de l'autre oreille.



Fig. 14. Diplacousie d'un sujet " normal " (Buser, 1987).


L'oreille droite étant soumise à un son de fréquence donnée, on ajuste la fréquence appliquée à l'oreille gauche en sorte que les deux sons paraissent de même fréquence. Le pourcentage de modification de la fréquence, en + ou en -, est reporté en ordonnées, pour chaque fréquence testée (Buser, 1987).
Leipp (1971b, 1977a) a remarqué la fréquence de ce phénomène chez le sujet tout à fait sain d'un point de vue ORL, et même chez le musicien compétent. L'erreur semble accentuée plutôt qu'amoindrie lorsqu'on augmente l'amplitude, en passant par exemple de 30 dB (" piano ") à 60 dB (" mezzo forte "). Il y aurait, d'autre part, une forte corrélation entre la diplacousie à une fréquence donnée et la différence de valeur des seuils entre les deux oreilles pour cette fréquence (Brink, 1970). Dans certaines affections ORL (maladie de Ménière par ex.), on observe un taux d'erreurs très élevé. Si on compare les musiciens avant et après une session de trois heures de prestation orchestrale, on trouve des différences nettes : l'épreuve avant de jouer est normale, détériorée (erreurs de l'ordre de 20 %) ensuite pour certaines fréquences. On peut classer les sujets, pour chaque fréquence testée, selon leur plus ou moins bonne performance ; la distinction entre musicien et non-musicien montre un effet majeur de l'entraînement et une détérioration par le bruit. Des facteurs individuels, le plus souvent d'ordre psychologique, influent également sur les résultats ; les valeurs élevées sont sans doute à rapprocher des diminutions de la capacité d'analyse tonale (CAT).
Leipp (1977a) a insisté, à la suite de Leconte du Noüy, sur les variations du temps biologique par rapport à celui des horloges. Quand une seconde de temps chronométrique est très remplie, elle paraît n'avoir duré qu'une fraction de seconde, à un point tel que les 440 vibrations du diapason ne suffisent plus à donner un la subjectivement recevable ; et l'orchestre, aux moments de grande " intensité dramatique ", aura tendance à jouer " plus aigu " pour rattraper ce phénomène. " Quand le ton "monte" dans le drame, il monte aussi à l'orchestre. " Symétriquement, les musiciens âgés auront tendance à trouver que le diapason " monte " depuis leur jeunesse, alors que c'est leur temps biologique qui se traîne.
On conçoit que ces remarques, associées à une signification distincte de chaque zone spectrale (cf. chap. 12), puissent jouer un rôle dans l'explication des variations individuelles et du fait que certaines fréquences soient touchées chez un individu et d'autres chez son voisin.

Signification psychologique de la capacité d'analyse tonale

Le pilote, tout comme l'homme des bois, doit être en mesure de déceler, répertorier, analyser et comprendre les subtiles modifications d'un environnement sonore d'intérêt vital : la voix de l'aiguilleur ou le frôlement du serpent minute. Comme la plupart d'entre nous, il doit dégager les très légères modifications sonores, attendues ou redoutées, de l'enfouissement où le tient un gigantesque bruit de fond. C'est le rapport signal sur bruit qui importe, plus que le niveau brut perçu.
Tomatis (1974a) a montré l'énorme incidence de la " fermeture de sélectivité " (erreurs d'analyse tonale) chez un grand nombre d'individus : qu'il s'agisse de dyslexiques, d'hyperkinétiques, de timides, etc. J'ai personnellement été frappé d'observer ce phénomène chez des étudiants en musique ou même - quoique très rarement - chez des musiciens sélectionnés au concours pour des orchestres symphoniques de bon renom. Dans ce dernier cas, jouer correctement suppose un travail systématique, répétitif et harassant.
Il a été démontré que la capacité à " catégoriser " les sons phonétiques joue un très grand rôle dans l'apprentissage des langues, de la lecture et de l'écriture correcte des mots. Il est évident que la discrimination des fréquences ( et à un moindre degré des intensités) est ici une condition favorisante. Une mauvaise discrimination des hauteurs conduit à toutes sortes d'erreurs (Bradley, 1983).
Roblin (1987), à partir d'une étude sur des élèves de 6e et 5e, a établi statistiquement (analyse des correspondances, analyse discriminante, etc.) que la capacité d'analyse tonale droite et gauche étaient liées, que les erreurs se regroupaient selon trois régions fréquentielles (graves, médiums, aigus), que les aigus étaient plus facilement atteints que les graves et l'écoute gauche plus que la droite. Il a pu dégager une valeur prédictive sur les résultats scolaires (70 % de prévisions exactes concernant le passage ou non dans la classe supérieure) égale à la valeur prédictive des tests psychotechniques (lecture et orthographe, compréhension, aptitude au raisonnement verbal, aptitude aux apprentissages de tous ordres). Ce sont les mesures concernant la capacité d'analyse tonale pour l'oreille gauche qui semblent les plus fiables.
On a donné une interprétation psychologique de l'incapacité d'analyse tonale : elle traduirait une forte répression (consciente ou non) de la communication affective, toutes émotions confondues. Par exemple, une agressivité qui couve mais ne peut s'exprimer directement ou un besoin de tendresse inassouvi et inexprimé, etc. L'expressivité sociale semble liée à " l'ouverture " de la " capacité d'analyse tonale " à un point tel que, lorsque le sujet se met à percevoir les différences qu'il ignorait et à bien les situer, on observe, de manière quasi constante, un changement du comportement remarqué par l'entourage : " elle se met à sourire et parler ", " il devient agressif ", " elle se met à fréquenter des tas de gens ", etc., alors que le sujet lui-même peut rester inconscient du phénomène ou le nier. L'enfant dont la capacité d'analyse tonale reste bloquée " est comprimé ; il ne peut rien dire ; il est toujours doux comme un mouton " (Tomatis, 1974a)... alors même qu'une très forte agressivité " couverait " sous l'attitude inoffensive. Lorsque la capacité d'analyse tonale s'ouvre avant que des problèmes de cette sorte ne soient réglés par rapport à l'environnement immédiat, l'agressivité cachée devient manifeste, explosive, inattendue ; elle vise alors spécialement les images maternelles, le groupe comme tel, etc.
Tomatis (ibidem, p. 21) tend à attribuer à une fixation maternelle très archaïque la difficulté à supprimer ce symptôme de l'écoute. L'étude statistique que nous avons menée avec M. Bertin (Auriol et Bertin, 1979) suggère un lien entre les tests de coordination visuomotrice et l'ouverture de la capacité d'analyse tonale (en particulier pour " viser une cible avec une balle " et la " rapidité pour tracer des bâtons ").

Essai d'interprétation théorique de la capacité d'analyse totale [6]

Ces données disparates pourraient trouver leur unité dans une interprétation se référant au vecteur haut-bas avec toute sa généralité symbolique, telle que mise à jour par la psychologie des tests projectifs de type réfractif (graphologie, tests de dessin en particulier), le haut lié aux " valeurs ", à l'élévation, à l'intellect et la spiritualité, le bas se rapportant au matériel, au grossier, au sensuel, etc. (Duparchy-Jeannez, 1913 ; Pulver, 1931). Que pourrait bien signifier cette compétence à hiérarchiser, à analyser le plus et le moins élevé [7]  ? Il ne s'agit pas seulement d'évaluer une quantité (comme lorsque nous disons que la tour Eiffel mesure plus de 300 mètres de haut), mais plutôt une situation dans un repère vertical (Pierre, qui est au premier étage, est moins haut que Paul déjà parvenu au troisième, alors même que Pierre serait un géant et Paul un nain).
Distinguer le grave de l'aigu sans se contenter de repérer la différence, être capable de la vectoriser dans une relation, de lui donner sens, c'est tenter d'unir, sans le confondre, ce qui est le plus difficile à unir : les profondeurs avec les hauteurs. " La quantité pousse vers le bas, la qualité vers le haut, l'automatisme tire vers le bas, le délibéré vers le haut. L'axe vertical est celui de la dialectique : déterminisme contre libération, ou engagement contre abstraction. Sens hiérarchisant, inégalitaire, qu'il n'est pas possible d'assumer par une responsabilité passive, mais seulement en osant, au plus profond, être responsable de sa responsabilité même ! " (Ditroï, 1977). Au repérage quantitatif convient un critère quantitatif, symbolisable par un nombre cardinal ; au repérage qualitatif convient un critère d'ordre hiérarchique, repérable grâce aux nombres ordinaux.
La capacité d'analyse tonale pourrait aller de pair avec la compétence ordinale. Elle permet de structurer la pensée et les concepts qui la peuplent en un ensemble hiérarchisé. Au critère cardinal correspondrait une vue plus élémentaire permettant le regroupement d'objets dans des tiroirs conceptuels non hiérarchisés, sur la base, par exemple, de la ressemblance à un prototype central utilisé comme référence locale. L'articulation est ordinale. En l'absence d'une fine capacité de discrimination ordinale, le champ de l'expérience vécue reste très largement dans le domaine imaginaire et contingent, s'il est vrai, comme l'affirme Paillard (1987), que " l'aléatoire et l'imprévisible ne sont définissables qu'en termes d'incapacité de la structure d'accueil à reconnaître un ordre ou une régularité dans les phénomènes observés ".

Modification de la capacité d'analyse tonale sous l'effet de l'entraînement

La sensibilité individuelle à la fréquence est " susceptible de s'affiner grandement sous l'effet d'exercices appropriés et, chez beaucoup de sujets, une très longue période d'entraînement peut être nécessaire avant que les performances atteignent leur maximum " (Wyatt, 1945 ; Demany, 1985). Les méthodes utilisant des appareils modificateurs de l'écoute peuvent grandement contribuer à un tel changement. Au moins l'avons-nous vérifié pour les erreurs d'analyse les plus grossières, qui disparaissent plus ou moins rapidement, plus ou moins totalement et plus ou moins définitivement chez la plupart des sujets soumis à ce type de cure.

Chroma, timbre et hauteur

Nous devons aborder ici une distinction intéressante, mais que l'usage de mots, parfois peu clairs, rend un peu difficile. L'étude des sons complexes amène à distinguer deux types de hauteur (hauteur du son fondamental et timbre) ; la psycho-acoustique des sons purs oblige à une distinction que nous avons déjà rencontrée et que recoupe la première : hauteur brute et chroma.

Hauteur brute et chroma

Une énigme frappe dès l'abord : pourquoi, lorsque nous entendons un son complexe, riche d'une multitude de sons élémentaires ayant chacun sa propre " hauteur ", avons-nous l'impression d'une hauteur d'ensemble ? Et pourquoi cette hauteur est-elle celle de la composante fondamentale, y compris lorsque cette dernière est peu intense ? Plus : il peut se faire que la composante fondamentale d'un son harmonique étant totalement absente, d'intensité zéro, nous ayons l'impression que ce que nous entendons est un avatar de cette fondamentale ! Le très jeune enfant et les mammifères partagent avec nous ce " mystère de la fondamentale absente [8]  " ! La saillance de la fondamentale d'un son complexe n'est donc pas liée à l'amplitude de cette fondamentale elle-même (Seebeck, 1841) ; par contre elle est d'autant plus importante que le nombre des composantes spectrales est plus élevé.
L'ensemble des expériences impose l'évidence que la hauteur fondamentale d'un son complexe résulte d'un travail sophistiqué du système d'écoute et implique les structures nerveuses centrales : l'argument décisif en est qu'à partir d'un harmonique à l'oreille droite et d'un harmonique plus élevé à l'oreille gauche le sujet peut entendre leur fondamental commun (Houtsma, 1972) ! On a montré aussi que nous sommes capables d'entendre le fondamental à l'issue d'un mitraillage par ses harmoniques présentés très rapidement mais sans se chevaucher (Hall, 1981). Plus encore : en présence d'un son dont la fréquence n'est pas stable, mais qui oscille de peu autour d'une fréquence donnée, notre système d'écoute s'arrange pour en établir la moyenne et nous permet d'y associer une fréquence précise et stable (Iwamiya, 1983).
Les deux hauteurs
Dénomination Chroma Tonie(Demany)

résidu timbre (Risset)

hauteur musicale corps du son (Kohler, 1915)

hauteur tonale hauteur spectrale

hauteur fondamentale hauteur brute
Fréquences de 60 Hz à 5 kHz de 20 Hz à 20 kHz
Domaine mélodique harmonique
Codage temporel (tonochronie) spatial (tonotopie)
Voix fondamental partiels et harmoniques
Oreille droite gauche
Type musicien mélomane
Musique comme langage jeu
Ecoute linéaire, analytique globale, synthétique
Hémisphère gauche droit

Hauteur fondamentale et timbre

Les mélomanes attribuent comme hauteur à un son celle de son " fondamental ". Les autres composantes de la vibration (harmoniques, " partiels ") étant les correspondants physiques du " timbre ". Ce dernier permet ainsi, habituellement, de distinguer deux sons de même hauteur et de même durée ; ainsi le do joué au piano sera-t-il différent du do joué au clavecin ou à la trompette !
On sait depuis longtemps que l'oreille peut nous faire entendre des sons inexistants : par exemple, si on joue sur l'orgue les harmoniques d'une note à laquelle on ne touche pas, celle-ci est " entendue " par notre esprit [9] . Dans ce cas, la vibration entendue n'existe physiquement nulle part, même pas dans l'oreille comme certains avaient voulu le croire ! C'est notre système nerveux qui construit cette information qui, d'ailleurs, n'exige pas nécessairement un rappport tout à fait harmonique entre les sons réels fournis. Ce rapport harmonique est en tout cas suffisant pour produire le phénomène, de telle sorte que l'auditeur d'une musique filtrée en passe-haut (dont on a supprimé les fondamentaux) peut fort bien la reconnaître et la fredonner !
Shepard (1964), puis Risset (1969a, 1969b, 1971), considèrent les deux types de hauteur dont nous avons déjà parlé : la hauteur tonale (correspondant au concept familier de hauteur) et la hauteur spectrale (liée à l'impact des harmoniques ou partiels simultanément présents). En faisant varier, par ordinateur, ces deux paramètres en sens inverse de manière astucieuse, ils sont parvenus à produire des illusions sonores (sons paradoxaux) : son qui a l'air de monter ou de descendre toujours (on reproduit ainsi sur le plan sonore une sorte d'escalier de Penrose, repris par Escher (fig. 15).
En fait, nous ne sommes pas égaux devant ce phénomène : l'oreille de certains se montre plus sensible à la hauteur spectrale, celle des autres à la hauteur tonale. Les expériences de Charbonneau et Risset (1975) suggèrent que l'oreille droite perçoit mieux les mélodies tonales, cependant que l'oreille gauche est plus habile à suivre les mélodies spectrales. Ces deux remarques pourraient amener à la construction d'un test simple pour décider si une personnalité est plutôt attirée par les valeurs émotionnelles de l'hémisphère gauche ou celles du droit (selon qu'elle se base, dans son écoute, plutôt sur les successions spectrales ou tonales).
Nous avons testé, sur des sujets volontaires considérés comme " sains ", deux types d'illusion sonore : sons paradoxaux descendants qui donnent l'impression de descendre sans fin et sons paradoxaux ascendants qu'on dirait monter toujours. Ces essais furent conduits à notre cabinet et dans des stages de musicothérapie avec R. Toupotte (juillet 1979). Le protocole consistait à présenter " le son qui monte sans fin " ou celui " qui descend toujours ", à un niveau relativement élevé et de manière répétitive, pendant au moins dix minutes. Voici quelques-unes des réactions observées : plusieurs participants, angoissés par les sons descendants, ont éprouvé une hilarité incoercible pour les sons montants ; plusieurs soulignent que les sons descendants ont défavorisé les mouvements respiratoires d'inspiration, alors que les sons ascendants gênaient l'expiration.



Fig. 15. L'escalier de Penrose repris par Escher (Baken, 1987)

 

Sons paradoxaux descendants

Un homme (O. G.) emploie les qualificatifs " pesant, désagrégeant, obsessionnel " (on retrouve ce dernier terme dans un grand nombre de protocoles). Une jeune femme (N. A.) a la tête qui tourne et se plaint de nausées. Elle a l'impression de tourner en descendant comme Alice au pays des merveilles. Elle écrit avec difficulté, éprouve une forte sensation d'angoisse avec oppression respiratoire, boule à la gorge. A la suite de l'écoute, elle éprouve des difficultés d'élocution, se sent " complètement paumée " : " Je me trompe de numéro de téléphone, j'écris un mot à l'envers, sensation d'étourdissement, d'être mal dans ma peau. " Plusieurs autres se plaindront d'impressions nauséeuses ou vertigineuses.
Une jeune femme, Véronique, spécialiste de techniques corporelles, écrit : " Impression de descente de mon attention avec le son, de la tête vers le pelvis (ou bien je me l'imagine ?). Envie que le son s'accélère, impatience ; je remarque qu'en fait le son ne descend pas réellement, qu'il s'agit simplement d'une impression, qu'il reprend au même niveau. Un peu frustrant comme être constipée ou vivre un orgasme qui ne vient pas. " Un homme de 53 ans parle de danger : " Ça va exploser, me détruire. J'ai les dents serrées. " Cette impression, au niveau de la mâchoire, est attestée par plusieurs autres auditeurs. Telle ajoute : " Je suis atteinte jusqu'au fond de la gorge ; impression qu'on m'a percée jusque-là. " Plusieurs évoquent la roulette du dentiste qui vibrerait au ralenti ! Berthe, 32 ans, trouve l'écoute pénétrante, agaçante, et sent, comme bien d'autres, monter en elle la colère, l'envie d'agresser.

Sons paradoxaux ascendants

Telle personne, incapable de supporter le son paradoxal descendant, quitte la pièce, mais écoute le son paradoxal ascendant. Trois auditeurs refusent les sons paradoxaux ascendants : " Insupportable torture ", " torture infinie appliquée par petites doses successives ". Une jeune fille de 25 ans écrit : " Quelque chose de terrible va se produire, bruit annonciateur d'explosion. Si je m'abandonne bien : plaisir d'une puissance qui gonfle, qui monte en moi ; de plus en plus grand, de plus en plus fort. Je remplis l'espace avec, en arrière-goût, la crainte d'éclater : un plaisir dangereux. " " On a soif et pas le temps de se désaltérer ; on reste sur sa faim sans pouvoir l'assouvir, en un perpétuel état de qui-vive. On est dans une course folle qui m'évoque ce personnage d'Orange mécanique qui pousse sa voiture au maximum, écrasant tout sur son passage avec un sadisme terrifiant. Mal à la tête, envie de vomir, point douloureux dans le dos. Après les quinze minutes d'écoute, j'ai mal aux oreilles et la tête lourde. Je ressens un point de sensation forte pulsative, qui lui n'est pas désagréable du tout... " Après un moment de " tension vers un but, de montée d'une catastrophe, je sentais comme une joie qui montait et voulait éclater ; j'aurais aimé que ça se prolonge ". Pour une autre jeune femme (J. T.), cette séquence est plus supportable, elle éveille un sentiment d'espoir " dû à l'ascension ". Un participant (O. G.) parle de " tension inassouvie ". Une auditrice souligne qu'après l'écoute elle éprouve une impression de manque, d'avoir " perdu quelque chose ". Un homme de 53 ans : " Ça devient très lumineux, de plus en plus vite. Après la fin de l'écoute, j'ai envie de rester immobile, dans le silence, fatigué et paisible. " La sensation " de plus en plus vite " est fréquemment retrouvée dans les comptes rendus. Certains participants énoncent une modification de la durée apparente, soit que cette séquence ait paru plus courte, soit qu'elle ait paru plus longue que sa durée chronométrique de quinze minutes.

Sons descendants
Sons ascendants
Colère, agressivité.
Espoir, joie.
Sensation d'être agressé (e).
Sensation de puissance.
Etre agressé(e), être pénétré(e)
Sadisme, pénétrer
de la tête au pelvis.
du pelvis à la tête
Angoisse, dents serrées, gorge nouée.
Sur le qui-vive.
Vertige. .
Remplir l'espace
Poids, chute.
Lumière, vitesse.
Expiration. .
Inspiration
Difficulté d'élocution et d'écriture.

Tendance à inverser les mots.

Ces remarques invitent à penser que les sons paradoxaux sont généralement source d'angoisse, mais cette angoisse varie avec la personnalité et le caractère ascendant ou descendant du phénomène de la pesanteur.

Le test de discrimination temporelle de Leipp (delta t)

Tel sujet, comme le remarque Leipp (1978) distinguera nettement des impulsions sonores très rapprochées ; tel autre, par contre, les fusionnera en magma informe ! C'est dire que le premier perçoit dans une même séquence, tant soit peu complexe, beaucoup plus d'informations que le second ! Il propose donc de mesurer le pouvoir séparateur temporel, c'est-à-dire la durée maximum de silence inaperçu entre deux clics sonores.
La capacité de discrimination temporelle est évaluée de la façon suivante : on fait entendre dix séries de cinq clics, identiques entre eux, mais séparés les uns des autres par un temps de silence variant de 2 à 250 millisecondes. On demande au sujet de tracer un bâton pour chaque son entendu, en espaçant ces traits plus ou moins selon que les clics étaient plus ou moins rapprochés. Lorsqu'un intervalle n'est pas perçu, le sujet, fusionnant deux sons en un, omettra un bâton : nous pourrons ainsi noter comme inaperçu l'intervalle silencieux correspondant. Par exemple (en désignant le premier clic par C1, le deuxième par C2, etc., et le silence entre deux clics par sa durée évaluée en millisecondes) : C1-20-C2-250-C3-100-C4-5-C5.
Nous retenons comme valeur du test (delta T) le plus petit intervalle perçu de manière stable. La norme, relevée sur quelque 300 sujets, jeunes, musiciens, est située entre 25 et 50 ms, les valeurs extrêmes étant d'environ 5 et 100 ms. Ce pouvoir séparateur est susceptible d'entraînement, par exemple il s'améliore chez les accordeurs de piano ! On peut aussi s'intéresser à la compétence du sujet pour noter convenablement les différences entre intervalles, autrement dit sa perception du rythme (Oléron, 1959 ; Stambak, 1960). La séquence donnée en exemple plus haut (C1-20-C2-250-C3-100-C4-5-C5) devrait amener le sujet à écrire :
I I I II
Bassou (1983) insiste sur la possibilité de deux attitudes dont la deuxième est beaucoup plus performante que la première : dans un cas, le sujet réalise un décompte immédiat des événements sensoriels qu'il doit dénombrer, dans l'autre il reçoit globalement l'ensemble du message et y repère des formes (qui peuvent servir à un dénombrement s'il y a moins de six événements). Ici, comme dans le test dichotique (cf. chap. 6), il existe une nette dissymétrie entre les deux oreilles (oreille gauche orientée vers la "forme" du stimulus, oreille droite vers le "dénombrement").
Bassou et Urgell proposent de modifier le test en utilisant une seule durée de silence entre les clics d'un même essai qui seront administrés en nombre variable (de 2 à 5) : le sujet pourra se contenter de les compter sans avoir à reproduire un rythme. On part de durées entre clics très faibles et on les augmente, à chaque pas, de 20 ms.
Par exemple : clic 1-20 ms-clic 2-20 ms-clic 3 / clic 1-40 ms-clic 2 / clic 1-60 ms-clic 2-60 ms-clic 3-60 ms-clic 4-60 ms-clic 5 / etc.
Les réponses du sujet devront être : 3, 2, 5. Cette façon de faire a l'avantage de systématiser le protocole (en dissociant le problème de la transcription du rythme et celui de la perception des silences selon leur durée). On appelle la plus petite durée perceptible le " delta T " de la personne testée. Dans ce cas, on évaluera séparément l'aptitude à percevoir les rythmes selon l'épreuve de Stambak : on fait entendre au sujet une série de sons frappés selon un certain rythme et il doit en reproduire la séquence (les intervalles entre coups frappés sont bien marqués, de telle sorte qu'il n'y ait confusion pour personne entre deux sons successifs). La durée minimum perçue (delta T) se situe généralement autour de 40 ms (Godin, 1985), mais s'améliore beaucoup par l'entraînement de l'écoute, de sorte que les musiciens professionnels détectent des intervalles inférieurs à 10 et même à 4 ms, et se montrent beaucoup plus stables dans leur évaluation que les sujets moins entraînés. Leur détection est à la fois plus sensible et plus fidèle. En clinique, les réponses vont de l'incapacité totale à dénombrer les clics à la possibilité d'en reconnaître la séquence exacte pour un delta T allant de 2 à 500 ms.
Se pose la question de savoir si le test évalue les capacités temporelles du système oreille/cortex auditif. Ou doit-on lire son résultat comme un reflet plus global ? Par exemple, si le delta T est à 100 ms, doit-on en inférer une simple lenteur " auditive ", cependant que les processus visuels, tactiles, psycho-moteurs auraient une résolution temporelle différente ? Ou bien devrons-nous conclure à une sorte de " paresse " du système nerveux central dans son ensemble ? S'agira-t-il d'une lenteur de fonctionnement de chacune des unités nerveuses (neurones, synapses) ou bien d'un ensemble fonctionnel comportant un " chemin " plus ou moins long (empruntant des voies plus ou moins compliquées, détournées), ou encore d'un traitement de l'information faisant intervenir pratiquement toutes les structures encéphaliques ?

Un cas particulier

Pour clarifier cela, nous examinerons - en résumant beaucoup - un cas qui nous a frappé, celui d'une de nos patientes, Line Liendretta, dix-huit ans, étudiante en secrétariat. Elle avait de grandes difficultés dans ses études et depuis un an était prise de crises de bâillements. Son cas est sans doute celui d'une hypersomnie qui, à l'époque des faits, n'était pas explorée. Six mois plus tard, on diagnostiquait une discrète hypothyroïdie sans augmentation de la stimuline hypophysaire de la thyroïde (TSH) et divers troubles hypophysaires mineurs. Le dysfonctionnement hormonal et l'hypersomnie se sont amendés au cours du traitement sonique : ils n'étaient donc pas pas liés à une quelconque organicité. On admet alors qu'ils étaient déterminés, pour l'essentiel, par ses expériences précoces, sa biographie et par de nouvelles exigences familiales et scolaires. Elle se dépeint comme pessimiste, méticuleuse, surtout depuis quatre ou cinq années. Elle note ses fréquents conflits avec son père, qu'elle trouve irritable, dépourvu de toute patience !
Remarquons à quel moment s'est considérablement aggravé ce tableau de dysendocrinisme fonctionnel, à quel moment apparaissent les troubles psychologiques de type dépressif ayant entraîné la consultation du psychiatre. C'est quand elle doit passer de l'apprentissage des signes sténo à la rapidité. Elle est alors perdue et demande grâce : " J'ai été fatiguée dès que j'ai fait de la sténo "... " la sténo me crève, c'est trop rapide "... " la sténo m'a complètement refroidie ". Auparavant, malgré la lenteur qu'elle se connaissait et qui l'amenait à passer bien plus de temps sur ses devoirs que ses compagnes, elle " assurait " ; lorsqu'il faut impérativement accélérer le rythme, faire, non très bien, mais très vite, tout est fini pour elle, sa scolarité est interrompue et elle ne pourra reprendre qu'après une cure sonique méthodique et l'aménagement de ses perspectives professionnelles.
Or, son delta T est supérieur ou égal à 100 ms, ce qui est une valeur extrême, très rarement trouvée. Par contre son audiogramme tonal est proche de la norme et sa capacité de différencier les fréquences est de bonne qualité. Cette observation clinique simple paraît militer en faveur de liens très larges entre le delta T et d'autres données temporelles concernant la vie cognitive dans son ensemble.

Des constatations statistiques

Eila Alahuhta (1986) a clairement établi que les capacités d'analyse temporelle sont, au moins en partie, fonction d'un harmonieux développement foetal et d'une naissance sans problème : en effet, les élèves à tests défectueux au niveau temporel avaient, bien plus souvent que les autres, un score d'Apgar inférieur à 9 (on sait que cette note reflète un certain degré de souffrance neurologique évalué immédiatement à la naissance). Les troubles de l'analyse temporelle, ou son manque de finesse, peuvent, pour le moins, rendre compte de certaines confusions linguistiques (voisé/non voisé, par ex.) et, plus généralement, nuisent à une bonne intégration de l'information sonore, en particulier linguistique. Eila Alahuhta (1980, 1986) a démontré que la capacité de décodage des structures rythmiques entendues, mesurées en fin de maternelle, sont prédictives du succès ou de l'échec ultérieurs : notes de rédaction, de mathématiques, de lecture et de musique (au cours des quatre premières années) et, plus tard, réussite ou difficulté en langues étrangères et en mathématiques. On peut y ajouter diverses capacités " scolaires " telles que  : désir de lire et d'écrire, exactitude de la rédaction, compréhension du langage écrit, faculté de comprendre des instructions orales. La corrélation est également très positive avec les futures qualités expressives : sens du rythme, naturel de la parole, capacité à jouer du théâtre, réalisme des proportions spatiales, aptitude à reproduire des dessins ou des schémas. Elle a même pu corréler le lien des capacités d'analyse temporelle préscolaires avec l'autonomie dans le travail et la concentration mentale.
Tout ceci montre l'intérêt d'une éducation - et d'une rééducation ! - des facultés d'analyse auditive temporelle (éducation musicale, musicothérapie, rééducation sous appareil modificateur d'écoute).

Conclusion

Les tests de perception du rythme et des capacités temporelles du système d'écoute sont très utiles dans l'évaluation des capacités scolaires, notamment linguistiques. Un delta T élevé peut signaler une sorte d'inertie, de blocage (comme chez Line). Ce dépistage est d'autant plus utile que nous savons pouvoir faire progresser, par l'entraînement, de tels sujets et leur permettre ainsi d'améliorer considérablement leur compétence scolaire. On trouvera d'autres informations dans le travail de Raufaste.

Le Chant des Sirènes : Effet des Sons sur l'être humain


Les mythes (Guis, 1980) nous annoncent la couleur : la musique peut créer, détruire, métamorphoser, exorciser. Orphée adoucissait de sa lyre et de son chant les bêtes les plus féroces, commandait, de ses enchantements, aux sources et aux arbres (Ovide). " Chaque fois que l'esprit de Dieu assaillait Saül, David prenait la cithare et il en jouait ; alors Saül se calmait, il allait mieux et le mauvais esprit s'écartait de lui. " (I Samuel, 16, 23). Le Shofar joint aux clameurs, non sans la foi (Heb., 11, 30), écroule les murs de Jéricho (Jos., 6, 20) cependant qu'en d'autres lieux la lyre d'Amphion commande aux pierres de se disposer pour la protection de Thèbes . Moreri (1732) suppose qu'il s'agit là de l'amplification d'un fait historique : il aurait inventé la musique et, par son usage, aurait adouci des coeurs aussi durs que la pierre...



Assurancetourix et autres bardes prétendaient, selon le " mode " employé, produire le sommeil, la joie ou la tristesse. C'est avec la cornemuse qu'ils armaient le coeur de leurs soldats. Les Grecs, eux aussi, pouvaient susciter des sentiments funèbres (mode lydien), belliqueux (dorien) ou festifs (phrygien). Platon ne manque pas d'y recourir pour la bonne marche de la République. L'empereur Théodose (379-395) faisait instruire de jeunes enfants dans l'art de la musique pour qu'ils puissent, le moment venu, apaiser ses colères. Pierre Janet s'amuse aux dépens de Soliman II qui renvoya la fanfare offerte par François Ier : il avait constaté qu'elle adoucissait son caractère. Pour le thérapeute français, la musique - et nous le confirmerons sous certaines conditions - rehausse la vitalité et accroît la " tension psychologique " (une sorte d'équivalence sur le plan humain du voltage en électricité). Confucius (vers 500 avant J.-C.) expliquait que " la musique ne se limite pas à sonner les cloches et battre le tambour, elle doit aussi créer un état de bonheur et d'harmonie " (Lin Yutang, 1949). Les musiciens traditionnels hindous adaptent leurs improvisations avec une grande finesse selon les différents états émotionnels qu'ils souhaitent susciter (cf. tableau ci-après).

Les Rasas d'après Avalon, p. 214 et Sridhar, 1983)
Rasa traduction Sentiments
Shringara volupté sexuelle Béatitude spirituelle
Hasya bonne humeur Humour
Karuna compassion Tristesse, solitude
Raudra courroux Colère, fureur
Vira héroïsme Héroïsme, grandeur
Bhayanaka crainte Terreur, frayeur
Bibhatsa dégoût Dégoût
Adbhuta étonnement Joie, surprise
Shanti paix Paix, repos, tranquillité
L'ayatollah Khomeiny a jugé nécessaire de bannir des médias iraniens certaines musiques occidentales qu'il jugeait pervertissantes. L'armée des Etats unis a utilisé la musique rock à fort volume pour déstabiliser et torturer certains prisonniers, par exemple irakiens ...
Le pouvoir évocateur de la musique est bien connu de tous ; " elle crée tout de suite une atmosphère qui est celle de l'oeuvre représentée ". La bande-son des films en accroît très nettement le pouvoir affectif au point qu'une scène ambiguë acquiert telle signification ou telle autre selon l'accompagnement (Francès, 1955). Les musicothérapeutes de toutes obédiences attribuent aux sons un quelconque effet - spécifique - sur l'organisme humain, sans quoi il n'y aurait aucun intérêt à utiliser ce type d'approche. La nature de l'action produite peut fort varier d'un auteur à l'autre : pour celui-ci, les sons se bornent à avoir un effet " placebo " ; pour cet autre, ils déterminent de manière simple des comportements très complexes, au point de pouvoir expliquer le suicide ou la dépression.
Songbirds: Scared to Death
The mere sound of predators increases mortality in songbird populations
by Sarah C. P. Williams on 8 December 2011
When Franklin D. Roosevelt said we have nothing to fear but fear itself, he could have easily been talking about songbirds. A new study shows that the mere sound of predators reduces both the number and survival rate of songbird offspring, regardless of the true threat. The finding could have important implications for managing wildlife, not just for protecting songbirds but for a host of other species.
Ecologist Liana Zanette of the University of Western Ontario in London, Canada and her colleagues studied song sparrows (Melospiza melodia) on several of the small Gulf Islands in British Columbia. They surrounded nesting areas with netting and electric fencing to keep out predators and set up speakers broadcasting the sounds of other animals. In some areas, they played the sounds of predators, such as raccoons, hawks, and owls. In others, they played nonpredator sounds, including seals, geese, and hummingbirds. During the 130-day nesting season of the sparrows, the speakers broadcast sound every few minutes 24 hours a day in a 4-day-on-4-day-off cycle.
Female birds exposed to the sounds of predators showed drastic changes in behavior. They built nests in denser and thornier plants, spent more time watching for predators and less time collecting food, and produced fewer eggs—something that has been linked to lower food consumption in the past. Once their eggs hatched, the mothers provided less food to their nestlings—making fewer than eight feedings trips an hour, on average, as opposed to the standard 11, and only straying half the distance from the nest as usual to find food-and fewer babies survived. In all, the birds exposed to predator sounds produced 40% fewer fledglings than birds exposed to nonpredator sounds, the team reports online today in Science.
The finding has implications for species conservation, says ecologist and study co-author Michael Clinchy of the University of Victoria in Canada. For instance, catch-neuter-release programs to control feral cat populations in some cities operate under the assumption that if feral cats are well-fed by caretakers who provide food in city parks, they won't harm wildlife, such as birds. "But our results show that the mere presence of this introduced predator is enough to negatively impact native wildlife," Clinchy says. That's especially concerning because many feral cat programs are located in conservation parks.
The new finding, Clinchy says, could also help clear up a long-standing debate about the effectiveness of reintroducing wolves to Yellowstone National Park—an initiative that began in 1995 in an effort to restore Yellowstone's native flora and fauna. Proponents of the wolf reintroduction say that wolves, which once thrived in Yellowstone but went extinct in the 1920s, control the elk population, in turn allowing native plants and smaller animals to flourish. But critics say the decrease in the elk population since 1995—a 50% decline—can't be due to wolves because they don't kill and consume enough elk per year.
"Our results corroborate evidence that wolves are decreasing elk numbers," Clinchy says. "Not by killing but by scaring them." Frightened elk, he says, are known to behave similarly to the sparrows exposed to predator sounds—they spend time in safer places and consume less food, leading to decreased offspring. But this effect of predators on fear, and hence offspring, had never been quantified before, says Thomas Martin, a University of Montana, Missoula, ecologist who was not involved in the study.
Still, Martin says more work is needed before the results can be applied to animals besides songbirds. "They looked at a single species, and clearly this will differ across species and across habitat types," he says. "This now opens the door to other studies."
Nous ne pouvons souscrire à certaines bizarreries qui nous surprennent, comme cette idée de Cyril Scott selon laquelle les intervalles plus ou moins larges entre les notes correspondraient à différents plans métaphysiques :

La Musique et les Plans de l'être selon Cyril Scott (1960)
Musique indienne 1/4 de ton Corps mental Métaphysique
Musique égyptienne 1/3 de ton Corps émotif Sciences occultes
Musique classique 1/2 ton Corps physique Sciences positives
Le " syndrome des HLM " (dépression, troubles digestifs, difficultés gynécologiques, asthénie, etc.) pose le problème d'une promiscuité déshumanisante dont la nuisance tient, pour l'essentiel, à la communication sonore indue entre les appartements. La vie intime de chacun est connue de tous. Il n'existe plus cet espace personnel, tellement nécessaire à l'équilibre que P. Sivadon (1977) a voulu le recréer, même dans le cadre de l'hôpital. Bien des personnes annoncent leur extrême sensibilité à certains sons, qu'il s'agisse de bruits particuliers ou d'un ensemble de bruits, tous issus du même voisin, à connotation fréquemment sexuelle (évocation de la " scène primitive "), parfois inaudibles ou non enregistrables par l'expert acousticien (Josserand, comm. pers. ; Auriol, 1989). Certaines pathologies semblent prédisposer à cette hyperacousie (autisme, paranoïa, etc.) qui peut se manifester neuro-physiologiquement au niveau de potentiels évoqués auditifs et des oto-émissions acoustiques, d'amplitude augmentée.
A l'inverse, l'absence de stimulation auditive, spécialement les surdités les plus radicales, diminuent le goût, et même le besoin, de communication. Les " interactions " entre enfants sourds sont de l'ordre de 3 minutes en moyenne, contre 8 minutes pour les autres. Cet appauvrissement aurait des conséquences très importantes selon Schmitt (1981) qui déclare : " Chez le jeune sourd à démutiser, on trouvera neuf fois sur dix une sexualité agressante, essentiellement gestique, très suggestive pour le partenaire, et paraissant obscène à l'observateur non averti. "
Il prétend même administrer la réciproque en ceci que 60 % des exhibitionnistes (108 sur 182) et une proportion comparable de prostituées (21 sur 31) ont une nette hypoacousie bilatérale (40 dB), alors que 45 à 55 % (82 exhibitionnistes et 17 prostituées) souffrent de troubles de l'élocution (bégaiement ou chuintage).
Il est plus classique (Vacola, 1983) de remarquer chez celui qui n'entend pas (que ce soit congénital ou acquis) une incidence plus grande de certains symptomes : retard psychomoteur, lenteur, retrait, dépression, morosité, méfiance, habitus coléreux, impulsif et violent ; Cf. le portrait du père fouetteur sourd dans "Un bon petit diable" de la Comtesse de Ségur (il s'oppose à l'aveugle et souriante Juliette).
Coopération inter-sensorielle : entendre pour mieux voir !
Des travaux menés par les équipes de Pascal Barone et d'Yves Trotter du Centre de recherche Cerveau et Cognition (CNRS/Université Toulouse 3), ont permis de montrer que l'aire sensorielle visuelle primaire, la première aire cérébrale visuelle à recevoir l'information venue de la rétine, peut être influencée par le son. L'ensemble de ces travaux a des implications directes dans la compréhension des mécanismes neuronaux qui participent à la réorganisation fonctionnelle du système nerveux central lorsque l'on perd une fonction sensorielle comme la vue ou l'ouïe par exemple. Cette étude a été publiée dans la revue en ligne BMC Neuroscience le 12 août 2008.
Quand le cerveau reçoit une information, son traitement est alors hiérarchisé. Les stimuli sensoriels sont traités au travers de canaux indépendants, des récepteurs périphériques jusqu'aux aires sensorielles primaires, avant d'être distribués ultérieurement vers des aires fonctionnellement plus spécialisées. Jusqu'à présent, les phénomènes d'intégration impliquant plusieurs sens paraissaient être une caractéristique que seules possédaient les aires fonctionnelles hautement spécialisées. L'étude de Pascal Barone et ses collaborateurs a consisté à rechercher des phénomènes d'interactions multi sensorielles dès les stades précoces du traitement cortical de l'information. C'est-à-dire au niveau des aires sensorielles primaires.
Les chercheurs ont étudié les réactions comportementales et neuronales de singes à des stimuli visuels, auditifs puis aux deux simultanément. Du point de vue comportemental, le singe dirige plus vite son regard sur une cible visuelle si celle-ci est accompagnée d'un son. Au niveau neuronal, la stimulation "visuo-auditive" induit une diminution d'environ 5-10% des temps de réponse des neurones de l'aire sensorielle visuelle primaire. Ces résultats démontrent clairement que des neurones d'une aire sensorielle primaire du cortex peuvent intégrer des informations venant d'une autre modalité sensorielle. L'aire visuelle n'est donc pas hermétique aux informations provenant du système auditif probablement grâce aux connexions dites "hétéromodales" qui unissent ces deux systèmes.
Ces travaux ont également des implications directes dans la compréhension des mécanismes neuronaux qui participent aux réorganisations inter-modalitaires du cerveau lorsque l'on perd une fonction sensorielle. Il est maintenant clairement admis que la perte d'une sensorialité, la vision ou l'audition, a pour effet de développer des compétences accrues dans les modalités sensorielles préservées. Ces phénomènes de compensation inter-modalitaire trouvent leur origine dans le fait que l'aire corticale privée de sa fonction initiale va être utilisée par une autre modalité sensorielle et va ainsi acquérir de nouvelles fonctions. Cette étude réalisée par Pascal Barone et ses collaborateurs permet ainsi de mieux comprendre la potentialité des aires visuelles du sujet aveugle à traiter d'autres informations sensorielles, telles que les sons.

Source : Benje, dimanche 17 août 2008: Nouvelles Scientifiques :
Nouvelle d'origine sur Techno-Science.net Source: CNRS

Cependant, bien peu d'études scientifiquement acceptables ont permis de préciser ces quelques points, et plus spécialement l'effet des différentes musiques selon leur structure et leur composition harmonique. Encore doit-on être prudent dans la mise en place des expériences et leur interprétation. Par exemple Pons (1978) a montré que l'imagination est plus riche lorsque le sujet respire une odeur désagréable que lorsqu'il entend un bruit blanc. Le biais consiste ici en la nature du bruit, dépourvu de valeur informationnelle ou émotionnelle. Il eût fallu utiliser un bruit mieux typé ou une odeur qui le soit moins (odeur " blanche " ?) pour en tirer des conclusions plus générales que celles auxquelles, avec bon sens, il se limite, à savoir que la richesse des associations de mots est augmentée par une perturbation affective.
L'audition d'un morceau de musique peut diminuer considérablement les sécrétions gastriques (Demling, 1970). Mais cet effet dépend des goûts particuliers de l'auditeur : ils sont extrêmes chez les amateurs de pop music, notables pour ceux qui aiment Bach, et disparaissent chez le non-mélomane. Les rêves se laissent fortement inspirer (Faure) par la signification d'un morceau de musique entendu lors de l'endormissement : tantôt des situations oniriques d'angoisse, tantôt d'euphorie, selon la nature de l'enregistrement utilisé. Si la musique est injectée, même à faible niveau, pendant le sommeil lui-même, l'électro-encéphalogramme ne permet plus de discerner les phases normales de " sommeil paradoxal ". On a parlé à ce sujet de perturbation grave puisqu'il y aurait diminution ou suppression des rêves (Anonyme 1, 1969).
Verdeau-Paillès (1976, 1985a) s'émerveille des effets immédiats des séances de musicothérapie : " Devant l'importance du matériel (dessins, peintures) recueilli, nous sommes restés confondus. Qu'ils soient pris en groupe ou en séances individuelles, ces malades ne se comportent pas de la même façon et ne tiennent pas les mêmes discours que lors de nos prises en charge classiques... Ce que nous ne pouvons nier, c'est que la musique leur donne la possibilité de sortir de leur inertie, de leurs pensées dissociées et confuses, de leurs idées délirantes, pour s'identifier à elle, se fondre en elle. "
Les effets de la musique évoqués par l'humaniste (Duhamel, 1934) ou idéalisés par les thérapeutes font parfois l'objet d'un scepticisme catégorique. On en trouvera un concentré dans l'article de Vieu, Jarrige et Moron (1982) qui rappellent l'entêtement de tous les siècles à vouloir faire de la musique un " principe actif ". Pour eux il n'y aurait rien à retenir de ces fariboles, si ce n'est la bonne volonté touchante et le charisme éventuel de certains médecins. Tout au plus, comme le dit de sa place Esquirol, la musique pourrait-elle nuire ! (Mais ils ont le bon goût ignacien, refusant le péché, de rester bienveillants au pécheur).

L'amplitude

L'amplitude d'une fourniture sonore, quelle que soit sa nature, peut avoir des conséquences propres. Par exemple une faible amplitude peut demeurer subliminaire (au-dessous du seuil : elle n'est alors pas entendue consciemment). Une trop forte amplitude, au contraire, fatigue et va jusqu'à détruire les cellules réceptrices de la cochlée !
L'intelligibilité de la voix tient en partie à son amplitude et c'est ce qui explique le phénomène des cantines scolaires : une salle très réverbérante amène chaque enfant à hausser le volume de sa voix pour se faire entendre de ses interlocuteurs. Ce faisant, le bruit global augmente et les autres enfants sont obligés, à leur tour, de parler plus fort pour se faire entendre. Cette désastreuse compétition est supprimée en modifiant le plafond et les murs du local pour atténuer la réverbération.
Le volume du son dans le cas des cantines, des classes ou des cours de récréation a un effet excitant sur le système nerveux dans son ensemble, les cris engendrent les cris et suscitent l'énervement, le manque de concentration, l'irritabilité. Bien des enseignants tentent d'en tenir compte en parlant plus doucement quand les élèves se font inattentifs.
Le volume fort d'une musique bien charpentée peut, à l'inverse, engendrer une stimulation plutôt bénéfique de l'ensemble des fonctions cérébrales.
Une transposition intersensorielle de cette observation est peut-être vraie : dans un restaurant dont on atténue rapidement l'intensité lumineuse, on est surpris de constater immédiatement une baisse impressionnante du volume sonore ; comme si tous les convives entraient soudain dans un lieu sacré dont on doit respecter le silence "feutré" (Observation faite au restaurant "Le Canon de Tolbiac", Paris, en 2007).

Les " messages subliminaux "

Il s'agit de messages visuels ou sonores administrés à l'insu de ceux à qui on les adresse, de façon à ce qu'ils n'aient pas le moyen de s'en rendre conscients (Denis-Lempereur, 1988). Par exemple des images brèves perdues dans le flux visuel et répétées suffisamment, ou des paroles dites très doucement au sein d'un océan tonitruant ou encore un enregistrement verbal passé à l'envers, susurré à une oreille pendant qu'on éblouit l'autre d'un contenu tout différent, neutre ou intéressant, etc. Ces " messages " peuvent-ils agir comme tels ou se borneront-ils à être du bruit, perdu dans le chaos multiforme des sensations inutilisables et réjectées par le réseau perceptif ? S'ils parviennent avec leur signification, ce ne peut être qu'à la partie non consciente de nous-même. Quel sera leur statut ? Devons-nous leur accorder une place dans le champ de l'inconscient freudien ou leur réserver un autre lieu, subconscient, à la Pierre Janet ?
Il semble difficile de rejeter toute pénétration psychique à de tels agissements. Leur effet insidieux est d'autant plus fascinant, magique ou machiavélique selon le point de vue. L'interdiction de telles embûches dans la publicité et la propagande me semble justifiée et leur usage thérapeutique devrait faire l'objet d'évaluations sérieuses qui, pour l'instant, sont très insuffisantes. L'hypnose discrète de Milton Erickson (1944) et la programmation neuro-linguistique (PNL) de Bandler et Grinder (1975) sont des utilisations acceptables, sous certaines conditions , de ce dessous de table.
L'insu du dire peut jouer à deux niveaux : non seulement de qui entend sans pouvoir écouter, mais aussi de qui parle sans le savoir. Les systémistes ont montré que la contradiction d'un tel message, implicite, avec la parole officielle de la famille, pouvait avoir de redoutables effets, notamment celui de précipiter dans la folie qui n'y serait pas trop réfractaire. Plus près de nous, Françoise Dolto a démontré combien les précautions et leurs secrets pouvaient s'avérer délétères.
Plutôt que susurrer, un autre et vieux moyen de se faire écouter, est de " hausser le ton ". Lorsqu'on n'est pas suivi, on parle plus fort, on crie, on hurle, on s'égosille ! A quoi l'autre, même s'il ne veut rien entendre, réplique n'être pas sourd. Les publicitaires - comme les assureurs, ils se trompent rarement, vu les sommes risquées - croient utile de forcer quelque peu l'oreille : ils poussent l'amplitude aux limites permises par le système de télédiffusion, de sorte qu'on se trouve en permanence aux limites de la saturation pendant les " spots ". Les mesures réalisées par le Laboratoire national d'essais, montraient, en 1983 à Paris, un niveau moyen des spots publicitaires, sur certaines chaînes, supérieur de 3 à 7 dB A au reste des émissions. Que donneraient les mesures aujourd'hui que la privatisation et la survenue de nouveaux protagonistes exacerbent la concurrence ? D'autre part, " le récepteur de TV privilégie la partie centrale du spectre sonore correspondant à la voix " qu'on accentue encore au mixage (Bourrillon, 1983).

Tableau des résultats publié dans Télé 7 jours (1983)
Date Canal Différence en dB A du niveau sonore moyen de la pub par rapport aux autres émissions Moy. lignes
25/1 A2 +4 +5 +4 +6 +3 +4.4
26/1 A2 +5 +4 +4 +4 +7 +4.8
27/1 FR3 +3 +3 +3 +2 +3 +2.8
28/1 FR3 +2 -1 -1 +1 +2 +0.6
31/1 FR3 +3 +1 +1 +3 +3 +2.2
01/2 TF1 +3 = +1 +6 +3 +2.6
03/2 TF1 +2 +3 -1 +2 +3 +1.8
07/2 TF1 = = = +2 -1 +0.2
etc.
Moy.Col.
+2.75 +1.88 +1.38 +3.25
+2.88
+2.43

Les médias, par exemple la radio, peut utiliser cet effet explicitement dans le cas de la publicité. Il se pourrait qu'ils utilisent ces moyens pour accentuer un message qu'il leur semble bon de promouvoir : tel acteur ou écrivain ayant trouvé grâce au près du réalisateur sera diffusé avec des sons plus intelligemment amplifiés que tel interview dont la teneur serait contraire aux souhaits de ce même réalisateur. Plutôt que d'être clairement diffusé, il sera légèrement brouillé ou très assourdi ... Ainsi le temps d'antenne est-il normalement attribué sans que l'information considérée puisse nuire ...
Des statistiques ont montré que l'exposition permanente au bruit rend les gens plus querelleurs et favorise les scènes de ménage ! Pour les nouvelles générations qui disposent de toutes sortes d'instruments (laser, K7, FM, TV, etc.), la musique " dessine un chemin. C'est une vie qu'on se donne " (Moitel, 1985) et, tant qu'à faire, poussons le potard à fond (quand on aime, on ne compte pas) jusqu'à la défonce mais pas toujours la surdité, contrairement à ce qui adviendrait à l'usine pour un bruit comparable en décibels (Josserand, comm. au Groupe des sons, 1988). Tomatis déjà (1973) déclarait que le " grand chanteur d'opéra développe environ 150 dB dans son crâne lorsqu'il est en pleine action ", mais il a appris à se défendre de sa propre production, évitant ainsi la surdité !

Effets rythmiques

Comme bien des auteurs l'ont souligné, les rythmes paisibles sont ceux qui se rapprochent de celui du coeur qui rythma la vie du foetus. Les rythmes plus lents (Saint-Saens) peuvent stimuler dans le sens vagotonique, les rythmes plus rapides (Brahms) dans le sens sympathicotonique. Les cinéastes ont largement exploité ces effets, annonçant la tournure que prend l'action à travers un changement soudain ou progressif du tempo musical et visuel.

Le foetus qui commence à entendre perçoit d'abord des sons graves (bruits intestinaux de la mère), spécialement des rythmes (coeur de la mère, bruit de ses pas). Il perçoit aussi les sons extérieurs graves (non musicaux ou/et musicaux). Dans le même temps, il perçoit des modifications de situation dans l'espace (labyrinthes). Ces modifications sont, pour nombre d'entre elles, rythmées par les mouvements de la mère (notamment les battements cardiaques et vasculaires, la respiration, la parole, la marche).


Il existe de la sorte une association de fait entre rythmes et fréquences graves.

Ce n'est que plus tard dans la vie utérine et après la naissance que lui parviendront les aigus.
Il y a sans doute d'autres raisons, d'ordre neuro-physiologique, liées à la structure anatomique du système nerveux, aux connexions entre populations de neurones, à l'intervention du cervelet (monté en dérivation par rapport à beaucoup de circuits à vocation motrice et/ou psychique) qui établissent une connexion fonctionnelle entre des circuits "réverbérants" et des activités humaines rythmées.
Les activités rythmées sont nombreuses et partout présentes dans l'organisme alors qu'elles semblent constituer une sorte d'exception dans le fonctionnement du système nerveux => en effet, en règle générale, un stimulus répétitif fait l'objet d'une "habituation", c'est à dire que ses effets s'amortissent et il semble "oublié", passé à la trappe !
Dans le cas des activités rythmées, l'activité est au contraire entretenue ! Le coeur par exemple : le noeud sinusal stimule l'oreillette et donne une impulsion au circuit ventriculaire. Lequel, ayant excité le muscle ventriculaire "informe" ce noeud sinusal pour qu'il procède à une nouvelle excitation auriculaire - et ce, toute la vie durant !

Il en va de même, en transposant ce qui doit l'être, pour la respiration, la marche ou la course, l'activité sexuelle, etc.

Les activités rythmées sont ainsi liées aus sons graves, aux activités biologiques répétitives, aux nécessités premières et fondamentales de la vie animale et humaine.
Les plantes sont aussi le siège de rythmes, mais leur périodicité est bien plus faible (les saisons par exemple). Elles sont de ce fait peu liées aux phénomènes acoustiques; plutôt aux rythmes de température, d'éclairement et peut être de gravité (effets du cycle lunaire ?).
Les activités rythmiques passives (in utero, puis bercement du bébé) ) ou actives (apprentissage de la marche, auto balancement, mouvements anti-anxiété de l'enfant ou de l'adulte => balancer sa jambe, danse, etc) ont un effet apaisant, sans doute lié à des traces primitives "apprises" durant les tout premiers moments de la vie, dans l'atmosphère sans lutte ni conflit d'avant la naissance.
Ces activités se prètent à une première mise en jeu de notre caractère psycho-sociale : il est relativement simple pour deux être vivants d'adopter un rythme commun dans leurs mouvements et même leur respiration...
L'utilisation des rythmes, en tant qu'ils s'opposent aux phénomènes d'habituation, permet, en les auto-entretenant d'en faire le véhicule de sensations oubliées, révolues, celles de la vie utérine. On peut les favoriser par les mouvements dérivés de la marche (par exemple la balançoire ou le manège de la fête foraine, la valse, le tournoiement des derviches, etc).
Le lien "historique" entre les mouvements répétitifs et les sons graves rythmés, évoqué plus haut, fait de la batterie et de tous les instruments percussifs générateurs de bruits répétitifs, les candidats tout trouvés pour synchroniser, amplifier, auto-entretenir les rythmes à deux ou à beaucoup. Le support du groupe, les phénomènes d'identification réciproque et d'imitation, les émotions ainsi communautarisées mettent en place, amplifient, harmonisent et récompensent la mise en commun des émotions : les émotions tristes donnent des rythmes moins vifs, les émotions gaies peuvent engendrer des danses endiablées ...
 

Effets mélodiques

La permanence d'une ligne mélodique de base ou le fait que la ligne mélodique soit contenue dans un ensemble construit et culturellement reconnu favorise la détente et le repos ... Certaines cadences (résolution d'une tension musicale) favorisent à l'évidence la relaxation (Jost, 1983) ; jusqu'à nous mener au bord du sommeil (ou, parfois hélas, dans l'ennui).

Vagotonie Sympathicotonie
Pouls lent, palpitations Pouls rapide
Gastralgies, colites Hyperthermie
Sueurs, larmes, nausées Hyposécrétion (larmes)
Myosis Mydriase
Pâleur Rougeur de la peau
Embonpoint, boulimie Maigreur, anorexie
Alcalose sanguine Acidose sanguine
Sommeil Eveil
Détente, plaisir Excitation, désir
Inhibition, auto-nuisance Agitation, violence
Découragement, culpabilité Impulsivité, anxiété
Tempo lent Tempo rapide
Ralentissement Accélération
Rythme plus ou moins flou Rythme très marqué
Diminuendo Crescendo
Séries de notes descendantes Séries ou arpèges ascendants
Cadence parfaite Cadence rompue
(Dominante ---> Tonique) (a- ou dys-tonalité)

 


Quelques notes de musique pour les cœurs malades…
Source : Cochrane Systematic Review, 14 avril 2009, relayé par le Blog de Benje
« Nous savons tous que la musique provoque de fortes émotions », explique le Pr Joke Bradt de l'Université de Philadelphie, aux Etats-Unis.
Une méta-analyse de 23 études confirme les bienfaits de la musicothérapie sur le niveau de stress et d'anxiété en cas de maladie cardiovasculaire.
« Toutes les études menées sur des patients coronariens, particulièrement sujets au stress dû à leur affection, démontrent ce bénéfice ». Baisse du rythme cardiaque et de la tension artérielle, amélioration générale de l'état psychologique… Autant de résultats que l'auteur n'a pas observés chez les autres patients.

Effets harmoniques

David Feldman distingue les musiques à effet convergent qui amélioreraient la voix (et l'écoute des voix) et les musiques à effet divergent stimulant l'écoute des sons très graves ou très aigus.

Effets de la distribution spectrale dominante

Médiums

Certaines expressions musicales privilégiant la zone des médiums pourraient avoir quelque rôle dans l'expression ou l'évolution d'un caractère ; c'est ainsi que tel musicien de mes amis prétend que ses collègues flûtistes ont tendance à se sentir persécutés et montrent un " sale caractère ". Les agents de l'E.D.F. qui utilisent à longueur de journée certains générateurs de fréquences (800 à 1 000 Hz) déclarent que c'est plus épuisant qu'une journée dans les embouteillages ou près d'un marteau piqueur ! Jusqu'au désir de briser l'appareil, jusqu'aux migraines et aux troubles gastriques. Celui qui manie l'appareil et déclenche les salves sonores paraît bien sûr moins éprouvé que ses collègues, témoins passifs. Il s'agit ici de sons répétitifs, souvent de forte intensité, dont le caractère de fréquence pure, sinusoïdale semble, même pour les faibles niveaux, comporter, de par leur structure très peu naturelle, un aspect agressif et nuisible, surtout lorsqu'ils sont très directifs et administrés à une seule oreille. On sait par ailleurs (Woods, 1970) que les vibrations infrasoniques sinusoïdales sont ressenties plus péniblement que celles dont la forme d'onde est plus complexe. La musique d'ambiance et les choeurs, qui privilégient la zone des médiums par rapport aux musiques syncopées ou symphoniques à grande dynamique, entraînent, chez 95 % des jeunes mamans, une stimulation de la sécrétion lactée telle que leur production de lait s'accroît de 50 à 150 % (Ikouya Oka, 1970) !

Tableau de Feldman (1983)
Domaine effet convergent effet divergent
Rythme binaire ou ternaire et constant pendant le morceau ni binaire ni ternaire ou variable
Mélodie contenue dans les fréquences de la voix parlée fréquences plus basses ou plus hautes
Harmonie tonale semi-tonale ou atonale
Dynamique les changements de volume sont rares, progressifs et modérés ils sont brusques, fréquents et importants
Timbres > 50 % de la masse orchestrale < 50 %
bois et cuivres < 3 % > 3 %
Percussion  timbales autres percussions
Effets écoute et production verbales écoute hors du champ verbal
La musique fonctionnelle planifiée est " une application industrielle des pouvoirs du son tels que les moyens modernes d'enregistrement, de traitement et de diffusion permettent de les utiliser " (Chion, 1978). Il s'agit de cette musique conçue de telle sorte qu'on " l'entend sans l'écouter " (Wokoun, 1969) et qui permet d'administrer une stimulation propre à combattre les déperditions de rendement quand la fatigue croît le long de la journée. On reconnaît des résultats spécialement positifs dans les unités de travail manuel et mécanique, surtout dans les ateliers féminins, lorsqu'une tâche inintéressante demande pourtant une attention soutenue. Cette musique facilite l'attente dans les lieux publics, favorise et oriente les achats dans les magasins où tout semble devenu possible (hélas, le paradis terrestre finit à la caisse). Muzak est la firme la plus connue pour la commercialisation de tels enregistrements qui ont plus de cent millions d'auditeurs quotidiens dans plus de 25 pays. Cela s'entend dans les bureaux, les usines, les restaurants, les cliniques, les écoles, les élevages de poulets, etc.
Les caractéristiques de la musique fonctionnelle planifiée sont les suivantes : faible niveau de diffusion, aplatissement sévère des zones graves et aiguës du son, flux lisse et coulant, réduit à une bande étroite dans le médium. Distillé en " aérosol ", il est omniprésent, quoique très discret. Ce type de musique aplatie, non informationnelle quoique limitée à la région du spectre utilisé pour la parole, a une vertu de conformisation sociale maximum. Elle se range parmi les musiques " convergentes " de Feldman.

Graves

Il en va tout autrement de ce vaste ensemble qu'on a voulu réunir sous le vocable de M.P.R. (ou musique " pop/rock ") : on utilise alors de très forts niveaux en aplatissant les médiums au profit des extrêmes aigus, mais surtout graves. Les haut-parleurs " sont érigés comme des totems ", agressivement visibles, les corps humains sont secoués de vibrations, les conversations impossibles : on ne peut que boire ou danser. Dans l'ambiance disco, on ne peut - au dire des témoins de Jéhovah (Anonyme 3, 1979) - que " se laisser aller au mouvement primitif sans penser, exprimer sa sexualité dans un état orgiaque d'exaltation extatique ". Le grondement des souterrains, la tempête des décibels, les festivals tonitruants induisent la fusionalité des individus amassés les uns contre les autres, confortent les plus jeunes dans leur sentiment d'appartenir à un nouveau monde, les éclatent et les défoncent : les valeurs d'autorité disparaissent, les mornes indices de la quotidienneté s'éclipsent, la révolte, le vitalisme instinctif, la turgescence sexuelle, la liberté de l'eau jaillissent, festoient. Mais ils rendent - mieux que d'autres plaisirs - sourd. Au point que le nombre de réformes, pour défaut d'audition, augmente (1989) de manière très inquiétante dans notre pays. Au-delà des impressions festives survient la gueule de bois et le besoin d'en rajouter, une certaine pente vers la dé-responsabilisation. Le son peut alors devenir une drogue parmi d'autres (Antoine, 1988).
L'écoute excessive de musique pop et rock avec textes chantés, à fort volume, avec ou sans casque, peut-elle engendrer sur certains individus des états psychiatriques chroniques, tels que névroses ou psychoses?
Tout d'abord, l'écoute de musiques, à très fort volume, n'est pas plus conseillé que l'écoute d'un moteur d'avion. Cependant, une étude menée à Toulouse (Pr Josserand) a montré que si l'écoutant est un de ceux qui joue la musique, il n'y a pas forcément détérioration de l'audition. L'écoute purement passive pourrait, par contre, être dommageable. Autrement dit, cela est moins nuisible si on danse sur le rythme entendu.
Ce type de "défonce" traduit sans doute un problème affectif plus qu'il ne l'engendre. Cependant, l'usage de musiques centrées sur les graves peut stimuler certaines zones psychiques plus que d'autres et renforcer par là un comportement moins socialisé; surtout s'il y a usage concomitant de toxiques tels l'alcool, le tabac, l'herbe, etc.
On connaît un usage religieux de ce type de sonorité : " Dans la pratique du Vajrayana, le son joue un très grand rôle. Le tonnerre des trompes de cinq mètres des lamas, l'usage liturgique de tambours, gongs et cymbales, les psalmodies d'une voix profonde et la récitation sonore des mantras ont tous la puissance de produire des effets psychiques précieux et d'un ordre différent des effets de la musique au sens ordinaire " (Blofeld, 1976, p. 85).
Certains techniciens de l'E.D.F. sont affrontés à un pupitre de manoeuvres avec signaux d'urgence en fréquence cadencée de 500 à 600 Hz, associés à des avertisseurs lumineux. L'alarme dure tant que la manoeuvre voulue n'a pas été effectuée ; un tel processus se répète souvent par temps d'orage, pour des travaux ou lors d'une grève. Selon ces agents, ce système est moralement épuisant, d'autant que le niveau sonore est plus élevé : ils souffrent alors de migraines et d'énervement ; les plus calmes deviennent agressifs (Claustres, comm. pers.).
On peut en retenir, d'une manière générale, que les sons graves ont des effets de fatigue et peuvent engendrer des maux de tête. Comme les casques passifs ne peuvent protéger que des aigus, on a proposé des systèmes de protection contre les sons graves utilisant la synthèse d'anti-bruit.
Il est depuis longtemps connu (Darwin, 1794) que certains sons très intenses peuvent entraîner des troubles de l'équilibre, des crises vertigineuses, des déplacements du champ visuel, etc. Il s'agit d'une stimulation, à la fois des canaux semi-circulaires et du saccule, dont les capacités auditives sont bien connues. Ces effets sont maximum pour une intensité (douloureuse) de 125 dB SPL, à des fréquences de 800 à 1 000 Hz, avec des émissions d'une bouffée toutes les secondes (Toupet, 1981).
Feijoo (1978) a découvert que certaines structures sonores limitées aux basses fréquences et à des rythmes lents pouvaient avoir un effet de relaxation, de relâchement musculaire et mental, si bien que le patient devient plus facilement suggestible, et ceci sans l'induction verbale habituellement utilisée en sophrologie et dans l'hypnose.
Les généraux le savent bien : le rythme du tambour fait marcher au-delà de la fatigue le soldat hébété (cf. Cyrano de Bergerac, dans le chapitre 10). Les graves dominent et tendent à mobiliser tout le corps, mais sans recharger les batteries du contrôle conscient !
Feijoo retrouve, de manière beaucoup plus scientifique, certaines remarques des anciens magnétiseurs qui prétendaient mettre leur sujet en transe par l'emploi d'un gong frappé soudainement dans son dos ou par la façon modérée, mais plus ou moins caverneuse, de prononcer telle ou telle formule (ce qui fut repris et adapté par Caycedo sous le nom de Terpnos Logos).
Feijoo utilise son charisme personnel pour faire glisser de l'état d'hypovigilance et de suggestibilité ainsi obtenu à un état d'analgésie (plutôt que d'anesthésie) très spectaculaire. On le voit, dans un de ses films, extraire une dent incluse sans l'appui d'aucun médicament et sans que son client manifeste beaucoup d'incommodité (malgré une intervention longue et sanglante). Insister sur sa capacité personnelle d'hypnotiseur ne signifie pas que sa technique soit hors de portée : il a pu former de nombreux utilisateurs en odontologie et obstétrique (Baudin, 1981). Il pense agir sur la composante " émotionnelle " de la douleur et qualifie son procédé d'audio-analgésie. Deux mécanismes - au moins - pourraient être invoqués dans l'explication du phénomène :
1. effet de refoulement de la composante douloureuse, refoulement attribué à la relation transférentielle massive que favoriseraient les sons administrés ;
2. effet de stimulation enképhalinergique lié à ce même processus de suggestion dans le transfert.

Comme les "sons Feijoo" nous le faisaient pressentir, (Cf Clef des Sons p.116) le tempo d'une musique peut faire varier la sensibilité douloureuse..
J'étais, dans le texte ci-dessus, sans doute trop critique quand j'attribuais l'effet analgésique de ces sons au seul facteur d'une plus grande suggestibilité induite par ces sons. Le travail de Ramona Kenntner-Mabialaa semble indiquer, qu'au moins chez les femmes, il existe un effet spécifique du tempo sur la sensibilité douloureuse :
"The present study investigated affective and physiological responses to changes of tempo and mode in classical music and their effects on heat pain perception. Thirty-eight healthy non-musicians (17 female) listened to sequences of 24 music stimuli which were variations of 4 pieces of classical music. Tempo (46, 60, and 95 beats/min) and mode (major and minor) were manipulated digitally, all other musical elements were held constant. Participants rated valence, arousal, happiness and sadness of the musical stimuli as well as the intensity and the unpleasantness of heat pain stimuli which were applied during music listening. Heart rate, respiratory rate and end-tidal PCO2 were recorded.
Pain ratings were highest for the fastest tempo. Also, participants’ arousal ratings, their respiratory rate and heart rate were accelerated by the fastest tempo. The modulation of pain perception by the tempo of music seems to be mediated by the listener's arousal".
Ramona Kenntner-Mabiala, Susanne Gorges, Georg W. Alpers, Andreas C. Lehmann and Paul Pauli,
Musically induced arousal affects pain perception in females but not in males: A psychophysiological examination,
Biological Psychology, Volume 75, Issue 1 , April 2007, Pages 19-23

Mais, remarque Feijoo, " dans ces états d'hypovigilance, je me suis rendu compte qu'il y avait une distorsion dans les rapports patient-praticien. Nous travaillons dans une zone qui est très érogène et..., que ce soit un homme ou une femme, il y a des problèmes qui sont levés, qui ne se manifestent pas, qui ne se verbalisent pas forcément, mais qui créent une situation qui peut être gênante. En tout cas, à partir du moment où j'en ai eu conscience, en posant, par fiches anonymes, des questions... je me suis tenu sur mes gardes. " Il n'utilisera plus ce procédé, si ce n'est chez les patients incapables de supporter sans danger l'anesthésie chimique et chez les femmes enceintes pour permettre un accouchement véritablement sans douleur ni médicaments et pour déclencher le travail.
L'évaluation, selon l'échelle du Centre de musicothérapie de Paris, par les sujets eux-mêmes, de l'impact psychologique des sons Feijoo, énonce surtout l'apaisement, la relaxation, la sérénité. On peut se demander pourtant si les sons graves se limitent, comme le veut leur créateur, à abaisser le niveau de vigilance et à favoriser la suggestion (Renner, 1983) ou s'ils ajoutent à ces deux premières conséquences une dynamisation des régions pulsionnelles de l'organisme. Le premier argument d'impact " sexogène " remarqué par Feijoo lui-même sera confirmé par le lien statistique entre les différentes régions psychosomatiques et l'échelle des fréquences. Selon la Gitalamkara (un des plus anciens écrits de l'Inde sur la musique) comme pour Aucher ou Tomatis, les aigus correspondent à la partie supérieure du corps et les graves à la région inférieure (cf. chap. 12).
Sous réserve d'expériences plus rigoureuses, j'admettrai que les sons très graves (zones spectrales 1 et 2 de Leipp : F1 et F2 ci-dessous) sont plutôt liés au besoin de sécurité et d'assise (chakra de base) qu'à une explosion instinctuelle, laquelle dépendrait plus de la zone spectrale 3 (F3) de Leipp.

Les Bandes fréquentielles de Leipp

F1
F2
F3
F4
F5
F6
F7
F8
de
50
200
400
800
1200
1800
3K
5K
à
200
400
800
1200
1800
3K
5K
15k
(les nombres indiquent en Herz, les limites de chacune des bandes)
Le fait est que les sons graves, plus que les autres, semblent capables de conduire les sujets réceptifs à l'état de transe : la conscience se modifie, il y a disparition du contrôle conscient volontaire au profit d'expressions de la personnalité beaucoup plus proches de l'inconscient. Ces états, que Janet appelait " subconscients ", laissent apparaître des émotions, souvenirs, mouvements et aptitudes parfois surprenants.
La presse s'est faite l'écho de recherches menées à l'Albert Einstein College aux USA (Anonyme 2, 1969) qui tendent à montrer l'utilité de stimulations sonores aux environs de 600 Hz (80 dB, zone 3 de Leipp) pour traiter certaines stérilités par anovulation.
Josserand (1985) a noté l'altération qualitative de l'audition qui se produit au moment de l'endormissement, entre ce chien et loup du demi-sommeil, alors que les bruits perdent leur signification informationnelle individuelle pour céder la préséance à la perception globale de l'ambiance, du fonds commun sonore : " On n'entend plus le sens, mais seulement la réverbération de la pièce. " Les médiums s'effacent alors devant les graves et les aigus. On observerait ainsi quatre degrés successifs de l'endormissement : veille, abolition de l'activité musculaire orientée vers un but, diminution ou suppression de l'activité musculaire pour le maintien de la posture, abolition de la perception précise des formes, et enfin sommeil avec disparition du fonds perceptuel lui-même.
Jean Feijoo (comm. personnelle du 25 Mai 2007) s'appuie sur la possibilité que nous avons d'utiliser la voie neuro-physiologique non spécifique, celle qui met en jeu le système limbique et plus généralement les structures cérébrales sous corticales, utilisées notamment dans un contexte émotionnel. Il observe que ces voies sont disponibles aussi pour acheminer très rapidement certaines informations, notamment pour libérer le geste de formes particulières de stress post traumatique ou pour permettre l'intégration de certaines capacités visuo-motrices, par exemple dans les championnats de tir à l'arc. Une de ses élèves aurait mis en évidence une amélioration de la mémorisation de mots qui atteindrait plus de 40 %, quand on fait un test sous relaxation (respiratoire ou sonore) comparé au même test sans intervention particulière !

Aigus

La mélodiethérapie (Ferrand-Vidal, 1982) enseigne que l'opposition grave-aigu permet de réintégrer, sur la montée, les termes syntaxiques négligés sans cela par l'agrammatique (dont les lésions cérébrales ont altéré les capacités grammaticales). La catégorisation grave/aigu apparaît donc comme une structure d'éveil et d'accentuation. Les mères et certaines orthophonistes (Maurette, 1989) le savent bien qui utilisent ces montées pour exciter l'enfant au parler : ce qu'il entend ! Les cuivres, tant prisés des fanfares militaires, conduisent à l'exaltation, signifient le triomphe, évoquent l'héroïsme. Pourquoi ? C'est qu'ils ornent leurs finales d'une variation du timbre correspondant à une gerbe puissante d'harmoniques de plus en plus riches en aigus. On verra que l'oreille électronique et l'akousmatix agissent d'une manière analogue, mais avec plus de continuité et moins d'éclat grandiloquent. Certains employés de l'E.D.F. ont noté l'effet curieux des fréquences de 4 000 à 5 000 Hz. Leur action se discerne mal pendant le temps d'exposition lui-même. Par contre, au décours de celle-ci, le sujet se sent assommé ou persiste à entendre, jusqu'en son lit, le son lancinant qu'il a subi toute la journée.
Un médecin de l'Isère rapporte (Roucayrol, 1964) que des ouvriers, utilisant, pour agrapher des feuilles d'aluminium, un générateur à magnéto-striction piloté par un oscillateur à 20 kHz dont ils entendaient le sifflement, se plaignaient d'inappétence, d'impuissance, de nervosité. Il est probable que l'appareil incriminé était mal réglé et la fréquence plus faible puisque bien peu de personnes se montrent capables d'entendre au-delà de 15 à 18 kHz. Néanmoins, nous sommes dans la zone des sons très aigus : les effets observés peuvent contribuer à préciser quel est leur type d'action sur l'organisme.
Tomatis déclare : " L'oreille n'a pas été uniquement faite pour écouter ; c'est un organe de charge en potentiel électrique du cerveau. " La musique aura le rôle d'éveiller le cortex, plus que toutes les autres stimulations. " Cependant il faut savoir qu'on ne peut pas utiliser toutes les musiques pour obtenir ce phénomène d'éveil. Il faut pouvoir passer dans la zone de charge du cortex, c'est-à-dire dans la zone des aigus qui correspond, sur la membrane de Corti, à la plus grande densité de cellules ciliées. "
Certaines musiques, " densifiées " dans les aigus ou filtrées en passe-haut ont cliniquement un rôle responsabilisant et dynamisant. De sorte que, généralement, le sujet fatigué se ragaillardit, la personne déprimée retrouve son entrain, l'introverti commence à communiquer, l'énervé à se maîtriser. On note une augmentation de l'envie d'agir et des initiatives, de l'envie de s'exprimer de toutes les façons possibles, de conscientiser et de réaliser certains désirs jusque-là maintenus à l'état velléitaire. Chez le sujet instable moteur, toujours en mouvement, caractériel, un apaisement se dessine : tel patient arrête de battre sa femme, tel enfant " hyperkinétique ", s'assagit.
Cependant, là encore s'observent parfois des effets de stimulation non recherchés : excitation anxieuse, sentiment d'être " sous pression ", réactivation bizarre d'une affection ancienne (lombalgie, hypertension artérielle, otite séreuse, eczéma du conduit, sécrétion exagérée de cérumen, parfois localisée à l'oreille la plus sollicitée, infiltration parotidienne et péri-auriculaire sans affection intercurrente décelable, infiltration du pavillon avec constitution d'une inflammation purement fonctionnelle, apparition de kyste rétro-auriculaire, dysphonie, etc.). Et si surgit la possibilité d'exprimer une agressivité jusque-là réprimée ou refoulée, l'entourage regimbe : " Ça lui fait plus de mal que de bien : il devient irritable. " On observe, sous l'effet des sons filtrés à 8 000 Hz en passe-haut, une disparition, plus ou moins rapide mais constante, des cauchemars, ainsi qu'une diminution de la durée de sommeil chez certains déprimés hypersomniaques.
Ces remarques pourraient laisser dans l'ombre le fait qu'il est fort différent d'entendre un sifflement très aigu ou une oeuvre symphonique de Debussy ou de Mozart filtrée en passe-haut. Tomatis a proclamé que la musique filtrée, pour atteindre son optimum d'efficacité, devait provenir de certains compositeurs (plus spécialement, dans le cas courant, de W. A. Mozart). Il en donnait une raison psychodynamique : cette musique faisait du bien parce que son compositeur était passé, presque directement, du ventre maternel au clavier du piano. Possible. Reste à trouver en quoi cette musique diffère des autres, par exemple de celle de Vivaldi ou de Beethoven.
Guy Maneveau (1975) observe que beaucoup de créateurs font comme si do / mi / sol était l'accord parfait, alors que, dans la nature, on a plutôt do / do / sol / do / mi etc. Il a proposé l'explication suivante : la construction harmonique serait, chez Mozart, plus fidèle, globalement, à la distribution naturelle des résonances.

Infrasons

Les vibrations actives sur notre organisme ne se limitent pas aux sons : les organes vestibulaires (utricule, saccule, canaux semi-circulaires) sont sensibles à de très basses fréquences qui peuvent provoquer certains effets d'ordre psychologique : mal des transports (0 à 2 Hz) avec son cortège de troubles digestifs ; lorsque le corps tout entier se trouve pris dans des secousses légèrement plus rapides (4 à 10 Hz), on peut observer (pilotes d'hélicoptères, de tanks, etc.) des phénomènes mécaniques et physiologiques redoutables : dorsolombalgies, déplacements vertébraux, surventilation, baisse d'acuité visuelle, etc. (Delahaye, 1968 ; Woods, 1970). La tête, dans son ensemble, entre en résonance entre 10 et 20 Hz. Entre 25 et 40 Hz, puis entre 60 et 90 Hz, c'est l'oeil qui se prend à souffrir (Benitte, 1965). Au-dessus de 20 Hz, bien des machines industrielles (riveteuse, perceuse à percussion, marteau-piqueur, etc.) induisent des mouvements de cisaillement et dupliquent leur effet sonore par conduction aérienne, bien connu de l'observateur, d'un deuxième, par conduction osseuse, qui n'est sensible qu'à l'utilisateur direct !
Manipulation acoustique subliminale
Chez les sujets humains, des résonances sensorielles peuvent être excitées par des impulsions acoustiques atmosphériques subliminales accordées sur une fréquence "de résonance". La "résonance sensorielle" de 1/2 hertz affecterait le système nerveux autonome et pourrait causer une relaxation, de la somnolence, ou une excitation sexuelle, selon la fréquence acoustique précise utilisée (proche de 1/2 hertz) . Les effets des de "résonances" proches de 2.5 hertz inclueraient le ralentissement de certains processus, de la somnolence, et une désorientation corticale. Pour que ces effets se produisent, l'intensité acoustique doit se situer dans une certaine gamme profondément subliminale. L'appareil approprié se compose d'une source portative à piles donnant un rayonnement acoustique infra-audible faible.
In human subjects, sensory resonances can be excited by subliminal atmospheric acoustic pulses that are tuned to the resonance frequency.
The 1/2 Hz sensory resonance affects the autonomic nervous system and may cause relaxation, drowsiness, or sexual excitement, depending on the precise acoustic frequency near 1/2 Hz used. The effects of the 2.5 Hz resonance include slowing of certain cortical processes, sleepiness, and disorientation. For these effects to occur, the acoustic intensity must lie in a certain deeply subliminal range. Suitable apparatus consists of a portable battery-powered source of weak subaudio acoustic radiation.
 
Il y a, au niveau de la peau et des aponévroses, deux catégories de récepteurs : les uns sensibles aux environs de 30 Hz, les autres de 250 Hz. Bien entendu, le sourd le plus profond, et peut-être mieux que l'entendant, sait percevoir et utiliser ce type d'information vibratoire. Une vibration (de 150 Hz par ex.) appliquée à un tendon entraîne la contraction réflexe du muscle correspondant et la détente du muscle antagoniste. Ce qui a, jusqu'ici, moins tenté les adeptes du dopage que les stéroïdes ou les courants électriques (Berthoz, 1971).
Mieux qu'un fantôme pour frissonner de peur, un infrason !
Les sons à très basse fréquence, inaudibles pour l'oreille humaine, peuvent néanmoins provoquer certaines réactions ou sentiments étranges comme des frissons, de la peur, de l'anxiété ou une grande tristesse, révèlent lundi des scientifiques britanniques. Leur expérience, menée sous contrôle, accrédite l'idée répandue qu'il existe un lien entre les infrasons et l'apparition de sensations curieuses. Le Dr Richard Lord, chercheur en acoustique au Laboratoire National de Physique, et le professeur Richard Wiseman, psychologue à l'université du Hertfordshire, ont testé les effets des infrasons sur 750 personnes lors d'un concert à Londres.
Ils ont introduit des sons à basse fréquence dans certains des quatre morceaux de musique contemporaine proposés et ont demandé à l'auditoire de décrire ses réactions. Environ 22% du public, qui ignorait quels morceaux contenaient des infrasons, ont fait état de réactions inhabituelles - tristesse, frissons, peur... - lorsque la musique distillait également de sons à basse fréquence. "Ces résultats montrent qu'un son à très basse fréquence peut entraîner des réactions inhabituelles chez les gens même s'ils ne peuvent pas consciemment le détecter", a assuré Wiseman, qui présentaient les résultats de l'étude lors d'une conférence scientifique de la British Association."Normalement, vous ne pouvez pas entendre (les infrasons)", a expliqué Lord, ajoutant que les infrasons sont également générés par des phénomènes naturels. "Certains chercheurs ont suggéré que ce niveau de son peut être relevé dans certaines maisons dites hantées et ainsi provoquer des sensations curieuses couramment attribuées à la présence d'un fantôme - nos découvertes confirment cette thèse", a précisé Wiseman. Les infrasons sont également produits par les orages, les vents et certains types de tremblements de terre. Certains animaux comme les éléphants s'en servent pour communiquer ou repousser leurs ennemis.
(Manchester, Reuters, 8 9 2003 )

Ultrasons

Ils sont mal supportés par les rongeurs et peuvent servir à la dératisation d'un entrepôt (McCormick, 1977).
Malgré leur caractère inaudible, ils semblent bien déranger le foetus qu'on examine par échographie.
Une étude plus précise de leur effet biologique devrait être menée au moment où l'on envisage de leur donner la place des détergents chimiques dans les machines à laver... Pour limiter leur nocivité (et par extrapolation de ce que nous avons dans le domaine sonore et infra-sonore), il serait probablement préférable d'employer des ondes wobulées (nous avons défini ce terme dans le chapitre 3) plutôt que sinusoïdales pures, notamment dans l'examen du foetus.
The Neurophone® a été inventé en 1958 par Patrick Flanagan alors qu'il n'avait que 14 ans.
Ce serait, dit-on, un instrument de grande précision qui transposerait et modulerait les sons standards dans la bande des ultra-sons (Brevet : United States patents, #3,393,279 and #3,647,970).
En 1991, Martin Lenhardt de l'Université de Virginie (Science, Vol. 253, 5, 1991, 82) a découvert que les êtres humains pourraient détecter les ultrasons s'ils sont au niveau de la peau, les os et les liquides corporels
Lenhardt aurait montré que le saccule normalement utilisé pour assurer notre équilibre, permettrait aussi d'entendre les ultrasons.
Le saccule contient des récepteurs (macula), et un otolithe, c'est à dire une masse gélatineuse contenant de très petites particules comme du sable , constituées de carbonate de calcium (otocone). Quand la tête se penche, la macula le signale au nerf vestibulo-cochléaire et par lui au système nerveux central de sorte qu'un juste équilibre peut être rétabli. La macula envoie ses informations en diverses régions du cerveau. Certaines de ces terminaisons nerveuses se rendent dans les zones auditives.
D'après le Dr Flanagan, le Neurophone® émettrait des ultrasons de 40 KHz (40.000 cycles par seconde). L'emploi de cet appareil, selon son inventeur, permettrait de mieux harmoniser le fonctionnement d'un hémisphère par rapport à l'autre Il va de soi que ceci reste encore à démontrer.

Mosquito
Le Mosquito a été inventé le 4 mai 2006 et il se vend un peu partout dans le monde malgré la règlementation concernant la diffusion d'ultrasons. C'est un appareil de Compound Security Systems qui émet une fréquence audio destinée a faire fuir les adolescents. La societe Compound Security a dévelopé ce systeme afin d'empécher les jeunes de roder autour des boutiques anglaises. L'unité envoie un ultra son a très haute fréquence testée par le National Physical Laboratory, (dont on a un rapport par le Health and Safety Executive). La plupart des gens agés de plus de 25 ans ne sont pas capable d'entendre ce bruit étrange. Cependant ceux qui ont encore une bonne oreille peuvent l'entendre (pour tenter de l'entendre, cliquez ici)
Ce type de son est dangereux pour l'oreille si l'on est exposé trop longtemps (plus d'une heure par jour). En effet la norme mondiale HSE 343/2001 limite le volume en décibels en dessous de 75db ou plus (jusque 90 dB dans certains cas). Quand le Mosquito est fixé a une hauteur de 3 mètres, il émet pour un auditeur sur le trottoir un son audible de 83 db. Il le fait non de façon continue mais par salves pour éviter de détruire leur oreille ! On le place généralement à plus de 3 mètres de haut dans l'espoir d'éviter que les jeunes ne le vandalisent.
Ce boitier à ultra-sons est vendu en Angleterre, avec l'idée que cela ferait fuir les adolescents (?).
d'après BBC (Mars 2008)


Silence

L'effet des sons peut être d'oblitérer le silence dont quelques plages sont tout à fait nécessaires à une hygiène minimale (Auriol, 1987a). De les avoir anéanties conduit à s'en donner le luxe, quand on peut y accéder ; sous forme d'isolement sensoriel, méditation et retraites. Le Silence prépare et habite la parole. Il en est la conclusion !
Une parole avant de se couvrir de mots, doit séjourner en mammifère douloureux au fond d'un ventre; elle en acquiert le droit d'avoir un sens, d'avoir un son, d'avoir un sang.
Alain Bosquet



La genèse de la latéralité et ses échecs : Les deux écoutes

Chez beaucoup d'enfants, un test, très sensible, permet de dépister des difficultés de latéralisation : il s'agit de fermer les yeux, puis d'écrire les onze premiers nombres décimaux, simultanément avec la main droite et la main gauche, en partant du haut de la feuille. Les perturbations possibles sont l'écriture en miroir, le manque d'assurance du tracé avec l'une ou l'autre main, etc.




David

David nous étonne : il renverse tous les nombres, comme s'il les traçait du point de vue de l'examinatrice placée face à lui quant à leur forme, tout en restant à sa propre place pour l'ordonnance dans la page (le un est en haut de la page et le onze en bas par rapport à lui). L'inversion à 180° dans le plan de la page est complétée par une inversion en miroir dans le cas du chiffre cinq, et ceci pour les deux mains (fig. 16) !
Pour Cyrille, 13 ans, le résultat est assez stupéfiant : alors que la main droite réalise un tracé " normal " de sa colonne de chiffres, la main gauche réalise la performance de faire pivoter chaque nombre de 180°. Ainsi le tracé des deux mains se présente de manière systématique en " tête bêche " (fig. 17) ! Comment expliquer de tels faits ?
David
Fig. 16




Cyrille
Fig. 17


Cyrille

Cyrille a treize ans lorsque je le reçois. Ses parents le décrivent comme un garçon manquant d'assurance, un peu anxieux, en échec scolaire malgré son bon travail à la maison. Pour l'expliquer, les enseignants parlent d'" une difficulté de synthèse ; il ne saisit pas le sujet dans son ensemble et structure mal ses devoirs ". De ce fait, les rédactions françaises, aussi bien que les problèmes de mathématiques, sont de valeur médiocre.
Son histoire est émaillée de difficultés : la première étant qu'il est né pied-bot : plâtré jusqu'à trois ans ! La mère se souvient qu'à la naissance de sa s±ur Mathilde, alors qu'il avait un an, il se mit à pleurer toutes les nuits : il fallait le bercer pour obtenir qu'il se calme... Par la suite, il se balancera lui-même un bon moment chaque soir pour pouvoir s'endormir. La profession du père l'éloigne très souvent du foyer et la maman se souvient qu'elle a vécu quelque chose d'analogue, car son père était marin. Cyrille sera énurétique jusqu'à douze ans, surtout en période scolaire. Il faut dire que ses camarades de classe lui prennent ses affaires, le battent en le traitant de " tapette " : il ne sait pas se défendre, se contentant d'encaisser les coups.
Le test de Lüscher nous dévoile un enfant prêt à la rencontre, dans l'attente de tout enrichissement possible, mais soumis à une grande tension due aux exigences de la situation. Il se sent malheureux de la résistance qu'il éprouve dès qu'il essaie de s'affirmer, se sent surmené par la lutte acharnée qu'il a dû mener contre l'incompréhension et le manque d'égards. Il aspire donc à un havre de paix, dégagé de tout conflit, qui lui apporterait sécurité et bien-être. Il redoute le vide et la solitude de la séparation et a besoin d'un traitement plein d'égards et d'attention affectueuse. Il se retire, s'écarte des autres avec suspicion en raison des déceptions qu'il a essuyées. Il garde un ±il critique pour voir si les mobiles des gens à son égard sont sincères.
En résumé il se sent incompris et souffre de ne pouvoir satisfaire ses exigences de valorisation et de vie. Il est fatigué de résister aux obstacles. Il aspire à des ménagements sécurisants. Il voudrait abandonner sa carapace afin de s'épanouir dans de nouvelles possibilités de vie, s'affirmer, être à l'abri des critiques et se montrer supérieur.
Le test d'écoute suggère une forte emprise de l'imaginaire, une tendance à se protéger vis-à-vis du monde extérieur (" capacité d'analyse tonale fermée "). Il est sous l'emprise de fortes pulsions sexuelles ou agressives (pointe en courbe osseuse à 500 Hz des deux côtés) cependant qu'il montre sa confusion par rapport à la Loi (erreur de localisation en courbe aérienne à 4 000 Hz). Ces deux derniers signes sont à mettre en rapport avec les graffiti pornographiques ou scatologiques qu'il dessinera (en cachette) au cours des séances d'oreille électronique.
Un incident, somme toute assez banal, est rapporté par le père. Il s'agit d'un événement richement symbolique : " A quelques mois, il a failli s'étouffer par le biberon. Je l'ai pris par les pieds pour lui faire rendre ses glaires. " Quoique ce soit hasardeux, je ne peux m'empêcher de rapprocher ce souvenir paternel unique, et par là exemplaire, de l'inversion spatiale haut-bas qui affecte le test des deux colonnes de chiffres de l'enfant et du fait qu'il est né pied-bot. Ceci est typique de la relation de son père avec notre patient : blessure narcissique infligée par cette infirmité, tentative excessive de réparer, de rétablir l'ordre des choses à contretemps. Tentative désespérée de renverser l'insupportable. Elever bien haut le drapeau en berne. Se mettre aux pieds tyranniques de cette infirmité. Ainsi l'enfant a-t-il appris " à faire la manche " avec de " petits bénéfices " assez lucratifs. Choyé à la maison pendant de longues années, il a appris à séduire et demander. Mais il doit maintenant se mêler aux dures compétitions de l'école, où on le traitera d'efféminé...
Peut-être aurez-vous eu l'impression comme moi que l'inversion spatiale entre les deux mains et entre les deux hémisphères cérébraux n'est pas uniquement (ou du tout) liée à quelque tare génétique, à quelque caprice de l'embryogenèse, comme on en voit chez les très rares situs inversus dont le coeur est à droite.
There is an association of primary ciliary dyskinesia with left-right anatomic abnormalities such as situs inversus (a combination of findings known as Kartagener's syndrome) and other heterotaxic defects. These left-right anatomic abnormalities can also result in congenital heart disease. In fact, it has been shown that proper cilial function is responsible for the normal left-right asymmetry in mammals.
(English Wikipedia)
Je ne pense pas non plus qu'on puisse se contenter d'en rechercher l'explication dans quelque apprentissage moteur un peu défectueux. Il s'agit bien d'une façon d'être qui s'est inscrite dans les connexions du cerveau, sous l'effet des expériences familiales. L'autre hypothèse - non exclusive de la précédente - serait d'imaginer que le rapport intra-utérin entre la mère et son fils avait établi le socle de ce dysfonctionnement : le pied-bot étant le signe le plus évident que " quelque chose " s'était mal passé dès avant la naissance.

Il ne faut pas prendre la droite de Dieu
pour un gauchard en cage

Les centres cérébraux sont croisés par rapport aux organes dont ils sont chargés : le bras droit est géré par des neurones situés dans l'hémisphère gauche, le bras gauche par des neurones situés à droite, et ainsi des différentes parties du corps.
Bien des actions sont réalisées par une seule main, un seul pied, un seul oeil, etc. La plupart des êtres vivants se servent toujours du même côté pour commencer ou mener à bien tel ou tel type d'action, l'autre moitié du corps assurant un rôle de positionnement et de soutien. Les êtres humains sont latéralisés (comme les animaux), mais de plus, ils se montrent, pour une forte majorité d'entre eux, spécialement férus de la droite, depuis la plus haute antiquité (Juges, XX, 15-16).
Par différents tests, on sait évaluer les préférences de chacun pour la droite ou la gauche : questionnaires (Edinburgh Iventory : Oldfield, 1971) ou tests (Auzias, Zazzo, Harris, etc.) concernant les divers actes coutumiers. On pourra dire alors de telle personne qu'elle a un quotient de latéralité de - 100 (gaucher pur), - 75, + 40 ou + 100 (droitier pur). On évaluera la préférence pour la main, le pied, l'oeil et l'oreille...
L'asymétrie concerne aussi le cerveau. Nous le savons depuis le XIXe siècle. Qu'il s'agisse d'un gaucher ou d'un droitier, et sans qu'il en ait conscience, certaines activités sont chez presque tous gérées par l'hémisphère gauche du cerveau, d'autres par l'hémisphère droit. Cette spécialisation " centrale " sera mise en évidence par des procédés, moins directs, comme de présenter simultanément un mot différent à chaque oreille, un objet différent à chaque main, une image différente dans l'espace droit et dans l'espace gauche, etc.
Les fonctions supérieures du cerveau sont réparties différemment sur les deux cortex hémisphériques. Le cas du langage est spécialement utile à considérer car c'est l'activité qui semble la plus, et la plus uniformément, latéralisée. La spécialisation de chaque hémisphère semble liée à des contraintes majeures qui conduisent la presque totalité des individus à utiliser leur cerveau gauche pour les opérations découpant la réalité en segments de petite taille dont les caractéristiques sont traitées pour favoriser distinctions et regroupements sur des bases pragmatiques. Ces regroupements peuvent alors être liés à des étiquettes.
Le cerveau gauche classe par tout ou rien ; comme la réalité échappe à une si vigoureuse catégorisation, il est amené à opérer des caricatures. Entre noir et blanc, il ne connaît aucun gris et s'il s'en trouve, il " arrondira " au plus près : le gris foncé sera noir et le gris clair sera blanc... Il a une capacité particulière à reconnaître les " catastrophes " (au sens de variation soudaine) et à les classer : ainsi perçoit-il mieux les consonnes occlusives que les voyelles (Cutting, 1974 ; Leek, 1983).
Le rôle analytique, voué aux découpages et distinctions abstraites, de l'hémisphère gauche est devenu un poncif tout comme le rôle plus globaliste, analogique, affectif et imaginant de l'hémisphère droit. Ce dernier tend à conserver plutôt des ensembles dans leur état brut (la " mémoire visuelle ") ; il gère des cartes plus vastes, plus complètes, plus précises, mais manque à leur donner l'agencement construit permis par le découpage. On parle de fonctionnement analogique par opposition à celui de l'hémisphère gauche qualifié de digital (numérique).

Spécialisation hémisphérique

Les données ci-dessous sont extraites de leur contexte
il convient d'être très souple et prudent dans leur utilisation
L'hémisphère droit du cerveau serait plus concerné par les perceptions et l'expression globales, par opposition à l'hémisphère gauche qui s'adonnerait à un traitement des perceptions et expressions selon un mode plus focal et séquentiel. Le cerveau droit serait plus intéressé par le synthétique et le gauche par l'analytique.
Il y aurait du côté de l'expression, de la pensée et de la communication entre congénères une premier type "iconique", utilisant des relations visuelles entre parties de l'espace appréhendé dans la simultanéité, attribuant par exemple au soleil un rôle d'autorité, de supériorité, de connaissance, de paternité. On serait là dans un cadre symbolique au sens jungien, imaginaire au sens lacanien.
Cette activité perceptive et cet investissement moteur serait le fait des deux hémisphères (bilatéralité hémisphérique).
Du fait de la spécialisation, progressive au cours de l'évolution, de l'hémisphère gauche, ces activités bilatérales abandonneraient du terrain et se cantonneraient plus ou moins à l'hémisphère droit. Ceci se apparaitrait déjà chez certains animaux pour atteindre un aspect plus évident chez l'humain. Ce type d'action, de perception et d'expression serait à la base des possibilités d'échange et de compréhension entre animaux évolués et entre les humains et ces animaux à qui il "ne manque que la parole".
Plus élaboré, plus tardif à se développer dans l'évolution, serait constituée une expression davantage liée au son et au déroulement temporel et, par là, apte à se spécialiser dans les traitements séquentiels, focalisés, analytiques. Ce deuxième type de communication (sonore puis verbale) serait davantage géré par l'hémisphère gauche.
Ce phénomène de spécialisation pourrait être lié à des facteurs génétiques et anatomo-physiologiques individuels mais "socialisés" du fait d'une statistique majoritaire des mécanismes de latéralisation : soit par le biais de l'anatomie non symétrique des récurrents, de la dissymétrie de nombreux organes, de la situation foetale chez l'humain, de la pression imitative et éducationnelle, etc...
Hémisphère droit Hémisphère gauche
(gère le côté gauche du corps et de l'espace) (gère le côté droit du corps et de l'espace)
Traitement analogique  Traitement digital
L'imaginaire  Le symbolique
Expression iconique (généralement visuelle) Expression verbale (généralement sonore)
Icône (Peirce) Symbole (Peirce)
Formes Dénominations
Mot primaire (Jousse) Forme secondaire d'objet (Jousse)
Langage non articulé  Langage articulé
(prosodie, intonations, cris) (combinatoire)
Créativité imaginative Créativité déductive, tautologique
Reconnaît les bruits et les voix  Voix monocorde, terne, nasillarde
Interjections, mots primaires Syntaxe complexe (voix passive, etc.)
pauvreté du vocabulaire  Richesse du vocabulaire
Le contexte Le texte
Premier formant phonétique  Deuxième et troisième formants
(localisation du locuteur)  (discrimination du phonème)
Mémoire des images  Mémoire des mots
Ecriture idéographique Ecriture alphabétique
(Kanji japonais) (Kata kana japonais)
Etat de rêve (sommeil paradoxal)  Etat de veille (trivial)
Musique Paroles
Reconnaît les mélodies globalement Solfège
Mélodies spectrales Mélodies tonales
Synchronique  Diachronique
Informations topographiques Informations séquentielles
Cartes spatiales Enchaînements dynamiques
Alerte (système d'alarme) Action continuée (système opératoire)
Repérage du familier (lieux, visages)  Repérage du nouveau, de l'atypique
Ambiance, souvenir, passé  Visée, projet, futur
Impression subjective Analyse " objective "
Traitement des émotions négatives Traitement des émotions positives
Activation émotionnelle  Activation discriminante
Tact " protopathique "  Tact " épicritique "
Vision périphérique (N et B)  Vision centrale (couleur)
Attention flottante Attention concentrée
Processus primaire (Freud)  Processus secondaire (Freud)
Rêverie Réflexion
Vie relationnelle => Taciturne, refus de dialoguer  Vie relationnelle => Plaisir de parler et d'écouter parler
Vie relationnelle => Solitaire, morose, pessimiste Vie relationnelle => Sociable, enjoué, optimiste
comique visuel, mimique, farce blagues phonétiques (jeux de mots, etc) => cortex temporal inférieur (Vinod Goel et raymond Doland, Londres, X, 2001)
blagues sémantiques => cortex temporal supérieur
Maladies allergiques ou auto-immunes
Dyslexie, bégaiement  
en homéopathie => " Lachésis "  en homéopathie =>" Lycopodium "
Q. I. non verbal plus élevé Q. I. verbal plus élevé
Il semble (Banquet, 1981) que l'état de veille trouve quelque avantage à laisser dominer le cerveau gauche pour s'adapter, alors que l'état de rêve ouvrira l'opportunité d'une compensation au cerveau droit surtout attaché aux images. En fait, l'opposition digital/analogique se retrouve à de multiples niveaux et, pour généraliser, je propose de considérer une opposition bien connue au niveau du tact, à savoir épicritique/protopathique. On appelle " épicritique " la fonction du toucher qui permet de discerner avec grande précision de quoi il s'agit, et " protopathique " ce qui permet de discerner grossièrement les objets, de percevoir leur allure spatiale générale, d'envisager leurs côtés sympathiques ou dangereux, etc. C'est dire que l'une de ces fonctions nous situe et nous alerte, l'autre nous désigne et nous précise.

The relationship between lateral differences in tympanic membrane temperature

and behavioral impulsivity,

William S. Helton

Department of Psychology, University of Canterbury, Private Bag 4800, Christchurch, New Zealand, Accepted 30 June 2010
Available online 24 July 2010.
Brain and Cognition; Article in Press, Corrected Proof; doi:10.1016/ j.bandc.2010.06.008

In this study lateral differences in tympanic membrane temperature (TTy) were explored as a correlate of either impulsive or cautious responding in Go–No-Go tasks. Thirty-two women and men performed two sustained attention to response tasks (Go–No-Go tasks). Those with warmer right in comparison to left tympanic membranes were more cautious, and those with warmer left in comparison to right tympanic membranes were more impulsive. This finding is in line with previous research and theory indicating a hemispheric bias for active and passive behavior.
NB une température relativement élevée du tympan témoigne d'un flux sanguin augmenté dans l'hémisphère homolatéral. C'est à dire qu'un hémisphère  droit plus actif est associé avec un comportement plus prudent et un hémisphère gauche plus actif est associé avec une impulsivité accrue. Ces conclusions ne sont pleinement valables que si la température du tympan est un reflet simplement passif de l'irrigation hémisphèrique. Il se pourrait qu'interfère avec ce phénomène des régulations vasculaires concernant spécifiquement le tympan qui serait rendu plus "actif" (et plus chaud) selon la mentalité précautionneuse ou impulsive du sujet. La signification par rapport à la dominance hémisphérique devrait alors peut être s'inverser.

Il semble que l'attribution de l'affectivo-émotionnel au cerveau droit et du symbolique au cerveau gauche souffre des exceptions (par exemple, voir le cas des sévices à enfant) dont il serait intéressant de creuser la signification.

corriger la dyslexie ?
16/02/2001 - Des chercheurs de l'université Georgetown, à Washington, ont confirmé que la région pariétale inférieure du côté gauche du cerveau est moins active chez les personnes dyslexiques. Or, c'est justement à cet endroit qu'est régie la gestion des images et des sons.
 
L'activité du lobe pariétal
de l 'Hémisphère gauche du cerveau serait un bon prédicteur de la dyslexie.
 
« Guinevere Eden et Thomas Zeffiro ont développé un test qui permet d'identifier les enfants susceptibles d'avoir des problèmes de dyslexie avant même qu'ils apprennent à lire. On pourrait donc éventuellement éviter que la dyslexie ne survienne grâce à des exercices intensifs de compréhension d'images et de sons. « On pense à tort que la dyslexie fait inverser les lettres ou les mots, or ce n'est pas tout à fait cela le problème, précise Guinevere Eden. En fait, elle prend racine dans la gestion des informations que fait le cerveau avec les sons et les images ». La dyslexie pourrait être corrigée, y compris chez les adultes. Essentiellement, en exploitant la plasticité du cerveau, ils ont incité le côté droit à compenser pour les lacunes du côté gauche[1] ».
Bien avant ces travaux, la méthode de rééducation latérale de Mesker, prend en compte ces observations. On pourrait y adjoindre l usage des Sons Bipolaires que nous avons récemment mis au point. Par ailleurs la stimulation, par des sons hyper-aigus, de l oreille droite et de l hémisphère gauche, proposée par Alfred Tomatis (et reprise par Isi Beller) donne de très bons résultats.
La spécialisation des hémisphères, spécialement celle du cerveau gauche pour le langage, est peut-être la conséquence de données anatomiques ou fonctionnelles précoces. Elle va de pair avec un avantage du côté droit du corps pour réaliser des tâches linguistiques. On a voulu (Kimura, 1961) l'expliquer par la circuiterie des neurones, connectant plus directement l'hémisphère gauche à l'oreille droite. Cet argument logique et, comme tel, à retenir ne doit pas faire oublier qu'en raison de l'extrême complexité et des multiples vicariances de notre système nerveux cet avantage peut disparaître lorsqu'il est mis en compétition avec d'autres niveaux de fonctionnement.
Morais (1975) et Pierson (1983) ont permis d'apercevoir que ces données anatomo-physiologiques devaient s'élargir. L'avantage de l'oreille droite pour le langage se transfère non seulement à l'oeil, aux muscles et à toute la moitié droite du corps, mais aussi à l'espace qui nous entoure. Il sera divisé en hémi-espace droit et gauche qui revêtiront des caractéristiques en harmonie avec la spécialisation hémisphérique dont nous venons de nous entretenir. Ceci est vrai au point que l'avantage de la droite peut être démontré en envoyant au sujet des messages, identiques, aux deux oreilles, pourvu qu'on ajoute un faux haut-parleur sur le côté. Quand il est placé à droite, les résultats sont meilleurs que s'il l'est à gauche ! Ceci ne devra pas être oublié dans les techniques de rééducation linguistique : il convient de rendre l'espace droit plus stimulant, d'y placer l'enseignant, de mettre le microphone à la droite du patient, etc.
66° Congrès de l'Association Canadienne-Française pour l'Avancement des Sciences
ROUSSY Sylvain, TOUPIN Jean, HODGINS Sheilagh =>
Etude neuropsychologique du détachement émotionnel des psychopathes
(Session: C-436 : Du trouble de personnalité antisociale à la psychopathie).

La psychopathie se caractérise par une absence d’anxiété, d’empathie et de remords, ainsi que par une insensibilité marquée au plan des relations interpersonnelles. Les psychopathes sont, en effet, fondamentalement hédonistes et semblent négliger le traitement des émotions négatives. Le contrôle cortical des mécanismes motivationnels sous-corticaux associés à l’expérience des émotions semble être caractérisé par une dominance hémisphérique droite pour les stimuli négatifs et une dominance hémisphérique gauche pour les stimuli positifs. Ainsi, l’hypothèse d’une latéralisation hémisphérique moins franche chez les psychopathes, à l’égard des ressources accordées au traitement des stimuli négatifs, paraît plausible et pertinente à l’investigation empirique.
Lors d’une tâche tachistoscopique latéralisée comportant 40 expositions visuelles, les indices électrodermaux étaient enregistrés chez des psychopathes et des non psychopathes sélectionnés à l’aide du Psychopathy Checklist–Revised. Pour chacun des essais, un stimulus positif ou négatif apparaissant brièvement (27ms) dans l’un ou l’autre des hémichamps visuels était aléatoirement jumelé à un stimulus neutre présenté pour 180 ms dans l’hémichamp opposé. Alors que les non psychopathes (n=17) exhibaient une conductance dermale rehaussée lorsque les stimuli négatifs étaient exposés à l’hémisphère droit, les psychopathes (n=13) présentaient, pour ces mêmes stimuli, une réponse prédominante lorsque l’hémisphère gauche était sollicité. Ainsi, une latéralisation atypique du traitement de l’expérience émotionnelle semble être associée à la psychopathie.
Par ailleurs, PHAM HOANG Thierry a montré (La psychopathie et les émotions: Du lexique émotionnel aux mesures psycho-physiologiques) que les psychopathes ne présentent pas une incompréhension flagrante du vocabulaire émotionnel même si leur catégorisation des mots émotionnels est sensiblement plus étroite avec des scores d'alexithymie plus élevés.

Symbolisme de l'espace

On note également une latéralisation psycho-affective connue comme un " symbolisme de l'espace " tel que décrit dans le Rêve éveillé de Desoille, les tests projectifs, en graphologie et dans l'activité posturo-mimique accompagnant l'expression émotionnelle (Carton, 1942 ; Teillard, 1948). La direction du regard varie en fonction des mouvements de la pensée ; les contenus affectifs entraînent le regard vers la gauche surtout s'il s'agit de représentations accompagnées d'anxiété. La température de la peau et d'autres phénomènes neuro-végétatifs (transpiration, résistance électrique de la peau, hérissement des poils, décoloration des cheveux, etc.) peuvent être très différents à droite et à gauche du corps selon le vécu actuel ou récent du sujet. Ceux qui regardent très souvent à droite sont plus rationnels (matheux) que ceux qui se montrent attirés par la gauche (plus émotifs, plus créatifs) (Bonis, 1978). Ce symbolisme concerne toutes les directions de l'espace et du corps (Corman, 1948 ; Sackheim, 1978 ; Campbell, 1979 ; etc.). Dans le présent chapitre, remarquons seulement les données " latérales " (cf. tableau ci-après).
Nous verrons qu'une préférence latérale gauche peut nuancer la spécialisation hémisphérique et que cette dernière pèse en faveur de la droiterie ; mais qu'en est-il du symbolisme de l'espace ? Il est certainement très lié aux deux premières ; cependant il s'émancipe en passant par le domaine culturel qui tend à lui donner l'allure d'une structure archétypique. En retour, les rapports du sujet aux vecteurs symboliques de la droite et de la gauche peuvent l'entraîner à jouer de sa propre latéralité en guise de symptôme (il se présentera comme un " faux gaucher ", par exemple). Ce terme de symptôme dépasse largement le pathologique : c'est dire que chacun d'entre nous, comme il doit se situer selon l'opposition masculin/féminin doit le faire de la même façon selon l'opposition droite/gauche ; et pas seulement en politique !

Le sexe et l opposition droite-gauche

Il semble que les hommes s'y poussent plus que les femmes, moins enclines à se latéraliser et par là plus intuitives et moins unilatéralement investies dans le technologisme d'aujourd'hui (Zaidel, 1984).


Les hommes n'écoutent que d'un lobe[2]
Les femmes ont toujours dit que les hommes n'écoutaient que d'une oreille. En fait, c'est pire: ils n'écouteraient qu'avec la moitié de leur cerveau!
30/11/2000 - Une équipe de la Indiana University School of Medecine, aux États-Unis, est arrivée à cette conclusion après avoir étudié 20 cobayes - 10 hommes et 10 femmes. Selon elle, lorsqu'on leur parle, les hommes utilisent surtout le lobe gauche de leur cerveau, alors que, chez les femmes, les deux hémisphères sont impliqués.
Ces radios de l'activité cérébrale des cerveaux ne laissent aucun doute :
les hommes utilisent un lobe pour écouter, les femmes deux !
(Source : IU School of Medicine, Department of radiology).

Affublés d'écouteurs, les participants devaient écouter des extraits du best-seller américain "The Partner", de John Grisham, pendant que leur cerveau était passé au crible par une technique d'imagerie par résonance magnétique fonctionnelle (IRMf). C'est le flux sanguin qui indique le degré d'activité dans différentes parties du cerveau.
Les chercheurs ont également observé que les femmes réussissaient mieux à écouter deux conversations à la fois. « Cela peut s'expliquer par le fait que davantage de ressources cérébrales sont consacrées au langage» (Joseph Lurito).
Les femmes maîtrisent mieux le langage, tandis que les hommes sont plus performants pour tout ce qui fait intervenir la vision en trois dimensions. Le cerveau des hommes et des femmes est bien différent. Au-delà du côté "anecdotique", cette étude revêt un intérêt scientifique certain: elle suggère que, chez les victimes d'accidents cérébro-vasculaires, les femmes pourraient récupérer plus rapidement leur faculté de comprendre le langage.
Symbolisme de l'espace
(il s'agit de " parentés " psychologiques, non d'identités)
Gauche
Droite
Gauche
Droite
Mère
Père
Bas
Haut
Féminin
Masculin
Masochisme
Sadisme
Passif
Actif
Don de soi
Conquête
Intimité
Société
Passé
Avenir
Inspiration
Action
Maladresse
Habileté
(Yin)
(Yang)
Lune
Soleil
Terre
Ciel
Hiver
Solstice d'été
Espace
Temps, la durée
Nature
Esprit
Ombre
Lumière
Mort
Vie
Mal
Bien
Injuste
Juste
Punition
Récompense
Révolution
Institution
Sinistre
Faste
Matière
Forme
Arrière
Avant
Puissance
Acte
Certains (Roos-Weil, 1983) prétendent discerner le côté du contrôle linguistique chez le gaucher selon l'inclinaison de son écriture : l'écriture penchée à gauche signerait la position sur l'hémisphère gauche, inclinée à droite c'est l'hémisphère droit qui gérerait la parole. A moins d'invoquer quelque mystérieuse contrainte neurologique, on pensera aux significations graphométriques et graphologiques de l'inclinaison graphique : acceptation ou prise de distance vis-à-vis des normes sociales.

L'inclinaison graphique et sa signification graphologique

L'écriture penchée à gauche indique que le sujet se défend contre autrui ou contre soi-même ; il est prudent ou craintif. Il se méfie de son penchant vers autrui, il a peur de se livrer aux autres dans sa faiblesse. Il établit une barrière entre lui et le monde. Il a tendance à se sentir incompris (Delachaux, 1955). Le gaucher ayant cette écriture serait langage-HD.
L'écriture inclinée à droite " traduit un mouvement propulsif qui entraîne le scripteur vers l'avant, ou une incapacité à résister " au conformisme (Aymard, 1985). Le gaucher possédant cette écriture serait langage-HG.
*
Revenons à Cyrille. Il est droitier dans les actes quotidiens, quoique l'hémisphère chargé de l'accompagnement, et qu'on voit généralement obéir, oriente ses gestes en renversant le haut et le bas pour peu que le contrôle visuel disparaisse (cf. fig. 16 et 17 où il renverse les chiffres) ! C'est qu'il existe, en regard de la position conformiste apparente, une attitude non consciente opposée, subversive au sens littéral ! Resterait à déterminer si cette opposition concerne un renversement inconscient des valeurs, de telle sorte que ce qui est valorisé socialement soit méprisé inconsciemment et réciproquement. Une autre explication ferait une part à son histoire de pied-bot : pied éminent jusqu'à supplanter tout le reste, origine possible de ce renversement des valeurs ? Nous pensons bien sûr à Jacob naissant agrippé au talon d'Esaü...
L'arbre ou la colonne renversés sont des constantes culturelles dont on peut sans doute rapprocher les phénomènes individuels d'inversion haut/bas : retournement sacré qui établit les racines de l'être dans le divin universel, principe absolu réputé masculin et paternel. On serait alors en présence d'un fantasme incarné dans le geste graphique, fantasme d'être le fruit du père, enfanté par lui.
Fig. 18. Images de la glotte dans la paralysie récurrentielle unilatérale (gauche).
Le larynx est examiné au repos (A), puis pendant la phonation (B) (Testut et Jacob, 1905).
Un symétrique de la " couvade " ? Les effets d'un tel fonctionnement sur l'économie interne du cerveau ne doivent pas être minces ! En effet, ce renversement évoque un " croisement " fonctionnel des voies quelque peu analogue à celui qui assure les liaisons entre le cerveau et la périphérie, c'est-à-dire, entre l'intérieur et l'extérieur, le subjectif et l'objectif. Ce garçon se comporterait donc d'un hémisphère à l'autre comme du cerveau à l'environnement.

Genúse des spécialisations centrales

Les deux cerveaux sont capables (Bertelson, 1982 ; Gazzaniga, 1983) des deux modes de fonctionnement, quantitatif et qualitatif, analytique et intuitif, scientifique et artistique, mathématique et littéraire, etc. Cependant il est avantageux pour le sujet de spécialiser ses hémisphères. Cela s'acquiert peu à peu et devient de plus en plus difficile à modifier. De sorte qu'une lésion très vaste de l'hémisphère gauche n'empêchera pas l'enfant d'apprendre à parler alors qu'elle rendra presque impossible au vieillard de récupérer son aphasie.

Une théorie renversante

Comment expliquer cette spécialisation, vraie pour le gaucher comme pour le droitier ? L'hypothèse héréditaire est ici plausible ; mais par quel mécanisme s'exprime-t-elle ?
Tomatis remarque la différence de longueur qui sépare les récurrents droit et gauche, ces nerfs qui commandent aux cordes vocales (fig. 19). Il suppose que cette différence anatomique facilite la commande droite de la phonation, au détriment de sa commande gauche. Ceci amène le cerveau à privilégier par un conditionnement lié à l'exercice vocal, fût-il non linguistique, tout le circuit de commande, " voix/écoute " lié à l'hémisphère gauche. C'est une des rares théories qui permette d'expliquer le fait universel de la spécialisation du cerveau gauche pour le langage.
Fig. 19
The top trace shows the Gx (unfiltered) electroglottogram at onset of the word " about ". Note the change of baseline resistance, which is very large compared to the minute changes (ripples in the trace) resulting from the vocal fold cycle. Decreasing resistance (glottal closure) is upward. The change at the start of the utterance shows laryngeal preparation - including vocal fold adduction - for phonation. The lower trace is the audio signal (d'après Baken, 1987).
Pour émettre un son, nous rapprochons nos cordes vocales et obligeons l'air de nos poumons à les faire vibrer en franchissant cette petite fente : nous réglons la hauteur et la force de la voix en modulant la pression de l'air et la contraction des cordes vocales. Si l'une d'elles vient à se paralyser, le son perd de sa précision, la voix devient anormale. Au laryngoscope, on observe que la fente glottique est de travers (fig. 20). C'est aussi

Fig. 20

ce qui se passe un instant lorsque le bébé commence à faire effort ou, après la naissance, à crier. En effet, le nerf de commande de la corde gauche étant plus long (10 cm) que celui de la corde droite tarde à mettre en tension (puis en fin d'action, à détendre) la corde qu'il commande. Ce même nerf conduit aussi des influx sensitifs de contrôle, lesquels prennent un retard supplémentaire (20 cm) pour les mêmes raisons (fig. 20). On a démontré que, grâce à un conditionnement qui ne se produit pas chez le sourd, le nerf récurrent gauche prend plus d'épaisseur, ce qui lui permet une plus grande vitesse de conduction, de telle sorte que, au bout d'un certain temps, l'influx arrive aux deux cordes vocales en même temps.
Ce serait l'exercice vocal, son apprentissage, qui induirait la différence de fonction des hémisphères à partir de l'inégale longueur des récurrents : d'où l'universalité du phénomène et son installation progressive (l'aphasie de l'enfant paralysé du côté droit est beaucoup moins grave que celle de l'adulte). Cette théorie n'est pas démontrée. On ne peut cependant la contester au nom du fait qu'elle s'est liée, historiquement, à la théorie " neuro-chronaxique " (aujourd'hui abandonnée) de la production vocale. En effet l'adoption de la théorie " aérodynamique myo-élastique " ne supprime pas la nécessité d'une commande de la phonation par les récurrents (Crystal, 1987, p. 129).
On a pu montrer (2011) que la synthèse axonale de myéline est accrue sous l'effet de l'activité du neurone qu'elle enrobe; cette synthèse se fait grâce aux oligodendrocytes qui entourent le neurone. Le rattrapage de vitesse du récurrent gauche par rapport au récurrent droit laisse alors supposer que le récurrent gauche reçoit une commande plus souvent répétée que le récurrent droit; comme si son retard de contraction par rapport à son homologue était perçu à chaque tentative de vocalisation; les centres corticaux, devant ce retard analysé comme un échec de la commande, la réitèrent aussitôt. Lorsque ce processus aboutit à la synchronisation des influx droit et gauche, ce mécanisme disparait.
Lucien Bassou (1983) a montré que les sourds sont généralement ambidextres (par diminution des performances de la main droite) et sont plus souvent gauchers de l'oeil que les entendants.
Plus de 95 % des individus spécialisent leurs hémisphères comme nous venons de l'indiquer. Par ailleurs, une majorité préfère utiliser la main droite, la jambe droite, l'oreille droite, l'±il droit pour les actes demandant de la précision et de la finesse. La spécialisation des hémisphères cérébraux, l'usage préférentiel de l'un des côtés du corps pour une tâche donnée et le symbolisme de l'espace (Auriol, 1988a) sont liés et en inter-action. Plus que l'hérédité (qui donnerait seulement la base de la fausse symétrie des organes : le c±ur, le foie, etc.), ce serait dès l'ovulation, mais surtout pendant la vie intra-utérine et les premières années de la vie, que se structurerait le vaste complexe réuni sous le nom de " latéralité " (Michel, 1983).

Genúse des préférences latérales périphériques

Sans gêne

Les travaux concernant une hérédité de la préférence latérale n'ont donné que des résultats contradictoires et peu convaincants. La disposition des organes est asymétrique et orientée de manière constante (c±ur à gauche, foie à droite, etc.). On connaît cependant des cas plus ou moins complets d'inversion de cet agencement (situs inversus avec le c±ur à droite par exemple). Les situs inversus ne semblent pas plus gauchers que les autres (Ruel, 1970). De même, ceux dont les épis de cheveux s'enroulent à droite ne sont ni plus ni moins souvent gauchers que ceux dont les cheveux s'enroulent à gauche.

Qu'on gêne

La disposition du f±tus dans la matrice, aux différents moments de la grossesse, obéit à des phénomènes complexes reliant l'enfant à sa mère. Déjà, l'origine de l'ovule (ovaire droit ou gauche), son lieu d'implantation lorsqu'il est fécondé et la situation du placenta qui en résulte, puis les mouvements vaginaux et utérins au cours des rapports sexuels, le péristaltisme de l'intestin maternel, les déplacements du diaphragme et de la paroi abdominale liés à la respiration et toutes les positions ou mouvements de la mère participent à la mobilisation du contenu matriciel. Dans les derniers mois de la grossesse, les réactions musculaires de l'enfant contribuent à la mise en place d'un dialogue mouvementé entre les deux partenaires, dialogue dans lequel peuvent s'inscrire des intervenants extérieurs (le père, le médecin, l'haptonomiste, etc.).
Le résultat le plus commun (66 %) de cette dialectique corporelle est la présentation du naissant en OIG (occipito-iliaque-gauche) : le f±tus est disposé tête en bas, l'arrière de son crâne est du côté gauche du bassin de la mère (fig. 21). Or, il existe un lien statistique (Churchill, 1962 ; Grapin, 1968) entre la préférence manuelle du bébé (puis de l'adulte) et le type de présentation de sa naissance (OIG : droiterie ; OID : gaucherie). Pourquoi cette liaison statistique ? La position OIG favorise les contractions avec déplacement (" isotoniques ") des muscles situés à droite et les contractions d'appui (" isométriques ") pour les muscles situés à gauche : en effet le côté droit du corps est proche de l'avant de la mère, plus souple, alors que le côté gauche du f±tus est proche du dos maternel moins mobilisable (Moss, 1929). Il se produit donc un conditionnement et même une " empreinte " liés à cette situation. Le système nerveux, qui est alors en pleine construction, inscrit dans sa structure même la facilité des contractions isométriques à gauche et isotoniques à droite. Mais ceci n'est valable qu'après six mois de grossesse (le f±tus bouge activement à partir de quatre mois et demi ou cinq mois). En effet, les grands prématurés seront, à quatre ans, gauchers à 50 % alors que les autres seront bien plus souvent droitiers (90 %) (O'Callaghan, 1987). Cette étude montre aussi que la différence anatomique du cortex est liée à la date de naissance. Il faut rapprocher de cela le fait que les jumeaux (vrais ou faux) sont plus souvent gauchers que les autres ; la tendance statistique à la droiterie disparaît chez eux. Il est probable que leur situation est moins fixe par rapport aux parois de la matrice ; surtout, l'un des deux a généralement une posture opposée à celle de son frère, de sorte que, si notre hypothèse est correcte, il doit être porté vers une préférence latérale inverse.

Sur les traces du globe pâle

A partir du sixième mois, on observe qu'une formation nerveuse appelée globus pallidus est plus grosse et plus active à gauche qu'à droite. Elle est impliquée dans le mouvement - surtout au moment de l'intention de ce mouvement - du côté opposé. Les animaux se latéralisent sans dominance droite particulière (ils sont droitiers pour moitié) : à leur latéralisation individuelle correspond un globus pallidus majoré (Koistra, 1988).

Allo ! Maman ?

L'oreille droite du f±tus, en OIG, sera plus proche de la paroi abdominale de la mère et, par là, sensibilisée aux bruits externes, alors que l'oreille gauche, affrontée au sacrum maternel, sera davantage soumise aux bruits organiques (aorte, colon) et à la conduction osseuse de la mère (fondamental de la voix maternelle, bruit des pas, etc.). Tout ceci doit produire de nombreuses variations individuelles quant à l'importance et à la distribution des préférences latérales.




Fig. 21
A. Tête engagée en OIGA (deux tiers des cas) ; B. Tête engagée en OIDP (un tiers des cas) (d'après Paucot et Bédrine, 1963)

 

Tout d'un côté

Les nouveau-nés " préfèrent " avoir la tête orientée d'une certaine façon (majoritairement à droite). Ceci est lié à leur situation préalable dans l'utérus et se renforce d'une plus grande sensibilité auditive et tactile, du même côté. Viviani (1978) a pu montrer qu'à l'âge de 7 ans les enfants étaient latéralisés en fonction de ces premières données.
Dans les trois premiers mois de la vie, le nourrisson développe le " réflexe tonique du cou " : s'il tourne la tête d'un côté, son bras et sa jambe se tendent du même côté et fléchissent de l'autre côté. Ce mécanisme est lié aux parties du cerveau les plus basales, celles qu'on trouve déjà chez les reptiles. Cependant, l'orientation vers la droite est plus fréquente.
L'antagonisme nécessaire à toute action est ici du type haut/bas. L'extension de la main droite va avec celle du pied droit, de même pour la flexion. On peut commencer ainsi à rendre compte de l'inversion tête-bêche manifestée par le test de Cyrille. Nous avons là une symétrie par rapport à un point au lieu de l'avoir par rapport à un plan ; autrement dit, tout se passe comme si, outre la symétrie droite/gauche (cf. plus loin), s'ajoutait une symétrie haut/bas, utilisant la partie supérieure de l'hémisphère droit comme un reflet de sa partie inférieure et réciproquement ! Pour reconnaître un visage - et sans doute d'autres formes -, l'enfant banal se base sur la partie supérieure de la photo ou du dessin (front, yeux...) alors que l'autiste de moins de 10 ans s'intéresse à la partie inférieure (nez, bouche, menton...) (Langdell, 1978).
Au cours des tout premiers mois, le principe d'orientation actif est surtout d'ordre olfactif et l'action musculaire surtout d'ordre tonique, coopératrice aux manipulations décidées et agies par l'adulte (notamment la mère). On peut lier ce stade aux relations mère/enfant évoquées par Winnicott comme nursing, holding et handling. Sans parler des perturbations majeures de cette communication (telles qu'on les voit par exemple dans l'autisme), on retrouvera plus tard, sous forme de troubles irréductibles par les moyens classiques, toute fragilité alors acquise : maladresse, troubles lexiques et graphiques, difficulté de coordonner la pensée, stabiliser le comportement, etc. (Lefebvre et Labonté, 1975). De même les qualités rythmiques, les capacités d'intégration fusionnelle aux groupes prendront là le plus vif de leur valeur. A cette étape, l'organisme agit caractéristiquement comme s'il était fait de deux côtés à commande centrale indépendante, chacun réagissant à ses propres stimulations pour son propre compte ; l'intégration d'ensemble étant assurée par la moelle épinière et les parties basses de l'encéphale (bulbe rachidien).
Dès le deuxième ou le troisième mois (Ramsay, 1980), le bébé cherche à atteindre d'une seule main les objets qu'il regarde d'un seul ±il pour les porter à sa bouche. La préférence pour un côté (droit le plus souvent) persistera et se retrouvera inchangée pour 90 % des sujets jusqu'au 15e mois. A ce corps " coupé en deux ", il est suggestif de faire correspondre l'univers splité de Mélanie Klein (1952). Le bébé en est, pour elle, à la " position paranoïde " : il clive le sein (la maman) en deux objets : l'un parfaitement bon, l'autre parfaitement mauvais, selon qu'il est gratifiant ou frustrant.
Dans les cas de David et surtout de Cyrille, il est possible, à titre hypothétique, de relever la trace d'une " identification projective ". En effet, nous avons quelque raison de penser que cette période fut problématique et susceptible d'avoir entraîné des ébauches de fixation. Par ailleurs, le tracé tête-bêche présente à l'examinatrice située en vis-à-vis un dessin des chiffres lisible sans qu'elle ait à retourner la feuille pour le découvrir : un dessin des nombres tel qu'elle aurait pu le réaliser elle-même, de la place où elle se trouve. C'est bien là une identification centrifuge, " projective " au sens large. Il devient même probable, si on tient compte de mécanismes postérieurs liés au problème de castration, qu'il s'agit d'une identification projective au sens strict, c'est-à-dire avec le profond désir de léser fantasmatiquement la mère, de l'intérieur, en positionnant en elle certaines parties " mauvaises " de la personne du sujet (le pied-bot pour Cyrille) (Klein, 1952).
A demain
L'enfant, de cinq mois à un an, manipule les objets à deux mains (qui ont alors un rôle équivalent) et manifeste ainsi une première coopération des deux hémicorps d'origine haute (symétrie D/G). Les apprentissages réalisés d'un côté du corps peuvent être transférés à l'autre moitié grâce à la mise en fonction du corps calleux (ensemble de fibres qui unit les deux hémisphères). Il utilise les deux yeux qu'il commence à mieux coordonner. Il commence à se servir grossièrement de l'opposition du pouce aux autres doigts. (Selon M.-L. Aucher, les bébés nés de mamans ayant beaucoup chanté durant leur grossesse réalisent cela dès la naissance !)
Il fait l'apprentissage du sourire relationnel, puis du connu et de l'inconnu, de l'avant et de l'arrière, du vu et de l'entendu, de l'absence et des retrouvailles (Spitz, 1968). Il s'essaie à maîtriser les disparitions de la mère par le " jeu de la bobine " : il jette un objet puis le réclame pour le jeter, et le jeter encore (Freud : " Fort Da ").
Mélanie Klein (1952) parle de " position dépressive ". L'enfant parvient à intégrer sa mère comme un objet unifié : il n'y a plus d'un côté la " bonne mère " et de l'autre la " satanique ", mais une seule personne avec ses côtés gratifiants et frustrants. Lacan (1959-1986) utilise Heidegger pour montrer que l'absence de l'objet renvoie à la nostalgie d'une chose, finalement inaccessible, charge creuse qui a la puissance du vide. Ceci ne se limite pas à un moment de l'enfance mais concerne la relation du sujet à l'Etre. " La certitude de l'Etre est avant tout certitude de son absence : comme telle, elle est inséparable du désir de la retrouver, car n'étant pas connaissance objective, elle ne saurait se manifester que dans le sentiment de notre séparation, naissant lui-même de notre tendance à n'être pas séparés " (Alquié, 1950).
Piaget a montré que toute cette période (de la naissance à un ou deux ans) permettait à l'enfant de développer le concept d'objet permanent (stade sensori-moteur).
Et l'enfant de joindre les mains...
Une, deux... Une, deux...
Entre un et trois ans, la gestualité se développe de sorte qu'on observe des mouvements complexes mettant en jeu les deux bras et les deux yeux de manière différenciée et coordonnée : une partie du corps vise une action en se supportant de l'autre partie, utilisée comme appui, contrepoids. Ainsi peut s'acquérir la marche : instabilité maîtrisée, équilibre dynamique, synthèse d'activité et de passivité. Une jambe en avant, l'autre ne bouge pas, un bras en avant, l'autre encore en arrière... De même pour les mains. Au début de ce stade, la tendance à saisir les objets de la main préférée (en général, droite) peut sembler disparaître pour quelque temps. Cependant, c'est avec cette main que sont réalisés les actes fins que l'autre se contente de seconder.
La maîtrise des sphincters s'établit tandis que la relation au monde s'oriente par la vue. Freud décrit le stade sadique-anal avec ses avatars : maîtrise musculaire, ordre, parcimonie, entêtement, etc. L'individu se manifeste, agit face à, ou contre, son entourage et se laisse " corriger " par lui.
Nous en sommes à la pensée préopératoire (égocentrique) de Piaget ; l'étiquetage devient possible. Les mots sont comme des sacs poubelles où se fourrent les objets et les expériences, selon les regroupements appris auprès des autres. Le langage revêt surtout des formes concrètes avec prédominance de l'expression corporelle et mimique.
Développement du fonctionnement cérébral (Thatcher, 1987)
Tout l'hémisphère droit (avant 3 ans) ...
Lobe frontal droit (de 3 à 5 ans) Lobe temporal gauche (2 à 5 ans)
Lobe temporal droit (de 7 à 10 ans) ...
Mesker considère qu'on n'en est alors qu'au tout début de la véritable structuration latérale, de second degré pour ainsi dire, qui se fera en cinq nouvelles étapes. On va passer d'une évolution de maturation des structures nerveuses (commune à tous) à un usage maîtrisable de leurs fonctions que certains n'atteindront pas.

Les étapes de Mesker

Gauche, droite

La première étape est celle d'antagonisme gauche-droite qui se développe pendant la troisième ou la quatrième année : lorsque j'effectue un geste vers la gauche, impliquant mes deux bras, il s'agit d'un mouvement basé sur l'antagonisme des muscles gauches ou droits de même nom : si le deltoïde droit est contracté, le gauche sera relâché, etc. La marche, le balancement des bras, les mouvements de torsion sont des exemples d'antagonisme gauche-droite. On peut vérifier la bonne intégration de cette capacité en demandant à l'individu de tracer simultanément avec les deux mains deux guirlandes de gauche à droite. Il sait converger de manière symétrique et la vision du relief s'instaure.

En avant

La deuxième étape est celle de l'antagonisme dorso-ventral qui se développe pendant la quatrième ou la cinquième année : chaque main commence à manipuler finement les objets au moyen de la " pince " formée du pouce opposé à l'index et au majeur, l'enfant peut s'amuser à des courbettes (utilisées dans les comptines), la parole s'étend à des mots complexes, des phrases, des formules de politesse. L'un des deux yeux devient " directeur " : la convergence s'établit sur les points qu'il vise. Si l'±il " dirigé " ne veut pas se soumettre, il y aura constitution d'un strabisme. Cette étape et la suivante se vivent sur la toile de fond du stade " phallique " avec les problèmes de castration et de revendication qu'il fait naître. Pour Piaget, c'est la pensée intuitive qui domine. Encore incapable de se détacher du monde extérieur, l'enfant ne peut encore faire des " expériences de pensée ".

Sois sage !

La troisième étape, toujours fondée sur l'antagonisme dorso-ventral, établit pleinement la symétrie. Elle se développe pendant la cinquième ou la sixième année. On peut en évaluer l'acquisition en demandant à l'enfant de dessiner avec ses deux mains deux guirlandes de boucles à partir du plan médian et en se dirigeant latéralement des deux côtés, donc dans un mouvement des mains centrifuge.

Choisir son camp !

La quatrième étape correspond à un début de latéralisation. Elle se développe pendant la sixième ou la septième année. L'enfant devient capable de reconnaître, sur son propre corps, la gauche et la droite. Il prend la responsabilité de guider et d'organiser ses actions selon un repérage clairement latéralisé. L'ensemble des actes, en l'absence de pression éducative exagérée, se range sous l'une ou l'autre bannière, de la droite ou de la gauche.

Suite et fin

La cinquième étape permet une pleine maturation de cette latéralisation entre la septième et la onzième année (Glees, 1968 ; Michel, 1983). L'enfant reconnaît la droite et la gauche sur le corps d'autrui. Le choix de la main, pour les actes voulus, est d'abord assez souple, puis de plus en plus affirmé, jusqu'à contracter une certaine rigidité. Le sujet devient capable d'effectuer en même temps un mouvement lent d'une main et un mouvement rapide de l'autre (Fagard, 1987). Peut-être parviendra-t-il un jour, comme quelques-uns, à battre trois temps d'une main et quatre de l'autre ! Guy Maneveau a mis en évidence (Groupe de réflexion sur les sons) combien la performance reste rare, y compris chez l'adulte et même le musicien !
C'est la " phase de latence " psychanalytique : les pulsions semblent s'assagir, c'est l'âge de raison et de l'éducation morale ou religieuse (première communion, etc.). La pensée, selon Piaget, devient capable de classer hiérarchiquement, de constituer des relations asymétriques dans un système (sériation), de comptabiliser... C'est à cette période que la capacité d'analyse tonale et la capacité d'analyse temporelle s'établissent pour un grand nombre d'enfants.
Age Asymétrie apprise Fonction
F±tus Haut et bas Vivre
0 à 6 mois Dedans et dehors Exister
6 à 12 mois Devant et derrière Etre

1 à 4 ans Tourner Devenir
(horaire et anti-horaire)
4 à 7 ans Ecarter et rapprocher Exprimer
(sagitto-latéral)
7 à 14 ans Agir droitier (ou gaucher) Répondre

Au cours de la maturation, ont pu jouer toutes sortes de facteurs