POINT DE VUE 

SYSTEMES NEURONAUX ET STRATÉGIES NLP

BRIAN VAN DER HORST & JOSEPH O'CONNOR

Ceci est le second d'une série de trois articles destinés à remettre à jour le modèle classique des stratégies PNL. ou la manière dont nous pensons que les humains pourraient penser. Dans notre précédent article, nous avons mis en évidence que nos modèles actuels des processus cognitifs internes sont basés sur la métaphore de l'ordinateur digital. qui traite l'information d'une manière séquencielle et digitale.  Les avancées modernes en neurobiologie, neurocomputing et sciences cognitives ont démontré que le cerveau est comme un réseau de distribution d'ondes simultanées, de schémas de résonances interactives. interconnectées, décentralisées et procédant parallèlement. 

Relax !! Nous allons faire en sorte de rendre cette définition claire à travers des exemples et une revue de quelques développements majeurs dans les sciences cognitives. 

Les sciences cognitives sont l'étude interdisciplinaire de l'esprit et comprennent les neurosciences. la linguistique, l'intelligence artificielle, la psychologie, l'anthropologie, la cybernétique et la philosophie de l'esprit. 

En tant que telles, elles partagent beaucoup avec la PNL, et nous pouvons beaucoup apprendre de leurs modèles et de leurs découvertes. 

La période cybernétique des sciences cognitives .

Nous avons conclu la dernière fois sur l'histoire passionnante de la cybernétique moderne : John Von Neumann avait démontré en 1946 comment coupler la logique digitale de George Boole avec la machine à calculer syntactique de Alan Turing, l'ENIAC multifonctionnel, premier gros ordinateur qui a démarré l'âge informatique. 

En fait, Von Neumann était convaincu qu'il modélisait le cerveau. Sa fameuse présentation "First Dra~ pour ENIAC parlait de neurones et de métaphores biologiques. 

Même s'il est reconnu de nos jours comme le père de l'informatique moderne. il ressentait que les ordinateurs ne constituaient qu'une étape vers la création "d'automates à notre image" qui reproduiraient des phénomènes biologiques. Il est intéressant de noter à quel point nos vies ont été transformées par une technologie qui était, à l'origine, destinée à une utilisation différente. 

Alexander Graham Bell pensait que le téléphone serait utile pour transmettre de la musique aux personnes. 

L'illustration de "l'architecture Von Neumann" est le standard actuel pour tous les ordinateurs digitaux, comme elle a été la base pour le modèle TOTE conçu par Miller, Pribram et Galanter, et adopté en PNL en tant que structure pour l'étude des schémas de pensée ou stratégies. 

2ème partie 

L'architecture de Von Neumann 

Unité Centrale de Traitement (CPU) de Unité de traitement Mémoire logique et mathématique 

Mémoire commune pour les données et les instructions 

MiIIer/Gallanter/Pribmm TOTE 

TEST

(Congruité)

(Incongruité) 

EXIT

Qui pourrait prédire qu'une telle complexité de cellules nerveuses puisse donner naissance à cette catégorie de conscience? 

Gregory Bateson disait que dès lors que vous aviez du feed-back et suffisamment de complexité, vous trouveriez des propriétés mentales. 

Les chercheurs en neurosciences connaissaient l'existence d'interconnections entre les neurones et le cerveau depuis des dizaines d'années. 

Au lieu de représenter la communication neuronale comme un processus linéaire de stimulus-réponse d'une cellule à l'autre, le modèle commun s'est développé vers une forme ressemblant àune toile interconnectée. 

Les résultats des travaux de Miller. Galanter et Fribram dans les années 50. se sont concrétisés dans l'ouvrage Plans and the structure of behaviour. (L'ADN ne fut découverte qu'en 1960, année de parution de l'ouvrage). 

Ce travail a également été fortement marqué par les recherches de Norbert Wiener (auteur de l'ouvrage remarqué Cybernetics) de Warren McCulloch et Walter Fitts (qui proposèrent la théorie de la communication neuronale en tant que schéma de seuil d'inactivité ou d'activité), et des travaux de Claude Shannon (créateur de la science de l'information). 

Ce qui est intéressant pour la PNL, c'est que George Miller date la reconnaissance officielle des sciences cognitives au Il septembre 1956. 

Ce jour là. un symposium consacré à la théorie de l'information organisé au MIT. vit les scientifiques Allen Newell et Herbert Simon taire la première démonstration complète d'un théorème excuté par un ordinateur. A leur suite, un jeune linguiste s'appelant Noam Chomsky présentait "Trois modèles de langage" qui allaient devenir le fondement du Méta-Modèle en PNL. Le symposium fut suivi par la propre publication de Miller, Le nombre magique sept plus ou moins deux. Cette période, dans les sciences cognitives est souvent évoquée comme l'époque cognitiviste. ou la "phase cybernétique des sciences cognitives". 

Elle était caractérisée par l'utilisation de la logique mathématique pour comprendre le fonctionnement du système nerveux en termes de représentations mentales symboliques. Elle a aussi fortement influencé l'établissement de la méta-discipline de la théorie des systèmes, l'utilisation de la théorie statistique de l'information signal/communications. et les premiers exemples des systèmes auto-organisés. 

La pensée, à cette époque, était définie comme un processus informationnel la manipulation de symboles était soumise à des règles. On pensait que les processus mentaux seraient non reconnaissables, des processus inconscients en quelque sorte. 

La période connexioniste 

Durant les années 40 et 50. une autre époque des sciences cognitives vit le jour : l'étude des propriétés émergentes des systèmes et le connexionisme.

L'émergence est une idée importante. Cela signifie qu'après un point de seuil, un système acquiert subitement une propriété qui n' avait pu être prédite à partir de la somme de ses parties. 

La propriété émerge. 

Par exemple, chacun de vos yeux n'est capable de voir qu'en deux dimensions. Mettez les deux yeux ensemble, et voila une vision tridimensionnelle. 

Neurone isolé 10e1 

Réseau neuronal 

Lorsque les personnes étaient encore orientées vers le modèle du "neurone simple". l'idée qu'on se faisait du cerveau produisait des modèles que vous pouvez encore trouver de nos jours dans beaucoup de textes de physiologie. 

Par exemple "ici l'œil reçoit un faisceau lumineux et envoie un signal dans une région du thalamus appelée nucléus geniculate latéral (NGL) et ensuite au cortex visuel pour opérer au processus.

  Oeil NLG cortex visuel 

Lorsque des personnes comme Kari Fribram (qui co-signa au moins un article avec Chomsky) commencèrent à étudier le processus de la vision dans le cerveau primaire, ils ont découvert une toute autre histoire. 

Les fonctions cérébrales de la vision sont massivement interconnectées avec une constellation de régions qui procèdent sur tout un patchwork de modalités visuelles telles que la forme, la taille, la couleur, la réflexion spectrale, l'orientation tridimensionnelle dans l'espace, la distance, la trajectoire et la rotation dans des sous-réseaux concurrents. 

Le cerveau vu comme un bio-ordinateur 

Les chercheurs en neurosciences ont également découvert que le NGL, intégré dans le réseau. envoie également au cortex visuel une grande variété de probabilités et de mémoires cognitives qui sont stockées dans l'hypothalamus et le système limbique. 

En PNL nous appelons cela des sous modalités et des croyances. La carte qui révise les itinéraires visuels dans le cerveau n accepte pas la conception traditionnelle d'un processus séquentiel. 

Le chercheur en sciences cognitives et en anatomie, Francisco Varela indique dans ses recherches récentes : "il est évident que 80% des informations que capte le NGL ne provient pas de la rétine mais de l'interconnexion dense d'autres régions du cerveau. Même Si le comportement de l'ensemble du système ressemble plus à une conversation lors d'un cocktail qu'à une chaine de commande". 

Ainsi. quoique le cerveau regarde, la représentation des signaux du monde extérieur constitue environ 20% des informations, et 80% sont des filtres préexistants de mémoire et de croyances. Le mécanisme de base de reconnaissance d'un objet ou d'un attribut visuel "pourrait être défini en tant qu'émergence d'un état global parmi les résonances neuronales d'ensemble". Comment les chercheurs en sciences cognitives ont-ils pu commencer la dégager une signification à partir de cette symphonie de signaux neuronaux ? Dans son ouvrage publié en 1971. "les langages du cerveau". Kan Pribram proposa une thérie holographique du fonctionnement cérébral. 

Tout comme un hologramme prend forme à partir de la résonance d'ondes de lumière interagissantes, la cognition pourrait ère décrite comme l'émergence d'une confluence d'ondes cérébrales en interaction. 

L'étape suivante des sciences cognitives et du neurocomputing est généralement appelée l'époque "connexionniste". L'un des théoriciens fondamentaux de cette période était John Hopfield, un physicien de l'institut de Technologie de Californie. qui commença à étudier les similitudes et les différences entre les processus biologiques et les calculs électroniques. Hopfield utilisa l'analogie de deux molécules de gaz dans une boite. "Elles se déplacent dans la boite et s'entrechoquent de temps à autre. Si nous rajoutons dix ou même mille molécules supplémentaires dans la boîte, tout ce que nous obtenons c'est plus de collisions. Mais Si nous mettons un billion de billions de molécules dans la boite. il y a subitement un nouveau phénomène, des ondes sonores. 

Rien dans le comportement des deux. dix ou mille molécules ne vous laisse supposer qu'un billion de billions seraient capable de produire des ondes sonores. Les ondes sonores sont un phénomène collectif d'un système complexe". 

C'était une évidence pour ce théoricien physicien tourné vers les neurosciences, le cerveau était un bio-ordinateur qui produit des estimations collectives. 

Hopfield fait pour les réseaux informatiques ce que fit Von Neumann pour les ordinateurs digitaux il démontra par un modèle mathématique que des substituts de neurones pouvaient opérer comme dans un système physique. 

Il rendit également acceptable quelques différences majeures entre les "ordinateurs biologiques" et les "ordinateurs électroniques", que la nouvelle génération des chercheurs en sciences cognitives avaient soulevées depuis de nombreuses années face à une communauté scientifique indifférente 

1) Les cerveaux peuvent tolérer des erreurs. 

2) Les cerveaux ont une manière de se réparer ou de se corriger eux-mêmes, ou comme nous le disons souvent, ils apprennent à apprendre. 

3) Les cerveaux peuvent gaspiller gratuitement de l'énergie, ralentir, et s'installer dans un état de relaxation énergétique, d'ajuster des seuils pour les informations plus ou moins importantes, au lieu de surchauffer et d'exploser comme certains ordinateurs avec lesquels j'ai travaillé. 

4) Les cerveaux sont fortement interconnectés et peuvent faire plusieurs choses simultanément. 

5) Les cerveaux peuvent rêver. Les mémoires peuvent être retravaillées pour donner des leviers de poids ou d'importance. 

6) Les cerveaux peuvent oublier. Les êtres humains ont des mémoires à court terme et des mémoires à long term, s'ils n'utilisent pas une information de manière suffisamment récente ou fréquente. ils repoussent la donnée inutilisée dans leur inconscient. Autrement nous devrions repenser tout notre passe pour retrouver notre couleur favorite. 

Hopfield continua et produisit des micro-chips (avec AT&T) pour commencer à mettre en application ce qui précède. 

La prochaine contribution au neurocomputing que nous aimerions mentionner maintenant est la Théorie de la résonance adaptative proposée par Stephen Grossberg, de l'Université de Boston. 

La résonance adaptative 

Grossberg publia initialement une série d'équations différentielles qui décrivaient les mathématiques des réseaux en 1961 et 1964. Dans les années 70 il proposa un modèle unifié controversé de la théorie de l'apprentissage, de la neurologie et des mathématiques. 

Son modèle est basé sur l'habilité neurologique de réseaux associatifs à chercher et fixer des niveaux de seuils de perception d'activité. 

Les seuils sont ajustés en permanence pour permettre au cerveau de porter son attention aux contrastes et aux comparaisons qui sont importants dans le monde pour un objectif donné. 

Far exemple, le "contrôle" du volume par l'oreille nous permet d'entendre des sons moins forts la nuit, ou d'éliminer des bruits inutiles dans la rue lors d'une conversation de même la vision nocturne humaine s'ajuste pour voir mieux avec moins de lumière. 

En termes PNL, beaucoup de changements qui sont rendus possibles par des modifications des sous-modalités, sont une fonction du passage d'un seuil de représentation à un autre. 

Grossberg s'intéressait à la manière dont le cerveau apprenait. Comment des sensations dans la mémoire à court terme peuvent-elles devenir des perceptions dans la mémoire à long terme? Comment des sensations et de la mémoire emmagasinées peuvent-elles mener à une conscience stable? 

Selon la théorie de Grossberg, l'attention ou la conscience, est un mélange entre des sensations brutes dans la mémoire à court terme, combinées à une myriade d'associations de la mémoire à long terme. 

L'attention est une fonction de filtres harmonisables pour rendre  les réseaux neuronaux sensibles à des catégories ou des codes d'expériences, par l'ajustement des poids et des seuils de signaux arrivant dans un réseau donné. 

Grossberg prédit que les yeux ont tendance à chercher des objets et des expériences dans le monde externe, en comparant d'anciens schémas de mémoires avec ce qui est vu. 

Pour expliquer ce processus il a créé un modèle d'une hiérarchie coopérative/compétitive de fonctions qui relient les perceptions sensorielles et le cerveau. 

Dans son Outstar learning theorem, Grossberg suggère que le cerveau envoie un schéma à l'œil -un signal représentatif- ou tout autre organe de perception, qui résonne avec l'activité neuronale entrante dans un réseau, de manière à créer un schéma de mémoire à court terme. Celui-ci a tendance à s'effacer chez les humains en l'espace de 15 secondes environ s'il n'est pas relayé dans la mémoire à long terme. 

Grossberg propose un Instar category developpement theoreni complémentaire qui explique comment des schémas répétés, persistants ou intenses de l'expérience sont installés dans la mémoire à long terme par le réajustement des poids synaptiques des réseaux neuronaux. et effectuent un apprentissage durable. Un autre paramètre clé de la théorie de la résonance adaptative est la vigilance, qui fixe le niveau de comparaison ou de différence entre un schéma particulier de la mémoire à long terme et une sensation à court terme du monde extérieur. 

Voici un diagrame de la Théorie de la résonance adaptative de Grossberg.

Sous système d'attention 

Réglage  d'intensité mémoire long terme méta-programmes, croyances, motivations, intérêts

instar I Apprentissages I ascendants I

Réglage d'intensité Sous système d'orientation 

Désaccord

Réexamen 

Outstar I modèle venant de la mémoire long terme

Mémoire court terme des informations de l'extérieur 

Informations entrantes, circulant de la base au sommet, Perceptions brutes du monde extérieur

Nous voyons ici quelques opportunités pour réviser le modèle des stratégies NLP. La composante "vigilance" dans ce modèle pourrait correspondre au point de choix dans le modèle TOTE, et la création d'un système de notation pour les sous-modalités pourrait refléter les fonctions Instar/Outstar de l'apprentissage, ce que nous avons tendance à présenter comme le premier test de la stratégie (outstar) et le test final (instar). 

Si nous tenons compte du fait que les distinctions du métaprogramme créent les interactions de la gamme mismatch, nous aurons même plus d'habilité dans un modèle stratégique. 

Nous n'essayons pas d'expliquer ces distinctions PNL à un niveau neurologique, mais de distinguer le schéma isomorphique. 

Un exemple simple : un homme a la croyance que les gens ne méritent fondamentalement pas qu'on leur fasse confiance, même Si de nombreuses occasions pourraient lui démontrer le contraire. Ces exemples ne rentrent pas dans sa mémoire à long terme pour installer un schéma différent. Il y aura par contre un seuil, peut-être fixé par un métaprogramme. 

Quand il aura vécu suffisamment d'occasions, il se pourrait qu'il adhère à la croyance inverse, que les gens sont fondamentalement dignes de confiance. Un exemple très intense pourrait aussi changer sa croyance. 

Mais avant de suggérer des applications spécifiques du neuro-computing à la PNL, jetons un coup d'œil sur les travaux de plusieurs scientifiques qui appartiennent plus à des domaines des sciences cognitives telles que l'intelligence artificielle, la linguistique qu'aux réseaux neuronaux. 

Les sciences cognitives et l'énaction 

Ici la cognition est définie non comme la représentation du monde pré-existant par des schémas préexistants dans l'esprit. mais plutot comme une prise en compte du monde et d'un esprit sur la base d'une histoire et d'une variété d'actions d'un individu qui opère dans le Monde. 

Dans le domaine de l'énaction, la pensée est maintenant définie comme des séries d'expériences accumulées d'une personne. Ces expériences forment un accouplement structurel entre un réseau de sous-réseaux sensitivomoteurs interconnectés à de multiples niveaux. Varela, Thompson et Rosch donnent un exemple élégant : "dans une exprimentation classique, Held et ilein élevaient des chatons dans l'obscurité et ne les exposaient à lalumière que dans des. conditions bien controlées. 

Un premier groupe d'animaux pouvait bouger normalement, mais chacun d'entre eux lut attaché à un petit attelage contenant une corbeille dans laquelle était un membre de l'autre groupe d'animaux. 

Les deux groupes partageaient donc la même expérience visuelle, mais le second groupe était entièrement passif .

Lors que les animaux furent relâchés après plusieurs semaines d'expérience, le premier groupe de chatons se comportait normalement, mais ceux qui avaient été promenés se comportaient comme s'ils étaient aveugles. se cognaient partout et tombaient par dessus bord. 

Cette belle étude démontre le point de vue énactif comme quoi les objets ne sont pas vus par l'extraction visuelle des formes, mais plutot par le guidage visuel de l'action." 

Parallèlement, les linguistes George Lakoff et Mark Johnson suggèrent "une approche expérientaliste de la cognition" qui complète le paradigme énactif. 

Dans leurs travaux ils sentent que "des structures conceptuelles signifiantes" jaillissent de deux sources :

1) de la nature structurée de l'expérience physique et sociale, 

2) de l'aspect bien structuré de l'expérience physique et interactionnelle qui permet d'abstraire des structures conceptuelles. La pensée rationnelle est l'application de sources cognitives très générales de telles structures - la focalisation, le scanning, la superimposition, le renversement d'image etc. 

Les Etres humains ont tendance à penser en termes de structures cognitives générales et en termes de métaphores comme "les schémas d'images kinesthésiques comme des containers, partie ou entier. ou des schémas source-voie-destination qui trouvent leurs origines dans l'expérience corporelle" dit Johnson. 

Lorsque des centaines de palettes multicolores furent montrées à différentes cultures autour du monde, presque toutes les personnes de tous pays choisirent la même comme le "meilleur" exemple d'une couleur de base donnée. 

1984. Ici les auteurs décomposent les compétences en termes de contextes - temps, organisés en résultats, activités et tests d'évaluation. 

Depuis prés de 10 ans la PNL dispose déjà d'un modèle qui peut être utilisé pour créer des stratégies interconnectées et opérant parallèlement !

Mais peu nombreux furent ceux qui prirent le temps pour appliquer leur travail à la détection et au design de stratégies. 

Si nous pouvons, nous en PNL, commencer à utiliser l'Emprint Method avec des formats opératifs interagissant de manière parallèle et simultanée, et en intégrant les sous-modalités et les distinctions du méta-programme qui indique comment les gens passent d'un point de seuil à un autre, alors nous aurons un modèle pour les stratégies qui sera plus proche de ce que la science sait maintenant à propos du cerveau et de l'esprit. 

Cela peut même être facile, mais pas simple. 

Beaucoup des stratégies proposées aujourd'hui sont des simplifications de processus mentaux, des "fictions utiles". Les stratégies de la mémoire, de l'épellation, de la décision, de la motivation, et d'apprentissage et la manière dont nous les enseignons de nos jours pourraient être assemblées en des réseaux pour représenter des processus simultanés. 

Les méta-stratégies comme le générateur de comportement, les noyaux du recadrage et d'autres protocoles, la célèbre stratégie de Walt Disney, et les projets de modélisation de nombreux praticiens produisent des résultats. mais nécessitent souvent de prendre en compte beaucoup d'hallucinations pour suivre les points essentiels. Si vous souhaitez avoir une approche hypnotique de la PNL, ceci vous sera utile, mais produira parfois des résultats inattendus. 

Nous croyons que la PNL peut tirer profit d'une approche plus rigoureuse de la modélisation de la cognition. Beaucoup d'outils existent déjà. 

Nous avons une notation pour les stratégies et un système de distinctions élégantes en matière de méta-programme et de sous-modalités qui pourrait être marié avec l'Emprint Method et les sciences cognitives récentes. 

Dans le prochain article, nous allons revoir comment les stratégies sont actuellement présentées en PNL, et exposer nos suggestions sur la manière dont nous pouvons commencer à pratiquer et mettre concrètement en application les principes et les méthodes que nous avons présentés ici. 

Mais, dès maintenant, vous pouvez commencer à examiner pour vous même quelles sont les stratégies que vous utilisez qui vous interconnectent avec d'autres. 

Quelles sont les boucles de feed-back et feed-forward entre les séquences de mémoire, de décision, de motivation et d'apprentissage ?

Jetez un coup d'œil à l'Emprint Method - comment pourrions-nous l'utiliser pour représenter des processus simultanés et parallèles ? Quelles sont les qualités émergentes des stratégies bien formulées? 

Telles sont quoique unes des questions que nous allons essayer de vous poser dans notre prochain article. 

"La vérité est que, la science de la nature a depuis trop longtemps fourni uniquement un travail sur le cerveau et la fantaisie. Il est maintenant grand temps de retourner à la plénitude et au silence d'observations sur du matériel et des choses évidentes". Robert Hooke, Micrographia (1665). 

Brian VAN DER HORST et Joseph O'CONNOR 

Paru dans Anchor Point en juin 1994. Traduction de Marie Rose KORO.