Coaching et neurosciences, je t'aime, moi non plus

Les neurosciences et plus largement les sciences cognitives dont elles sont une branche ont le vent en poupe. Elles suscitent à juste titre par leurs découvertes l’enthousiasme bien au-delà du cercle restreint des experts. Nouvel horizon de nos connaissances des phénomènes psychiques, les neurosciences remplacent dans l’imaginaire collectif ce que furent le behaviorisme et la psychanalyse.
L’objet des sciences cognitives est la cognition ; autrement dit, l’étude des phénomènes concourant à la production de la pensée : attention, mémoire, prise de décision, perceptions, émotions…De nos jours, leur champ recouvre un vaste ensemble de spécialités : logique, mathématique, informatique, intelligence artificielle, biologie, neurologie, linguistique, psychologie, sociologie (Collins, Andler, Tallon-Baudry et autres, La cognition, 2018).
Historiquement, les sciences cognitives trouvent leur origine dans les conférences de Macy (1942-1953) et plus largement dans le mouvement cybernétique (J.P. Dupuy, Aux origines des sciences cognitives, 1994). Dans l’après-guerre, toute une génération de scientifiques, stimulée par l’essor de l’informatique naissante, cherche à mettre en évidence un parallélisme entre le traitement de l’information réalisé par l’ordinateur et le fonctionnement du cerveau humain (J. von Neuman, L’ordinateur et le cerveau, 1956). Turing considéré comme le père de l’informatique, estime que les machines dites intelligentes pensent ; que seules des considérations psychologiques nous empêcheraient de l’admettre (Thuring, Computing Machinery and Intelligence, 1950).
Plus que jamais, le rêve de Leibniz, que la pensée soit un calcul, est devenu d’actualité (Gottfried Leibniz, Dissertatio de arte combinatoria, 1666).
Selon ces scientifiques, la logique formelle et les mathématiques seraient en capacité de rendre compte du phénomène de la pensée et de nos comportements. C’est le sens philosophique profond de la cybernétique créée par Wiener, pour qui pensée et action sont pratiquement indiscernables (Wiener, The Human Use of Human Beings, 1950). Cet enthousiasme naïf s’étend alors à toutes sortes de disciplines des sciences humaines. Il engage certains dans d’illusoires pratiques thérapeutiques de la schizophrénie par le truchement de Bateson et de l’Ecole de Palo-Alto (Gregory Bateson, Vers une écologie de l’esprit, 1972).
Durant la seconde moitié des années 1950, deux courants concurrents au sein des sciences cognitives voient le jour : l’intelligence artificielle (1955), dont les créateurs ont l’espoir de lui faire dépasser l’intelligence humaine, voire refonder la psychologie en la décrivant à l’aide de programmes informatiques (Simon & Newell, General Problem Solver,1957) et une psychologie cognitive qui, en opposition au béhaviorisme alors dominant, s’attache à objectiver les opérations mentales mobilisées dans la résolution de problèmes (Jerome, A Study of Thinking 1956).
Les sciences cognitives restent cependant largement dominées par l’analyse formelle des processus de pensée. Ce n’est qu’à partir des années 1980 que les neurosciences gagnent en importance, de la volonté des neurobiologistes de rendre compte des processus mentaux par l’étude du substrat biologique (Jean-François Dortier, Histoire des sciences cognitives, 2001).
Les sciences cognitives ne constituent donc pas un corps de connaissances homogènes. Le label sciences cognitives doit être interrogé. On peut, en simplifiant, avancer qu’elles s’organisent autour de deux points de vue, selon que les processus de pensée sont assimilés (réduits) à des opérations logiques, ou bien que l’on considère qu’ils relèvent d’une façon indissociable de mécanismes neurophysiologiques sous-jacents (Brigitte Chamak, Dynamique d’un mouvement scientifique et intellectuel aux contours flous : les sciences cognitives, 2011).
L’approche par l’analyse formelle s’illustre dans les progrès incessants de l’intelligence artificielle. Encore faut-il distinguer au sein de celle-ci des orientations philosophiques fort différentes. L’intention des fondateurs de l’intelligence artificielle était de décomposer l’intelligence humaine en opérations cognitives élémentaires puis de les simuler sur ordinateur. Il s’agit là de l’intelligence artificielle dite faible. D’autres ambitionnent de simuler informatiquement la conscience elle-même. On parle alors d’intelligence artificielle forte. Mais comme le montre J.G Ganascia, on en est encore très loin, si toutefois une telle ambition ne relève pas simplement de l’utopie (Ganascia, Le mythe de la singularité, 2017).
A la fin du 19ème siècle, Santiago Ramòn y Cajal, Prix Nobel de médecine en 1906 pour ses travaux sur le système nerveux, émet le premier l’hypothèse de l’interconnexion des neurones et de leur polarité dynamique (Cajal, Histologie du système nerveux de l’homme et des vertébrés, 1904).
Plus d’un demi-siècle plus tard, dans le contexte cybernétique qui est le leur, Warren Mc Culloch, neurophysiologiste et Walter Pitts, logicien, postulent que cette activité suit un fonctionnement conforme à la logique binaire du tout ou rien. Selon ce modèle, les neurones d’une même chaîne stimulent les neurones suivants par une polarisation (input) positive ou nulle. La polarisation résulte de la somme des stimulations reçues des neurones en amont et ne peut être égale qu’à 1 ou 0. Le système binaire se prêtant au calcul, Mc Culloch & Pitts, tout naturellement pourrait-on dire, cherchent à retranscrire leur modèle de l’activité neuronale sous la forme d’énoncés algébriques. Ils recourent pour y parvenir à un langage créé par Rudolph Carnap, logicien allemand (Culloch & Pitt, A logical calculus of the ideas immanent in nervous activity, 1943).
On sait maintenant que le fonctionnement neuronal ne possède pas les caractéristiques de ce déterminisme binaire. Il est le produit complexe de nombreux facteurs physico-chimiques en action au sein de populations de neurones en interaction constante. Le fonctionnement d’un seul neurone est négligeable et le résultat de leur comportement collectif probabiliste. La question du hasard au cours du déroulement des activités ioniques propres à l’activité cérébrale est du reste posée (Cessac & Berry, Du chaos dans les neurones, Inria, 2010). Plus étonnant encore, de très récentes recherchent tendent à montrer que les neurones sont capables de modifier leur ADN!
Des évolutions technologiques majeures (magnétoencéphalographie, oculométrie TMS, IRMf, NIRS,…) ont permis un développement exceptionnel de nos capacités scientifiques d’investigation. Nous savons un peu mieux aujourd’hui comment les processus psychiques s’enracinent dans le substrat biologique du cerveau. On estime que celui-ci est composé d’un peu plus de 85 milliards de neurones, connectés entre eux par 160.000 km de fibres (4 circonférences terrestres). Dès 1949, D. Hebb avait émis l’hypothèse démontrée depuis, que l’organisation des connexions synaptiques entre neurones qui assure ce câblage est fortement modifiée par l’expérience.
Ce câblage s’organise dans le cortex cérébral autour d’environ 400 aires dont les fonctions sont complexes. Il n’existe pas de correspondance univoque entre les aires et les fonctionnalités. La « théorie » des cerveaux gauche et droit n’a aucun fondement. Il s’agit d’une légende tenace exprimée dans les années 70 par trois neurologues de l’Université Harvard, Geschwind, Levitsky et Galaburda. Extrapolation hâtive de travaux sur la latéralisation du cerveau, elle n’a jamais été prise au sérieux par les neurologues. Une équipe de chercheurs de l’Université d’Utah dirigée par Jeff Anderson en a démontré l’inanité (2013).
Des protocoles expérimentaux ont été mis au point rendant possible l’analyse de perceptions inconscientes (A. Marcel, Conscious and Unconscious Perception : Experiments onVisual Masking and Word Recognition, 1983) ou l’objectivation de tâches subjectives en mettant en évidence que percevoir un stimulus visuel et l’imaginer activent de la même manière le cerveau occipital (Denis le Bihan, Le cerveau de cristal, 2012). Cependant les sciences cognitives demeurent très loin de disposer d’une théorie de la conscience, repoussant ainsi vers un très hypothétique lointain toute velléité transhumaniste de numériser cette dernière.
Une autre légende en vogue est celle du cerveau quantique. Selon cette dernière, la physique quantique aurait permis la découverte de fabuleuses propriétés du cerveau. Elle trouve son origine dans une hypothèse hautement spéculative émise par Roger Penrose, immense physicien et mathématicien britannique. Le phénomène de la conscience trouverait son origine dans des processus quantiques se produisant au sein des microtubules neuronales, sortes de fibres qui contribuent à structurer les neurones (Penrose, Les ombres de l’esprit, 1994).
Les phénomènes quantiques concernent l’univers des particules élémentaires et sont très rares à l’échelle macroscopique qui est celle des tissus cellulaires (laser, supraconducteurs, peut-être la photosynthèse ,…). De puissants obstacles théoriques paraissent s’opposer à la spéculation de Penrose, notamment celui de la décohérence quantique, qui rend compte précisément de la disparition au niveau macroscopique des états superposés des particules en raison de leurs interactions avec l’environnement.
En 2015, des chercheurs australiens des universités de Sydney et du Queensland semblent d’ailleurs avoir démontré l’impossibilité de la spéculation de Penrose en raison de la température que de tels phénomènes produiraient dans le cerveau (100 millions de degrés Kelvin).
Les neurosciences font avancer notre compréhension des interfaces cerveau-machine, permettant en médecine la correction de certains handicaps moteurs, ou l’implant de neuro-prothèses sensorielles cochléaires ou rétiniennes. Leur application au renforcement de nos capacités cérébrales (mémoire, attention,,…) laissent par contre sceptique la communauté scientifique (Collins, Andler, Tallon-Baudry et autres, La cognition, 2018). Ainsi, toutes sortes de programmes à prétention pédagogique ou de développement personnel, relèvent au mieux d’un marketing bien pensé, au pire, de l’ignorance, bien souvent des deux.
Un coaching efficace est un coaching qui avance sur des connaissances contrôlées. Son univers est celui des milliards d’interactions pour une part imprévisibles entre l’individu et son environnement. Les neurosciences, plus modestement, tâchent d’y voir plus clair sur ce qui est observable et reproductible du fonctionnement du cerveau. Le temps du coaching nourri aux neurosciences n’est pas encore advenu.

Par Michel Bré, Directeur de LHH, Administrateur du Cercle National du Coaching