Licence 2, Psychologie cognitive

Catégorisation & apprentissage

Une catégorie est le point de rassemblement d’un certain nombre d’éléments autour de caractéristiques communes. Catégoriser correspond à classer un ensemble d’éléments dans différentes entités, les catégories, selon leurs similarités ou critères communs. Catégoriser est une activité cognitive qui intervient dans la perception et la compréhension.

 

I. L’apprentissage

  1. Définir l’apprentissage

L’apprentissage peut être caractérisé par le changement dans un comportement. L’apprentissage correspond au processus ou l’ensemble des processus qui sous-tendent les modifications de comportement survenant à la suite de l’expérience ou du contact avec l’environnement. L’apprentissage se traduit par un changement relativement permanent dans notre capacité à effectuer, changement dû à des types particuliers d’expériences. Ce changement correspond à l’intervention de l’environnement sur le comportement. Ces changements ne peuvent s’observer que dans des circonstances particulières. L’amplitude de la durée de ce changement est étendue.

Si l’innéité est importante, l’apprentissage est plus adaptatif pour l’individu, et à long terme pour l’espèce. Les espèces parvenant à apprendre peuvent s’adapter à des changements de leur environnement. L’Homo sapiens sapiens est l’espèce qui a le mieux réussi à s’adapter à de multiples environnements, s’adaptant jour après jour à ceux-ci et le modifiant durablement. Pour comprendre comment les facteurs génétiques et environnementaux affectent le développement des individus, il faut s’intéresser à la phylogenèse et à l’ontogenèse. La psychologie comparative étudie la phylogenèse, en étudiant les similarités et les différences dans les comportements perceptifs, moteurs et sociaux tout au long de l’échelle phylogénétique. L’ontogenèse correspond aux changements des individus au cours de leur vie. L’évolution et l’apprentissage sont des processus parallèles, selon l’analogie évolutionniste. La sélection naturelle correspond à trois phénomènes : la variation du génome, la sélection de cette variation par l’environnement et la rétention de la variation par la transmission à la descendance. L’évolution biologique se manifeste par une forte complexité et par une grande diversité de formes. L’apprentissage correspond au processus suivant : la variation du comportement, la sélection de cette variation par l’environnement et la rétention de ce nouveau comportement par des mécanismes neurobiologiques. La sélection comportementale correspond au principe de la sélection par le renforcement.

La réalité d’un apprentissage ne peut être vérifiée que par l’observation d’un changement dans un comportement. Certains apprentissages sont silencieux et non observables. Il existe trois niveaux d’analyse selon comment s’opère l’apprentissage :

  • l’ensemble de l’organisme (comportements observables ou non),
  • les circuits neuronaux et les neurotransmetteurs (réseaux de neurones) et
  • les neurones (aspects moléculaires et cellulaires).

L’approche cognitive considère le développement du langage et l’apprentissage de la lecture (nécessitant un apprentissage explicite). Le développement du langage se fait en lien avec le traitement de l’information et la mémoire. Selon les comportementalistes, l’apprentissage et le développement du langage oral se fait grâce aux interactions du sujet avec son environnement. Le développement est global alors que l’apprentissage est local. Le développement se fait sur quelques semaines, mois ou années, l’apprentissage correspond à une échelle de temps beaucoup plus brève.

L’apprentissage peut être défini selon le type d’activité (moteur, social…), la nature de ce qui est appris (symbolique…) ou les mécanismes impliqués (associatif ou non associatif).

  1. L’apprentissage non associatif

L’apprentissage non associatif est un changement relativement permanant dans l’intensité d’une réponse à un stimulus suite à la présentation répétée de ce stimulus.

La réponse inconditionnelle ne dépend d’aucun apprentissage préalable. Cette réponse est provoquée par un stimulus inconditionnel (exemple de la salivation). La réponse réflexe correspond au caractère involontaire de la réponse. Le réflexe est une réponse simple absolue, en réponse à un stimulus. Le réflexe est la plus petite unité possible d’une réponse inconditionnelle, mais des formes complexes existent aussi. La réponse inconditionnelle est impliquée dans l’habituation et la sensibilisation.

L’habituation est une baisse de l’intensité d’une réponse provoquée par un stimulus particulier à la suite de la présentation répétée de ce stimulus. L’habituation chez l’être humain se rencontre par exemple dans les modalités auditive, visuelle et tactile. Au niveau des compétences précoces des bébés, on s’intéresse à a réaction à la nouveauté. En modalité visuelle, l’augmentation de la durée de fixation pour un nouveau stimulus est interprétée comme la confirmation de l’intégration cognitive des propriétés du premier stimulus.

La sensibilisation est la baisse du seuil absolu de déclenchement d’une réponse suite à la présentation répétée d’un stimulus ou par la présentation d’un autre stimulus. La sensibilisation a une valeur adaptative car elle met en jeu sa survie.

  1. Historique de l’apprentissage associatif

A la fin du XIXème siècle, Pavlov étudie la digestion et découvre le conditionnement classique, dit pavlovien. Selon Watson, l’objet de la psychologie est l’étude objective du comportement sans prise en compte des faits de conscience. En 1920, il travaille sur les phobies de l’enfant avec le petit Albert. Watson est le précurseur dans la compréhension des phobies chez l’humain. Thorndike développe une boite puzzle ou boite à problèmes qui s’ouvre par différents systèmes avec de la nourriture à l’extérieur et un chat affamé à l’intérieur. Selon Thorndike (début XXème), le chat apprend par essais-erreurs selon la loi de l’effet. Le terme « satisfaction » employé par Thorndike fait référence à un état subjectif ou mental, et est controversé. Skinner (XXème) innove avec une simple boite. Dans la boite de Skinner, le rat appuie sur un levier pour obtenir une boulette de nourriture. Selon Skinner, le comportement opérant correspond au fait que le comportement opère une transformation sur l’environnement, cette transformation modifiant en retour le comportement. Il identifie les relations entre le comportement du sujet et ses conséquences. La variable dépendante est le débit de la réponse qui peut être suivi avec des courbes cumulées pour suivre en temps réel l’évolution du comportement. Plus la pente est raide, plus le débit de réponses est élevé.

Tolman (XXème) développe une approche configuration-signe (sign-gestalt) donnant naissance au concept de carte cognitive dans les années 1940. L’expérience de Tolman et Honzik (1930) étudie l’apprentissage spatial. L’apprentissage latent, apprentissage en l’absence de récompense explicite, a été démontré avec des rats dans un labyrinthe pendant des durées diverses avant l’introduction de la nourriture. L’apprentissage ne se manifeste qu’à partir du moment où l’animal est motivé vers un but. L’expérience des essais antérieure à l’arrivée de la nourriture n’a pas été perdue. Cela permet de distinguer apprentissage et performance. Le concept de carte cognitive correspond à la connaissance de la topologie du labyrinthe après plusieurs essais. Tolman est considéré comme le fondateur de la psychologie cognitive avec le développement des termes d’apprentissage latent et de carte cognitive, d’intention et d’attente, absents du comportementalisme. Bandura, chercheur canadien, a développé les théories de l’apprentissage sur l’être humain. Il explore des éléments a priori typiquement humains. Il étudie la transmission de comportements d’agression par l’imitation de modèles et développe les concepts de renforcement vicariant et d’apprentissage par imitation. Bandura distingue les éléments cognitifs en jeu dans le modelage sur l’acquisition des comportements et les effets motivationnels des récompenses sur l’imitation.

Les post-skinneriens sont associés à l’analyse du comportement : Catania et Hayes (cognition et langage), Premack (relativité du renforcement), Lovaas (autisme), Bijou et Baer (contingences de renforcement et compréhension du développement de l’enfant), Herrnstein (loi de l’appariement), Rachlin (comportements de choix).

Les néo-cognitivistes, comme Bandura, Beck, se sont intéressés aux thérapies cognitivo-comportementales.

 

II. Les différents types d’apprentissage

  1. L’apprentissage par essais et erreurs

L’apprentissage animal a été étudié par Thorndike avec un chat dans la boite à problèmes. A force de tâtonnements, le comportement adapté finit par se produire au hasard. Au terme de l’apprentissage le temps mis par le chat pour sortir va diminuer progressivement. Ainsi le comportement adapté est sélectionné au détriment des autres. Selon Thorndike, associationniste, l’apprentissage est un processus de mise en association d’actes simples, selon un schéma S-R. la force de la connexion entre S et R peut être modifié selon la loi de l’effet (le comportement est fonction de ses conséquences). La loi d’exercice considère que la résistance synaptique est accrue ou diminuée en proportion directe du nombre de réponses faites à des stimuli donnés. La loi de préparation prend en compte les aspects motivationnels de l’apprentissage. Chez l’humain ces principes entrent en jeu dans les apprentissages moteurs ou tous les apprentissages où l’imitation est difficile, où l’objectif est inconnu ou mal connu, où le procédé de résolution théorique est ignoré.

Cependant les choix ne se font par au hasard, comme le pensait Thorndike.

  1. Le conditionnement

Le conditionnement est une forme élémentaire d’apprentissage avec l’établissement de liaisons conditionnelles : mettre une réaction R sous le contrôle d’un stimulus S donné. Lorsque le conditionnement est établi, S déclenche automatiquement R. L’acquisition concerne la liaison entre un S et une R.

Il existe plusieurs types de conditionnement :

  • Le conditionnement pavlovien ou classique ou répondant ou réflexe conditionné. La procédure de conditionnement consiste à remplacer S inconditionnel par un S neutre (S conditionnel). Les conditions pour établir un réflexe pavlovien sont la réactivité, l’ordre des stimuli, la contiguïté et la répétition.
  • Le conditionnement skinnerien ou instrumental ou opérant ou de type II. Il correspond à un apprentissage comme conséquence de l’opération du sujet sur l’environnement. La procédure de conditionnement consiste à établir une liaison particulière entre un S neutre et une R neutre par un agent renforçateur survenant dès que la R choisie est donnée pour ce S. R est la condition d’obtention de l’agent renforçateur. Si l’agent renforçateur est désagréable, alors apparait une baisse de la fréquence d’apparition jusqu’à disparition du comportement.

L’extinction correspond à la perte d’un conditionnement lors que le renforcement n’est plus réalisé en même temps. Ce phénomène d’extinction est plus lent si le nombre d’essais pour établir le conditionnement aura été important et que le renforcement aura été présent de façon intermittente et non continue. La force de la liaison conditionnelle peut être mesurée par le nombre d’essais nécessaires à l’extinction. Lors d’extinction, il n’y a pas disparition complète de la liaison. Le réapprentissage est plus rapide. Après une période de repos suite à l’extinction d’une RC, la présentation de SC peut déclencher RC même sans renforcement. C’est le phénomène de récupération ou restauration spontanée. Au lieu d’extinction, il faudrait dire inhibition. La liaison conditionnelle ne se limite pas au S utilisé dans le conditionnement mais se généralise à des S ressemblant à ce SC. Plus la proximité du stimulus avec le stimulus initial sera grande, plus la réaction sera forte et inversement (gradients de généralisation). Le phénomène de discrimination correspond au fait que deux stimuli proches ne sont pas confondus et seul le SC provoque RC.

  1. Le concept de mémoire procédurale

La psychologie cognitive est une théorie de la connaissance qui s’intéresse à l’organisation et la gestion des connaissances, comment on les acquiert et comment on les utilise. Le concept de mémoire est un système permettant d’acquérir, de stocker et d’utiliser des informations. L’apprentissage correspond alors à la modification de connaissances. Apprendre devient acquérir ou modifier une représentation de l’environnement. Le conditionnement est utilisé pour le dressage animal ou dans les thérapies des troubles anxieux et de la dépression et dans l’étude des compétences des nourrissons.

La psychologie cognitive moderne identifie une multitude de mécanismes pouvant intervenir dans différentes variétés d’apprentissage. Il existe deux grandes catégories d’apprentissage, l’apprentissage par l’action et l’apprentissage par tutorat. La mémoire déclarative ou mémoire des représentations renvoie à l’ensemble des connaissances des faits spécifiques, des noms, des visages, c’est-à-dire des savoirs qui s’actualise sous forme verbale ou d’images mentales et qui sont accessibles à la conscience. La mémoire procédurale ou mémoire des actions correspond aux habiletés, savoir-faire et conditionnement, souvent implicite et sert à l’encodage, au stockage et au rappel des procédures. Cette mémoire permet d’acquérir et de restituer des habiletés motrices, verbales ou cognitives, c’est-à-dire nos savoir-faire et elle n’apparait pas à la conscience (mémoire implicite). Avant de devenir automatique cette habilité nécessite un apprentissage plus ou moins long et complexe : apprentissage par la pratique répétée. La mémoire des actions est généralement préservée dans l’amnésie.

 

III. Apprentissage et formation

Il existe une réflexion sur les modalités d’amélioration des apprentissages, scolaires ou professionnels. Dans notre société de la connaissance, l’obsolescence de nos savoirs et savoir-faire initiaux s’accélère et nous conduit à apprendre de plus en plus. Pour cela nous devons maitriser les savoirs et les savoir-faire fondamentaux : usage de plusieurs langues, lecture et écriture, calcul et raisonnement. Nous devons aussi construire des dispositifs de formation pour acquérir tout au long de leur vie de nouveaux savoirs et savoir-faire dans des conditions de réussite et de satisfaction favorisant leur adaptation et leur évitant de se détourner de la nouveauté. La psychologie doit contribuer fortement à l’amélioration des apprentissages. Elle dispose des méthodes et instruments pour analyser la demande de formation et celle des besoins de formation. Elle peut concevoir des programmes et progressions jusqu’à l’individualisation des décours d’apprentissage et élaborer les évaluations.

  1. L’apprentissage implicite

L’apprentissage implicite correspond à un mode d’adaptation dans lequel le comportement d’un sujet apparait sensible à la structure d’une situation sans que cette adaptation soit imputable à l’exploitation intentionnelle de la connaissance explicite de la situation. Il est nécessaire que la situation soit structurée, c’est-à-dire qu’elle se compose de régularités, et que les participants disposent de mécanismes cognitifs permettant d’extraire les régularités, c’est-à-dire l’attention.

Il est nécessaire de distinguer intention et attention. L’attention portée à un fait peut entrainer l’apprentissage de celui-ci sans que l’individu l’a voulu et en soit conscient. C’est l’activité de catégorisation et l’attention qu’elle mobilise chez les individus qui importe et non l’objectif de rappel. Pour assurer un apprentissage il est indispensable que l’attention de celui qui apprend porte sur l’objet d’apprentissage.

L’apprentissage implicite est attesté précocement au cours du développement de l’enfant. Il s’étend à l’ensemble des comportements perceptifs, moteurs, langagiers et sociaux. L’apprentissage implicite se retrouve dans l’acquisition de l’orthographe et l’ergonomie.

On s’interroge sur les modalités de structuration des situations en amont de l’apprentissage de façon à ce que les contraintes imposent certaines acquisition et seulement celles-là. On s’interroge également sur la nature des tâches ou activités à proposer aux participants pour les amener à focaliser leur attention sur les éléments à acquérir sans qu’ils en aient nécessairement conscience.

  1. L’apprentissage explicite

L’apprentissage explicite correspond aux situation où les participants se voient explicitement informés qu’ils auront à l’issue de l’apprentissage, à récupérer volontairement et consciemment tout ou partie des éléments présentés. Ceci est fréquent en milieu scolaire ou en formation d’adultes, mais aussi l’utilisation d’un mode d’emploi. Les connaissances déclaratives sont des données conceptuelles ou verbales. Les apprentissages procéduraux concernent les données verbales qui sont destinées à assurer la mémorisation exhaustive d’actions à conduire et le guidage de leur mise en œuvre, jusqu’à ce que celle-ci s’effectue de manière fluide et peu coûteuse pour l’attention (automatique).

Le passage de l’apprentissage déclaratif à l’apprentissage procédural peut être long et ardu : il nécessite guidage et pratique prolongée. L’efficacité peut être améliorée selon les rythmes et les espacements des séances d’apprentissage. Toute interruption entraine une baisse d’efficience. L’instruction perd son efficacité si l’énoncé des règles et la réalisation d’exercices initiaux ne sont pas accompagnés d’activité ultérieures, fréquentes, étalées dans le temps et évaluées. Pour les apprentissages procéduraux, l’accès à l’expertise demande plusieurs années de pratique assidue et régulière.

Dans la maitrise d’une langue étrangère, la connaissance des règles constitue un facteur favorable à l’utilisation d’une langue (avec une pratique intensive de deux mois). Les compétences procédurales ne sont pas acquises à travers des mécanismes spécifiques, que leur développement repose vraisemblablement sur les connaissances explicites et le développement de ces compétences ne produit pas nécessairement la perte de la connaissance explicite des règles. Il fait admettre la possibilité d’une cohabitation du déclaratif et du procédural.

L’apprentissage des procédures est envisageable sans faire appel à une première phase déclarative (par imitation ou par action), comme dans l’apprentissage implicite. La mise en œuvre de procédures peut conduire à la constitution de nouvelles connaissances déclarative. La pratique répétée et l’entrainement direct à la mémorisation conduisent à la constitution de connaissances déclaratives interreliées en mémoire.

  1. La métacognition

Ici la question est de déterminer si la conscience qu’ont les individus de leurs forces et faiblesses, à la fois en termes de savoirs et de savoir-faire, influe sur leurs performances. Si les individus ont conscience de leurs forces et de leurs faiblesses (cognitives) générales ou relatives à un domaine de connaissance spécifique et s’ils savent quelles procédures (cognitives), les stratégies) sont disponibles et efficaces pour pallier les faiblesses, il leur est alors possible d’augmenter les probabilités de réussir les apprentissages en mobilisant ces procédures et en les appliquant.

Plusieurs stratégies permettent la mémorisation des informations. Les trois principales sont :

  • La répétition (ou autorépétition) consiste à prévenir le déclin des informations maintenus en mémoire à court terme en les répétant de manière à rafraichir les traces mémorielles. Dès l’âge de 5-6 ans. C’est lorsque la répétition porte sur plusieurs items que la mémorisation en bénéficie.
  • La catégorisation consiste à organiser à l’encodage les items à mémoriser (par exemple en les plaçant dans des groupes correspondant plus ou moins à des catégories conventionnelles). L’activité même de classement en groupes est efficace et améliore fortement les performances lors du rappel.
  • L’élaboration consiste à la mise en relation des informations nouvelles à mémoriser avec les connaissances déjà disponibles. Cela correspond au principe qu’un apprentissage nouveau n’est possible que s’il est mis en relation avec des savoirs antérieurs. La mise en relation améliore la mémorisation et la remémoration en favorisant des voies d’accès aux informations nouvellement stockées.

La connaissance par le sujet de ses capacités et de leurs limites ainsi que des stratégies susceptibles d’améliorer les performances n’assurent pas un progrès systématique des performances.

Les capacités métacognitives permettent à un individu d’exercer un contrôle sur ses propres activités mentales : contrôle de l’attention, de la mémoire de travail, de l’information traitée. Ces capacités métacognitives augmentent avec l’âge. Dès 5-6 ans on peut induire l’utilisation de stratégies efficaces, mais leur usage spontané est assez tardif vers 10 ans. La difficulté dépend de leur pertinence dans une situation donnée, c’est-à-dire savoir quoi faire et quand le faire. Cela suppose une grande familiarité avec la diversité des activités cognitives. Se pose le problème de la transférabilité des compétences acquises et celui de la spécificité des domaines de connaissance. L’éducabilité cognitive est basée sur la possibilité d’entrainer les outils cognitifs à la base de nos activités mentales. Ce qui est pertinent ce sont les processus cognitifs sous-jacents (catégorisation, comparaison, raisonnement, orientation dans l’espace) et non pas le contenu. Les exercices prennent la forme d’exercices abstraits à forte connotation logique. Les techniques d’éducabilité cognitive ont un effet positif mais uniquement pour des épreuves identiques ou très similaires aux exercices initiaux. Leurs transférabilité est très faible.

 

Publicités
Ethique, Licence 2

Introduction à l’Ethique

Introduction générale

L’éthique est une branche de la philosophie qui établit les normes et règles d’action permettant de rendre cette action morale.

La philosophie est une démarche qui peut prendre n’importe quel thème pour objet. Cette démarche ne consiste pas à chercher la vérité. La philosophie cherche la vérité tout en sachant qu’elle ne la trouvera jamais.

La philosophie naît du désir de comprendre le monde et de la conscience qu’il n’y a pas une seule réponse possible (pas qu’une vérité). La démarche philosophie consiste à tendre vers la vérité en construisant le raisonnement le plus solide possible en traquant le préjugé, le contresens, la force, l’argument fallacieux. Elle interroge le sens des termes, examine les sous-entendus et les conséquences d’une position, en la confrontant à d’autres positions. La philosophie est critique (esprit critique).

La démarche philosophique ne consiste pas à lancer ses idées au hasard mais de justifier ses positions, de déduire ses propositions en s’appuyant sur des règles rigoureuses pour arriver à un raisonnement solide anticipant les critiques (critique-toi toi-même).

Les différents systèmes philosophiques correspondent à des constructions proposées par Platon, Kant, Spinoza… représentant des points de vue différents associés à leurs interprétations du monde. Un système philosophique est une construction dont chaque position est cohérente avec l’ensemble et recouvre l’ensemble du réel. Plus un système est solide, plus il est difficile de l’attaquer. La rigueur et le caractère généraliste d’un système l’entraine vers la vérité. L’importance critique de la pluralité d’interprétations sur le monde fait qu’on n’atteindra jamais la vérité. Atteindre la vérité est incompatible avec la démarche critique.

La philosophie a une portée pratique : comprendre le monde pour comprendre ce que nous devons faire, comment nous devons nous comporter. La philosophie compote une dimension descriptive et une dimension normative (mettre en place des normes). La philosophie se définie comme l’amour de la sagesse. Le sage est celui qui a clarifié la hiérarchie des valeurs, comprit le sens de la vie, qui sait quel comportement lui permet de se rapprocher de son idéal et qui est capable de l’adopter. L’amour de la sagesse désigne ce désir de devenir plus sage. Le moyen d’y parvenir est de comprendre. Le sage agit bien. Tous les systèmes philosophiques ont pour finalité les règles de l’action bonne.

L’éthique ou la morale est une réflexion sur ce qui constitue l’action bonne. Actuellement, il existe une spécification des termes. La morale désigne un ensemble de valeurs, qui une fois posées, demandent qu’on s’y conforme. L’éthique désigne une réflexion sur les normes qui président à la mise en place de procédures pratiques. Notre histoire judéo-chrétienne attache au terme « moral » une connotation moralisatrice, qui n’existe pas dans le terme « éthique » plus neutre. L’éthique a un aspect dynamique, consistant à mettre en place les règles d’une action bonne, et non pas à appliquer des règles reçues d’une instance supérieure.

Se comporter de façon éthique, c’est bien agir. Le bien est la valeur normative de la morale. Le bien correspond à l’horizon qu’on cherche à atteindre. L’enjeu de l’éthique est d’y réfléchir. Ce qui est bien sous un ordre peut ne pas l’être sous un autre : ce sont les dilemmes.

L’impression personnelle ou choisir au feeling ne suffit pas. L’éthique vous aide à dépasser le stade du relativisme. L’éthique fournit des instruments pour analyser une situation dans laquelle se pose un problème moral : poser les valeurs en jeu, les hiérarchiser, montrer les points précis de divergences possibles. Cela permet parfois de résoudre un dilemme ou incite à poser d’autres règles pour avancer dans la compréhension et dans la résolution de la difficulté. L’éthique met en place les critères d’une procédure et de justifier la décision prise. S’il n’y a pas de solution idéale, les cas semblables sont traités de façon équitable.

Un code de déontologie est un ensemble concret de règles professionnelles concernant l’ensemble des praticiens. Le respect de ces règles est obligatoire et leur violation entraine des sanctions. Le code de déontologie dessine le comportement attendu, le comportement éthique du professionnel dans l’exercice de sa profession.

 

I. Introduction aux théories morales

Le déontologisme

Dans la perspective déontologiste, nos choix sont guidés par la notion de devoir : une action morale respecte des lois morales considérés comme inviolables.

Le déontologisme signifie la « science du devoir » définissant les devoirs s’appliquant à l’Homme. L’éthique déontologique part du principe que l’être humain autonome, responsable, capable d’orienter ses actions selon sa volonté et sensible au sort de ses congénères, subit  des devoirs moraux.

La morale kantienne

Immanuel Kant est un philosophe allemand du XVIIIème siècle. Son immense système consiste à répondre à trois questions : Que puis-je savoir ? Que dois-je faire ? Que l’est-il permit d’espérer ? Ce système donne une place importante à la volonté, orientée vers l’action. Pour Kant, l’Homme est un animal doué de raison pratique, d’une volonté sensible à la réflexion, raisonnée et raisonnable.

Si on considère l’homme comme un être libre, cette volonté a une valeur morale. Le choix de nos actions est de notre responsabilité : choisir son propre intérêt ou prendre en compte autrui a une valeur morale. L’homme est sensible à la morale et n’est pas uniquement motivé par la recherche de son plaisir égoïste. L’homme a conscience de sa liberté et de ses devoirs : c’est sa dignité. Selon Kant, le bien correspond à une bonne volonté.

La bonne volonté ne suffit pas. Dans le système kantien, il n’existe pas une liste des devoirs. L’homme est libre et rationnel, et donc naturellement apte à saisir ce qu’il doit faire. Le devoir n’a pas de contenu fixé, mais sa forme correspond à une action qui peut être universalisée (souhaiter que chacun se conduise de la même manière). L’action est morale lorsque ses principes deviennent des obligations pour tous sans restriction. Le mal moral est de faire une exception pour soi-même.

L’impératif catégorique désigne l’action requise nécessaire et inconditionnelle : elle ne dépend pas de la situation, de nos inclinations, de nos valeurs ou des circonstances. La loi morale est un commandement qui ordonne sans conditions.

L’obéissance à la loi morale libère notre liberté. La source du devoir ne vient pas d’une quelconque autorité supérieure mais de l’individu lui-même comme sujet moral. Comprendre son devoir et s’y soumettre volontairement correspond à réaliser sa nature et sa dignité d’être moral.

Le critère permettant d’orienter l’impératif catégorique est le respect de la personne humaine. La personne humaine est une fin en soi (le seul fait de vivre est suffisant) digne d’un respect inconditionné. La personne humaine a une valeur absolue. Par exemple, tuer ne peut pas être moral et il n’y a pas d’exceptions. Admettre des exceptions reviendrait à faire dépendre l’impératif catégorique des circonstances particulières. Le cœur du déontologisme : les règles morales ne peuvent tolérer d’exceptions sans violer la loi d’universalité et donc sans se détruire elles-mêmes.

Le conséquentialisme

Selon le conséquentialisme, nos choix sont guidés par les conséquences de nos actions : l’action est morale si les conséquences le sont. Le critère du conséquentialisme correspond à la valeur de ses conséquences (le bien que cette action va entrainer). Il existe plusieurs formes de conséquentialisme selon la valeur supérieure à maximisée par les conséquences (le bien) et en fonction de l’étendue des conséquences.

L’utilitarisme vient du philosophe anglais Jeremy Bentham (XVIII-XIXème). Selon Bentham, les valeurs servant de critères aux jugements moraux proviennent de la nature de l’homme : le bonheur. L’action est morale si ses conséquences maximisent le plus grand bonheur du plus grand nombre.

La morale utilitaire de Bentham

Bentham est avocat et son grand projet est de proposer le modèle d’une nouvelle organisation judiciaire et politique. Par nature, les individus conçoivent leur intérêt propre comme un rapport de plaisir et de peine (calcul hédoniste). Selon Bentham, le législateur doit penser les lois et l’organisation afin de maximiser le plaisir collectif.

Selon Bentham, le plaisir comporte 7 critères : l’intensité, la durée, la certitude, la proximité temporelle, l’étendue, la pureté, la fécondité. La morale correspond à une action qui remplit ces critères. Pour bien agir, il faut calculer la somme des plaisirs et des peines engendrés par l’action. La morale de Bentham correspond à une quantité de bonheur. La même action peut être morale ou immorale selon les circonstances. Une action sera d’autant plus morale que la quantité de bonheur qu’elle engendre par ses conséquences sera importante.

La nature du bonheur ne rentre pas en compte. Aucun jugement n’est fait sur ce qui constitue le plaisir des uns et des autres. En termes de quantité de bonheur, les deux sont équivalents.

L’éthique de la vertu

Pour la perspective de l’éthique de la vertu, nos choix sont guidés par le type de personne que nous souhaitons incarner : la personne cherche à se rapprocher de cet idéal de lui-même. La vertu désigne une disposition à faire le bien. L’intention de l’individu est primordiale. L’action morale provient d’une bonne intention et, en l’accomplissant, l’individu réalise une forme de l’idéal humain. Les vertus à incarner sont cohérentes avec une conception plus large du monde et de la place de l’Homme.

La notion de vertu chez Aristote

Selon Aristote, philosophe grec du IVème siècle avant JC, la notion de vertu est large, désignant une forme d’excellence, la meilleure façon possible de réaliser une tâche ou de remplir une fonction. Pour l’être humain, la vertu correspond au plein développement de ses capacités (courage, intelligence, ruse, force face à l’adversité…). La vertu désigne un idéal en soi.

Aristote ne propose pas une liste de vertus à incarner. La vertu correspond à des comportements du juste milieu, évitant les extrêmes. La vertu est une disposition acquise de la volonté, qui se pratique et fait l’objet d’efforts et d’un entrainement. Il n’existe pas de contenu ferme et définitif. Les valeurs comme le courage, la charité, la bienveillance sont positives et doivent être favorisées, mais pas nécessairement en toute circonstances et à n’importe quel prix (pas d’impératif). La vertu se pratique à juste propos. La notion de prudence est importante dans la morale d’Aristote.

Selon Aristote, la prudence (sagesse pratique) est une capacité de délibérer sur les circonstances particulières pour y appliquer au mieux les règles de la sagesse morale. Ceci entraine une certaine latitude par rapport à la règle quand la situation l’exige. L’art de l’homme prudent est d’évaluer la situation, d’évaluer le degré de latitude nécessaire sans jamais outrepasser ce qui est nécessaire et toujours rechercher la juste mesure. Seule une pratique constante développe en l’individu la juste prudence. La vertu n’est pas un trait de caractère mais une disposition de l’individu qui engage son intention, ses comportements, sa connaissance et sa conception du monde. La vertu correspond à un idéal vers lequel on s’efforce de tendre.

Un acte isolé ne prouve rien. C’est par des actions justes qu’on devient juste (règle de comportement). Nous sommes ce que nous faisons. A pratiquer sans cesse la justice, nous acquérons une nature juste. La pratique de la vertu est liée au bonheur vertueux, but ultime à atteindre (le Souverain Bien) selon Aristote.

 

II. Critiques des théories morales

Attaques et défenses du déontologisme

La controverse sur le droit de mentir eu lieu entre Immanuel Kant et Benjamin Constant au début du XIXème siècle.

Variations sur le droit de mentir

Kant se demande si dans l’embarras, je peux faire une promesse avec l’intention de ne pas la tenir. Parfois il est prudent de mentir. Personne ne peut dire si son mensonge aura des conséquences, positives ou négatives. Kant refuse la possibilité du mensonge : si je peux vouloir le mensonge, je ne peux vouloir une loi universelle qui commanderait de mentir. Cette loi se détruirait nécessairement. Le mensonge n’est pas universalisable. Je me contredis moi-même en mentant, car si je me permets de faire de fausses promesses, c’est que je m’attends à être cru en demandant à l’autre d’être honnête. Je fais une exception pour moi-même. Mon devoir est de ne jamais mentir.

Benjamin Constant (écrivain et homme politique français du XIII-XIXème siècle) considère que le principe de dire la vérité d’une manière absolue et isolée rendrait toute société impossible. Doit-on dire la vérité en toutes circonstances ? Le devoir absolu de ne pas mentir n’est pas toujours compatible avec notre ressenti dans certaines circonstances. Selon Constant, tout le monde n’a pas droit à la vérité.

Kant réaffirme l’interdiction absolue de mentir, donnant de nouvelles justifications : la signification et les conséquences du mensonge. Aucun contrat ne serait plus valide, notamment celui de vivre-ensemble : le contrat social. Un monde de mensonge se détruit lui-même. Mon devoir est de ne pas instancier ce monde en faisant pour moi-même une exception que je refuse aux autres.

Cela souligne la force et la faiblesse de la position déontologique : l’impératif de la règle. L’obéissance inconditionnelle à la loi morale est obligatoire dans la logique de l’ensemble. Sa faiblesse est qu’il arrive des cas où l’application de la règle morale entre en résistance avec nos jugements moraux spontanés.

Pluralisme des descriptions, pluralisme des valeurs

Les actions peuvent être décrites de plusieurs façons. Ce qui est mensonge peut aussi être un acte de protection avec un innocent menacé par des individus dangereux. Protéger la vie d’un innocent fait partie de mes devoirs (universalité). Une même action peut être décrite de plusieurs manières à la fois et de manières contradictoires. Si on cherche à trouver la meilleure solution possible, on est face à des conflits de description. Quelle description, quel devoir passe avant l’autre ? Une hiérarchie des valeurs est nécessaire.

Les conflits de devoir

Le conflit de devoirs nécessite de construire une hiérarchie des devoirs, soit de hiérarchiser les valeurs contenues. Ici le respect de la vie l’emporte sur le respect de la vérité.

La principale critique au déontologisme est l’absolutisme de sa logique interne.

Critiques et raffinement du conséquentialisme utilitariste

La morale de Mill et la qualité du bonheur

Selon John Stuart Mill, autre fondateur de l’utilitarisme, le plaisir n’est pas qu’une affaire de quantité et de calcul, mais que la qualité des plaisirs compte aussi. Mill part d’un constat empirique en demandant aux individus préfèrent conserver leur situation d’être humain, même non idéale. La quantité de plaisir n’est pas le critère ultime. Mill constate une attirance naturelle de l’homme pour les plaisirs de l’esprit (développement de ses facultés supérieures et de sa dignité d’homme). Tous les plaisirs ne sont pas équivalents : à quantité égale, il faut favoriser celui qui maximise les plaisirs supérieurs. Mill distingue bonheur et satisfaction. Les plaisirs supérieurs (de l’esprit) apportent le bonheur et les plaisirs inférieurs (du corps) n’apportent qu’une satisfaction passagère. Il n’est pas cohérent de les comptabiliser à égalité dans le calcul utilitariste.

Objections possibles à l’utilitarisme

Dans l’utilitarisme, aucune action ne peut être intrinsèquement mauvaise, ce qui heurte violemment notre morale spontanée. Comment justifier l’interdiction des actes monstrueux, s’ils entrainent le bonheur du plus grand nombre ? Cette réaction morale spontanée et quasi-universelle nous vient de règles strictes de ce qui se fait et de ce qui ne se fait pas, des règles déontologiques.

Maximiser le bien-être d’une communauté ne prend pas en compte la répartition des plaisirs. Un calcul globalement positif peut signifier que la quasi-moitié de la population se trouve dans une situation dramatique. L’utilitarisme conduit à justifier des écarts extrêmes entre les personnes et à justifier le sacrifice des minorités.

Bentham et Mill sont des utilitarismes hédonistes (le plaisir et la peine comme critère). D’autres valeurs de critère des jugements moraux peuvent être envisagés : la liberté, l’harmonie entre les hommes, le savoir, l’égalité.

Lors du calcul des conséquences, jusqu’où s’arrête les conséquences à prendre en compte ? Le calcul des utilités concerne les conséquences directes ou les conséquences de conséquences ? Les conséquences concrètes ou les effets psychologiques ? Du fait des complications extrêmes du calcul, l’utilitarisme est considéré comme un principe théorique qu’un réel critère moral de décisions.

Le calcul de l’utilité ne concerne que les êtres humains. Les valeurs morales des effets sur les animaux, sur l’environnement, sur les générations futures ne sont pas prises en compte.

Ces critiques ont permis de préciser et de limiter les critères de calcul de l’utilité commune :

  • Limiter l’évaluation des conséquences aux conséquences concrètes de l’acte (pas de prise en compte de l’effet sur la pensée des gens) ;
  • De limiter l’évaluation des conséquences aux conséquences directes de l’acte (les conséquences des conséquences sont trop incertaines) ;
  • De prendre en compte comme valeur à maximiser moins le bonheur que l’état du monde désiré par chaque personne (utilitarisme des préférences) ;
  • De prendre en compte l’ensemble des personnes et des êtres sensibles, vivants ou à naître (utilitarisme universel).

Le principal risque de conséquentialisme est qu’il se dilue complétement. C’est une théorie morale efficiente si elle est bien structurée.

L’utilitarisme de l’acte et l’utilitarisme de la règle

L’utilitarisme de Bentham est aussi appelé utilitarisme de l’acte ou utilitarisme direct car la moralité de chaque action individuelle se décide au cas par cas, en fonction de ses conséquences propres. Une même action n’a aucune valeur morale en soi.

L’utilitarisme de la règle ou utilitarisme indirect (Mill) considère qu’il n’est pas réaliste que chaque esprit, à chaque décision, se lance dans un calcul utilitariste compliqué et que personne ne doit réinventer des choses déjà faites. Il est possible de s’appuyer sur l’expérience des générations précédentes. Selon Mill, l’utilitarisme consiste en une évaluation des conséquences du fait d’accepter tel ou tel précepte de la morale ordinaire. Selon l’utilitarisme de la règle, le plus utile au bonheur du plus grand nombre est de poser une règle. Ce qu’on évalue correspond aux conséquences de l’adoption de la maxime instanciée par l’action. Une règle jugée utile pour l’ensemble de la société devient obligatoire quelles que soient les circonstances car elle est jugée nécessaire pour maximiser le bonheur collectif. L’utilitarisme se rapproche du déontologisme, la différence est leur justification.

Renouveau et critiques de l’éthique de la vertu

L’éthique de la vertu, centrale dans la Grèce antique, vive jusqu’au XVIIIème siècle, connut une phase d’oubli, jusqu’au XXème siècle avec la philosophe Gertrude Elizabeth Margaret Anscombe, philosophe anglaise.

Anscombe rejette à la fois la position déontologique kantienne et la position conséquentialisme utilitariste. Selon elle, ces deux positions sont cohérentes moralement du fait de leur référence aux fins et concepts de la tradition judéo-chrétienne. Notre société actuelle ayant perdu ces références, l’éthique doit être refondée en dépassant les notions de bien et de mal et en les remplaçant par les notions plus efficientes de juste et d’injuste. Le juste désigne une vertu.

Deux attaques principales de l’éthique de la vertu concernent le manque d’efficacité pratique et d’être relative.

La question « Que dois-je faire ? »

Selon les critiques, cette approche ne permet l’adoption d’aucun code éthique et ne guide pas l’action face aux difficultés. L’éthique de la vertu propose de s’efforcer à incarner un certain nombre de valeurs humaines (honnêteté, charité…) sans dire concrètement que faire.

L’éthique de la vertu ne se réalise pas en un jour, elle demande une forme d’entrainement, de développer une certaine sagesse pratique. Si réaliser l’honnêteté manque de consistance pour un individu face à une difficulté morale, il peut se demander plutôt quelles seraient les actions non morales. On obtient une série d’actions qu’il ne fait pas faire, sorte de garde-fous pour nous aider à trouver l’action juste.

La question de la relativité des valeurs

Selon les critiques, ce qui constitue une vertu est variable en fonction des cultures et des époques. Selon MacIntyre, philosophe anglais, l’éthique n’a aucune prétention à l’universalité. Il s’agit de déterminer ce qui est moralement requis dans la société où cette décision prend forme. La prétention à l’universalité rend certains débats éthiques interminables. Une décision éthique doit être prise en référence à une communauté et communautairement (objet d’une discussion et d’un consensus). La communauté tend alors collectivement vers un idéal d’elle-même en choisissant les valeurs qu’elle souhaite voir incarner (dimension politique de l’éthique).

 

III. Ethique et politique

De nombreuses questions passionnantes concernent l’éthique dans son rapport à la politique. La vivre-ensemble est basé sur une certaine conception de l’homme et de la justice, son rapport à l’éthique est central.

Le politique fondé sur des principes utilitaristes : Bentham

A la base de l’utilitarisme classique, Bentham entreprend une réflexion sur la réforme du droit, en se demandant comment et sur quoi fonder un système de lois. A son époque, le droit est fondé sur des concepts vides de sens (loi naturelle, droit naturel, loi de la raison). Ces concepts vides introduisent de l’arbitraire dans les lois et permettent au législateur de les rédiger en fonction de ses propres valeurs. Quel respect peuvent avoir les citoyens envers des lois qui ne sont que l’incarnation de valeurs subjectives et contestables. Le système actuel est une porte ouverte au despotisme et à l’anarchie.

Bentham considère qu’il faut repartir de l’homme lui-même. Pour Bentham, les individus cherchent leur propre intérêts et à augmenter leur bonheur en maximisant leurs plaisirs et en évitant les peines. Bentham se demande comment organiser les lois pour que chacun puisse poursuivre sa propre fin sans le faire au détriment des autres. Le législateur juste et impartial ne donne la priorité à aucun individu et a pour rôle de maximiser le bonheur collectif. Le projet de Bentham est dès l’origine une éthique politique.

Les individus ont le droit essentiel de poursuivre leur bonheur et le devoir essentiel de ne pas nuire au bonheur des autres. C’est une conception démocratique car chacun compte pour un. Ce principe de l’égale considération des intérêts considère que tous les intérêts se valent.

Les individus ne sont pas nécessairement altruistes et pas toujours disposés à renoncer à un plaisir pouvant nuire aux autres. Bentham défend la punition en cas de violation de la loi : la peine judiciaire encourue soit être suffisamment forte pour outrepasser le plaisir que le criminel trouve dans son crime. Le déplaisir du criminel est contrebalancé par un léger plaisir des autres citoyens qui constatent qu’un Etat de droits les protège. La punition est un mal se justifiant par ses effets bénéfiques.

Selon Mill, l’intervention de l’Etat  ne se justifie que pour empêcher les individus de nuire à autrui et ne va pas plus loin. L’Etat n’a aucune légitimité pour interdire ou sanctionner des actes ne causant aucun dommage et qui ne concerne que l’individu lui-même. L’Etat ne peut pas dicter la conduite de quelqu’un.

Mill introduit une position neuve de l’Etat pour l’époque : nous n’avons pas de devoirs envers nous-mêmes.

Le politique fondé sur des principes déontologistes : Rawls

Selon les théories déontologistes, le politique doit organiser la société en fonction d’un certain nombre de règles. Ces règles sont reconnues par les individus qui acceptent de s’y soumettre, reconnaissant le bien fondé et la nécessité. La morale déontologique est fondée sur le vivre-ensemble du contrat social.

Rawls, philosophe américain (XXème siècle), propose en 1971 un contrat social revisité : il propose une nouvelle fondation de la justice sociale qui tienne compte des inégalités. Dès l’origine du contrat social, les fondations d’une organisation sociale juste sont posées pour recevoir l’approbation de tous les partenaires.

La coopération sociale permet à chacun de vivre mieux en société que s’il était resté dans l’état de nature. Si ce n’est pas le cas, il n’a aucune raison de vouloir entrer en coopération. Le prérequis de la justice est que l’entrée en société se fasse au bénéfice de tous. Chacun aimerait pouvoir tirer avantage de la coopération, sans avoir les inconvénients, ce qui n’est pas réaliste. L’entrée en société s’accompagne inévitablement de contraintes. Les individus doivent s’entendre sur une répartition juste des bénéfices de la coopération.

La négociation va permettre de déterminer la forme de l’organisation sociale. Deux présupposés sont essentiels : les négociateurs ont un sens de la justice (donner des principes de justice, s’obliger à y obéir et se montrer responsables) et peuvent adopter le point de vue de la raison (conception Kantienne de la personne autonome).

Rawls imagine un dispositif ingénieux pour que chaque individu négocie de façon impartiale. Les thèmes de négociations sont : les libertés de base, les libertés de choix et de mouvements ne matière d’emploi, les pouvoirs et les prérogatives associées à chaque emploi, le revenu, les bases sociales du respect de soi. Ce sont les biens sociaux premiers. Rawls imagine que les négociateurs ignorent quelle position ils vont avoir dans la société : les individus sont placés sous un voile d’ignorance. Ainsi émergera l’organisation sociale la plus juste selon Rawls, lorsque les individus négocient dans une parfaite égalité morale. Ainsi les positions les plus défavorisées restent supérieures à l’état de nature. Sous le voile de l’ignorance, les négociateurs voudront pour se protéger se doter de droits inaliénables.

Ils doivent s’entendre sur la redistribution des richesses produites. Selon Rawls l’égalité parfaite n’est pas possible, car elle n’incite pas à l’effort et à l’esprit d’entreprise et n’est donc pas bénéfique à l’ensemble de la société. Les inégalités seront acceptées si elles sont au bénéfice de tout le monde. Deux principes de justice sont : le principe d’égalité des chances (même chances d’accès aux fonctions qui procurent des avantages) et le principe de différences (tolérance des différences de richesses si elle permet d’améliorer la position des plus désavantagés).

La justice de Rawls est une justice comme équité : une justice de l’égal traitement plutôt qu’une justice de l’égalité stricte.

Rawls considère un ordre de priorité dans les principes de justices : les biens premiers sociaux (libertés et droits fondamentaux) forment le socle de la justice social et ne peuvent être remis en cause par les principes suivants.

Le politique fondé sur des principes de l’éthique de la vertu : Sen

Amartya Sen, économiste et philosophe bengali du XXème siècle, critique l’utilitarisme car il ne conçoit pas le bien-être en termes de bonheur, mais en termes de liberté. Par exemple, les femmes indiennes n’expriment pas de désir d’avoir plus de libertés. Un utilitariste conclurait qu’elles sont satisfaites et que leur bonheur est complet. Pour Sen, cette absence de désir de changement ne rend pas leur situation plus acceptable moralement, parce que leur capacité de choix de vie bonne est restreinte. Leur situation est injuste par rapport à celle des hommes à qui tous les choix sont offerts, car elles n’ont pas la possibilité de choisir pour elles-mêmes. Le bien-être est défini chez Sen de façon objective.

Selon Sen, la liberté est représentée par les capabilités : possibilités pour un individu de choisir entre diverses combinaisons de fonctionnements (ce que la personne peut faire à partir de ce qu’elle possède). Choisir un mode de vie dépend autant des ressources internes personnelles que de l’environnement social. Les capabilités désignent les possibilités réellement à la portée des individus en fonction de ces deux critères, et expriment ainsi une liberté effective.

Selon Sen, l’égalité des droits fondamentaux ou des revenus n’est pas suffisante pour que deux personnes jouissent de la même liberté. Le droit seul ne fournit rien si l’individu ne peut exercer ce droit. La société juste doit s’assurer que les individus jouissent d’une liberté effective égale à accomplir certains actes. Par exemple, la pauvreté est moins un manque de revenu, qu’un manque de capabilités.

L’éthique sociale consiste à égaliser les capabilités de base des individus. Le développement consiste à élargir les capabilités de tous et donc les libertés de choisir pour soi un mode de vie. Cela entraine des obligations concrètes pour l’Etat : évaluer la pauvreté de façon juste en termes de capacité des individus à convertir ces revenus en libertés effectives et fournir aux individus un environnement social dans lequel ils puissent exercer leur liberté effective (notamment éducation et santé).

L’Etat doit garantir les conditions d’une vie réussie. L’éthique sociale de Sen est centrée sur la réalisation des potentiels humains dans un certain épanouissement de soi.

Martha Nussbaum, philosophe américaine, distingue 10 capabilités centrales permettent de pouvoir vivre une vie humaine digne : la vie, la santé du corps, l’intégrité du corps, le développement de la pensée, les émotions (ne pas être contraint par la peur ou l’angoisse), la participation à la réflexion sur l’organisation de sa propre vie, les affiliations, le contact avec la nature, le jeu et le contrôle de son environnement. Le respect pour la dignité humaine exige que les citoyens soient placés au-dessus d’un certain seuil de capabilités.

Les individus choisissent en fonction de leur conception de la vie bonne, lesquelles de ces capabilités ils vont choisir de développer. Les 10 capabilités de base deviennent des objectifs politiques. Ces capabilités centrales fonctionnent comme des droits, justifiés par la justice sociale.

 

IV. Ethique médicale et bioéthique

Les expressions « éthique médicale » et « bioéthique » sont équivalentes. Par habitude, l’éthique médicale rassemble les questions d’éthiques dans la relation du professionnel de santé avec la personne qu’il soigne et la bioéthique rassemble les questions sur la manipulation du vivant. En 2011, la Charte européenne d’éthique médicale, sorte de code déontologique, désigne les règles de comportement et de pratique des médecins européens.

Les limites éthiques des théories éthiques

L’utilitarisme à l’épreuve du champ médical

Selon ce point de vue, à chaque occasion de soin, il faut évaluer s’il vaut mieux soigner cette personne ou pas en fonction des conséquences sociales attendues : chaque vie humaine est évaluée selon son intérêt collectif. L’utilitarisme de l’acte amène à des conclusions problématiques.

La façon dont nous traitons les personnes affaiblies est au cœur de la relation médicale : la nature et la force du lien social, notre conception de l’homme cristallisée dans la notion de dignité humaine. La dignité humaine désigne la place particulière que l’homme estime avoir dans la création. L’homme est le seul animal doué de raison et capable de liberté et de responsabilité. Cela se traduirait dans le champ médical par un respect dû à chaque personne humaine et une défense sans condition de la vie.

La notion de dignité humaine devrait être le point butoir de toute théorie éthique. Ceci peut être remis en question car le concept de dignité humaine est loin d’être parfaitement limpide. Toute utilisation éthique de la notion de dignité humaine demande donc de clarifier ce qu’on englobe sous le terme et les droits qu’on y attache.

Le déontologisme à l’épreuve de la bioéthique

Les progrès de la médecine et de la technologie médicale ont entrainé de nouvelles questions pour l’homme. Face à une question d’autolimitation de notre pouvoir technologique pour des questions morales, la difficulté est d’identifier réellement des devoirs. Il est difficile de donner une réponse déontologique, sans passer par l’examen des conséquences de l’autorisation ou de l’interdiction de certaines pratiques. L’injonction de Kant de traiter autrui toujours comme une fin et jamais uniquement comme un moyen n’aide pas, ni le passage à l’universalisation de la maxime de mon action pour en tester la moralité. Le déontologisme nous demande de respecter une limitation une fois posée, mais ne nous aide pas beaucoup à poser cette limitation. Les questions de bioéthique mettent en jeu nos devoirs et notre moralité et mobilisent aussi la définition de l’homme par lui-même et le type de société qui le définit.

Penser l’éthique autrement : « l’éthique du Care »

La théorie du développement moral de Kohlberg

Lawrence Kohlberg, psychologie américain (XXème siècle), a construit une théorie du développement moral par stades. Il propose divers dilemmes moraux à des enfants de différents âges et s’intéresse à la justification de leur résolution.

La critique de Carol Gilligan

Carol Gilligan observe une difficulté du modèle du développement moral de Kohlberg : son échelle entraine la conclusion que les femmes sont moins matures moralement que les hommes. Avec deux enfants de 11 ans, de même niveau d’éducation et d’intelligence, la vision du monde est différente. Pour lui, le dilemme s’apparente à un problème de logique alors que pour elle, il s’agit d’un problème relationnel. Leur pensée morale est simplement différente. Kohlberg n’a testé que des enfants mâles et a laissé échapper tout un aspect de la moralité.

Le cœur de l’éthique du care est basé sur la dépendance des uns aux autres et le maintien de la relation lorsque les avis sont divergents, ce qui représente un enjeu moral, comme la justice. Carol Gilligan met en doute la possibilité pour une théorie morale, d’atteindre à l’universalité et à l’objectivité, car il y aura toujours une voix différente.

L’éthique du Care

L’éthique du care désigne une éthique du besoin. La vulnérabilité de l’autre pouvant aller jusqu’à une réelle dépendance physique ou psychologique, crée une responsabilité chez ceux qui seraient plus autonomes. Là où il y a un besoin, un soin doit être apporté. Le mal moral correspond à la souffrance d’autrui à laquelle on ne répond pas et l’abandon d’autrui. L’éthique du care est une éthique du soin avec au cœur le maintien de la relation. Historiquement l’éthique du care a été perçue comme une éthique féminine.

L’éthique du care repose sur le développement de dispositions morales. L’action éthique est de répondre toujours aux demandes avec la même sollicitude pour le bien de la personne affaiblie. Un effort sur soi, le développement progressif de dispositions est nécessaire.

Selon Joan C. Tronto, philosophe américaine, le Care se définit comme une activité caractéristique de l’espèce humaine qui a pour but de maintenir, de perpétuer et de répare notre monde, afin que nous puissions y vivre aussi bien que possible. Ce monde rassemble nos corps, nos personnes et notre environnement, liés ensemble dans le réseau complexe qui soutient la vie.

Le bon Care comprend 4 étapes :

  • Le caring about: soucis de l’autre ou forme d’attention pour identifier chez l’autre un besoin spécifique ;
  • Le tacking care of: volonté de répondre à ce besoin de façon appropriée et de se sentir responsable ;
  • Le care giving: s’occuper concrètement de la personne, demandant une certaine compétence ;
  • Le care receiving: vérifier auprès de la personne que le soin est bien approprié au besoin. Le donneur doit avoir une certaine réceptivité pour capter et interpréter les signes de retour.

L’éthique du Care commence par une écoute : être capable de percevoir un besoin, de l’identifier, d’en évaluer l’intensité, de savoir ce qu’il faut faire pour répondre à ce besoin et comment s’y prendre, arbitrer éventuellement entre des besoins prioritaires.

 

Conclusion

Il existe une parenté entre l’éthique du Care et l’éthique de la vertu : ce sont des éthiques du contexte, de la pratique et de l’effort constant vers l’amélioration. L’éthique du care est centrée sur la vulnérabilité de l’autre alors que l’éthique de la vertu est centrée sur le développement de qualités vertueuses et sur l’accomplissement de soi.

Avec le déontologisme, rien n’empêche que des attitudes et intentions relavant du soin et de la sollicitude puissent être adoptées comme lois universelles. Cependant déontologisme et éthique du care ne parlent pas le même langage (lois et droits versus affection et sollicitude). Mais ces deux façons d’envisager une situation ne sont pas incompatibles. L’éthique du care (pas une éthique de principes) peut être intégrée au sein d’un autre point de vue éthique.

Au niveau individuel, l’éthique du care propose une nouvelle façon d’aborder une situation. L’éthique du care place au centre nos responsabilités collectives envers les personnes fragiles ou dépendantes et demande de repenser les politiques publiques afin d’intégrer les valeurs du care à la démocratie. La lutte concerne la souffrance et la solitude, une meilleure répartition des activités de soin, une meilleure reconnaissance publique de ces activités, une meilleure intégration des personnes dépendantes, souvent relégués à une place subalterne dans la démocratie. L’éthique du care propose une autre vision de la citoyenneté.

 

V. Ethique animale

L’éthique animale concerne les questions sur le traitement, l’utilisation, la reproduction ou la protection des animaux. Dans l’histoire de la philosophie, les animaux tiennent une place très marginale. Empédocle et Pythagore défendaient le végétarisme, Aristote se demandait s’il y avait entre les animaux et les humains une différence de degré ou de nature et Descartes considérait l’animal comme une machine. A la fin du XIXème siècle, l’avancée des connaissances scientifiques et des publications comme celle de Darwin sur l’origine des espèces a permis la prise en considération des animaux. L’éthique animale s’est développé dans les années 1970 avec la parution du livre « Animal Liberation » de Peter Singer.

L’éthique animale concerne des questions variées sur le végétarisme, la corrida, l’expérimentation animale, les droits des animaux, notre devoir de protection envers les espèces, le travail des animaux, la production des animaux de compagnie… La question préalable est de se demander quels animaux sont concernés par l’éthique animale.

Position de l’utilitarisme et du déontologisme classiques

Bentham et Mill

Une théorie éthique seule ne dit rien : tout dépend des présupposés sur lesquels repose son utilisation. Selon Bentham, la question est de savoir si les animaux peuvent souffrir. Bentham prend en compte l’animal dans le calcul des plaisirs et des peines causées, que dans les questions où sa sensibilité est impliquée. Cette communauté d’intérêts entre l’homme et l’animal est fondée sur la définition d’êtres sensibles (susceptibles de plaisirs et de peines). Selon Mill, tout acte causant davantage de peine aux animaux qu’elle ne donne de plaisir aux hommes est immoral. Le plaisir de l’homme ne vaut ni plus ni moins que le plaisir de l’animal (aucune priorité de principe).

Kant

Selon Kant, nous n’avons pas de devoirs envers les animaux car ils ne font pas partie de la communauté humaine. Kant considère l’existence d’une véritable séparation entre l’homme et l’animal, fondée sur le fait que l’homme est capable de raison et donc de liberté et de responsabilité. L’être humain possède une dignité particulière et une supériorité par rapport à l’animal. Selon Kant, il existe une différence de nature entre les deux.

L’impératif catégorique est « agis de telle sorte que tu traites l’humanité aussi bien dans ta personne que dans la personne de tout autre toujours en même temps comme une fin, et jamais simplement comme un moyen ». L’impératif catégorique ne concerne pas l’animal du fait qu’il ne partage par la dignité de l’humanité. Ainsi l’homme peut user de l’animal comme d’un moyen.

Cependant, il existe des devoirs dérivés : ainsi bien traiter un animal, c’est faire preuve de retenue, de bonté, de commisération et donc c’est se comporter de façon humaine. Je respecte l’humanité en moi en respectant l’animal, mais je le fais pour moi et non pour lui. Le champ de devoirs ne s’applique qu’à l’homme et ne concerne que l’homme.

Le spécisme

L’application d’une théorie éthique repose sur ses présupposés. Dans les questions d’éthique animale, les présupposés concernent les différents points de vue du spécisme. Le spécisme désigne une préférence de principe à sa propre espèce, l’homme. Le spécisme considère qu’en vertu d’une différence de nature fondant une supériorité morale, il est moralement justifié de donner la préférence à sa propre espèce. Kant serait spéciste, alors que Bentham et Mill non.

Les positions contemporaines

Singer et l’utilitarisme des préférences

Selon l’utilitarisme des préférences (Hare et Singer), la valeur fondamentale à maximiser est la satisfaction des préférences des individus. Avec le bonheur comme critère central du calcul, on ne tient pas compte des choix des individus.

La quasi-totalité des personnes choisisse une vie imparfaite et réelle à un bonheur maximal sous illusion. Ainsi le bonheur n’est donc pas le but ultime de la vie pour la majorité des gens. Selon Hare et Singer, être le plus heureux possible n’est pas toujours la priorité et les personnes refusent de sacrifier d’autres valeurs à leur bonheur : leur liberté, l’intérêt de leurs proches, l’avenir de leur pays… Il faut laisser les individus libres de leur choix et maximiser la satisfaction des préférences de chacun.

L’utilitarisme des préférences considère de maximiser la possibilité de réalisation pour chacun des préférences qui le concernent. L’intérêt de cette approche est le respect de la diversité, sans présupposer ou imposer une vision unique de l’être humain. Sa faiblesse est le respect à égalité toutes les préférences, ce qui signifie qu’on peut être complice de préférences contreproductives collectivement, voir masochistes.

Peter Singer se base sur l’utilitarisme des préférences dans les questions éthiques animales. L’être humain et la souris sont des êtres sensibles qui ont la même préférence de ne pas souffrir. Alors faire souffrir l’un est aussi grave que faire souffrir l’autre. Par contre, la préférence à ne pas être tués n’est pas la même. La souris ne forme aucun projet de vie et n’a aucune notion de la mort, alors que l’être humain fait des projets et est intégré à un réseau de relations sociales et peut se représenter la perte et la douleur engendrées par sa mort. Ainsi il est bien plus grave de tuer un être humain que de tuer une souris.

Singer défend l’expérimentation sur l’animal qu’à condition que ce soit l’unique façon d’empêcher des souffrances supérieures. Manger de la viande est éthique si l’animal peut vivre sa vie d’animal et soit abattu sans aucune souffrance.

Singer arrive à des positions polémiques : nous devons sauver la vie d’un être humain face à celle d’un autre animal, sauf si l’être humain en question ne possède pas les capacités d’un être humain normal. Singer et Hare universalisent leur approche éthique sans faire d’exception spéciste, ce qui tend vers le déontologisme.

Le déontologisme radical

Certains déontologistes (dont Tom Regan, philosophe américain) ne maintiennent pas la distinction de nature que Kant faite entre l’homme et l’animal. Ils refusent toute exploitation animale en vertu de l’impératif catégorique du respect de la vie : tu ne tueras point, qui selon eux concerne aussi les animaux. L’animal a des droits : droits à la vie, à ne pas être maltraité, à vivre sa vie d’animal librement… respecter ces droits est un devoir moral pour l’homme. Ce sont des devoirs directs envers l’animal.

Ceci entraine l’abolition de toute pratique exploitant et maltraitant des animaux : vivisection, alimentation, jeux, cirques… Selon Regan, les animaux ont une valeur inhérente (intrinsèque) comme l’homme. Doit-on respecter toute forme de vie ? Certains moines jaïnistes se sont laissé mourir afin de respecter leur vœu absolu de non-violence. Le respect absolu de toute forme de vie semble paradoxalement incompatible avec la vie.

Ainsi au sein d’un déontologisme strict imposant le respect de la vie animale, la question se pose de savoir si tous les animaux sont concernés par cet impératif. La difficulté est de poser une limite, avec des critères. Regan propose de respecter les animaux qui sont « sujet d’une vie », c’est-à-dire sujets d’expériences, de souvenirs, de croyances, de désirs. La limite n’en reste pas moins floue. Regan propose de laisser la question ouverte aussi longtemps que la science ignorera tout de l’existence ou de l’absence de vie intérieure chez ces animaux.

L’éthique du Care

L’éthique du Care est fondée sur la vulnérabilité. La vulnérabilité de l’animal ne fait aucun doute : naissances dans les unités de productions, libertés restreintes, comportements naturels réprimés, habitat menacé pour les animaux sauvages. Tous les animaux pris individuellement et la nature entière sont vulnérables. Du fait du pouvoir de vie et de mort que nous avons sur eux, nous avons la responsabilité de les protéger. Notre moralité réside dans notre capacité d’empathie avec l’animal qui souffre.

Selon Luke, il existe un véritable consensus social, entretenu par les entreprises, les institutions et les particuliers tirant profit de l’exploitation animale, pour réfréner la sympathie naturelle des êtres humains envers les animaux et éviter ainsi qu’une éthique du Care ne se mette en place (informations rares, partielles et édulcorées sur le traitement des animaux, présentation marketing, livres d’enfants avec des animaux de ferme joyeux et bucoliques). Tout un système participe à réfréner une éthique du care pourtant naturelle.

L’approche par les capabilités

Martha Naussbam reprend les 10 capabilités centrales pour les appliquer aux animaux. Ainsi elle attribue les mêmes besoins aux animaux qu’aux humains de développer proportionnellement leurs aptitudes afin de vivre la vie qui leur correspond.

Concrètement, cela concerne l’interdiction de les tuer pour des raisons futiles ou de les maltraiter, l’instauration des lois de responsabilité des propriétaires d’animaux de compagnie, le refus les chirurgies esthétiques, le refus de placer les animaux en état de stress, de peur ou en position de s’ennuyer, le respect de l’habitat naturel des animaux sauvages et le fait de recevoir un minimum d’éducation de leur mère.

La notion d’espèces est un critère pour évaluer les capabilités de chacune : ainsi être épanoui pour une espèce indique comment traiter éthiquement un animal particulier.

La morale ordinaire

Cette approche consiste à refuser tout point de vue éthique reposant sur des principes rationnels et construits pour revenir à la valeur de notre réaction spontanée et de notre morale ordinaire. Sans avoir besoin d’y réfléchir, nous savons qu’il est mal d’imposer gratuitement un mal évitable. Les souffrances que nous imposons aux animaux sont gratuites et évitables et donc immorales.

L’approche de la morale ordinaire nous ramène à notre morale spontanée et naturelle. Dans les situations souvent problématiques, cette approche n’est pas d’un grand secours. Cela annule ce qui fait l’éthique : la construction d’une solution solidement justifiée à une difficulté morale.

 

VI. Annexes

La doctrine du double effet

Le principe du double effet consiste à distinguer les effets d’une action voulus pour eux-mêmes et les effets non désirés mais nécessairement concomitants. Une action est moralement acceptable dans certains cas, si ses effets négatifs sont les effets collatéraux obligatoires d’effets positifs. Cela comporte quatre critères : l’action doit être moralement bonne ou neutre, l’individu ne doit pas souhaiter l’effet négatif pour lui-même, les effets doivent être simultanés et suivre directement l’action et l’effet positif doit apporter plus de bien que l’effet négatif n’apporte de mal. Selon la doctrine du double effet, les actes reçoivent leur valeur morale d’abord de l’intention qui y a présidé (argument déontologique). Certains philosophes ont dénoncé l’opposition entre conséquences voulues et conséquences prévues, au cœur du principe de double effet. Anscombe soutient que les deux font partie de l’intention et qu’il serait bien hypocrite de déclarer comme non-intentionnel ce que l’on sait arriver par notre fait. Le principe de double effet ne propose qu’une autre description de l’action.

Prise en compte du cadre implicite

En décalant son point de vue, on peut poser deux modèles de société qui seraient comme les deux modèles extrêmes d’un continuum, chaque société réelle, à un moment t de son histoire, se plaçant quelque part entre ces deux extrêmes. Cela met à jour le cadre conceptuel d’une question. Lorsque l’adoption d’une loi provoque des débats, c’est qu’elle engage implicitement l’idée que se fait chacun de la société. Il est important de se poser la question de son arrière-fond implicite. Cela permet de mieux comprendre le point de vue de l’autre, mais aussi de vérifier la cohérence de sa propre position et pour éventuellement faire le tri dans les arguments en fonction du cadre que l’on souhaite soutenir. Une différence de cadre pour les solutions peut soulever la question du cadre le plus pertinent (plus solide, celui à favoriser pour des questions culturelles ou autres).

La théorie des jeux

Dans la théorie des jeux, il s’agit de prendre une décision plus ou moins rationnement en évaluant des probabilités et des pourcentages. Ceci relève d’une gestion du risque et d’un pari sur l’avenir.

Priorité de l’éthique professionnelle sur l’éthique générale

Licence 2, Psychologie cognitive

Compréhension & raisonnement

Les activités mentales sont des activités cognitives situées entre les activités sensorielles et les activités de programmation de l’action. Les activités mentales permettent de construire une interprétation de la situation et d’élaborer de nouvelles connaissances et de prendre des décisions d’actions. Il existe 3 catégories : la compréhension (construire une interprétation de la situation cohérente avec la tâche courante), le raisonnement (élaborer de nouvelles informations) et les mécanismes de contrôle de l’activité. Les activités mentales visent l’apprentissage, la compréhension et le raisonnement (connaissance ou action).

 

I. Comprendre

  1. La construction d’une représentation

Comprendre signifie construire une interprétation d’une situation ou d’un texte. La compréhension est une composante de toutes les activités finalisées. Dans l’apprentissage, la compréhension constitue le contenu stocké en mémoire à long terme. La compréhension intervient aussi dans le raisonnement avec la construction de l’interprétation des prémisses ou des connecteurs ou dans les activités de résolution de problèmes avec la construction de l’interprétation de la situation.

  1. Construction de l’interprétation d’un texte

Comprendre un texte correspond à construire une représentation de ce que dit le texte. La nature de la représentation et les mécanismes mis en œuvre dépendent de la finalité de la lecture et des connaissances du sujet. On peut lire un texte pour prendre connaissance de son contenu, pour accroitre nos connaissances ou pour savoir comment agir dans une situation particulière. Les mécanismes de la construction de la représentation forment trois catégories :

  • La particularisation d’un schéma (structures de connaissances de type schématiques) ;
  • La construction d’une structure conceptuelle d’interprétation (réseau propositionnel de relations entre les différents éléments du texte) ;
  • La particularisation de la représentation d’une situation à l’aide d’un modèle situationnel (représentation extrêmement détaillée, de nature imagée, appelé modèles mentaux ou modèles situationnels).

La particularisation d’un schéma

Un texte correspond à une structure d’ensemble qui constitue un schéma général. Cette structure est stockée en mémoire à long terme et constitue la trame sur laquelle s’appuyer pour comprendre un récit.

Bartlett (1932) propose la notion de schéma pour désigner la structure canonique du récit. Le texte rappelé par les personnes est beaucoup plus simple que le texte original, certains détails supprimés et des informations ajoutées. La reconstruction du récit par les individus tend à suivre une trame générale. Ce schéma relève d’une organisation générale du récit ou relève de l’expérience passée de la personne. Les confusions avec les connaissances préalables concernent davantage la version « Hitler » du texte et les confusions sont plus importantes si l’intervalle entre la lecture et la reconnaissance est grand. Les connaissances des individus influencent la représentation construite à partir du texte et certaines propositions sont supprimées, ajoutées ou modifiées par ces connaissances. Les informations concernant le thème du récit sont plus souvent rappelées et sujettes à moins de confusions que les autres informations, ce qui signifie qu’il existe une hiérarchie des propositions du texte.

L’impact du niveau hiérarchique des propositions a été étudié dans la mémorisation et le rappel d’un texte. La fréquence de rappel diminue lors que le délai augmente. Les éléments les plus hauts dans la hiérarchie sont rappelés plus facilement. Les informations contenues dans le texte n’ont pas toutes la même importance. La compréhension d’un texte de récit s’appuierait sur un schéma général représentant la structure générique d’un récit avec :

  • L’exposition (personnages, lieu, temps du récit, circonstances) ;
  • Le thème (but des personnages, évènements ou états de ce but) ;
  • L’intrigue (plusieurs épisodes se décomposant sur le même schéma que le récit global) ;
  • Le résultat (évènement ou état correspondant à l’atteinte ou non du but initial).

La grammaire de récits désigne cette manière d’analyser le récit avec l’hypothèse que les individus possèdent dans leurs connaissances un schéma général du récit. Plus la structure du récit s’éloigne de l’ordre canonique des énoncés, plus la performance au rappel se trouve affectée. La performance au rappel dans l’ordre initial est moins importante que la performance au rappel respectant une structure correcte du récit. La structure du récit affecte bien la mémorisation, mais les individus sont capables de reconstituer cette structure.

La différence de performance entre les différentes versions s’explique par la charge mentale. Lors de récit divergents de la structure canonique, l’individu doit construire une représentation des énoncées et les réorganiser en mémoire de travail. Ainsi il y a plus de traitements que le récit s’éloigne du schéma canonique. Les limites de la mémoire de travail serait plus vite dépassées que le récit diverge du schéma.

La théorie de la grammaire de récits postule l’existence d’une structure canonique. Un script est un schéma exprimant la structure générale d’une classe d’actions ou d’évènements. Comprendre un script c’est remplacer les variables du schéma par les éléments particuliers correspondant à la situation courante (particularisation des variables du schéma). La structure du récit s’interprète comme un script très général. Les scripts ont trois fonctions :

  • Interpréter les éléments du texte en leur affectant une place dans le script;
  • Faire des inférences sur les informations manquantes;
  • Résumer le texte en intégrant les informations dans une signification plus générale.

La réalité psychologique des scripts se rapportent à trois types d’arguments empiriques.

  • Les scripts constituent des connaissances relativement stéréotypées en mémoire: les éléments les plus importants du script (cœur du script) sont cités plus fréquemment que les autres.
  • Si un script est utilisés dans la compréhension d’un texte, alors les principaux éléments appartenant au script et absent du texte s’immiscent dans la représentation construite par le lecteur. Les fausses reconnaissances sont plus nombreuses pour les phrases faisant partie du script avec un degré de certitude significativement plus élevé.
  • Les scripts décrivent des évènements familiers et banaux, par contre les évènements remarquables qui dévient du script sont mieux retenus car plus saillants. Ces évènements sont des obstacles à la réalisation du but décrit dans le script. Ils constituent les rebondissements les plus intéressants des récits.

Les scripts permettent d’interpréter les éléments du texte qui en font partie, mais aussi de mettre l’accent sur les éléments n’appartenant pas au script. La particularisation d’un schéma ou d’un script suppose que les relations composant les schémas sont préconstruites et stockées en mémoire.

La construction d’une structure conceptuelle

Il n’existe pas toujours un schéma ou un script. Dans ce cas, les relations entre les différents éléments d’un texte doivent être construites au fur et à mesure de la lecture. La compréhension du texte relève d’un calcul propositionnel et la représentation du texte résultante est une structure conceptuelle qui résume les principales idées du texte et leur relation.

Le modèle de Kintsch (1994) rend compte de la construction de ce type de représentation. L’unité de sens est la proposition correspondant à une structure prédicative (relation entre un prédicat et un argument). Dans ce modèle, le processus de construction de la représentation d’un texte se fait à trois niveaux :

  1. Niveau lexico-prédicatif. Les significations des mots sont activées et les propositions sont construites en mémoire de travail. Cela aboutit à la construction de la base propositionnelle ou microstructure (liste des propositions composant la phrase). La notion de hiérarchie des propositions de Turner et Green (1977) rend compte de l’existence de certaines propositions indispensables à la compréhension du texte et d’autres subordonnées. Les propositions les plus importantes introduisent de nouveaux arguments et les propositions les moins importantes complètent les premières.
  2. Niveau de la cohérence locale. Cela correspond à la mise en relation des propositions entre elles qui aboutit à la construction d’un réseau propositionnel. Ce réseau comprend les différents niveaux d’importance des propositions et des relations sur la base du partage d’arguments. Dans le cas d’un texte long, il n’est pas possible de conserver toutes les propositions en mémoire de travail. Dans le modèle de Kintsch, la compréhension d’un texte se compose de cycles de traitement. A chaque cycle, une dizaine de propositions sont traitées (1 ou 2 phrases). A la fin de chaque cycle, seules les propositions les plus importantes sont conservées en mémoire de travail pour être intégrées à la base propositionnelle du cycle suivant, ce qui détermine la cohérence du texte et la facilité de lecture. Lorsque les relations entre les propositions manquent, des mécanismes inférentiels peuvent réparer cette insuffisance en ajoutant des propositions nouvelles permettant d’assurer la cohérence interphrasique de la représentation du texte. La probabilité de rappel d’une proposition dépend de sa position hiérarchique dans le réseau propositionnel.
  3. Niveau de la construction de la représentation globale du texte. Pour les textes très long, il existe trois mécanismes d’organisation et de réduction de l’information, exprimés sous forme de règles. Ils maintiennent la quantité d’information à traiter dans des limites raisonnables pour la mémoire de travail : suppression des propositions non nécessaires à l’interprétation d’une autre proposition, généralisation d’un ensemble de propositions en une proposition globale les représentant et la construction d’une nouvelle proposition dénotant un fait global dont les propositions du texte sont des conditions, des constituants ou des conséquences habituels.

Le résultat de ces processus est la construction d’un réseau propositionnel ou macrostructure, exprimant les relations entre les propositions les plus importantes et les plus générales. Les propositions hiérarchiquement plus importantes sont conservées dans la macrostructure lors de résumé d’une histoire. La construction de la macrostructure dépend de la base propositionnelle et des connaissances du sujet, notamment relatives à la structure canonique des textes. La macrostructure est élaborée en cours de lecture.

Les modèles de situation

Dans certains cas, la composante imagée peut avoir une importance capitale dans la construction de la représentation du texte. Des bases propositionnelles très proches conduisent à des représentations très différentes. La construction de l’interprétation d’un texte repose sur de nombreuses connaissances des sujets à propos des entités et évènements du texte. Dans le cas de descriptions spatiales, la composante imagée tient une grande place.

Le modèle de situation de Dijk et Kintsch (1983) correspond au modèle mental de Johnson-Laird (1983). Les modèles de situation sont des représentations hybrides comportant des composantes imagées et des composantes propositionnelles et possédant des propriétés les distinguant des représentations propositionnelles. Selon Dijk et Kintsch (1983), la construction d’un modèle de situation constitue un niveau superordonné de compréhension par rapport à la construction de la macrostructure. La macrostructure correspond à une représentation globale des données textuelles et le modèle de situation correspond à l’intégration des connaissances du sujet à la représentation fournie par la macrostructure.

La technique du mot sonde permet d’explorer la représentation construite à différents moments de la lecture. Lorsque l’objet (mot sonde) est situé dans la même pièce que le personnage au moment de l’interruption, le temps de réponse est plus court. Le modèle de situation permet une anticipation (focalisation sur l’objet avant qu’il ne soit évoqué dans le texte). Les relations spatiales ne sont pas les seules à intervenir dans un modèle de situation. Les modèles de situation permettent la gestion simultanée de plusieurs dimensions. Le temps de lecture est plus long lors de rupture.

Les modèles situationnels offre une représentation dynamique de la situation. À partir de cette représentation, des inférences et des mises à jour des informations contenus dans la représentation en fonction des informations nouvelles peuvent être faites. Ce processus de mise à jour n’est pas automatique. La mise à jour dépend de la production par le sujet lui-même des informations modifiant le modèle de situation. Une cause initialement suggérée continue d’influencer les réponses des individus. Des explications alternatives ne permettent pas de réviser le modèle de situation construit initialement. L’interprétation du but et du résultat de l’action est obligatoire. La révision du modèle de situation dépend du but de la lecture.

  1. Mécanismes inférentiels au cours de la lecture d’un texte

Le texte ne comporte pas la totalité de l’information sur la situation décrite. Certaines informations sont omises, volontairement ou non. Le lecteur doit alors les rétablir au moment de la lecture. Cependant faire toutes les inférences possibles est trop couteux au niveau cognitif. Les inférences dépendent de l’objectif de la lecture. Les inférences nécessaires à la cohérence de la représentation du texte se font automatiquement. Les inférences non nécessaire à la compréhension sont déclenchées volontairement par le lecteur (inférences contrôlées).

Au niveau de compréhension local, les inférences permettent d’assurer la liaison interphrasique et l’enrichissement de la base propositionnelle. Au niveau de compréhension global, les inférences participent à la construction de la macrostructure.

Les inférences « retour » ont un traitement orienté vers des informations fournies précédemment. Les inférences anticipatrices concernent un traitement orienté vers des informations futures.

Il existe trois théories :

  1. La théorie minimaliste de Mc Koon et Ratcliff (1989, 1992) concerne l’opposition entre inférences automatiques et inférences contrôlées ;
  2. Le modèle de construction-intégration de Kintsch (1993) concerne le niveau de compréhension ;
  3. Le modèle « Causal inference maker » de Van de Broek (1990) concerne l’orientation du processus.

Inférences automatiques / inférences contrôlées : la théorie minimaliste

Les inférences nécessaires assurent la cohérence locale de la représentation du texte ou reposent sur des connaissances facilement accessibles. Les inférences automatiques ont un faible coût cognitif et leur déclenchement ne dépend pas des buts de l’individu. Les inférences stratégiques sont contrôlées par les buts de l’individu.

Les inférences automatiques assurent la connectivité référentielle entre deux phrases. Par exemple, l’inférence de liaison anaphorique : une anaphore est un mot ou un groupe de mot reprenant le contenu sémantique d’un autre mot ou groupe de mots (antécédent). Pour faire une inférence, il faut que l’antécédent de l’anaphore soit disponible en mémoire de travail. Si ce n’est pas le cas, une inférence-pont ou inférence passerelle ajoute une information permettant de faire le lien. L’inférence anaphorique fait le lien avec la proposition contenant l’antécédent.

Certaines inférences ne sont pas indispensables à la cohérence textuelle : les inférences interprétatives ou inférences élaboratives qui enrichisse la base textuelle en ajoutant des informations.

Le déclenchements des inférences dépend des indices textuels et de la disponibilité de l’information en mémoire de travail. Le contexte permet de faciliter l’inférence en rendant disponible l’information. Le déclenchement des inférences élaboratives dépend du modèle de situation construit. La disponibilité de l’information en mémoire à court terme est un facteur principal de déclenchement des inférences. Ainsi les inférences dépendent de la proximité des informations dans le texte. Les inférences portant sur des informations du thème général ou sur des informations saillantes ou importantes sont plus facile à produire, car ce sont des informations maintenues en mémoire de travail pendant toute la construction de la représentation du texte.

Inférences et niveau de compréhension : le modèle construction-intégration

Selon Kintsch, la construction de la représentation d’un texte repose sur des processus inférentiels opérant à différents niveaux de représentation. Les inférences servent à ajouter des informations nouvelles et à réduire des information pour garder à la base de texte une taille compatible avec les limites de la mémoire à court terme. Il existe trois dimensions :

  • Le caractère automatique ou contrôlé de l’inférence ;
  • Le résultat de l’inférence: accroissement ou réduction de l’information ;
  • La nature du processus: récupération en mémoire ou production d’informations nouvelles.

Ceci donne huit classes d’inférences. L’ajout d’information est réalisé au niveau local et la réduction d’information au niveau global. Kintsch considère trois macrorègles de construction de la macrostructure : la règle de suppression (élimination des détails et de la redondance), la construction de propositions générales résumant plusieurs propositions et la règle de généralisation.

Le modèle construction-intégration comporte un mécanisme qui maintient d’un cycle à l’autre un nombre raisonnable de propositions en mémoire de travail. Ces cycles correspondant au traitement de chacune des phrases. La base propositionnelle est extraite de la phrase et certaines inférences sont produites pour assurer la connectivité référentielle et maintenir la taille du réseau propositionnel dans des limites compatibles avec la mémoire de travail.

Lors du passage d’un cycle, seules quatre propositions sont sélectionnées correspondant aux limites de la mémoire de travail. Le mécanisme de sélection (Kintsch) ou stratégie du bord d’attaque consiste à partir de la dernière proposition (la plus récente en mémoire de travail) à remonter au niveau le plus élevé (propositions les plus importantes).

Avec la technique du mot sonde (Fletcher 1981), le temps de réponse est plus court pour les propositions du cycle en cours que pour les cycles précédents et les temps de réponse pour les propositions sélectionnées par la stratégie du bord d’attaque sont plus courts que pour les propositions non sélectionnées.

Lorsque la cohérence globale fait défaut (les propositions sélectionnées ne peuvent être rattachées aux nouvelles propositions), des inférences recherchent une proposition parmi les connaissances pour rétablir la cohérence. Ces nouvelles inférences sont ajoutées à la base propositionnelle et intégrées au cycle en cours. Les mécanismes inférentiels interviennent au niveau de la cohérence locale et de la cohérence globale.

Direction des inférences : le modèle « Causal Inference Maker »

Selon Van den Broek, Fletcher et Risdden (1990), la représentation d’un texte se construit sous la forme d’un réseau de causalité (type particulier de réseau propositionnel). Le rôle principal des inférences au cours de la lecture est l’identification des relations causales entre les différents évènements exposés dans le texte. La recherche des relations causales est guidée par quatre principes :

  • Le principe de priorité temporelle: une cause ne survient jamais après une conséquence :
  • Le principe d’opérativité: une conséquence ne peut survenir sans cause ;
  • Le principe de nécessité circonstancielle: si la cause ne s’était pas produite, la conséquence ne se serait pas produite ;
  • Le principe de suffisance: si la cause survient, alors la conséquence surviendra également.

Un individu a la possibilité au cours de la lecture d’un récit d’anticiper sur le déroulement de l’histoire à partir de ces principes. Les inférences retour établissent les relations avec l’information antérieurement présentée et les inférences anticipatrices permettent d’avoir des attentes sur l’information non encore fournie.

Les inférences retour correspondent aux inférences de liaison et aux inférences élaboratives lors de recherche d’antécédents causaux. Elles sont contraintes par la disponibilité de l’information. Il existe trois catégories d’inférences retour :

  • Les inférences de liaison: mise en relation avec une information encore présente en mémoire de travail ;
  • Les inférences de rétablissement: l’information n’est plus disponible en mémoire, appel à des représentation déjà construite du texte ;
  • Les élaborations retour: appel aux connaissances du lecteur pour établir la connectivité causale (récupération d’information en mémoire).

Les inférences anticipatrices correspondent à la possibilité pour un individu de se créer des attentes sur la suite du déroulement des évènements décrits par le texte. Elles reposent sur nos connaissances et sur la représentation construite du texte à un moment donné. Il existe deux types :

  • Les prédictions (anticipations sur les suites probables des évènements) ;
  • Les anticipations causales (inférences portant sur un évènement non expliqué).

Dans les inférences anticipatrices, le principe de suffisance est déterminant pour le déclenchement et la spécificité de l’inférence produite. Les inférences anticipatrices correspondent à des activations de connaissances en mémoire car nos connaissance ou la représentation construite intervient. Les inférences sont déclenchées lorsqu’elles sont nécessaires pour la compréhension du texte ou lorsque des contraintes textuelles fortes privilégient une inférence spécifique.

 

II. Résolution de problème

Les situations problématique n’ont pas une solution immédiatement disponible. Nous devons faire appel à nos capacités de raisonnement pour trouver un moyen d’arriver au but. L’activité de résolution de problèmes s’inscrit dans une tâche (activité caractérisée par un état initial, un état final et une procédure pour passer de l’un à l’autre). La tâche d’exécution correspond à une procédure connue. La résolution de problème (procédure inconnue) correspond à une tâche d’élaboration de procédure. L’individu se construit une représentation de la situation à partir des éléments de la situation (état initial, état final, actions possibles). Une situation problème correspond à une situation dont l’individu est capable de se construire une interprétation.

  1. Les approches théoriques

Selon l’approche béhavioriste (la plus ancienne), la résolution de problème correspond au moyen de sélectionner dans un ensemble de comportements ceux qui sont les plus adapté. L’approche gestaltiste concerne les capacités de l’individu à créer de nouvelles solutions. La dernière est l’approche cognitiviste contemporaine.

L’approche béhavioriste

L’approche béhavioriste est focalisée sur l’association stimulus-réponse et néglige l’aspect représentationnel. Le concept central est l’apprentissage conçu comme une sélection progressive parmi les réactions spontanées de l’individu dans la situation.

L’exemple est la boite-problème de Thorndyke (1911) munie d’un dispositif d’ouverture constitué par un anneau sur lequel le chat doit appuyer pour ouvrir la cage. L’animal finit par actionner accidentellement le levier et par s’échapper. En répétant l’expérience, l’animal mettra un temps plus court pour sortir de la cage.

La résolution de problème repose sur deux concepts fondamentaux :

  • La motivation: besoin ou désir sans lequel l’exploration de la situation n’aurait pas lieu ;
  • Le renforcement: augmentation de l’association de la réponse à la situation.

Le comportement spontané est aléatoire, il faut de la motivation et de nombreuses répétitions pour stabiliser l’association entre la situation et la réponse.

Cette approche nous questionne sur le rôle des habitudes dans la résolution de problèmes et la difficulté à s’adapter à des situations nouvelles. Par exemple, un problème est résolu par une procédure habituelle alors qu’une procédure plus simple et efficace est disponible.

Cela questionne aussi sur la nature de la motivation et sa relation avec l’orientation du comportement. La motivation est le moteur déclenchant de l’activité de l’individu, initialement aléatoire et désordonnée. Le renforcement va orienter le comportement vers la reproduction de la réponse efficace. La motivation et les associations entre un comportement et son résultat (satisfaction d’un besoin) déclenchent des comportements plus ou moins désordonnés. Les conséquences de ce comportement sur l’environnement se répercutent sur les besoins de l’individu. Une boucle de rétroaction renforce le comportement adéquat.

La répétition est prépondérante (renforcement suffisant) et la conception d’une forte résistance à la nouveauté prévaut. C’est une procédure par essais et erreurs et la découverte de la solution est progressive.

L’approche gestaltiste

L’approche gestaltiste considère que la solution vient d’un changement de point de vue sur la situation. L’insight correspond à cette découverte soudaine de la solution, sorte de compréhension soudaine. Cela correspond à l’appréhension (de nature quasi-perceptive) d’une relation moyen-but dans la situation (découverte qu’un objet constitue un moyen pour parvenir au but). Les tâtonnements qui précèdent l’insight explorent les limites d’une représentation du problème. Cela permet de changer de représentation du problème et non d’éliminer les réponses inadéquates. La notion de structure correspond aux relations entre les parties et le tout. Résoudre un problème c’est construire de nouvelles relations entre les éléments de la situation. La solution est une pensée créative où les éléments de la situation sont repensés de façon différente.

L’approche cognitiviste

La résolution est-elle une simple perception ou un ensemble de mécanismes de résolution. Si c’est un simple mécanisme perceptif, les freins et les facilitateurs de la résolution sont à rechercher dans la situation : voir le problème autrement. S’il s’agit d’un ensemble de mécanismes de résolution dont l’individu n’a pas conscience, les difficultés et les aides de résolution proviennent de la compréhension de ces mécanismes.

  1. Les classifications des problèmes

Des points de vue variés

Concernant le type d’objets manipulés, les problèmes concrets portent sur des objets physiques et les problèmes abstraits sur la manipulation de symboles. Selon le type de situation, les situations dynamiques concernent des situations évoluant d’elles-mêmes et les situations statiques n’évoluant pas. Au niveau de la précision de l’information, les problèmes bien définis donnent une information précise sur les situations initiale et finale et les actions licites pour passer de l’un à l’autre et les problèmes mal définis comportent une imprécision de l’information sur l’état initial, l’état final ou les actions licites.

La nature d’un problème

Il existe trois catégories de problèmes : le réarrangement, les transformations et les problèmes d’induction de structure.

Dans les problèmes de réarrangement, les éléments de la situation doivent être réorganisés pour satisfaire un ou plusieurs critères. La résolution est liée à la capacité à produire des solutions alternatives et aux mécanismes contraignant la recherche de ces différentes solutions.

Les problème de transformation consistent à appliquer une série de modifications à une situation jusqu’à atteindre l’état visé. Dans ce cas, l’état final et les actions licites pour arriver au but sont fournis.

Dans les problèmes d’induction de structure, l’individu doit identifier la structure des relations qu’un ensemble d’éléments entretiennent (découverte de règles ou de relations). Cela joue sur la capacité à faire des inférences et des mises en relation.

  1. L’interprétation du problème

Bons nombre de problèmes sont mixtes. Et cette classification n’est pas corrélée avec la difficulté des problèmes.

La notion d’espace problème

Selon Newell et Simon (1972), la recherche de solution d’une situation problème correspond à un déplacement dans un espace de recherche. L’espace problème correspond à la représentation d’un individu. La comparaison de ces deux espaces et le cheminement de l’individu dans l’espace de recherche permet de mieux comprendre les sources de difficultés dans la résolution du problème. Cet espace de recherche se compose d’une représentation de l’état initial et de l’état final et une représentation de la procédure optimale. L’espace problème d’un expert correspond à l’espace de recherche. Pour un individu novice, l’interprétation peut être très différente.

L’analyse graphique est très utile pour caractériser l’interprétation d’un individu et essayer de comprendre les sources de difficultés dans la résolution de problème. Les impasses correspondent à l’impossibilité de mouvement hormis le retour arrière.

Des problèmes isomorphes

Deux problèmes sont isomorphes lorsqu’ils possèdent une structure formelle identique. Ils sont équivalents et s’analysent à travers un même espace de recherche. L’état initial et l’état final sont différents et ces problèmes isomorphes ne sont pas équivalents au niveau de la facilité de résolution.

La notion d’espace de recherche permet d’analyser une situation et de caractériser le cheminement d’un individu vers la solution. Dans les problèmes d’arrangement, l’espace de recherche correspond à l’ensemble des arrangements possibles. Dans les problèmes de découverte de règles, l’espace de recherche se compose de l’ensemble des règles possibles.

La construction de l’interprétation

Avec la notion d’espace problème, la recherche de solution dépend de l’interprétation qu’un individu se construit de la situation. Il existe trois manière d’interpréter un problème : l’assimilation à une situation connue, la particularisation d’un schéma et la construction d’une interprétation.

Interpréter une situation problème consiste à assimiler le problème à une situation connue. Les éléments de la situation activent en mémoire une ou plusieurs situations présentant des similitudes et pour lesquels on dispose d’une procédure. La procédure de la situation connue est appliquée à la situation présente (transfert analogique). Le transfert analogique est automatique et demande un effort cognitif minimal. L’individu a une tendance à l’appliquer chaque fois que cela est possible, même s’il existe un autre mode de résolution plus simple. Cela est repris dans l’expérience de Luchins (1942) le problème des jarres. Elle illustre les caractéristiques de l’analogie :

  • Une automatisation de la pensée: nette préférence à l’utilisation de procédure connue dans la résolution de problème occultant toute activité de recherche d’une solution alternative ;
  • L’importance des caractéristiques de surface dans l’évocation des procédures;
  • Une cohérence entre l’interprétation du problème et les conditions d’application de la procédure.

L’analogie peut relever aussi d’une recherche volontaire de relations entre deux situations : c’est la raisonnement analogique.

On peut interpréter la situation en particularisant un schéma de problème, ce qui revient à appliquer les données de la situation aux variables d’un schéma de façon à rendre applicable les procédures associées. Par exemple, un problème arithmétique relève du schéma général de transfert-gain. Le schéma se compose de trois ensembles d’informations : l’ensemble initial, l’ensemble transfert et l’ensemble final avec chacun quatre variables (identificateur, type d’objet, quantité et indication temporelle). Le processus de particularisation consiste à apparier les éléments de la situation avec les variables du schéma. Les différentes étapes sont : interprétation de l’énoncé et identification du statut des ensembles. Un individu adulte possède un schéma complet et les procédures associées. Un enfant en début d’apprentissage ne possède que la procédure de premier niveau dans son schéma : il ne sait que calculer l’état final. Pour l’enfant l’identification du stat des ensembles se fera différemment. Pour lui la quantité recherchée est toujours associée à l’état final.

Parfois il est nécessaire de construire une interprétation de la situation. Le modèle de Hayes et Simon (1977) prévoit cinq étapes de construction de l’interprétation de l’énoncé d’un problème :

  • analyse syntaxique de l’énoncé (mécanismes de compréhension du texte de l’énoncé) ;
  • identification des objets et de leurs attributs pertinents (mise en œuvre des connaissances générales des problèmes) ;
  • choix d’une représentation décrivant la situation;
  • identification de l’opérateur (identification de l’action permettant le passage d’un état à un autre) ;
  • interprétation des conditions d’application (exprimer les conditions d’application sous une forme logique permettant le calcul de leur valeur de vérité).

Selon le modèle de Hayes et Simon, le problème de changement est plus difficile que le problème de transfert du fait des conditions d’application de l’opérateur.

  1. Les mécanismes de résolution

Les mécanismes de résolution interviennent quand il est nécessaire d’élaborer une procédure à partir d’une interprétation de la situation, visant à réduire l’espace problème.

La simplification du problème

La simplification du problème consiste à ramener le problème à un problème plus simple que l’on sait résoudre, en focalisant sur seulement quelques éléments de la situation pour trouver plus facilement une procédure applicable. Cela correspond à un changement de point de vue de la situation.

L’utilisation des heuristiques

Les heuristiques sont des règles générales d’action applicables à une grande diversité de situations. Les heuristiques sont un moyen puissant pour trouver une procédure et parvenir à un but. Dans certains cas, elles sont inappropriées.

L’heuristique d’essais et tests consiste dans chaque état à sélectionner l’action menant à l’état semblant se rapprocher le plus du but. Si l’action n’aboutit pas à l’effet souhaité, on revient en arrière et on tente une autre action. L’efficacité de cette heuristique dépend du critère d’évaluation et suppose que l’individu mémorise les essais tentés et le résultat des tests. Cette heuristique est utilisée lorsque l’espace problème est réduit ou lorsqu’on ne peut plus rien faire d’autres.

L’heuristique des fins et moyens consiste à comparer l’état initial et le but, à noter les différences, à les ordonner et à chercher pour chacune d’elles un moyen de les faire disparaitre. Les étapes consiste à l’indentification des différences, la mise en ordre des différences et la création des sous-buts et la vérification des prérequis (avant d’exécuter une action, il faut vérifier que les prérequis soient réalisés).

Les heuristiques servent aussi à guider l’exploration de l’espace-problème, notamment dans l’analyse des protocoles individuels et la simulation de la résolution de problème. L’heuristique « ne pas revenir en arrière » est en général respectée, à moins de se trouver dans une impasse (situation où aucune autre action n’est possible). L’heuristique « ne pas déplacer deux fois de suite la même pièce » est respectée sauf si on a besoin de déplacer deux fois de suite une même pièce sans défaire la première action.

Les heuristiques peuvent servir à gérer les actions. L’heuristique de regroupement des actions consiste à exécuter ensemble les actions présentant une caractéristique commune. Elle est naturellement appliquée dans nos activités de la vie quotidienne, sauf chez les jeunes enfants n’ayant pas encore acquis cette heuristique.

Les inférences

Produire des inférences peut avoir plusieurs finalités : servir à appliquer des connaissances à la situation, servir à produire des sous-buts ou à découvrir les actions et à les gérer. Le raisonnement analogique intervient également dans les inférences.

Les inférences d’application des connaissances à la situation sont utilisées pour construire de nouvelles propositions applicables à la situation. Dans les problème de cryptarithmétique, les chiffres d’une opération arithmétique ont été remplacés par des lettres (Newell et Simon 1972).

Les inférences permettant de découvrir des actions possible et leur prérequis sont difficiles à faire et demande de changer de point de vue de la situation. Une difficulté principale concerne l’identification des prérequis et de ces actions. Les inférences sur les prérequis ne se faisant pas spontanément, cela explique pourquoi les isomorphes (monstres et globes) sont plus difficiles à résoudre.

Les inférences permettant la production de sous-buts sont rarement produites en début de résolution, mais correspondent aux résultat d’une exploration de la situation. L’apprentissage de ce type de situation est très progressif et s’appuie sur une série de raisonnements inductifs et déductifs. La découverte des sous-buts est un éléments déterminant pour l’élimination des erreurs. Des réussites trop rares empêchent de découvrir les invariants permettant d’inférer les états sûrs. L’action de l’adversaire gagnant est aussi informative que celle que l’individu acquière en perdant. Dans les faits, les individus semblent se centrer sur leurs propres actions pour découvrir ce qu’il faut faire ou éviter.

  1. Les modèles de résolution de problèmes

La modélisation consiste à traduire un ensemble de propositions théoriques dans un langage formel permettant le calcul ou des résultats découlant de la théorie. Les avantages des modèles sont :

  • Imposer une description rigoureuse et complète du processus;
  • Fournir de nouveaux moyens de résumer les données;
  • Permettre l’analyse des protocoles individuels grâce à la simulation.

Un modèle probabiliste

Ce modèle rend compte de la résolution du problème des jarres et d’autres problèmes de transformation. Le modèle comporte l’interaction entre plusieurs processus :

  • L’évaluation des actions possibles repose sur le calcul de l’écart au but par différence entre la quantité présente dans une jarre et l’état final. La somme des valeurs absolues de ces différences constitue l’indicateur de cet écart au but.
  • La mémorisation à court terme de l’information sur l’état courant et les états qu’il permet d’atteindre, les mouvements et l’évaluation des états pendant le processus de sélection d’une action. La mémorisation à long terme de l’information sur les états précédemment visités ou utilisés dans le processus d’évaluation et de sélection.
  • La sélection des actions combine l’information des deux précédents pour sélectionner une action parmi celles possibles. Trois étapes : évaluation des actions possibles pour retenir ou rejeter les actions possibles, mise en jeu de la mémorisation pour trouver une action conduisant à un état non encore rencontré et, lorsqu’aucune action vers un nouvel état n’est disponible, calcul du choix optimal présentant le plus petit écart au but.

Le modèle tient compte de l’importance variable des processus dans la résolution de problème par le poids accordé par les probabilités. La limitation des ressources cognitives y jouent un rôle important.

Les modèles à base de règles

Selon ces modèles, les connaissances et les processus de résolution de problème sont formalisés à l’aide de règles stockée en mémoire procédurale. Les règles comportent deux parties :

  • La condition de la vérification de réalisation pour pouvoir appliquer la règle ;
  • L’action à faire si la condition est réalisée.

Ce modèle général de la cognition considère une importance particulière au processus de mémorisation. Trois types de mémoire interviennent : la mémoire déclarative (mémoire à long terme regroupant les mémoire sémantique et épisodique), la mémoire procédurale (règles de production permettant la coordination des informations activées en mémoire déclarative et les informations de l’environnement) et une mémoire de travail (information disponible à un moment donné avec laquelle les règles sont appariées).

Par exemple lors d’addition en colonne, la mémoire procédurale contient l’ensemble des règles nécessaires à la résolution de ce type de problème, comportant une partie condition et un partie action. Le fonctionnement de la mémoire de travail est séquentiel, c’est-à-dire qu’une seule règle s’applique à chaque fois. En cas de conflit entre plusieurs règles, une valeur d’utilité permet de les départager.

Le modèle des contraintes

Selon ce modèle (Richard, Poitrenaud et Tijus 1993), la résolution de problème est un processus de gestion de contraintes. Une contrainte est une restriction sur un ensemble d’action. Les heuristiques peuvent s’exprimer sous forme de contraintes : par exemple lorsque l’heuristique correspond à une restriction de l’action. Pour les heuristiques formulées positivement, il est nécessaire de trouver une formulation négative équivalente. L’interprétation de la situation par le sujet entraine aussi des contraintes qui peuvent correspondre à un point de vue sur la situation notamment du but courant à un moment donné.

Pour un état donné, on pose dans un tableau l’ensemble des actions en ligne et les contraintes en colonne. A l’intersection, « 1 » signifie que l’action est interdite et « 0 » si elle est permise.

Dans ce modèle, le mécanisme de décision est déterministe. Si une action est permise, elle est réalisée. Il arrive que plusieurs actions soient possibles, un choix intervient. Si aucune action n’est possible, c’est une situation d’impasse. Il faut lever une contrainte pour essayer de trouver une action réalisable. Les contraintes sont hiérarchisées par ordre d’importance, la moins importante sera transgressée.

Le calcul des actions se fait dans l’espace problème, en tenant compte de la représentation du sujet, des heuristiques et du but courant dans une situation donnée. L’espace problème est dynamique, alors que l’espace recherche ne l’est pas. Le but courant, le point de vue et les informations issues de la situation ou mémorisées changent en cours de résolution.

 

Licence 2, Psychologie cognitive

Mémoire & perception : les traitements attentionnels

La notion d’attention est présente dans nos activités quotidiennes : éducation, travail, santé publique. L’attention permet de mieux assimiler certaines informations, de répondre avec plus de rapidité et de précision à certaines sollicitations de notre environnement et évite de nous laisser envahir par des stimulations inopportunes. L’attention est la capacité à nous focaliser sur certaines informations de notre environnement et à en négliger d’autres.

L’attention regroupe plusieurs phénomènes. L’attention sélective nous permet de focaliser sur certaines dimensions des objets présents dans notre environnement. La préparation attentionnelle nous prépare à y répondre. Cela correspond à des situations de surveillance où nous devons guetter la survenue d’un signal et y répondre aussi rapidement et précisément que possible. L’attention partagée correspond à se focaliser simultanément sur plusieurs stimuli, ce qui entraine des difficultés cognitives. L’attention doit être partagée entre plusieurs tâches et traiter simultanément plusieurs buts et l’exécution de plusieurs actions.

 

I. Attention sélective et préparation attentionnelle

L’orientation attentionnelle

Notre attention est attirée par des stimuli saillants dans l’environnement. Ces stimuli mobilisent notre attention et nous prépare ou nous fait réagir à une situation de danger. Le réflexe d’orientation correspond à une orientation de nos récepteurs sensoriels en direction d’un signal de notre environnement. Plusieurs facteurs déterminent et facilitent cette réorientation : l’intensité du signal, la soudaineté du changement dans le champ perceptif, le caractère imprévisible, inhabituel. Un stimulus apparaissant de façon brusque est détecté plus rapidement. L’attention exogène correspond à l’attention captée de façon automatique par l’apparition soudaine du stimulus. La préparation attentionnelle est sous la dépendance des buts et des représentations du sujet et correspond à l’attention endogène. Elle n’est pas automatique.

Dans certaines conditions, les changements brusques ou progressifs ne sont pas perçus. C’est le phénomène de cécité au changement qui se produit lors d’une saccade oculaire ou un clignement de paupières. Le phénomène de cécité au changement suggère que la représentation de la scène visuelle est beaucoup plus partielle. Les capacités de stockage visuelles à court terme sont limitées. Percevoir le changement suppose que la scène originale soit stockée en mémoire de travail avec suffisamment de détails et soit comparée à ce qui apparait ensuite. Ce phénomène relève à la fois des mécanismes perceptifs et du codage de la scène visuelle par focalisation sur certains de ses aspects.

La sélection attentionnelle

La préparation attentionnelle de l’individu modifie l’identification des objets de la situation. Les stimuli de la vie quotidienne sont rarement unidimensionnels. L’individu peut choisir, selon le but qu’il cherche à atteindre, la dimension qu’il souhaite privilégier : c’est le mécanisme de sélection attentionnelle.

Deux conceptions du mécanisme :

  1. C’est l’attention qui détermine ce qui arrive à notre conscience. L’attention agit comme un filtre qui facilite le passage et le traitement des informations pertinentes et empêche les informations non pertinentes d’arriver à notre conscience. Seules les informations pertinentes sont traitées.
  2. Nous sélectionnons les informations pertinentes parmi celles que nos systèmes perceptifs amènent à notre conscience. L’ensemble des informations est traité et la mémoire de travail fait la sélection sur la dimension pertinente.

Notre capacité d’appréhension perceptive est plus importante que la capacité de la mémoire de travail et ces deux mémoires sont très labiles. Dans l’expérience de Fraisse (1961) le nombre d’éléments rapportés est toujours plus important pour le type de caractères sur lequel l’individu a focalisé. La sélection attentionnelle implique un meilleur traitement du stimulus sur la dimension pertinente. Les effets de la limitation de la mémoire de travail ne sont pas à négliger.

Selon l’expérience de Broadbent (1954), la sélection attentionnelle ne se réalise pas avec la même efficacité selon la nature des caractéristiques à surveiller. La sélection attentionnelle est plus efficace lorsqu’il s’agit d’une caractéristique physique (couleur d’un item, timbre de la voix) que s’il s’agit d’une caractéristique sémantique (lettre ou chiffre). L’efficacité est plus grande dans la modalité auditive que visuelle.

Lorsque l’individu est prévenu de la dimension pertinente avant la présentation, il opère une sélection attentionnelle. Le gain de la sélection attentionnelle correspond à la différence entre être prévenu avant ou après la présentation. Le gain de la sélection attentionnelle est plus important lorsque c’est une dimension physique. Le gain est plus important en présentation auditive que visuelle. La différence entre les deux types de dimensions est plus importante en présentation auditive qu’en visuelle. Types de caractéristiques et modalités sensorielles sont des facteurs importants dans la sélection attentionnelle.

La préparation attentionnelle

La préparation attentionnelle est une attitude de préparation à la survenue d’un stimulus. L’effet principal est un traitement plus rapide et plus précis du stimulus. Elle suppose une focalisation sur le lieu probable de survenue du stimulus et une préparation à l’action.

Délai entre le signal et l’arrivée du stimulus. La durée optimale entre le signal et l’action permet une efficacité maximale. La détermination de cette durée optimale nécessite de dissocier la préparation à l’arrivée du stimulus et la préparation de la réponse. Selon l’expérience de Bertelson (1967), la présence d’un signal auditif réduit le temps de réponse par rapport à la situation contrôle jusqu’à un délai de 70 à 120 ms. Lorsque le signal est visuel, le temps de réponse est plus court jusqu’à un minimum de 120 à 200 ms. L’optimum n’est pas le même pour les deux modalités : un signal lumineux est plus long à traiter qu’un signal auditif.

Maintien de la préparation. L’optimum de préparation est atteint entre 100 et 200 ms et l’attention décroit lentement ensuite. Selon l’expérience de Gottsdanker (1975), les individus ne maintiennent pas leur préparation entre les deux rayons. Le maintien de la préparation n’est possible que pour des durées brèves. Si la situation exige de maintenir une préparation plus longue, les individus ont tendance à relâcher leur attention, puis à se préparer à nouveau.

Préparation de la réponse. Le temps de réponse augmente linéairement avec le nombre d’alternatives. Le nombre d’éventualités n’a un effet sur le temps de réponse que s’il n’y a pas de liaisons entre stimulus et réponse en mémoire à long terme.

Facilitation et inhibition dans la préparation attentionnelle. Une fonction de l’attention est de limiter l’intrusion des informations non pertinentes. Selon Posner et Snyder (1975), deux types de préparation de la réponse existent : une automatique déclenchée par la survenue du signal dans le champ visuel et une contrôlée dans le cas nécessitant de limiter l’intrusion des stimuli non pertinents. Un effet de facilitation intervient dans la situation de congruence forte des items. Dans la situation de congruence faible des items, une facilitation et une inhibition interviennent.

 

II. L’attention partagée entre sources d’information

Lors de situations où l’on traite plusieurs sources de stimulation simultanément, l’attention doit être partagée. La tâche pour étudier l’attention partagée est la situation d’écoute dichotique de Broadbent (1958), où six chiffres sont partagés entre les deux oreilles. La difficulté du rappel par oreille tient à la nécessité de déplacer l’attention d’une oreille à l’autre. Dans le rappel total, l’individu doit traiter séparément le message arrivant à l’oreille droite et à l’oreille gauche et stocker successivement les informations de l’une et de l’autre. L’attention est déplacée qu’une seule fois au lieu de trois pour le rappel total. Le déplacement de l’attention prend un temps non négligeable entrainant une perte d’informations.

L’expérience de Treisman et Geffen (1967) d’écoute dichotique en se concentrant que sur une oreille, reflète une sélection précoce de l’attention. La détection de l’oreille attentive est très bonne, mais pas celle de l’oreille négligée. Sous certaines conditions, nous sommes capables de réorienter notre attention vers des sources auxquelles nous ne prêtions pas a priori d’attention. L’information est perçue et traitée au moins partiellement et correspond à un traitement précoce de l’information.

 

III. L’attention partagée entre tâches

Le traitement de l’information non prioritaire implique des traitements périphériques de bas niveau. Dans le cas où notre attention est partagée entre plusieurs tâches non automatisées, les deux tâches vont mobiliser la mémoire de travail pour être traitées. Dans la situation de saisie des deux mains de deux objets différents, la vitesse des mains tend à se synchroniser et les objets sont saisis en même temps. La coordination des deux mains implique un seul et même système de calcul de la trajectoire pour la saisie. Dans l’expérience de Posner et Boies (1971), les individus différaient le traitement du son pour répondre à la tâche sur les lettres. Dans les situations de double tâche, la tâche secondaire est délaissée au profit de la tâche principale. En contrôlant le niveau d’exigence sur la tâche secondaire, les performances aux deux tâches varient à l’inverse l’une de l’autre.

La capacité à effectuer les deux tâches simultanément est liée à l’expérience des individus sur une des deux tâches et à son caractère automatisé. Cet effet de l’apprentissage répété dans la réalisation de doubles tâches a été mis en évidence par Spelke, Hirst et Neisser (1976). L’entrainement (lire des histoires tout en écrivant des mots sous dictée) a duré 20 semaines et à la fin les individus pouvaient mener de front les deux tâches et catégoriser les mots qu’on leur dictait.

Cette capacité à faire plusieurs choses à la fois a ses limites. Dans l’expérience du parcours en voiture avec test de raisonnement, le test de raisonnement a influencé négativement l’appréciation des espaces entre les piquets. La capacité à réaliser plusieurs tâches à la fois dépend de leur degré d’automatisation.

 

IV. Les modèles de l’attention

L’hypothèse du canal unique de traitement

L’attention peut être conçue comme un filtre gérant les différentes informations provenant de nos systèmes sensoriels. Cela suppose que la mémoire de travail sollicitée dans les phénomènes attentionnels a un fonctionnement séquentiel. Les informations y sont traitées une par une dans l’ordre d’arrivée. La mémoire de travail fonctionne comme un canal unique de traitement, passage obligé de l’information provenant de l’extérieur ou activée depuis notre mémoire à long terme. Les limites de l’attention correspondent aux limites de la mémoire de travail.

Le modèle de filtre attentionnel de Broadbent (1958). L’écoute dichotique montre la difficulté à gérer plusieurs sources d’information. Le rappel des items dans l’ordre est plus difficile que le rappel par oreille. Dans le modèle de l’attention de Broadbent , l’information arrivant des deux oreilles est d’abord stockée dans une mémoire tampon (mémoire sensorielle), puis passe par un filtre sélectif qui va autoriser, selon la focalisation attentionnelle, le passage des informations de l’une ou l’autre des sources d’information dans le canal à capacité limitée où elles seront traitées, et préparer la réponse. La mémoire tampon étant très labile et la capacité du canal de traitement limitée, il existe une perte d’informations plus importante dans la première condition. La sélection des informations pertinentes est très précoces, les informations non sélectionnées ne sont pas traitées et sont perdues.

Le modèle d’atténuation de Treisman (1964). Certaines informations sont quand-même traitées même si on n’y prête pas attention. Selon Treisman, la sélection de l’information pertinente est plus tardive. Les informations sont sélectionnées après le passage du filtre, toujours dans une conception de canal unique de traitement. Les informations qui entrent dans le canal sont sélectionnées en fonction de leur seuil d’activation. L’orientation attentionnelle a pour effet d’abaisser ce seuil. Ainsi les informations provenant de l’oreille attentive sont mieux traitées que celle de l’oreille négligée. Le seuil d’activation dépend aussi de la familiarité des mots et de leur valeur affective. Par exemple, le nom de l’individu présenté à l’oreille négligée sera malgré tout traité, son seuil de détection étant plus bas.

Le modèle de la sélection tardive de Deutsch et Norman (1968). Selon ce modèle, le filtrage attentionnel se fait après la reconnaissance des stimuli. les stimuli sont plus rapidement identifiés, mais tout aussi rapidement oubliés, s’ils s’avèrent sans intérêt. La sélection d’un stimulus dans le champ de l’attention dépend de deux paramètres :

  1. Le niveau général de vigilance de l’individu: la détection des stimuli est plus rapide si l’individu est en alerte. Ceci explique les effets de préparation attentionnelle.
  2. La pertinence du stimulus. Ceci explique la priorité accordée aux informations provenant de l’oreille attentive et la moindre importance des informations de l’oreille négligée.

Le seuil d’activation des stimuli dépend de l’intensité de la stimulation, de la familiarité et de l’importance pour le sujet de la représentation. Une probabilité élevée pour une représentation d’être sélectionnée correspond à un seuil d’activation faible et une pertinence élevée.

Les deux types de sélection ne sont pas incompatibles et la sélection de certains stimuli se fait précocement (attention exogène) et pour d’autres elle se fait plus tardivement (attention endogène).

La notion de charge mentale

Les limites des ressources attentionnelles et la gestion de ces limites par l’individu. Les phénomènes attentionnels mobilisent la mémoire de travail, limitée dans sa capacité et sa durée de rétention de l’information. Cette quantité d’informations et le nombre de traitement détermine la charge mentale correspondant à la mesure de la complexité de la tâche. Lors d’expérience de double tâche, la performance à la tâche principale varie inversement avec le niveau d’exigence à la tâche secondaire. Le niveau maximal d’exigence sur la tâche secondaire sans détérioration de la performance à la tâche principale correspond à la mesure des ressources attentionnelles non utilisées par la tâche principale.

Selon le modèle de répartition des ressources attentionnelles de Kahneman (1973), la quantité de ressources rendues disponibles pour une tâche varie en fonction du niveau d’activation. Les ressources disponibles sont plus importantes pour un état d’activation élevé que pour un état d’activation bas.

La répartition des ressources disponibles est contrôlée par des règles de distribution déterminant les priorités d’allocation de ressources entre les différentes activités. Ces règles dépendent :

  • des mécanismes attentionnels involontaires et permettent la réorientation de l’attention;
  • des mécanismes d’orientation volontaire de l’attention en fonction des buts de l’individu dans la situation.

Un mécanisme d’évaluation de la demande de ressources contrôle par rétroaction l’état d’activation et les règles de distribution.

Le modèle de Kahneman explique comment deux activités simultanées peuvent interférer, en fonction des priorités du moment. Dans ce modèle, la réalisation de deux tâches à la fois est possible si les activités ne demandent pas plus de ressources que le total disponible. Ce modèle reflète la variation de la performance selon la charge mentale requise pour chacune des tâches.

La notion de charge mentale est très liée aux limites de la mémoire de travail. La charge mentale mesure la capacité de mémoire immédiate mobilisée par un individu lors de la réalisation d’une tâche. La mesure de la capacité de la mémoire dépend du nombre d’unités de traitement manipulées par l’individu. Les unités de traitement, pour une tâche donnée, dépendent de l’individu (de ses connaissances) et de son codage des items. La charge mentale dépend des caractéristiques de la situation et de l’individu.

La charge mentale  dépend de certains paramètres de la tâche :

  • quantité élevée d’informations à traiter,
  • nombre de propositions à traiter,
  • nombre de pas inférentiels à effectuer dans un raisonnement,
  • liens entre les informations

et de paramètres de l’individu :

  • niveau de contrôle de l’individu,
  • mise en œuvre de procédures et d’habilités lors de contrôle automatisé,
  • application de plans et de schémas lors de contrôle par les règles,
  • connaissances de la situation lors de contrôle par les représentations.

 

Licence 2, Psychologie clinique et psychopathologie

Sémiologie & psychopathologie

La sémiologie est l’étude des signes permettant de décrire les troubles psychiques qu’étudie la psychopathologie. Selon la médecine organique en Occident, les maladies sont des entités naturelles susceptibles d’une description neutre. Les troubles psychiques comportent des choix conceptuels interdisant l’objectivité. La classification américaine des troubles mentaux (DSM) repose sur le pur regroupement statistique de manifestations pathologiques reconnaissables par tous les cliniciens. En psychopathologie, la subjectivité intervient de façon essentielle.

L’analyse sémiologique reflète un souci de description objective et neutre, mais manque l’expérience d’une relation intersubjective, c’est-à-dire la singularité du patient et celle du clinicien. L’étude de la sémiologie pourrait entraver le clinicien dans son appréhension de la relation où sa propre subjectivité est engagée. Connaitre la sémiologie de base facilite les échanges avec l’équipe soignante ou la compréhension des méthodes thérapeutiques, mais rend difficile l’élaboration de son expérience clinique.

La sémiologie ouvre une première compréhension de la psychopathologie. Rejeter l’assimilation d’un trouble psychique à une entité naturelle figée est différent de s’interdire tout outil de description de ce qui se donne dans le regard clinique, dès lors que ce regard est animé d’une conscience critique de sa propre implication dans la relation. L’entretien clinique met en jeu la perception du clinicien, et son propre état psychique, une inférence sur l’état psychique du patient, un cadre conceptuel et un environnement historique et culturel.

Tout phénomène pathologique a une fonction dans la vie psychique du sujet, c’est-à-dire une valeur de défense. Selon la psychodynamie, la vie psychique est animée par une tension susceptible de déterminer angoisse et conflits, dont les symptômes sont le reflet défensif. Au niveau de la psychopathologie élémentaire, on raisonne en termes d’angoisse et de défenses. Adopter l’axiome de la défense, c’est renoncer à la neutralité absolue. La neutralité des classifications empiriques est donc illusoire.

 

I. Sémiologie, psychopathologie et démarche clinique

La démarche clinique est essentiellement empirique fondée sur l’expérience d’une rencontre avec un sujet singulier par un entretien (parole) ou par d’autres modalités  d’échange (dessin ou jeu avec le jeune enfant). La prise en compte de la relation intersubjective clinicien-patient est cruciale. Il existe deux niveaux d’analyse : la description sémiologique et la compréhension psychopathologique. La sémiologie n’est pas une finalité en soi et la démarche clinique prend son sens véritable qu’avec l’analyse psychopathologique.

  1. La description sémiologique

La sémiologie est l’étude des signes permettant de reconnaitre un état pathologique. Cela constitue un essai de description du patient. Cela commence par le repérage de symptômes qui correspondent aux phénomènes permettant d’induire la présence d’un état pathologique. Le signe est observé par le clinicien alors que le symptôme est décrit pas le patient.

Quelques règles sur les symptômes :

  • Un symptôme isolé n’a pas grande valeur. Seul un regroupement de symptômes est pertinent.
  • Un regroupement signification de symptômes est un syndrome.
  • Un même syndrome peut s’observer dans des tableaux cliniques distincts (diagnostics différents).
  • Le diagnostic définit le trouble qui est attribué au patient. Un diagnostic n’a de sens qu’en référence à une classification des troubles ou nosographie.
  • Lorsqu’on parvient à un diagnostic, les autres diagnostics envisageables doivent être discutés (diagnostic différentiel).
  • Les troubles ont une dimension diachronique (évolution dans le temps). L’être humain doué de mémoire s’inscrit dans une temporalité. Les troubles ont une histoire (anamnèse) essentielle à retracer qui peut renvoyer à un passé lointain voire au développement de l’enfance.
  • Selon le diagnostic, l’évolution ultérieure du trouble peut être évaluée par un pronostic. Il faut garder à l’esprit que les possibilités des patients se révèlent toujours surprenantes.
  • Les troubles ont une dimension synchronique qui évoque le contexte familial, social et culturel.
  • La thérapeutique (méthode de traitement) dépend de l’analyse psychopathologique et étiologique (analyse de la cause) et est fortement lié aux options théoriques du clinicien.
  1. Eléments sur l’analyse psychopathologique

L’analyse psychopathologique vise à comprendre les processus mentaux sous-jacents aux symptômes apparents. Les symptômes sont le reflet d’un fonctionnement psychique dépendant de la structure de la personnalité et de l’histoire du sujet. Tout phénomène pathologique a une fonction dans la vie psychique du sujet, sorte de défense dans la dynamique de son rapport à lui-même et au monde.

Freud est le premier à avoir révéler l’importance de la notion de défense en lien avec les résistances rencontrées dans les cures des patients. Si un trouble psychique a une valeur défensive pour le sujet, la progression du traitement, en levant les symptômes, suscite des résistances avec un risque de rechute. La tension d’un système psychique (ou familial) peut être limitée par la mise en œuvre de processus qui déterminent la forme des symptômes.

Le coping est un ensemble d’efforts cognitifs et comportementaux destinés à maîtriser, réduire ou tolérer les exigences internes ou externes qui menacent ou dépassent les ressources d’un individu. Les mécanismes de coping sont conscients, alors que les mécanismes de défense sont inconscients.

Admettre qu’un symptôme a une fonction défensive implique qu’on reconnait une certaine valeur positive pour le sujet. Le symptôme pourra amorcer l’explication de sa présence. Si un individu commet une tentative de suicide, son geste le protège psychiquement contre une tension plus insupportable que celle suscitée par l’idée de sa mort (tension liée à l’angoisse de devenir fou ou d’être abandonné).

En psychopathologie, l’agression n’est jamais purement externe, l’évènement extérieur est toujours médiatisé par la mémoire du sujet. Les conflits intrapsychiques surviennent et suscitent une tension s’exprimant par l’angoisse. Face à l’angoisse, l’individu présente des défenses dont la forme dépend de son organisation psychique. Certaines défenses sont elles-mêmes sources de conflit et d’angoisse avec un risque de cercle vicieux. Les symptômes sont le reflet de défenses qui enferment l’individu dans un fonctionnement rigide.

Un processus de défense n’est pas en soi pathologique. Etant donné la complexité de notre psychisme et de nos interactions avec l’environnement, une certaines conflictualité est inévitable, d’où les processus défensifs qui limitent les tensions et permettent aux individus de les supporter. Sans défense, toute tension serait intenable. Tout individu a donc recours à des défenses. Dans un trouble psychique, les défenses se caractérisent par leur rigidité. Un symptôme a une valeur positive en protégeant la personne contre une tension trop forte et un effet négatif d’enfermer la personne dans le fonctionnement défensif. Dans un cas pathologique, les symptômes constituent un cercle vicieux dont l’individu ne peut sortir sans le point d’appui extérieur représenté par l’intervention thérapeutique. La pathologie est définit par la rigidité des défenses. La souplesse du fonctionnement psychique reflète la puissance de la capacité d’adaptation et donc l’aptitude à l’autonomie et à la liberté.

Notion de structure

L’analyse psychopathologique se doit d’apprécier les types de conflit, d’angoisse et de défense prépondérants dans le fonctionnement psychique et le mode de relation aux objets d’investissement (personnes investies affectivement et narcissiquement par le sujet) car ils déterminent les sources de tension. La structure désigne l’organisation profonde et stable du psychisme.

Dans la structure psychotique, la problématique concerne l’unité de base du sujet (ou unité du Moi). Une menace de fragmentation pèse sur le psychisme associée à une angoisse de morcellement. Le conflit se situe entre les désirs et la réalité. La réalité extérieure (rencontre avec autrui) est source de conflits intenses en raison du mode de relation fusionnel de l’individu. L’objet investi n’est pas pleinement appréhendé comme sujet distinct du moi. L’angoisse de morcellement entraine des mécanismes de défense dont le déni (processus où l’individu écarte de son psychisme un fragment entier de la réalité, comme s’il ne le percevait pas, comme si ce fragment n’existait pas).

Dans la structure névrotique, la problématique concerne la culpabilité liée à des conflits entre désirs et interdits. La rencontre avec autrui peut être source de conflits intenses en raison des pulsions érotiques ou agressives se heurtant à des interdits intériorisés. Le mode de relation aux objets d’investissement est génital. L’angoisse de castration correspond à l’angoisse inconsciente d’être puni pour avoir eu des désirs perçus comme transgression au regard des interdits intériorisés. Cela entraine une défense de refoulement où l’individu écarte de son psychisme conscient un fragment psychique heurtant un interdit (un fantasme érotique ou agressif est repoussé dans l’inconscient).

Dans l’organisation-limite, la valeur de l’individu est liée à celle de ses objets d’investissement. En raison d’un conflit entre l’Idéal du moi (modèle plus ou moins prescriptif auquel la personne cherche à se conformer) et la réalité (avec les pulsions du moi contenues dans le ça), l’individu est menacé d’un effondrement narcissique, avec une angoisse d’abandon par l’objet investi que l’individu craint de décevoir. Le clivage d’objet est le processus de défense caractéristique de l’organisation-limite : deux attitudes de valeur opposée (amour/haine) coexistent psychiquement tout en étant maintenues dans deux compartiments séparés en mémoire. L’objet investi est clivé en un bon objet et un mauvais objet. L’individu bascule d’un compartiment à l’autre par une alternance d’extrêmes, notamment de l’humeur. Tout éloignement de l’objet réactive la menace narcissique, d’où une relation de dépendance anaclitique. Autrui est bien différencié du Moi, mais n’est là que pour combler la faille narcissique et n’est pas reconnu dans son désir autonome et n’est donc pas pleinement constitué comme sujet.

La structuration du psychisme permet une certaine prédictivité du risque de trouble psychique et de la forme du trouble. La structure reflète les éléments de base du fonctionnement psychique et détermine les modalités de réaction aux évènements et situations vitales. Un évènement traumatique est un évènement débordant les capacités d’élaboration du sujet. Le caractère traumatique d’un évènement dépend de sa nature intrinsèque et de l’organisation de la mémoire subjective (la structure psychique). Ainsi le même évènement entrainera un trouble psychique chez tel individu et ne suscitera qu’une réaction anodine chez un autre. Lorsque l’évènement en interaction avec la structure subjective entraine un trouble psychique on parle de décompensation. La structure détermine un potentiel de décompensation ou vulnérabilité. La normalité symptomatique (absence de trouble psychique patent) est compatible avec toute structure psychique.

Tout individu a un potentiel d’évolution. De telles catégories ne fournissent que des points de repères conceptuels pour décrire le fonctionnement d’un individu. L’espace psychique associé à la mémoire subjective d’un individu singulier est assez riche pour comporter une infinité dynamique de régions associées à des modalités de fonctionnement variées, en interaction avec un environnement évolutif. La structure ou l’organisation correspondent à un mode dominant de fonctionnement.

Sémiologie et structure

Un même tableau sémiologique peut correspondre à des structures différentes. Une décompensation dépend de la structure psychique et des caractéristiques intrinsèques des évènements. Un trouble d’allure grave ne reflète pas forcément une organisation profondément perturbée si l’individu a été confronté dans son passé récent à des évènements objectivement intenses. Un sujet présentant une organisation profondément perturbée peut avoir recours à des défenses plus élaborées. Il est essentiel de ne pas déduire une structure à partir d’un diagnostic. Certaines entités sémiologiques appartenant à la classe des troubles psychotiques ne correspondent pas nécessairement à une structure psychotique. Par exemple, une bouffée délirante aiguë peut être une brève décompensation liée à un ensemble de circonstances particulière ayant temporairement dépassé les capacités défensives de l’individu. Des entités sémiologiques de la classe des troubles névrotiques (phobies, obsessions) ne surviennent pas nécessairement dans une structure névrotique mais peuvent représenter des défenses temporaires survenant sur un fond d’organisation-limite partiellement décompensée.

Quelques règles :

  • Un trouble aigu est compatible avec toute organisation psychique.
  • Un trouble névrotique ou un trouble de l’humeur persistant est compatible avec une structure névrotique, une structure psychotique ou une organisation-limite.
  • Un trouble psychotique persistant reflète une forte probabilité d’une structure psychotique.

Le fonctionnement psychique d’un individu et l’organisation sous-jacente sont essentiellement appréhendés à travers la relation clinique et ses aléas au cours d’un suivi prolongé.

Vulnérabilité et histoire

La vulnérabilité est le potentiel de décompensation face aux évènements que l’individu rencontre. La vulnérabilité reflète l’histoire traumatique inscrite dans la mémoire de l’individu.

Un évènement traumatique est un évènement débordant les capacités d’élaboration du sujet. Plus un individu a connu de traumatismes antérieurs, plus il est vulnérable, plus il risque de connaitre de nouveaux traumatisme. Cela reflète la problématique de la répétition, composante du caractère tragique de la pathologie mentale.

Le potentiel traumatique d’un évènement E est le rapport entre l’excitation associée à E et les capacités d’élaboration de l’individu. Si les capacités sont débordées, l’individu a recours à des défenses, efficaces pour limiter la tension actuelle suscitée par E, mais accroissant le risque de nouveaux traumatismes car :

  1. L’élaboration de E étant limitée, E reste une source de tension;
  2. Ces défenses se manifestent parfois par des symptômes eux-mêmes source de tension;
  3. Un frayage se produit : des évènements analogues à E entraineront des défenses analogues.

Un processus de déni en écartant du psychisme conscient un fragment de la réalité traumatique, diminue la tension psychique actuelle, mais suscite des tensions potentielles importantes avec la réalité. De nouveaux processus de déni peuvent être d’autant plus facilités qu’un frayage s’est instauré.

Un traumatisme ne correspond pas forcément à un évènement négatif. Une surprotection peut conduire à un non-développement de capacités défensives élaborées. Les capacités défensives se forment que via la confrontation au monde extérieur (à travers les relations et leurs aléas). Tout évènement traumatique peut être aussi la source d’une mobilisation de l’individu conduisant à l’émergence de capacités défensives plus élaborées : les temps de crise sont des occasions de décompensation mais aussi de maturation.

La résilience représente la capacité à bien se développer au plan psychologique malgré la survenue d’évènements à caractère déstabilisant ou la capacité à s’adapter rapidement au malheur ou à l’adversité, à récupérer après de telles situations.

  1. Nosographies

La classification des troubles mentaux observés dépend de l’environnement historique et culturel. Il existe de multiples classifications des troubles psychiques liées à des systèmes culturels et à des orientations théoriques.

La nosographie classique provient du début du XXème siècle et distingue des grandes classes de troubles : psychose, névroses, troubles de l’humeur, troubles de la personnalité…

La classification nord-américaine du DSM (version actuelle DSM-5) est athéorique. Elle ne préjuge pas de l’étiologie du trouble mais correspond à une simple description du patient utilisable quelle que soit l’orientation théorique du clinicien. Assez contesté, notamment parce que le DSM rejette des concepts aussi classiques que ceux de psychose ou de névrose. Cette classification utilise des critères précis de diagnostic afin d’améliorer la fidélité du diagnostic, mais induit une rigidité inadaptée à la variété infinie des patients.

La classification internationale des maladies (version CIM-10) proposée par l’OMS proche du DSM mais n’utilise pas de critères aussi stricts. Elle est plus souple d’emploi et est moins dépendantes de la culture nord-américaine.

 

II. Troubles psychotiques

Les troubles psychotiques se définissent par la présence de quatre caractéristiques :

  • Une altération globale du fonctionnement psychique,
  • Une perte du contact avec la réalité extérieure,
  • Une anosognosie (non conscience de certains symptômes),
  • Un caractère d’étrangeté pour autrui.

Les syndromes délirants présentent de façon paradigmatique ces caractéristiques.

Une idée délirante est un symptôme dont l’individu n’a pas conscience car c’est une croyance en opposition avec la réalité et à laquelle l’individu attache une conviction absolue. La force de la conviction délirante est liée à la valeur défensive du délire. Au niveau psychopathologique, une idée délirante est issue des mécanismes de déni par lequel l’individu écarte de sa conscience des fragments entiers de la réalité. Il reconstruit une néo-réalité, celle du délire, plus conforme à ses pulsions et désirs inconscients profond. La projection est un mécanisme de défense par lequel ce qui est inacceptable pour le psychisme est attribué à autrui.

Dans les troubles psychotiques, l’individu est menacé dans les fondations de son être : angoisse de morcellement (menace sur l’unité profonde du Moi). La fragmentation psychique peut déjà être réalisée en partie ou l’individu réussit à maintenir une unité minimale autour d’une idée délirante fondamentale mais avec un déni de plus en plus large de la réalité extérieure.

Le mode de relation de l’individu psychotique est fusionnel : toute différence avec les objets d’investissements préférentiels tend à être effacée (la différence est source de tensions trop importantes).

  1. Classification des syndromes délirants

Quatre critères de syndromes délirants : évolution, organisation, mécanismes et thèmes.

Evolution aiguë ou persistante

Un délire aigu a une durée inférieure à quelques semaines et est réversible. C’est une expérience intense envahissant la vie psychique, mais n’engage pas nécessairement les assises fondamentales du psychisme. Quatre types existent : confusion, bouffée délirante aiguë, mélancolie, manie.

Un délire persistant a une durée dépassant plusieurs mois. C’est moins spectaculaire, mais l’unité psychique de l’individu est menacée en profondeur.

Organisation systématisée ou non systématisée

Un délire systématisé est marquée par une forte cohérence interne avec un thème précis. Il s’agit d’une intuition délirante qui réorganise toute la réalité autour d’elle, ce qui maintient l’unité du psychisme au risque d’un engagement persistant dans la psychose.

Un délire non systématisé est un délire incohérent, sans idée directrice, hermétique pour autrui. Les idées délirantes sont des tentatives infructueuses de lutte contre la menace de fragmentation.

Cinq mécanismes délirants

Cinq mécanismes sont en jeux :

  • Une intuition est une fausse croyance qui s’impose d’emblée au sujet avec évidence (révélation). On retrouve toujours une intuition initiale lors de la formation d’un monde délirant.
  • Une interprétation est l’attribution d’une signification erronée à un fait réel.
  • L’imagination est la construction d’un monde délirant qui parait totalement imaginaire à autrui (constitue la réalité pour l’individu délirant). L’imagination ne part pas de faits réels.
  • Une illusion est une perception déformée d’un objet réel.
  • Une hallucination est une perception sans objet, entièrement créé par le psychisme de l’individu à la différence de l’illusion. Cela peut concerner les différentes modalités sensorielles (auditives, visuelles, tactiles…). Dans les hallucinations psychosensorielles, la source de la sensation est localisée par l’individu à l’extérieur de son psychisme. Dans les hallucinations psychiques, des représentations mentales sont imposées.

Les hallucinations psychiques ne sont pas de véritables hallucinations car elles ne mettent pas en jeu la sensorialité. Il s’agit de l’autonomisation de zones parasites dans la mémoire subjective, reflétant un début de fragmentation psychique. Le syndrome d’automatisme mental est souvent observé dans la genèse des syndromes délirants. Trois degrés d’automatisme mental (perte de contrôle d’une partie de la vie psychique de la personne) sont possibles :

  • Sentiment de perte du contrôle de la pensée;
  • Sentiment que le psychisme est connu d’autrui (défense par projection contre le parasitage, avec intuition persécutive) ;
  • Sentiment que le psychisme est imposé par autrui (hallucinations psychiques).

Thèmes délirants

Les contenus des idées délirantes peuvent être très variés. La thématique délirante reflète étroitement les pulsions déniées ou projetées.

  1. Bouffée délirante aiguë

La bouffée délirante aiguë est la survenue brutale d’un syndrome délirant, d’évolution brève, favorable à court terme si le sujet est soigné et ne relevant pas d’une causalité organique ni d’un trouble premier de l’humeur.

Une bouffée délirante aiguë est liée à une fragmentation fonctionnelle aiguë du psychisme chez un individu soumis à des tensions particulièrement intenses relativement à sa structure psychique profonde.

Une bouffée délirante aiguë correspond à une interaction entre des évènements vitaux E et une vulnérabilité V reflétant la structure subjective. Les poids des facteurs ExV déterminent le pronostic à long terme. Ainsi un individu qui développe une bouffée délirante aiguë après des circonstances minimes a une structure fragile.

La structure psychique sous-jacente à une bouffée délirante aiguë détermine le pronostic à long terme. A court terme, l’individu est en danger mais guérit s’il est hospitalisé et soigné. L’urgence des soins est plus pressante si la bouffée délirante aiguë perdure car l’imprégnation délirante par frayage dans la mémoire subjective peut aggraver la vulnérabilité structurale.

Eléments sémiologiques

Une bouffée délirante aiguë survient chez un sujet jeune (15-35 ans) parfois très brutalement. On retrouve un prodrome (signe avant-coureurs) de quelques jours avec insomnie, irritabilité, anxiété, bizarrerie, euphorie. Puis apparait le syndrome délirant envahissant tout le champ de conscience avec une forte charge affective et désorganisant gravement le comportement. Un automatisme mental associé à des idées de références sub-délirantes précède souvent.

L’expérience délirante entraine une adhésion totale. Le délire est non systématisé et la thématique polymorphe. Les variations de la thématique délirante reflètent la pression de l’angoisse de morcellement et les tentatives défensives erratiques. Les projections persécutives ou érotomaniaques sont elles-mêmes angoissantes, l’individu est dans un cercle vicieux dont il en peut se rétablir spontanément.

La dépersonnalisation apparait associée à une déréalisation. Cette déstructuration peut rejoindre des thèmes délirants de filiation, de transformation corporelle, de désincarnation. Tous les mécanismes délirants peuvent s’associer.

Le fonctionnement cognitif est perturbé du fait de la captation de l’attention par le délire mais la vigilance est normale. La dynamique émotionnelle est bouleversée allant de la panique à l’extase. Les fluctuations thymiques reflètent le contenu des idées délirantes. L’angoisse est toujours massive avec un risque de passage à l’acte auto ou hétéro-agressif. Le comportement désorganisé confirme l’urgence de soins. Les formes cliniques sont infinies.

Le diagnostic différentiel concerne les autres délires, la mélancolie, la manie, la confusion.

Problème de l’évolution

Une bouffée délirante aiguë évolue favorablement à court terme, si l’individu est soigné rapidement. L’hospitalisation et la prescription de neuroleptiques permettent un contrôle rapide de l’intensité du délire et favorise l’instauration d’une relation thérapeutique de qualité. Une réaction dépressive s’observe souvent indiquant une prise de conscience par l’individu de ses difficultés.

La possibilité de critique par l’individu lui-même de son expérience délirante correspond à la capacité d’élaboration de cette expérience (≠déni).

L’épisode est unique dans 40 %. Dans 35 %, l’individu présentera plus tard dans sa vie d’autres épisodes délirants aigus (épisodes maniaques ou mélancoliques dans un trouble bipolaire : psychose maniaco-dépressive). Dans 25 %, l’individu développera progressivement une schizophrénie (psychose persistante non systématisée).

Le risque de schizophrénie est plus élevé si :

  • Les circonstances déclenchantes de la bouffée délirante aiguë sont minimes et que l’individu a des éléments pathologiques antérieurs ou des antécédents familiaux.
  • Le délire est très hermétique avec un retrait affectif important (repli autistique défensif contre l’angoisse de morcellement) ;
  • L’évolution est lente (plus d’un mois) ;
  • La réinsertion socio-professionnelle ou scolaire est retardée voire impossible (capacités d’adaptation et d’échange).
  1. Schizophrénies

Les schizophrénies sont des psychoses persistantes non systématisées. Les schizophrénies comportent deux syndromes fondamentaux (Bleuler, 1911) : la dissociation (perte de l’unité de base de la personnalité) et l’autisme (repli sur le monde intérieur entrainant la perte du contact vital avec la réalité externe et la rupture de la communication avec autrui).

Les schizophrénies sont un groupe de troubles variés dont le point commun est la dynamique engendrée par la dissociation et l’autisme. Les tentatives de réorganisation psychique se manifestent par des symptômes accessoires, souvent au premier plan clinique.

Les schizophrénies correspondent à des fragmentations persistantes du psychisme, sur fond de structure psychotique, les défenses n’ayant pas réussi à protéger complétement de la menace du morcellement. Le morcellement est déjà en partie réalisé, d’où la dissociation. Le repli autistique reflète de puissantes défenses contre la menace de morcellement, la coupure relationnelle tentant de pallier les tensions extrêmes suscitées par l’échec de l’aspiration fusionnelle.

Dissociation et autisme induisent un cercle vicieux : un psychisme fragmenté est très vulnérable à de nouvelles circonstances traumatiques et l’autisme favorise la vulnérabilité aux évènements vitaux avec le risque de nouvelles fragmentations. Le délire et les autres symptômes accessoires sont la résultante des forces de fragmentation et des tentatives défensives. Une infinité de formes clinique est possible.

Sémiologie classique

Lorsque la schizophrénie évolue depuis plusieurs années, la dissociation et l’autisme se manifestent à tous les niveaux du fonctionnement de l’individu : la pensée marquée par un relâchement des associations, le contenu de cette pensée est impénétrable (troubles du langage, rationalisme morbide…), le délire paranoïde et hermétique.

Les thèmes variés marquent toujours une dépersonnalisation profonde avec un automatisme mental. Des hallucinations cénesthésiques indiquent une altération des strates fondamentales du Moi.

L’ambivalence massive provient de la fragmentation qui suscite des impulsions contradictoires et simultanées. La relation se caractérise par un mélange de désir fusionnel et d’agressivité s’exprimant souvent par des idées érotomaniaques et persécutives.

Les défenses autistiques présentent un émoussement apparent des affects avec une distance et une froideur affective. Ces défenses se heurtent à la réalité entrainant des décharges émotionnelles démasquant brutalement une angoisse extrême. Une discordance est possible entre les affects et la pensée.

Les bizarreries de la présentation (maniérisme) ou la désorganisation des conduites sont liée à la pression de fragmentation.

Des manifestations impulsives brutales peuvent se présenter quand les défenses autistiques sont débordées avec un risque de passage à l’acte autoagressif (ou hétéroagressif).

Formes de début

On distingue différentes formes de début :

  • Les formes à début aigu marquant une déstructuration rapide : bouffée délirante ou trouble de l’humeur atypique.
  • Les formes à début insidieux (mois à années) avec des symptômes retrouvés dans d’autres pathologies, expression de défenses contrôlant temporairement l’angoisse de morcellement.
  • Les formes pseudo-névrotiques avec symptômes hystériques, phobiques ou obsessionnels.
  • Les troubles du comportement comme des conduites addictives (la dépendance à l’objet addictif colmate temporairement la menace de morcellement) ou des passages à l’acte.
  • Le fléchissement de l’activité.

Formes évolutives

Au début, la schizophrénie est marquée par des symptômes paranoïdes avec un repli autistique fonctionnel. A un stade très avancé, toute excitation devient traumatisante, l’autisme devient abrasif avec des séquelles irréversibles.

L’activité parasite et les épisodes de déstructurations sont contrôlés avec les médicaments antipsychotiques et la prise en charge psychothérapeutique et sociale permettant de stabiliser l’individu.

Les deux formes prépondérantes actuelles sont :

  • Les formes paranoïdes marquées par les symptômes positifs (activité délirante et les hallucinations).
  • Les formes résiduelles (forte vulnérabilité avec une dépendance aux soins, organisée sur un mode ritualisé pseudo-obsessionnel).

Une personne schizophrène présente des phases paranoïdes où les moments productifs alternent avec des périodes plus stables sous traitement. Les rechutes surviennent après une interruption de la prise en charge, difficilement accepté initialement à cause du déni. Après quelques réhospitalisation, un suivi thérapeutique mieux toléré permet le passage à une forme résiduelle. Le renoncement à la guérison facilite un meilleur équilibre vital.

Il est important d’attendre longtemps après le début des troubles avant de se risquer à un diagnostic de schizophrénie (18 mois). Chez l’adulte jeune, chez l’adolescent, d’autres troubles plus fréquents doivent être écartés auparavant, même lors de symptômes bruyants (dépression, personnalité-limite, accès maniaque, prise de toxique…).

  1. Délires persistants systématisés

Une construction délirante peut parvenir à préserver l’unité psychique de base d’un individu menacé de fragmentation. Le délire est cohérent et s’accorde avec l’affectivité et le comportement. Le fonctionnement sous-jacent est de type psychotique, associant angoisse de morcellement, déni et mode de relation fusionnel.

Délire interprétatif (type paranoïaque)

Les paranoïa (après 35 ans) correspondent à des délires persistants les plus systématisés et forment une véritable carapace absorbant toute source de tension. Tout conflit est dénié, toute pulsion inadmissible narcissiquement est projetée à l’extérieur.

La relation thérapeutique est difficile : l’individu risque d’intégrer dans son système le thérapeute comme élément persécuteur.

Des phases dépressives indique une mobilisation de la carapace et sont insupportables narcissiquement pour le sujet d’où un risque de déstructuration aiguë ou de passage à l’acte.

Le début est marqué par une intuition initiale, sorte de relation, après une longue période de doute puis les évènements potentiellement traumatiques sont interprétés selon cette révélation.

Il existe deux sous-types :

  • Les paranoïas en secteur ou passionnelles (une idée prévalente liée à l’intuition initiale est investie passionnément, suscitant une exaltation pouvant devenir dangereuse).
  • Les délires en réseau où aucun secteur de la vie n’est préservé. La thématique est persécutive. Toutes les situations, les sensations, tous les évènements sont interprétés.

Délire imaginatif (type paraphrénique)

Les délires paraphréniques (rares, à partir de 30-45 ans) correspondent à des fragmentations psychique partielle entre un secteur délirant qui conserve une unité interne et un secteur qui reste adapté à la réalité.

Le mécanisme est l’imagination : à partir d’intuitions initiales, l’individu construit un monde luxuriant et imaginaire qui constitue la réalité pour lui. La thématique est souvent fantastique. Le secteur délirant assure le maintien de l’unité psychique en équilibrant les tensions suscitées par la réalité. Ces personnes vivent leur délire de façon bien contenue.

En raison de la fragmentation déjà entamée, des évolutions vers une dissociation schizophrénique sont possibles, notamment lorsque des circonstances trop traumatiques ne peuvent être écopées par l’imagination.

Psychose hallucinatoires chroniques

Les psychoses hallucinatoires chroniques apparaissent chez des femmes de 30-40 ans ou chez des personnes isolées socialement. La souffrance due à cet isolement entraine le recours à des processus défensifs par déni et projection. L’individu s’estime victime de l’intrusion d’autrui dans son espace propre, avec une thématique dominante de persécution. Cette problématique d’intrusion se manifeste par des hallucinations psychosensorielles (auditives, olfactives, cénesthésiques…) qui prouvent qu’autrui exerce sur la personne une action à distance et par un automatisme mental révélant des zones parasites actives en mémoire. L’évolution est souvent favorable car la prise en charge rompt l’isolement et les antipsychotiques contrôlent les zones parasites et réduisent les hallucinations.

Problème des réactions paranoïaques

Les manifestations délirantes reflètent une utilisation temporaire de défenses psychotiques sans qu’il y ait une infiltration irréversible de la mémoire subjective sur fond de structure psychotique. C’est le cas de :

  • Certaines dépressions proches de la mélancolie,
  • Réactions persécutives à l’isolement social, notamment chez des personnes transplantées culturellement,
  • Certaines psychoses déclenchées par la prise de toxiques.

La majorité des troubles délirants du DSM-5 ou de la CIM-10 sont de simples réactions paranoïaques. Ce n’est pas n’importe quel individu qui a recours à des défenses psychotiques, même en présence d’évènements de vie intenses.

Pour évaluer le destin d’une réaction paranoïaque, il convient de procéder au diagnostic de la personnalité pour mesurer le risque d’évolution en paranoïa.

 

III. Troubles névrotiques

Dans les troubles névrotiques, l’adaptation à la réalité est relativement conservée de même que le sentiment d’identité (pas d’idées délirantes). L’individu névrosé a une conscience critique de ses symptômes : il reconnait ce qui est pathologique et s’en plaint.

Les troubles névrotiques entrainent une souffrance extrême et de profondes perturbations de la vie sociale. Ces symptômes forment un compromis inconscient entre l’angoisse et les processus de défense. Les symptômes névrotiques sont issus d’une angoisse de castration liée à des conflits entre désirs et interdits (un désir érotique ou un fantasme agressif est écarté du psychisme conscient et revient de façon détournée sous la forme de symptômes).

Il peut s’agir de défenses contre une angoisse de morcellement préservant d’un effondrement psychotique, au moins provisoirement. Ou les manifestations névrotiques reflètent un mode de défense temporaire au cours d’une dépression sur un terrain d’organisation-limite. Il importe d’étudier l’organisation psychique sous-jacente. La névrose « vraie » correspond à des symptômes névrotiques associés à une personnalité pathologique.

  1. Syndromes anxio-phobiques

L’angoisse, ou l’anxiété, est un sentiment de menace non fondé objectivement. L’anxiété désigne une vigilance douloureuse (crainte plus ou moins nette). L’angoisse est une peur sans objet, subjective entrainant un état d’hypervigilance douloureuse concomitant de manifestations somatiques.

Dans les névroses :

  • d’angoisse: absence de fixation de l’angoisse et un fond anxieux permanent.
  • phobiques: l’angoisse est fixée sur des objets ou des situations précis.
  • obsessionnelles: l’angoisse est fixée sur des idées absurdes.

L’angoisse est l’émotion psychique par excellence : elle met en mouvement la psyché, reflet de son ambiguïté constitutive liée à la complexité de la mémoire subjective. L’angoisse a une valeur de mobilisation souvent créatrice et devient pathologique si les défenses enferment le sujet dans la répétition.

L’angoisse est présente dans tout trouble psychique soit exprimée dans les symptômes soit à l’arrière-plan, masquée par les défenses.

Crise d’angoisse et trouble panique

Une crise d’angoisse survient brutalement, avec le développement en quelques minutes d’un sentiment de malaise ou de menace intense échappant à la réassurance.

Des signes somatiques sont souvent présents : pâleur, dyspnée, palpitations, vertiges, céphalées, sueurs, tremblements, sécheresse de la bouche, nausée, vomissement… La personne a la conscience critique du caractère non fondé de sa crainte. Elle s’angoisse d’être angoissé, ce qui peut entrainer un sentiment de dépersonnalisation, voire des troubles du comportement ou des accidents organiques.

La crise durent quelques heures, laissant un souvenir pénible avec l’appréhension d’un nouvel épisode, avec parfois le développement d’une agoraphobie secondaire.

Dans le trouble panique, les crises d’angoisses appariassent à répétition, de façon imprévisible, sans facteur déclenchant.

Anxiété généralisée

L’individu garde un fond d’anxiété permanent pendant plusieurs mois ou années, si ce n’est toute leur vie. Cette angoisse « flottante » ou « libre » n’est pas liée à un souci bien précis, mais peut se polariser transitoirement sur une situation plus déterminée.

L’individu a conscience de l’absence de danger objectif mais ne peut s’empêcher de ressentir un sentiment d’insécurité chronique. Cela s’accompagne de difficultés de concentration, d’irritabilité, d’hypervigilance, d’insomnie. L’individu présente une tension musculaire constante et des somatisations variées. Les décompensations dépressives ou les conduites addictives secondaires sont fréquentes.

La névrose d’angoisse « classique » associe crises d’angoisse et anxiété généralisée.

Phobies

Une phobie est la crainte d’être en présence d’un objet ou d’une situation extérieure déterminés, dénués de dangerosité objective : l’angoisse est liée à un stimulus extérieur précis.

L’individu a une conscience critique du caractère excessif de son appréhension mais ne peut la surmonter. Une crise d’angoisse se déclenche lors de confrontation à la situation redoutée. La personne anticipe d’où des conduites d’évitement peuvent devenir très invalidantes. Le recours à des conduites ou des objets contraphobiques (dont la présence rassure face à l’objet phobogène) permet d’affronter la situation.

Il existe trois types de phobies :

  • L’agoraphobie (surtout chez les femmes, à partir de 16-35 ans) correspond à la crainte des espaces publics découverts ou toute situation sans issue ou sans secours facilement accessible.
  • Les phobies sociales (à partir de 15-21 ans) sont liées à la crainte d’être exposé à l’observation d’autrui. La personne redoute de se comporter de façon humiliante ou embarrassante en public. L’évitement entraine un retentissement social important.
  • Les phobies simples ou spécifiques correspondent à l’acrophobie (hauteur), la phobie du sang, la stomatophobie (soins dentaires), les phobies des injections, la phobie d’animaux, la phobie de l’orage, la phobie de l’obscurité, la phobie des examens…

La névrose phobique « classique » correspond à des symptômes phobiques dominants et durables, avec un retentissement important. On retrouve une personnalité hystérique ou évitante marquée par l’inhibition sociale malgré le désir de relations. Les symptômes phobiques peuvent survenir dans d’autres contextes qu’une névrose phobique, notamment lors de dépressions, de schizophrénies (phobie atypique), d’hystérie, de névrose obsessionnelle, de psychopathologie « quotidienne » (trace d’un évènement traumatique ancien, pression de la vie ordinaire, héritage phylogénétique ou moment-clef du développement psychique.

La grande fréquence des phobies reflètent l’efficacité psychique du processus de défense par déplacement. L’investissement d’un objet est transféré vers un objet substitutif lié par association mais moins conflictuel. Malgré son absurdité apparente, la phobie a toujours une signification dans l’espace subjectif, repérable par les bénéfices secondaires obtenus par l’évitement ou le recours aux objets contraphobiques. Le bénéfice primaire correspond à la réduction de l’angoisse et les bénéfices secondaires sont tous les avantages conscients.

  1. Syndromes obsessionnels-compulsifs

Un élément psychique conflictuel est resté actif et revient par des substituts dans la conscience. Les obsessions sont des intrusions à partir d’éléments refoulés. Le sujet peut tenter d’annuler l’obsession par un acte ou une pensée compulsive. De nouvelles intrusions obsessionnelles peuvent se produire, suscitant de nouvelles compulsions. Ces défenses finissent par enfermer le sujet dans une répétition pathologique. Les obsessions sont liées  des conflits entre fantasmes et interdits.

Obsessions et compulsions

Les obsessions sont des représentations intrusives qui assiègent la conscience, pénibles et absurdes pour la personne qui reconnait qu’elles sont issues de son propre psychisme.

Trois variétés d’obsessions existent :

  • Les obsessions idéatives sont des pensées ou images qui s’imposent à l’esprit.
  • Les obsessions impulsives associées à la crainte de perdre le contrôle de soi en commettant un acte obscène ou agressif. L’acte n’est jamais réalisé s’il s’agit d’une authentique obsession.
  • Les obsessions phobiques liées aux représentations de certains objets menaçants. Ces objets ne sont pas présents dans des situations extérieures concrètes : seule la pensée de ces objets suscite l’angoisse.

Les obsessions sont des comportements ou actes mentaux que l’individu se sent contraint de réaliser en réponse à une obsession pour la neutraliser. Les compulsions prennent la forme de procédure rigide et complexe. Un rituel est une procédure compulsive stéréotypée exécutée de façon quasi-magique. L’individu a conscience du caractère absurde des compulsions : il tente de leur résister mais finit toujours pas céder. La tonalité magique des éléments obsessionnels compulsifs contraste avec le souci prégnant de rationalité. Un syndrome obsessionnels-compulsif peut être envahissant jusqu’à avoir un retentissement social majeur et devenir une véritable torture mentale.

Névroses obsessionnelles

La névrose obsessionnelle « classique » correspond à un syndrome obsessionnel-compulsif persistant avec un retentissement important sur la vie de l’individu. On retrouve une personnalité obsessionnelle avec une double polarité : le besoin anankastique de contrôle et une tendance psychasthénique au doute. Les deux pôles entrent en tension : plus la personne tente d’exercer un contrôle rigoureux, plus elle a d’occasions de doute et réciproquement.

Autres contextes obsessionnels-compulsifs

D’autres contextes peuvent être liés à un syndrome obsessionnel-compulsif : troubles obsessionnel-compulsif transitoire lié à un moment du développement psychique ou à la pression des évènements vitaux, dépressions, schizophrénies (syndrome obsessionnel-compulsif atypique), autres troubles névrotiques.

  1. Syndromes hystériques

Un élément psychique conflictuel écarté de la conscience par refoulement ou clivage, mais resté actif ou ravivé par un évènement peut revenir se manifester sous la forme d’une conversion somatique ou psychique (projection dans une partie du corps ou basculement dans une partie psychique ignorée de la conscience ordinaire). L’individu se modèle sur tel aspect idéalisé ou dévalorisé d’autrui par des mécanismes complexes d’identification inconsciente.

Conversions somatiques

Une conversion somatique est un symptôme d’allure organique, sans lésion réelle sous-jacente, réversible, lié à un conflit psychique et non produit intentionnellement.

Les manifestations sont variées : troubles moteurs, troubles sensitifs et sensoriels, troubles neurovégétatifs, troubles sexuels variés.

Certains éléments sont évocateurs : absence de systématisation anatomo-physiologique (les symptômes se conforme aux représentations populaires que l’individu peut s’en faire), allure d’imitation d’un malade connu, évolution capricieuse avec sensibilité à la suggestion ou aux émotions, attitude de séduction sur fond d’érotisation de la relation, bénéfices secondaires (obtention de sollicitude), caractère spectaculaire contrastant avec une belle indifférence si le symptôme est réussi, signification symbolique liée à l’histoire subjective.

Il existe un caractère énigmatique inhérent à la conversion somatique (errance diagnostique et variation des symptômes en fonction de l’environnement culturel).

Certaines diagnostics différentiels doivent être évoqués : pathologie organique réelle, pathologie psychosomatique, trouble factice ou pathomimie, hypochondrie (maladie imaginaire), dépression, troubles anxieux…

Conversion psychiques

Certains syndromes rattachés à l’hystérie se manifestent par une altération transitoire des fonctions intégratives de la mémoire, de l’identité ou de la conscience.

Cela concerne différents troubles :

  • Amnésie psychogène: perte transitoire et partielle de la mémoire dont un compartiment est comme effacé, lié à un souvenir traumatique.
  • Fugue psychogène: l’individu quitte soudain son domicile en adoptant une nouvelle identité, le passé et oublié partiellement ou totalement.
  • Personnalité multiple.
  • Dépersonnalisation: sentiment angoissant de clivage de la conscience, de détachement, associé à une déréalisation.
  • Etats de transes (ou état second) : altération transitoire de la conscience, analogue à un état hypnotique.
  • Etats crépusculaire: la conscience est obscurcie et centrée sur une idée fixe subconsciente avec dépersonnalisation et déréalisation.
  • Etats somnambuliques: jouer une scène dramatique en état de sommeil profond.

L’individu fonctionne avec des compartiments psychiques étanches et l’altération des fonctions intégratives est réversible (absence de fragmentation du psychisme).

Névroses hystériques

La névrose hystérique « classique » correspond à des syndromes conversifs centraux, multiples et persistants avec un retentissement important sur la vie de l’individu. On retrouve une personnalité hystérique avec une double polarité : l’histrionisme et la dépendance affective.

Ces deux pôles complémentaires de la personnalité favorisent la survenue de syndromes conversifs : passivité et histrionisme (facilitant l’adoption du rôle de malade) et mythomanie et défaillance de l’image de Soi (facilitant des switches vers des compartiments psychiques méconnus de la conscience).

Autres contextes de syndromes conversifs

Les syndromes conversifs apparaissent le plus souvent en dehors d’une névrose hystérique. Des contextes fréquents sont : conversion somatique transitoire liée à la pression des évènements vitaux, dépression, autres troubles névrotique (syndrome anxio-phobique, syndrome psycho-traumatique), troubles de la personnalité psychopathique ou borderline (angoisse d’abandon), schizophrénies (ligne de défense transitoire contre l’angoisse de morcellement et la dissociation).

 

IV. Troubles thymiques

La thymie ou humeur désigne la tonalité affective de base reflétant l’accord global de l’individu et du monde, allant de la douleur la plus intense à la joie la plus profonde. Il intervient une infinité d’éléments psychologiques mais aussi biologiques et environnementaux. Un trouble psychique se manifeste par une perturbation thymique pouvant prendre la forme d’un syndrome dépressif, maniaque ou mixte. Une perturbation de l’humeur peut être associée à n’importe quel type de trouble mentale ou organique.

  1. Syndrome dépressif

Le syndrome dépressif associe une douleur morale et un ralentissement psychomoteur. L’inhibition psychique éclaire la valeur défensive du syndrome dépressif en limitant le potentiel d’évènements traumatiques. L’inhibition n’est pas un mécanisme de défense, c’est un symptôme.

La vie ordinaire peut comporter des phases de repos psychique avec une filtration des évènements par inhibition partielle pendant que le psychisme se réorganise en profondeur. Lors d’une dépression, l’inhibition constitue un piège sans issue.

Trois groupes de symptômes existent :

  • La douleur morale correspond à une tristesse durable, peu sensible au réconfort avec une perte de l’estime de soi (sentiment d’incapacité et d’échec, avec une honte sous la culpabilité). L’anhédonie désigne l’impossibilité du plaisir. Le pessimisme ferme l’horizon et les idées noires peuvent être envahissantes.
  • Le ralentissement psychomoteur: visage figé, voix monocorde, asthénie, apragmatisme, aboulie, repli social, bradypsychie avec troubles de la mémoire et appauvrissement idéique.
  • Des signes non spécifiques: angoisses toujours présente masquée par le ralentissement, anorexie avec amaigrissement, hyperphagie avec obésité, insomnie ou hypersomnie, diminution de la libido.
  1. Formes cliniques de la dépression

Le syndrome dépressif correspond à des tableaux cliniques variés. On retrouve une souffrance psychique de même type que la douleur morale ou les symptômes semblent être une défense contre une telle souffrance.

Les formes les plus souvent rencontrées sont :

  • Les formes somatiques (dépression masquée) ;
  • Les formes comportementales (chez les adolescents, fugues, attitudes de mise en danger) ;
  • Les formes cognitives (chez personnes âgées, inhibition intellectuelle ou échec scolaire chez les enfants) ;
  • Les formes addictives (conduites addictives reflétant une défense contre une menace dépressive) ;
  • Les formes névrotiques (symptômes obsessionnels, phobiques ou hystériques sont une protection contre la souffrance dépressive) ;
  • Les formes psychotiques ou mélancolies (avec syndrome délirant aigu).

La mélancolie typique se reconnait à l’intensité extrême de la douleur morale et au ralentissement. Le syndrome délirant est congruent à l’humeur (idée de faute impardonnable, de catastrophe, de ruine, de châtiment…). Les idées délirantes sont trompeuses. Le syndrome de Cotard comporte un délire de négation des organes, voire du corps entier ou de la totalité du monde extérieur, avec des idées d’énormité et des idées de possession, de persécution justifiée, de damnation, associé à des idées d’immortalité en alternance avec la conviction d’être déjà mort. Dans certaines mélancolies, l’angoisse suscite une agitation intense au lieu d’un ralentissement.

  1. Dépressions primaires

Lorsqu’un syndrome dépressif ne dépend pas d’un trouble psychique ou organique pus fondamental, la dépression est primaire. Deux types existent : les dépressions psychogènes et les dépressions endogènes.

Les dépressions psychogènes ou névrotico-réactionnelles résultent d’une combinaison variable de facteurs déclenchants et de facteurs liés à une personnalité vulnérable. Lorsque le poids des évènements traumatiques est important, c’est une dépression réactionnelle. Le caractère traumatisant de l’évènement est alors objectivement compréhensible. Lorsque le poids des facteurs de personnalité est important, il s’agit d’une dépression névrotique. La dépression succède à un évènement dont la valeur traumatique est conférée par l’individu. Le caractère névrotique de cette dépression est lié au fait que l’évènement traumatique en résonnance avec une problématique inconsciente, refoulée, a réactivé le conflit et entrainé la décompensation dépressive.

Les dépressions endogènes ne comportent aucun évènement déclenchant notable, ni personnalité problématique. Elles présentent une forme mélancolique caractéristique et la fréquence des antécédents personnels et familiaux dépressifs ou maniques. Les dépressions endogènes se rattachent à la psychose maniaco-dépressive (survenue d’épisodes tantôt maniaques, tantôt mélancoliques avec une guérison complète entre les accès). La gravité des conséquences des épisodes maniaques ou mélancoliques justifie l’utilisation de médicaments thymorégulateurs. La psychose maniaco-dépressive comporte des facteurs génétiques notamment dans les formes familiales. Cette psychose reflète des mécanismes de défense puissants de type clivage contre une angoisse d’abandon jusqu’au déni contre une angoisse de morcellement. Ces psychoses sont liées à une organisation-limite ou à une structure psychotique, même si la personnalité de base parait ordinaire.

Les psychoses maniaco-dépressives sont des oscillations maniaco-dépressives de faibles fréquence mais particulièrement intenses et une infinité de variations bipolaires plus mineures peuvent être observées. On distingue plusieurs types de troubles bipolaires en fonction de la sévérité des antécédents maniaques. La cyclothymie est caractérisée par l’alternance d’épisodes hypomanes et de phases subdépressives.

On parle de névrose dépressive lorsque la dépression persiste des années.

  1. Dépressions secondaires

La dépression secondaire correspond à un syndrome dépressif apparaissant sur le fond d’une autre trouble psychique (dépression associée) ou d’un trouble organique (dépression somatogène). Toute pathologie mentale peut être associée à des phases dépressives.

Quelques situations de décompensations dépressives :

  • La pression des circonstances entrainant l’aggravation d’une névrose obsessionnelle ou phobique.
  • Des évènements débordant les défenses habituelles par clivage chez des personnalités limites ou psychopathiques sur fond d’organisation limite (constamment menacées par la dépression du fait d’une angoisse d’abandon).
  • Des périodes précédent l’éclosion d’un délire dans les troubles psychotiques (l’inhibition dépressive protège temporairement contre l’angoisse de morcellement).
  • Des phases de prise de conscience des troubles ou de sédation du délire dans les troubles psychotiques.
  • Des périodes post-sevrage dans les troubles addictifs.
  • Des phases d’atterrissage dans la réalité après un épisode maniaque.

Une pathologie organique peut être associée à un syndrome dépressif en raison de :

  • Mécanismes biologiques de certaines pathologies somatiques ;
  • Réactions psychologiques à la maladie;
  • Effets secondaires de certains traitements.

Une dépression peut très bien être à la fois cause et conséquence d’un autre trouble psychique ou bien comporter des éléments psychogènes et des éléments somatogènes.

  1. Syndrome maniaque

Le syndrome maniaque correspond à un état d’excitation de l’individu. Un état maniaque est une défense contre une menace dépressive comme les circonstances conflictuelles ou traumatiques, une amorce dépressive, la versatilité de l’humeur, le virage dépressif post-maniaque. L’excitation permet à l’individu de fuir provisoirement la dépression.

Un état maniaque typique débute par un bref prodrome. Puis apparait l’euphorie associée à un optimisme débordant, un sentiment d’omnipotence et l’absence de limites, l’exaltation, le ludisme, la surestimation de soi, la mégalomanie. L’individu peut présenter de brusques phases agressives ou dépressives (versatilité) révélant ce qui le menace. L’excitation psychomotrice se révèle par une présentation extravagante, des rires, une hyperactivité stérile, des projets multiples avec un risque de dépenses inconsidérées, une désinhibition, une distractibilité, une tachypsychie, une fuite d’idée, une logorrhée, des associations superficielles, une insomnie sans fatigue.

Dans le déni, l’individu maniaque ne reconnait aucun trouble. Il éprouve de la nostalgie d’un état où tout était possible. La personnalité est marquée par le doute narcissique. Un virage dépressif post-maniaque est fréquent. Le syndrome maniaque prend une allure délirante lorsque l’individu n’a plus aucune distance vis-à-vis des thèmes mégalomaniaques.

Il existe des formes mineures d’hypomanie où la personne est excitée mais conserve son adaptation au monde. Dans l’accès hypomaniaque, on retrouve une excitation intellectuelle (créativité, originalité, initiatives audacieuses non déraisonnables, répartie), une hyperactivité mal contrôlée et un trouble du caractère (impatience, intolérance, irritabilité, agressivité, autoritarisme…).

  1. Syndrome mixte

Un syndrome mixte désigne la coexistence ou l’alternance rapide de composantes maniaques et de composantes dépressives. La réaction maniaque représente une défense contre une menace dépressive.

  1. Etats maniaques et états mixtes

Un épisode maniaque ou un épisode mixte franc est liée à une psychose maniaco-dépressive (puissants processus de déni) ou à des facteurs somatiques (prise de toxiques, médicaments, maladies). Dans le cas de prise de toxiques, une organisation-limite est fréquente. L’hypomanie peut être associée à tout type de terrain.

 

V. Troubles de la personnalité (ou personnalités pathologiques)

Les troubles de la personnalité désignent un regroupement de modes de comportement, de pensée, d’affectivité et de relation induisant des difficultés au long cours, avec une souffrance subjectives ou une altération de l’adaptation sociale.

Toute personne a une structure ou une organisation qui est définitive à l’âge adulte. Ces structures ne sont pas pathologiques en elles-mêmes. Tout individu a une personnalité (résultante de l’intégration des composantes pulsionnelles, émotionnelles et cognitives au cours du développement). La manifestation observable de la personnalité est le caractère définissant une manière habituelle d’être, de se comporter.

Les personnalités obsessionnelles, hystériques ou évitantes sont associées à des terrains de décompensation névrotique. Les personnalités paranoïaque, schizoïde et schizotypique offrent des terrains de décompensation psychotique.

Il faut distinguer un trouble de la personnalité des modes de décompensations potentiels. Il faut distinguer la personnalité observée sur le plan sémiologique et l’organisation psychique sous-jacente.

  1. Personnalité évitante

Le personnalité évitante correspond à la coexistence d’une inhibition et d’un retrait social malgré une volonté de relations et un désir d’être aimé et reconnu. Cela peut entrainer une décompensations anxieuse, dépressive ou comportementale (colères) ou simplement une timidité, une peur d’être mal jugé, critiqué, de ne pas être à la hauteur ou d’être ridicule.

  1. Personnalité dépendante

Une personnalité dépendante correspond à un besoin excessif d’être pris en charge entrainant un comportement soumis et « collant », et à une peur de la séparation.

L’individu présente au moins cinq manifestations :

  • Difficulté à prendre des décisions dans la vie courante sans être rassuré ou conseillé de manière excessive par autrui.
  • Besoin que d’autres assument les responsabilités dans la plupart des domaines importants de sa vie.
  • Difficulté à exprimer un désaccord avec autrui de peur de perdre son soutien et son approbation.
  • Difficulté à initier des projets ou à faire des choses seul.
  • Recherche à outrance à obtenir le soutien et l’appui d’autrui, au point de faire volontairement des choses désagréables.
  • Mal à l’aise ou impuissant quand il est seul par crainte exagérée d’être incapable e se débrouiller.
  • Lorsqu’une relation proche se termine, recherche urgente une autre relation qui puisse assurer les soins et le soutien dont il a besoin.
  • Préoccupation irréaliste par crainte d’être laissé à se débrouiller seul.
  1. Personnalité obsessionnelle

La personnalité obsessionnelle (ou compulsive) présente une double polarité :

  • Besoin anankastique de contrôle (goût pour l’ordre et la propreté, conformisme, formalisme, méticulosité, avarice, entêtement, pauvreté des affects et de la sensualité, incapacité à la détente…) ;
  • Tendance psychasthénique au doute (indécision, scrupules excessifs, introspection et intellectualisation, refuge dans l’abstraction, prédominance de la pensée sur l’action, procrastination…).
  1. Personnalité hystérique

La personnalité hystérique présente une double polarité :

  • Histrionisme (quête d’attention, théâtralisme avec hyperexpressivité des affects, suggestibilité, immaturité, séduction inappropriée et érotisation de la relation, modelage sur des stéréotypes sexuels, crainte de la sexualité réelle, mythomanie) ;
  • Dépendance affective(quête affective, passivité, soumission au regard d’autrui, dévalorisation de soi, intolérance à la solitude, demande constante de réassurance).
  1. Personnalité paranoïaque

La personnalité paranoïaque se caractérise par quatre traits fondamentaux :

  • L’hypertrophie du Moi (vanité et orgueil, psychorigidité, obstination, intolérance, mépris d’autrui voire fanatisme) ;
  • La méfiance (sentiments de persécution et d’isolement associé à la susceptibilité, la réticence et l’hypervigilance) ;
  • La fausseté du jugement (fausses interprétations et subjectivisme pathologique, sous-tendue par les sentiments de persécution et de grandeur, autocritique et doute impossibles, autoritarisme et intolérance concernant les opinions d’autrui) ;
  • L’inadaptation sociale (difficulté à subir une discipline collective, tendance à s’isoler, égocentriques, sociabilité médiocre, rigides rancuniers, quérulents).
  1. Personnalité schizoïde

La personnalité schizoïde s’exprime par un retrait dans tous les champs de la vie de l’individu en contraste avec une richesse de sa vie imaginaire. La personne est distante, froide, peu adapté, incapable d’exprimer des sentiments affectueux ou de la colère, et présente une indifférence égale aux éloges et à la critique, peu d’intérêt aux relations sexuelles. C’est une personne solitaire, repliée sur elle-même, désintéressée des relations amicales, mais avec une vive production imaginative (pensées abstraites souvent hermétiques, croyances mystiques ou métaphysiques bizarres). Il est perçu comme un original aux idées inhabituelles. Ces personnes rencontrent des difficulté dans les relations sociales et une inadaptation socio-professionnelle.

  1. Personnalité schizotypique

La personnalité schizotypique « classique » est considérée comme une forme de schizophrénie. Elle est caractérisée par un déficit social et interpersonnel marqué par une gêne aiguë et des compétences réduites dans les relations proches, par des distorsions cognitives et perceptuelles et par des conduites excentriques avec au moins 5 manifestations :

  • idées de référence,
  • croyances bizarres ou pensée magique qui influencent le comportement,
  • perceptions inhabituelles (illusions corporelles),
  • pensée et langage bizarres,
  • idéation méfiante ou persécutoire,
  • inadéquation ou pauvreté des affects,
  • comportement ou aspect bizarre, excentrique ou singulier,
  • absence d’amis proche ou de confidents,
  • anxiété excessive en situation sociale (craintes persécutoires).

La personnalité schizotypique ne survient pas exclusivement pendant l’évolution d’une schizophrénie, d’un trouble bipolaire ou dépressif ou d’autres troubles psychotique ou d’un trouble du spectre de l’autisme.

  1. Personnalité limite

La personnalité-limite correspond à un mode général d’instabilité du comportement, de l’image de soi, de l’affectivité et des relations. La biographie est chaotique. Le fonctionnement est sous-tendu par un doute sur la valeur de soi (tantôt idéalisant son image, tantôt se dévalorisant). La menace dépressive est constante alors que la souffrance psychique n’est pas supportée.

Ceci se manifeste par d’intenses oscillations d’humeur, avec des moments dépressifs marqués par la honte et la rage ou par un fonctionnement d’hypomane défensif. Les relations dramatisées révèlent une dépendance à l’autre (dépendance narcissique à autrui), avec intolérance à la solitude associé à une alternance d’extrêmes : passage brutal de l’amour à la haine. L’utilisation d’autrui (objet ou prothèse narcissique) peut tomber dans la perversion.

L’angoisse est présente en arrière-plan, activée par les séparations, masquée sous une thématique existentielle ou mortifère. Les décompensations peuvent survenir au moment même où l’individu paraissait s’orienter vers un mode de vie plus stable.

Lorsque l’angoisse déborde les défenses, l’individu présente des symptômes variés : troubles névrotiques, conduites addictives, troubles du comportement et passages à l’acte, états de dépersonnalisation, brefs états délirants aigus.

  1. Personnalité narcissique

La personnalité narcissique est une variante de la personnalité-limite avec une image idéalisée de soi au premier plan. Ceci s’exprime par un sentiment d’être unique, une survalorisation de soi et un manque d’empathie, avec un besoin éperdu de reconnaissance. La dépendance au jugement des autres trahit la défaillance narcissique qui peut entrainer de brefs effondrements.

  1. Personnalité psychopathique

La personnalité psychopathique ou antisociale comporte une dévalorisation de soi au premier plan. L’impulsivité est marquée et l’individu se heurte constamment aux règles sociales : ruptures, instabilité et conflits avec les institutions. L’enfance est souvent marquée par des carences affectives. Les passages à l’acte peu mentalisés se caractérisent par l’absence de culpabilité apparente et leur répétition sans apprentissage. L’approche thérapeutique est délicate du fait de la reproduction des mises en échec, de la fuite de toute responsabilité, de la transgression des droits d’autrui, des manipulations mythomaniaques et de l’égocentrisme. La profondeur de la souffrance psychique se révèle par l’avidité affective, l’intolérance à la solitude et la honte. Les décompensations présentent des troubles de l’humeur, des conduites addictives et des somatisations.

 

VI. Syndromes psycho-traumatiques

Les syndromes psycho-traumatiques désignent des troubles où un évènement déclenchant est clairement repérable. Sans cet évènement, le trouble ne serait pas apparu, malgré la vulnérabilité préalable. Ces troubles peuvent survenir sur tout type d’organisation psychique. L’expression symptomatique dépend de la structure sous-jacente et de la résonnance de l’évènement avec l’histoire subjective. Ces syndromes sont très variés.

  1. Syndrome traumatique aigu

Le syndrome traumatique aigu désigne le trouble stress aigu (DSM-5) et la réaction aiguë à un facteur de stress (CIM-10). Il survient à la suite d’un évènement hors du commun confrontant directement le sujet à la mort ou à un équivalent symbolique. Il apparait immédiatement ou dans les minutes qui suivent l’évènement qui a suscité un sentiment de peur, d’impuissance ou d’horreur et ne dure pas plus que quelques jours.

Des manifestations anxieuses apparaissent  comme des réactions de type dissociatif (conversion psychique) : sidération, dépersonnalisation, pseudoconfusion (apathie, mutisme, stupeur, hébétude, désorientation, agitation interne, déambulation, fuite, violence…), fugue, activité automatique, amnésie péri-traumatique… On observe aussi des états de panique, des symptômes dépressifs ou maniaques, des troubles du comportement et des états délirants aigus.

  1. Syndrome traumatique persistant

Le syndrome traumatique persistant ou névrose traumatique classique désigne un trouble stress post-traumatique (DSM-5) ou un état de stress post-traumatique (CIM-10). Le syndrome apparait suite à une situation hors du commun confrontant directement l’individu à la mort ou à l’intolérable (viol, torture…). Lors du choc initial, l’individu éprouve des sentiments de détresse, d’horreur, d’impuissance et un possible syndrome traumatique aigu initial. Après quelques jours à plusieurs années, le syndrome persistant se constitue, caractérisé par la répétition.

L’évènement traumatique est revécu de façon répétitive accompagné d’une reviviscence des sentiments de détresse ou d’horreur. La pensée est également polarisée par l’évènement malgré l’amnésie d’un aspect importent de l’évènement. L’évitement des stimuli associés à l’évènement traumatique. La confrontation imprévue à ces stimuli ravive l’angoisse et les symptômes de répétition. Des symptômes anxieux avec activation neuro-végétative sont présents. Il existe aussi un émoussement général (asthénie, troubles de la concentration et de la mémoire, détachement à autrui ou dépendance régressive, sentiment d’absence d’avenir) et une culpabilité (syndrome du survivant). Cela peut envahir la vie jusqu’à retentir sur la personnalité avec altération relationnelle, repli, sentiment d’incompréhension, voire hostilité, hypocondrie ou revendication sinistrosique. Des décompensations dépressives ou addictives sont possibles.

  1. Réaction traumatique

La réaction traumatique, désigné aussi comme troubles de l’adaptation à une situation, correspond à un syndrome traumatiques peu intense ou pas total. L’élément évocateur est l’envahissement par le souvenir de l’évènement avec parfois un revécu intrusif.

  1. Composante traumatique

La composante traumatique peut être présente au premier plan dans certaines phobies ou conversions, dans la dépression réactionnelle ou dans la psychose réactionnelle brève.

 

Initiation aux méthodes en psychologie, Licence 2

Enquête: questionnaire & échelles

L’enquête est un recueil systématique de données obtenues sur un échantillon d’individus représentatif d’une population parente donnée. Les résultats dépendent de la manière dont on pose les questions et de contexte.

Dans le format de questionnaires, il existe les questionnaires fermés et les questionnaires ouverts. Parmi les questionnaires fermés, il existe le format d’évaluation (rating) qui permet de se positionner sur une échelle et le format de classement (ranking) qui permet d’ordonner les sujets.

Dans un questionnaire servant à mesurer des opinions et des attitudes, il existe des échelles dichotomiques (oui/non) et des échelles d’accord-désaccord pouvant comporter jusqu’à 11 points.

 

I. Définitions de base

Définitions

L’enquête est une méthode interrogative qui considère les objets psychologiques de la pensée comme des objets mesurables. L’enquête permet de mesurer la perception des individus sur des objets ou des évènements sociaux. L’enquête peut prendre la forme de questions courtes ou d’un questionnaire papier-crayon ou d’un discours produits lors d’un entretien en tête-à-tête, intensif et en profondeur.

Le questionnaire est une suite de propositions (avec une forme et un ordre) pour solliciter l’avis, le jugement ou l’évaluation d’un sujet interrogé. L’évaluation est mesurée par le positionnement du répondant sur une échelle.

Une échelle est un dispositif servant à attribuer des unités d’analyse (nombres) à des catégories d’une variable. L’objet de la mesure est ordonnable en une suite de niveaux se succédant progressivement. Il y a correspondance entre cette variable de l’échelle et les valeurs des attributs. La propriété fondamentale des échelles est l’ordre. Selon Judd et McClelland (1998), l’échelle est le modèle ou la description compacte que nous construisons à partir des observations par l’intermédiaire de la mesure.

Le construct (hypothétique en psychologie) est l’objet de la procédure d’opérationnalisation, représentée par un réseau nomologique.

Le réseau nomologique

Le réseau nomologique est la modélisation formelle d’un processus d’opérationnalisation de concepts. Ce réseau comprend le cadre théorique de ce qu’on essaye de mesurer et un cadre empirique pour savoir comment on va le mesurer. Le réseau nomologique est fondé sur les principes de validité de construit, d’homologie et de cohérence.

Les lois dans un réseau nomologique concernent les propriétés ou les quantités observables de plusieurs constructs théoriques entre eux et leurs relations avec des constructs théoriques observables. L’ajout d’un nouveau construct ou d’une relation à une théorie doit générer des lois (nomologiques) confirmées par l’observation ou réduire le nombre de nomologies nécessaires pour prédire certains observables. Les opérations qualitativement différentes chevauchent ou mesurent la même chose si leurs positions dans le réseau nomologique les lient ensemble à la même variable du construct.

Le réseau nomologique comporte le construct hypothétique (concepts), les relations entre constructs (concepts théoriques), les indicateurs empiriques (observables) des constructs théoriques, les relations entre les constructs théoriques et leurs indicateurs empiriques et les relations entre indicateurs empiriques.

Le réseau nomologique est un procédé analytique qui consiste à décomposer un construct ou concept théorique, représentant des phénomènes plus ou moins complexes, en un ensemble de parties élémentaires liées entre elles et leurs articulations avec les phénomènes. Il s’agit d’un processus d’opérationnalisation d’un concept théorique en termes d’indicateurs empiriques. Le réseau nomologique est un modèle permettant de visualiser et comprendre comment ces éléments théoriques et empiriques sont reliés entre eux et comment ils s’articulent pour donner une image claire du processus global.

 

II. Des échelles de mesure et types de variables

La psychologie moderne, quantitative et expérimentale, a commencé avec Fechner en 1860. La mesure psychophysique conçue par Fechner permet de quantifier l’intensité des sensations. L’idée de Fechner est que la présentation de chaque stimulus donne lieu à un état mental, une sensation. La grandeur physique du stimulus et l’intensité de la sensibilité correspondante sont liées par une formule mathématique spécifique à cet attribut. Il existe une relation entre les attributs du stimulus et la nature (intensité, direction ou force) de la réponse et l’idée que cette relation est médiatisée par une activité ou un état cognitif.

L’idée fondatrice de la psychophysique est que la mesure des seuils et des capacités discriminatoires sensoriels correspondent à la mesure des actes mentaux et des réponses physiologiques de l’organisme. Cela a donné lieu à la méthode des temps de réaction, à la chronométrie mentale, à la mesure quantitative de la mémoire et de l’apprentissage et à la mesure des différences des capacités individuelles.

Selon Alfred Binet, l’échelle ne permet pas la mesure de l’intelligence car les qualités intellectuelles ne sont pas superposables et ne peuvent donc être mesurées comme des surfaces linéaires.

Les attributs psychologiques caractérisant les phénomènes mesurables sont les représentations mentales, les émotions, l’intelligence, les habiletés, les capacités, les attitudes…

La définition de l’unité de mesure pose problème. La psychologie adopte des positions relatives à la mesure, souvent l’écart entre deux variables et l’importance de celui-ci. Les analyses factorielles, les analyses corrélationnelles et les analyses de variance évaluent l’envergure d’une différence observée entre plusieurs variables.

L’opérationnalisation

Stevens (1951) a développé sa propre théorie sur différents types d’échelles de mesure : échelles nominal, ordinale, d’intervalle et de rapport.

L’opérationnalisation est un processus général qui consiste en un ensemble de transformation d’un concept abstrait en un ensemble d’attributs qui définissent empiriquement ce concept.

La mesure implique une correspondance biunivoque entre les grandeurs d’une quantité et un sous-ensemble de l’un ou l’autre des systèmes numériques, intégrale, relationnel ou réelle pour que l’ordre des grandeurs soit représenté par l’ordre des numéros correspondants. Les nombres attribués aux objets prennent leur sens dans les relations définies opérationnellement entre les objets.

L’opérationnalisation exige la définition formelle de tout processus de la recherche et doit établir la nature des relations entre les différents éléments participant à la structure et la mise en place d’une recherche avec pour point central l’opérationnalisation entre les mesures numériques et les attributs mesurable des phénomènes.

Les échelles sont des instruments techniques comportant une suite de valeurs servant de moyen de mesure ou d’évaluation des phénomènes psychologiques observables. Ces phénomènes ne possèdent pas intrinsèquement des unités de mesures empiriques (longueur, poids…). L’échelle de mesure en psychologique est considérée comme isomorphe au phénomène. Les échelles sont construites sur trois structures : la classification des objets de mesure, l’ordre entre ces objets et les distances supposées entre les éléments caractéristiques du phénomène observé.

Les échelles nominales, ordinales, d’intervalle et de rapport permet de mesurer les phénomènes psychologiques et répondent aux exigences de classification, d’ordre, de distance ou d’égalité de proportions. Les échelles nominales et ordinales mesurent des variables qualitatives (noms des modalités des réponses et ordre donné à des catégories de réponse). Les échelles d’intervalle et de rapport mesurent des variables quantitatives (distance entre deux valeurs ou scores et proportions entre la grandeur d’une mesure et une mesure de référence). L’analyse quantitative de ces données fait appel à des procédures statistiques spécifiques selon la nature des variables mesurées (à identifier en premier).

En 1928, Thurstone publie un article sur la mesure des attitudes.

Selon Stevens, la mesure commence avec l’identification d’un ensemble d’objets empiriques et des relations empiriques entre ces objets. Les transformations mathématiques définissant les types d’échelles préservent l’invariance de la forme de l’échelle.

Echelle nominale

L’échelle nominale considère qu’il y a égalité entre les membres. Le dénombrement permet d’assigner un nombre aux variables sous-jacentes. On dénombre soit les individus statistiques soit les classes d’objets. La mesure de tendance centrale est le mode. La représentation numérique d’une variable nominale nécessite le recodage et la description des distributions. Lors de comparaison inférentielle, la distribution de la variable observée est comparée à la distribution théorique (pas de différence entre les valeurs des modalités observées). On utilise le mode et le carré moyen de contingence pour décrire la distribution.

Echelle ordinale

L’échelle ordinale range les observations dans un ordre qui reflètent l’ordre de l’observation empirique. Les tests d’intelligence déterminent un ordre sur la qualité des performances des sujets. L’échelle ordinale permet une transformation monotonique. Au niveau descriptif, on utilise la médiane et le coefficient de corrélation de Spearman.

Echelle d’intervalle et de rapport

Dans les échelles d’intervalle et de rapport, les nombres réels assignés aux observations dans les différentes catégories sont reliés l’un à l’autre par une fonction numérique. Ces échelles sont caractérisées par l’ordre et la distance entre les modalités. Au niveau descriptif, on utilise la moyenne, la variance et le coefficient de Bravais-Pearson.

Typologie de tâches

La présentation d’un nombre limité et bien établi de tâches est une stratégie ciblée, préférable et fonctionnelle : tâches ordinales, tâches d’appréciation de catégories ordonnées, tâches de jugement de similitude, tâches de regroupement libre, tâche d’association. Les différences entre ces tâches produisent des différences d’orientation et du type d’analyse des données.

Les tâches de jugements de similitude ou de choix de préférences : lorsqu’on construit une échelle, on obtient comme réponses des jugements de similitude. La mesure de préférences subjectives immédiates d’un ensemble d’objets correspond par exemple aux échelles de satisfaction et d’optimisme. Si les données recueillies sont des préférences (attributions causales) plutôt que des jugements (attitudes), une analyse descriptive directe est envisageable.

Dans les taches de similitudes, plus important est l’indicateur, plus importante sera la similitude entre deux objets.

Les tâches ordinales produisent des données dominantes. Pour classer par rangs, on peut le faire sur l’ensemble des items, on bien par paires d’items. C’est une échelle hiérarchique indiquant la dominance des items, appelée Echelle de Guttman. L’échelle de Guttman mesure les items en leur imposant un pattern particulier qui indique, justement, que les items mesurent une variable unidimensionnelle.

Les tâches d’appréciation de catégories ordonnées. Le modèle des échelles de mesures unidimensionnelle utilise la méthode de classement additif des échelles de Likert et l’évaluation tri-factorielle (efficacité, évaluation et activité) par le différentiateur sémantique d’Osgood, où l’on évalue un objet sur des échelles bipolaires étiquetées par des paires d’adjectifs.

Les blocs incomplets équilibrés sont des petits ensembles d’items rangés de telle manière que toutes les comparaisons de paires possibles soient inférées (utilisé lorsqu’il y a plus de 20 items à ranger). Par exemple, la tâche consiste à ranger par ordre 3 items à la fois. Dans la matrice est inscrit si l’adjectif de la colonne est jugé au-dessus (en priorité) de l’adjectif de la ligne. Sur la dernière ligne on fait la somme de la valeur totale obtenue pour chaque adjectif.

 

III. Echelles de mesure

Echelle de Thurstone

Thurstone s’attèle au domaine de la mesure des attitudes où il est plus difficile de classer les stimuli sur une base évidente d’intensité, en fixant la taille de l’intervalle qui sépare deux propositions sur ce continuum. Les sujets (ou des juges) comparent l’ensemble des stimuli (préalablement constitués) par paires de manière à établir des relations d’ordre entre chacun d’eux.

On estime la taille des intervalles grâce à une procédure statistique : on calcule la probabilité qu’une attitude appartienne aux diverses classes, puis on convertit l’échelle ordinale en échelle d’intervalles via la transformation des fréquences cumulées de chaque item en note z et enfin on évalue les centres de différentes catégories et leurs écarts. On établit la valeur d’un item sur l’échelle en choisissant la valeur centrale de sa classe modale.

Pour mesurer l’attitude de sujets, on demande aux individus de marquer leur accord ou leur désaccord par rapport aux différents items de l’échelle. On calcule la moyenne des notes relatives aux items avec lesquels les individus sont d’accord. Cette moyenne permet de situer chaque individu sur le continuum établi lors de la phase de création de l’échelle.

La création d’une échelle d’intervalles égaux comporte les activités suivantes :

  1. Générer un ensemble important d’énoncés possibles ;
  2. Les juges évaluent les énoncés ;
  3. Pour chaque énoncé, tracer un histogramme des numéros marqué  par les différents juges ;
  4. Identifier le score médian pour chaque énoncé, le premier quartile et le dernier quartile ;
  5. Identifier l’intervalle interquartile ;
  6. Trier la liste par valeur médiane ;
  7. Sélectionner un ensemble d’énoncés ayant des positions égales le long des médianes ;
  8. Choisir l’un des énoncés avec l’interquartile le plus bas pour chaque position.

Echelles de type Likert

Les échelles de Likert sont une technique de mesures unidimensionnelles. La mesure et l’évaluation sont produites par la somme des notes obtenues pour tous les items. Appelées aussi méthode de classement additif.

Cette technique suppose que les items suivent un ordre régulier et continu et que la force ou l’intensité de l’expérience est linéaire sur un continuum allant de « fortement d’accord » à « fortement en désaccord ». Pour chaque item, les sujets ont un choix à faire pour se positionner sur l’échelle. Les échelles de Likert comportent 5, 6 ou 7 points avec un point neutre central étant « ni d’accord, ni en désaccord ». Certaines échelles évitent le point neutre est sont des questionnaires à choix forcé. L’échelle Likert permet de mesurer combien les participants sont d’accord ou en désaccord avec les énoncés du questionnaire.

La construction des échelles de Likert repose sur l’analyse des items à savoir si chacun de ces items représente une perception favorable ou défavorable envers l’objet d’attitude. Ensuite les juges doivent les classer en fonction de leur distance : on regroupe chaque item dans un des intervalles de l’échelle (de 1 à 11) à la Thurstone, selon l’évaluation favorable – défavorable que les énoncés expriment. Le tri se fait en trois catégories : favorable, défavorable et éliminé. Le questionnaire pilote ainsi obtenu sera mis à l’épreuve sur un échantillon de population cible. L’étude pilote permet d’éliminer les items ambigus et indifférenciés.

On peut inclure des étiquettes sur tous les points de l’échelle ou seulement sur certains (les extrêmes). La notation de 5 pour l’étiquette la plus favorable à 1 pour la plus défavorable concerne les items favorables. Pour les items défavorables, la notation est inversée. En faisant la note de tous les items, on obtient une note globale représentant la position attitudinale du groupe ou d’un sujet. X est une variable discrète prenant 5 valeurs 1, 2, 3, 4, 5, et aléatoire.

Les différentes étapes pour la construction d’une échelle de Likert sont :

  1. Identifier la variable à mesurer;
  2. Rédiger une longue liste d’énoncés ou des indicateurs de questions ;
  3. Déterminer le type et l’ordre des catégories des réponses ;
  4. Déterminer le nombre de points de l’échelle ;
  5. Décider si l’on met des étiquettes sur tous les points de l’échelle.

L’analyse des données permet de résumer par une médiane ou un mode et d’afficher la distribution des observations dans un graphique à barres.

Echelle d’Osgood (différentiateur sémantique)

Le différentiateur sémantique d’Osgood (DSO) permet d’observer comment les individus interprètent les objets sociaux et physiques, les personnes, les comportements. Cette technique mesure un item cible (ou concept cible, un mot, une expression) sur la base d’une liste de 14 paires d’adjectifs représentant des propriétés attributives, des caractéristiques ou des traits du concept cible.

Dans le différentiateur sémantique d’Osgood, le concept cible est donné et les participants doivent estimer sur une échelle, en général à 7 points, sa position, son sentiment sur une série de variables. La note de ce test est la somme de toutes les réponses aux 14 paires d’adjectifs. Trois catégories d’adjectifs sont validées par Osgood : adjectifs d’évaluation (bon – mauvais, faible – difficile), adjectifs de puissance (fort – faible, dominant – soumis) et adjectifs d’activité (actif – inactif, rapide – lent, sédentaire – mobile). Le différentiateur sémantique d’Osgood est un modèle tridimensionnel où les trois axes organisent un espace sémantique en trois dimensions (valeur, puissance, activité).

Le différentiateur sémantique d’Osgood sert à évaluer des réponses affectives. Il est facile à installer, à administrer et à coder, en lien avec la fiabilité et la validité de la procédure.

Le différentiateur sémantique d’Osgood n’est pas approprié lorsque les participants sont fortement investis car les réponses correspondent aux réponses socialement souhaitables. Pour éviter ce biais de désirabilité sociale on peut prendre des précautions, comme donner l’anonymat. Les mesures de la puissance et de l’activité devraient être libres de ce problème. Couplé à un questionnaire sur les caractéristiques sociodémographiques des individus et leurs pratiques sociales, le différentiateur sémantique d’Osgood devient un puissant instrument d’analyse psychosociale.

Le questionnaire de type Osgood est une échelle bipolaire à sept degrés qui oppose des qualités contraires en utilisant une liste d’adjectifs.

Echelle de distance sociale de Bogardus

L’échelle de distance sociale de Bogardus (1925) est une échelle cumulative (échelle de Guttman) car être d’accord avec une proposition implique un accord avec toutes les propositions précédentes. L’échelle de distance sociale permet la mesure empirique du préjugé. Selon Bogardus, la distance sociale est fonction de la distance affective entre les membres de deux groupes. Le centre de l’attention correspond aux réactions de sentiments de personnes vers d’autres personnes et vers des groupes de personnes. La distance sociale est une mesure de combien de sympathie les membres d’un groupe ressentent pour un autre groupe.

Le statut cumulatif de l’échelle est vulnérable aux différences individuelles, sociales et culturelles dans les positions relatives de ces items. Plus important est le nombre de personnes qui placent des items dans des ordres différents, moins représentatif de la communauté est l’ordre favorisé par une majorité des personnes interrogées. Un répondant préfère ne pas s’associer avec les membres de certains groupes, mais respecte la liberté d’association des autres. L’hypothèse selon laquelle il y aurait une distance sociale égale entre les différents points de l’échelle complique tout effort de généralisation ou de comparaison, intrapersonnelle ou interpersonnelle.

La distance sociale peut aussi être conceptualisée sur la base d’autres paramètres, tels que la fréquence d’interaction entre différents groupes ou des distinctions normatives dans une société.

L’échelle de Bogardus peut être utilisée pour mesurer la perception de la distance envers un ensemble de profession. L’hypothèse de cette échelle est que la distance au travail est le degré de sympathie existant entre les membres de deux professions. Selon les normes sociales dominantes, on accorde aux personnes occupant différentes professions différents niveaux de prestige qui représentent des distances professionnelles verticales.

L’échelle de Bogardus est critiquée comme trop simpliste car les interactions sociales et les attitudes dans d’étroites relations familiales ou des types de l’amitié peuvent être qualitativement différentes des interactions sociales avec et envers des contacts lointain tels que des citoyens ou des visiteurs dans son pays.

Echelle Toulousaine de l’Estime de Soi (ETES)

Plusieurs instruments, dont l’échelle toulousaine de l’estime de soi, permette d’évaluer l’estime de soi. Elle considère les différentes composantes de l’estime de soi et aussi l’estime de soi dans sa globalité. Elle se compose de 5 sous-échelles comportant 12 items chacune : la moitié sous forme négative et la moitié sous forme positive. Elle se présente avec 60 affirmations à répondre par oui ou par non.

 

Les 5 dimensions sont :

  • Le soi émotionnel (SE) : représentations du contrôle des émotions et de la maitrise de l’impulsivité. Cela permet une meilleure organisation de l’action et facilite la planification.
  • Le soi scolaire (SC) ou professionnel (SPR) : représentations, comportements et performances que le sujet à de lui-même dans le cadre scolaire ou professionnel.
  • Le soi social(SS): représentation des interactions avec autrui (parents et amis) et du sentiment d’être reconnu socialement.
  • Le soi physique (SP) : représentations de l’apparence corporelle, du regard d’autrui concernant cette apparence, des potentialités physiques et sportives et au désir de plaire.
  • Le soi futur (SF) : représentations de soi à venir, différentes des représentations actuelles. L’affirmation de soi nécessite un projet de soi lié à un désir d’insertion dans le monde des adultes, de participation à la collectivité par l’adoption de valeurs.
  1. La méthode de L. Guttman

Les échelles dichotomiques ont une grande importance sur le terrain psycho-social des opinions, sur celui de l’évaluation éducative et pour la mesure de valeurs et des préférences. La formalisation des items dichotomiques d’un questionnaire se réfère aux propriétés de base des échelles, ordre et proximité, et aussi des principes statistiques de reproductibilité, de contingence et de corrélation, d’homogénéité. La méthode de Guttman se caractérise par la construction d’échelles dichotomiques permettant d’ordonner les individus selon leurs connaissances.

Les concepts de base

Les notions de variables et d’attribut. Une variable dénote un ensemble de valeurs numériques ou non numériques. Un attribut est une variable qualitative et la valeur d’un attribut est sa sous-catégorie. L’hypothèse de Guttman est la possibilité d’ordonner ces variables de telle manière que si un individu domine un item particulier, il dominera l’ensemble des items en-dessous  de cet item, mais si l’individu n’arrive pas à maitriser un item, il ne maitrisera pas non plus aucun des items au-dessus de cet item. Chaque individu est représenté entre deux items.

La notion d’univers de contenu. L’univers de contenu est la catégorie super-ordonnée où les attributs sont inclus. Guttman considère un comportement dirigé vers un objet social donné comme un univers divisible en sous-univers. Il convient ensuite de chercher le système structural qui les sous-tend afin de déterminer les sous-univers qui devraient apparaitre empiriquement comme proches ou comme éloignés les uns des autres. Pour résumé, un univers de contenu est l’ensemble de tous les énoncés qui peuvent être construits par référence à une variable individuelle. C’est sur la variable individuelle que reposent la construction et la sélection des items dans le scalogramme de Guttman.

Un attribut appartient à un univers en vertu de son contenu selon sa nature socio-sémantique et sa structure statistique. Les deux critères de structure socio-sémantique et la structure statistiques, caractérisent la théorie structurelle proposée par Guttman afin de rendre compte la configuration des liaisons observées entre un ensemble d’individus et un ensemble d’univers de contenus.

 

L’hypothèse de l’échelle parfaite de Guttman

Dans l’échelle de Guttman, une série d’items est ordonnée par ordre croissant de difficulté. Un sujet qui réussit un item particulier réussira tous les items dont la difficulté est moins importante. Pour situer un sujet, si il y a n items, il existe n+1 places qui représentera le sujet et qui correspond à n+1 configuration particulière (réussir ou ne pas réussir aux items), dont n+1 formes de réponses.

Pour obtenir une échelle parfaite, il s’agit de construire une matrice dont les lignes représentent les sujets ou des formes de réponses et les colonnes, les items. La configuration s’appelle un scalogramme. Pour passer à l’échelle parfaite, on ordonne les colonnes des items selon un pattern triangulaire. L’univers présente des propriétés cumulatives permettant de comparer les sujets et les items. L’ordre qui en résulte reflète le comportement dominant.

Le coefficient de Reproductibilité

Le pattern de l’échelle parfaite sert de modèle pour identifier et comparer les écarts par rapport au pattern observé. Guttman a proposé le calcul d’un coefficient de reproductibilité pour mesurer l’importance avec laquelle l’approbation des items peut être reproduite à partir de la relation triangulaire d’une échelle parfaite. Ce coefficient R est égal à 1 mois la proportion de réponses qui doivent être modifiées (les erreurs), ce qui correspond au rapport entre le nombre d’erreurs et le nombre de réponses. Selon Guttman, un coefficient de 0,85 est souhaitable pour indiquer la plausibilité de ranger les items dans une seule dimension. Aujourd’hui, on retient 0,90.

Les propriétés d’une échelle parfaite de Guttman sont :

  • Le critère de la multiplicité positive (les items de la matrice sont tous positivement reliés les uns aux autres) ;
  • Le critère de monotonicité (les fréquences marginales seront ordonnées en termes décroissants) ;
  • Le critère de la distance minimale (pour des distances données, les erreurs sont minimales) ;
  • Le critère de reproductibilité (R = 1 – Σ erreurs / Σ réponses).

Le point zéro ou neutre

L’échelle de Guttman est une échelle ordinale n’ayant pas besoin d’un point zéro. Pour distinguer les attitudes favorables des attitudes défavorables, il est possible de situer un point zéro sur l’échelle à l’endroit où l’intensité du sentiment sur l’objet d’attitude est la plus basse.

Selon les conceptions classiques, les attitudes sont élaborées en fonction de deux variables, qualité et intensité sur un continuum allant du positif au négatif, en passant par un point neutre. Guttman introduit une 3ème composante : l’implication. L’implication est le degré avec lequel le sujet est activement concerné par l’objet attitudinal. Lorsqu’on passe d’une position neutre à une position positive ou négative, l’implication augmente jusqu’à un plafond, puis diminue vers la dimension extrême opposée. Ce plafond correspond au degré optimum d’extrémité d’une attitude où la personne est la plus concernée vis-à-vis de l’objet d’attitude. Mais la supposition d’un point neutre dans un continuum attitudinal pose un problème d’interprétation.

 

3 hypothèses au sujet du point neutre :

  1. Une attitude neutre semble contradictoire, signifiant l’existence et l’absence d’une disposition à répondre. La position neutre représente une non-attitude envers l’objet en question.
  2. Le point neutre peut se concevoir comme un point d’équilibre dans un conflit évaluatif sur la dimension positif-négatif, reflétant une attitude ambivalente.
  3. Le point neutre peut correspondre à des réponses inconsistantes: les sujets n’ont pas compris clairement les attitudes définies concernant l’objet en question.

Une échelle empirique de Guttman

Une échelle empirique ne prend pas une forme parfaitement triangulaire mais une forme quasi-triangulaire. L’hypothèse de l’échelle parfaite est un modèle de comparaison et de prédiction. Cela permet de mesurer le degré d’écartement des items et des réponses par rapport au pattern triangulaire de l’échelle parfaite.

Le scalogramme propose une méthode de mesure des attitudes consistant à interroger des sujets puis à confronter les ensembles de réponses obtenues aux modèles théoriques les plus proches de ceux-ci. Le modèle finalement choisi est celui qui apparait le plus fréquemment. Le scalogramme permet de mesurer le nombre total d’erreurs commises et d’apprécier ainsi l’unidimensionnalité d’une échelle (critère de reproductibilité).

 

IV. Le questionnaire

Planification du questionnaire

Chaque item d’un questionnaire exige une réflexion :

  • Le format: questions ouvertes ou fermées ? Quel type d’échelle ? Quelle tâche ou consigne ?
  • Le choix de l’échelle: échelles d’appréciation, d’évaluation, de classement, d’ordination ?
  • Dans les échelles d’appréciation et d’évaluation, combien de points l’échelle doit comporter ? quelles étiquettes? des points ou des options ?

Cette réflexion permet de maximiser la fiabilité et la validité des données.

Questions ouvertes

La question ouverte permet de répondre avec ses propres mots et d’exercer un contrôle sur ses réponses. Une question ouverte permet au chercheur de découvrir des réponses originales.

  • Examiner la saillance d’un problème.
  • En phases préalables d’une recherche pour repérer les thèmes saillants dans une population, leur niveau de généralité ou d’abstraction, les termes utilisés.
  • Les réponses sont analysées selon la méthode d’analyse de contenu afin de faire émerger une signification. Il s’agit d’une démarche interprétative qui suit des règles explicites de classement, de catégorisation, de condensations, de comptages, d’identification d’indices…
  • Repérage de certaines catégories lexicales comme les verbes ou les adjectifs. Classer et lister les verbes selon leur catégorie (action, état, possession), selon leur dimension positive ou négative ou selon une dimension affective (émotionnelle).
  • Analyser un ensemble d’unités thématiques dont la signification et les fréquences d’apparition serait une base d’interprétation.
  • La technique retenue (lexicale ou thématique) doit être pertinente et adaptée.
  • Les techniques d’analyse de contenu font partie des méthodes qualitatives. Il est possible de rendre compte quantitativement d’une série de dénombrements et de comptage, des fréquences d’occurrences des différentes catégories.

Questions fermées

Les questions fermées sont basée sur des alternatives de réponses choisies.

  • Examen de l’importance relative que les participants accordent à différents aspects, connus a priori, d’un problème.
  • Sonder des comportements à faible désirabilité sociale.
  • Tester des hypothèses plus précises : chaque question correspond à un indicateur permettant d’affirmer ou d’infirmer une hypothèse générale.
  • L’analyse des questions fermées nécessite un traitement statistique.

Degré d’abstraction dans la formulation

L’engagement des participants par rapport au thème traité apporte une nuance à cette situation de significations différentes. Les sujets les plus impliqués ont une meilleure capacité à résister à des simples variations de surface de la question et accordent plus d’attention aux propriétés formelles de la question.

Appréciation ou rangement sur une échelle : deux jugements distincts

Par rapport à une liste d’objet, on peut demander aux sujet soit de les ranger par ordre de préférence soit d’évaluer leur propre attitude par rapport à l’objet. Ainsi on peut apprécier un objet mais en préférer un autre dans le même domaine.

Ranger peut forcer les répondants à faire des choix envers des objets pour lesquels ils ont un sentiment identique ou très proche. Ranger des objets est source de conflit cognitif et affectif. Apprécier des objets est source d’une évaluation affective. Les échelles d’appréciation (rating scale) montrent quels sont les objets qu’un sujet préfère mais aussi les différences d’évaluation qu’il attribue aux objets.

Le problème de la non-différentiation

La fiabilité et la validité des études comportant des tâches de classement ou de rangement sont supérieures à celles des échelles d’appréciation (risque d’évaluation identique pour des objets multiples).

 

 

Formats pour les échelles d’évaluation

Spécifier le nombre de points de l’échelle. Les échelles bipolaires (de « positif » à « négatif » avec un point neutre) avec une étendue en 7 points ont les coefficients de fidélité et de validité les plus élevés. Pour les échelles unipolaires (de « sans importance » à « très important »), 5 points permettent d’optimiser la fidélité et la validité.

Mettre des étiquettes à l’échelle. La qualité des données est meilleure quand tous les points portent des étiquettes. Il s’agit de trouver des mots permettant de diviser le continuum de l’échelle dans des unités approximativement égales.

Les choix de réponses binaires comme « oui – non » sont problématique car on constante l’apparition du biais d’acquiescement dans les réponses des sujets (tendance à répondre par oui sans se soucier des items). Le biais d’acquiescement peut être contrôlé avec un ensemble important d’items. La moitié des items énonçant des assertions opposées à celle de l’autre moitié. Certaines propositions sont difficiles à mettre en opposition : on utilise alors la négation. Evaluer des propositions négatives implique une charge cognitive plus importante et leurs traitements conduits à plus d’erreurs que leurs corrélats assertifs ou affirmatifs.

Ordre des alternatives de réponse

Lorsque les choix de réponses catégorielles sont présentés par écrit, il y a un effet de primauté et lorsqu’ils sont présentés à l’oral, il y a un effet de recense.

L’alternative « pas d’opinion », « je ne sais pas »

La réponse « sans opinion » permet aux individus sensibles (manque de connaissances sur le sujet) d’en avoir une. L’introduction de cette option fait chuter la qualité des données. L’option « je ne sais pas » reflète un conflit de sentiments ou de croyances ou une incertitude sur le vrai sens de la question.

Tous les sujets doivent répondre strictement au même questionnaire. Eviter l’ambiguïté des énoncés des items. Eviter les questions doubles.

L’ordre des questions

L’ordre des questions doit procurer du confort et garantir la motivation des participants. Commencer le questionnaire avec des items faciles à comprendre et dont les réponses ne soient pas sujettes à controverses. Regrouper les items appartenant à un topique, à une dimension supposée ou à un sous-thème. Pour contrôler l’effet d’amorçage et d’ordre, il faut contrebalancer la présentation des items.

Prétest

C’est le temps pour contrôler : les items ambigus, le niveau de difficulté des items, les tendances des réponses vont-elles dans le sens de mon hypothèses ?, le temps alloué est-il suffisant ?, taux de probabilité de réponse, taux d’items sans réponse.

Le recueil des données peut se faire en entretien face-à-face, en passation individuelle, en petits groupes, par ordinateur, par téléphone ou par questionnaires auto-administrés.

La modalité choisie dépend du coût, de l’existence de capacité chez les participants pour répondre aux items, la motivation, la stratégie d’échantillonnage, le taux de réponses souhaité, le format des items, le contenu des questions, la longueur du questionnaire, le niveau d’expertise des interviewers.

 

Initiation aux méthodes en psychologie, Licence 2

Méthode expérimentale

I. Les critères de scientificité

La valeur d’une recherche scientifique dépend de l’habileté du chercheur à démontrer la crédibilité de ses découvertes. Les critères de scientificité adaptés aux recherches qualitatives et quantitatives assurent fidélité, validité, objectivité, représentativité et généralisation.

Cela correspond à étendre les paradigmes de la science naturelle à la science sociale/humaine. Selon certains, il existe une rupture entre les recherches qualitatives et quantitatives et il est illusoire de les soumettre aux mêmes critères. Selon d’autres, une équivalence de méthodes existe permettant le parallèle entre validité internet crédibilité, validité externe et transférabilité, fidélité et constante et entre objectivité et fiabilité.

Trois positionnements épistémologiques

Les critères de scientificité varient selon le type de recherche qualitative : l’empirisme, le contextualisme et le constructivisme (analyse du discours).

Il existe une difficulté méthodologique à assurer simultanément la validité et la fidélité. Selon l’empirisme qualitatif, il faut tendre vers un plus grand réalisme (validité) en évitant les dangers d’une faible fidélité. Le monde social correspond à la fois à une construction de l’esprit mais aussi à une réalité objective. Les critères de scientificité comprennent ceux des méthodes quantitatives comme l’objectivité, la fidélité, la validité externe et interne et l’applicabilité, et des critères qualitatifs comme l’évaluation de la crédibilité ou de l’authenticité.

Le contextualisme qualitatif cherche à parvenir à la production significative d’un sens rendant compte des variations et complexités des sujets et de leurs perceptions, c’est-à-dire un construit intersubjectif de la signification (Vestehen).

Le constructivisme qualitatif s’illustre par l’analyse du discours qui consiste à déconstruire les textes produits par des sujets sans chercher à définir des faits objectifs ou à rendre compte des processus cognitifs des sujets.

Les critères de scientificité en recherche qualitative

La validation des méthodes qualitatives se réfère à la production de résultats ayant une valeur dans la mesure où ils contribuent de façon significative à mieux comprendre une réalité, un phénomène étudié. Cela concerne la validité des résultats, leur valeur explicative et leur stabilité.

La validité correspond au degré selon lequel les résultats sont interprétés correctement, c’est-à-dire qu’ils représentent bien la réalité empirique. Cela concerne l’exactitude d’un résultat, l’adéquation d’une catégorie avec le phénomène représenté, le caractère opérationnel d’une hypothèse, l’authenticité d’une observation, l’actualité d’un modèle ou d’une théorie et la conformité d’une analyse. Il peut s’agir d’une validité interne et d’une validité externe, de crédibilité et de transférabilité.

Validité interne, acceptation interne ou crédibilité. La validité interne implique de vérifier si les observations sont effectivement représentatives de la réalité ou crédibles. Il est intéressant de procéder à une réévaluation des observations par les feed-backs des sujets et d’examiner l’impact de sa propre présence dans le groupe. On peut recourir à la technique de triangulation des sources et des méthodes. Le chercheur doit vérifier qu’il existe une cohérence entre son langage et ses propres valeurs et le langage, les valeurs des sujets (validité de signifiance de l’observation). Soumettre les résultats de son analyse aux participants permet une corroboration (validité phénoménologique ou validité de signifiance des interprétations). Il faut veiller à une cohérence interne des déductions et confronter l’interprétation aux études proches (validité référentielle). L’acceptation interne concerne le degré de concordance entre le sens attribué par le chercheur et sa plausibilité aux yeux des sujets.

Validité externe ou transférabilité. La validité externe concerne le pouvoir de généraliser les observations à d’autres objets ou contextes. Il s’agit d’avoir un échantillon représentatif de la problématique. En recherche qualitative, la notion de saturation ou de complétude correspond au fait que les données ne fournissent plus aucun élément nouveau à la recherche. Ceci correspond à une taille d’échantillon suffisamment élevé pour prétendre avoir atteint un niveau acceptable de saturation. Si le but de la recherche et de comprendre une expérience humaine, il convient d’avoir un nombre suffisamment élevé de sujets afin de saisir les subtilités d’une expérience ou d’une situation en ce qu’elle a de similaire et de différent d’un individu à l’autre. Pour assurer la validité externe, il convient de décrire le plus exactement possible la population étudiée. Une description étendu des sujets, du terrain, des conditions sociales de l’étude, de l’évolution historique du phénomène ainsi que des précisions sur la définition et la signification accordées aux termes et constructs utilisés, permettra une comparaison appropriée des résultats et de maximiser la validité externe.

Fidélité, fiabilité, constance ou cohérence interne. La fidélité correspond à la persistance d’une procédure de mesure à procurer la même réponse, peu importe quand et comment celle-ci est produite, c’est-à-dire une reproduction des résultats. Pour assurer une bonne fidélité, plusieurs techniques sont disponibles : vérification par d’autres chercheurs, description en profondeur, implication à long terme sur le terrain, considération de l’ensemble des incidents, recherche de la concordance des résultats, feed-backs des sujets et utilisation de low-inference descriptors (descripteurs faiblement inférés). La fidélité externe concerne la reproductibilité d’une recherche.

Objectivité ou fiabilité. L’objectivité exige l’opérationnalité, la manipulation du phénomène et les conditions maximisant la prédiction et le contrôle. C’est une méthode impartiale qui consiste à s’en tenir aux données objectives (contrôlables par les sens) en écartant les données de l’expérience vécue. Ceci est difficile en recherche qualitative.

Regard profond ou large. Selon Patton, les recherches qualitatives permettent une étude approfondie de la problématique, mais manquerait d’une vue plus générale. Selon Becker, la recherche qualitative permet une étude en largeur car elle s’étend aux épiphénomènes entourant la problématique sans se restreindre à des catégories préétablies et manquerait alors de profondeur. Une recherche scientifique de qualité tiendrait à l’équilibre entre largeur et profondeur avec flexibilité et rigueur.

Discussion

La rigueur se retrouve dans les efforts pour démontrer la crédibilité du cheminement, de la méthodologie, de l’analyse des données, de l’étude des aléas et épiphénomènes sociohistoriques et de la présentation des résultats. La rigueur permet l’exploitation maximale de la souplesse et de la sensibilité de la recherche qualitative sans rigidité. La rigueur entraine un juste positionnement entre réalisme et constructivisme.

Il existe un savoir subjectif qui obéirait à des critères autres que ceux des sciences objectives, un savoir propre à l’homme. Il est difficile de vouloir imposer ces règles avec forces à l’homme, dont la propriété est de ne justement pas suivre de règles méthodiques.

Il est intéressant de questionner la subjectivité du chercheur. Un danger de la recherche est que le chercheur se limite à ne trouver que ce qu’il cherche. Il importerait donc que le chercheur s’intéresse à mieux connaitre ce qui le motive vers un domaine, vers un thème ou vers une population. Il importerait qu’il explore mais aussi qu’il s’approprie ses intérêts pour éviter qu’ils ne l’aveuglent dans sa quête. Ceci reflète la tendance de tout chercheur à plonger malgré lui dans l’autodéception. L’autodéception est différent de la réflexion de soi qui concerne la capacité d’analyser des motivations, désirs et intentions les plus intimes.

Le chercheur doit aussi accepter une passivité antinarcissique indispensable pour se laisser pénétrer par le sujet afin de partager les représentations et l’intimité du sujet. Le chercheur doit être ouvert à la surprise.

Conclusion

La débat quantitatif-qualitatif est un faux débat. Les recherches qualitatives et quantitatives sont différentes et distinctes, chacune ayant ses intérêts, ses méthodologies et se critères. La quête de la rigueur, essentielle à une bonne recherche, se transformera en rigidité si elle est initialement motivée par un désir de se comparer, de se justifier et de plaire.

 

II. Remarques épistémologiques sur l’IRM et l’EEG

Les méthodes d’exploration cérébrales utilisent quatre techniques ou propriétés :

  • L’enregistrement des variations de courant électrique issues des variations des potentiels de membranes des neurones (électroencéphalogramme ou EEG).
  • La mesure de la densité d’électrons atténuant les rayons X traversant les structures osseuses (radiographie du squelette ou artériographie) ou les structures parenchymateuses (tomodensitométrie aux rayons X).
  • La détection d’un rayonnement électromagnétique ionisant émis par un atome radioactif (méthodes SPECT, tomographie par émission de positons).
  • La détection des modifications d’un champ magnétique oscillant provenant de certains noyaux d’atomes d’une structure biologique préalablement polarisés par un champ magnétique (imagerie à résonnance magnétique ou IRM).

Choisir l’IRM ou l’EEG dépend de ce que l’on veut objectiver : le lieu ou le moment.

La discrétisation, le moyennage et la génération d’artéfacts

Les résultats produits par ces instruments contemporains de mesure sont des artéfacts, c’est-à-dire un objet artificiel, un artifice. Dès qu’il y a numérisation, la réalité est échantillonnée et donc discrétisée. L’IRM introduit une simplification ou réduction et une grossièreté de l’isomorphisme. L’image n’explore qu’un seul niveau de réalité : le monde macroscopique de la physique cartésienne (optique), galiléenne et newtonienne (mécanique). Les tracés de l’EEG ne sont qu’une dérivation de processus supposés présents dans le cerveau. Le monde de la cellule, des particules, leurs liens et leurs frontières sont inaccessibles à l’IRM et à l’EEG. Toute exploration numérisée discrétise et repose sur des moyennes.

Afin de comprendre ce que disent ces artéfacts, il faut imaginer la nature et les modalités de l’articulation entre cet « en-dessous » inaccessible et ce qui est présent sous nos yeux. Cela correspond à interpréter une image, un potentiel, un EEG. L’interprétation est parfois incertaine ou exagérée. Cet « en-dessous » ne peut être que imaginé. Nous avons des représentations fournies par notre culture histologique, biochimique, neurophysiologique, anatomopathologique, qui nous obligent à imaginer une histoire naturelle biologique qui se produit au cours du processus physiologique ou pathologique mis à jour superficiellement. Interpréter c’est tenter de connecter une image ou une série d’objets visuels à un imaginaire plus ou moins fourni par la culture scientifique et médicale de celui qui interprète. Ainsi on comprend la relativité d’une « vérité » de l’image.

L’exploration dans l’espace et le temps

L’exploration par IRM relève d’une conception spatiale et visuelle de notre rapport au monde. Privilégier l’anatomie c’est préférer une conception spatiale du monde, des rapports de distance. Le visualisme soutient un type de rapport à la vérité : l’importance est ce qu’il voit de ses propres yeux. Selon le visualisme, ce qui est vrai, c’est ce que l’on voit et c’est donc ce que l’on sait. Dans l’IRM les choses dotées de signification, lumineuses, se détachent du fond. Espace et lumière est le fondement de l’IRM : une exploration du lieu où se produit les phénomènes lumineux évoquant les processus biologiques. L’IRM favorisent cette conception localiste des processus cérébraux, si ancrée dans notre imaginaire médical et neuroscientifique.

L’EEG est fondé sur la temporalité. C’est l’exploration des processus dans la durée. L’EEG est un moyen d’exploration qui montre la vie. La structure temporelle de l’EEG constitue une musique dérivée du cerveau. Lire un EEG revient à lire une partition. Analyser une image IRM relève de l’observation analysante d’un tableau. Dans la lecture de l’EEG, on repère les thèmes, les rythmes, les phrases, les harmonies, les ruptures d’harmonie.

L’IRM est une exploration objectivée de matière cérébrale étendue dans l’espace. L’IRM correspond à une conception matérialiste et plutôt fixiste du fonctionnement cérébral. L’EEG est une expérience de plasticité et d’altération. Par l’EEG, la vie cérébrale est aperçue enveloppée, pliée, dans le temps.

L’EEG constitue de moyen unique de montrer la souffrance et la mort cérébrale (confrontation avec ce devenir si certain, la mort). L’IRM montre la lésion, pas la souffrance. Cela ouvre le chemin d’une conception plus mentaliste voire spiritualiste, que matérielle du fonctionnement cérébral. Celui-ci est comme un tout non séparable, sa nature est plus holiste que multifocale.

Epistémologies

Plusieurs problèmes épistémologiques se posent : la signification du caractère anormal du résultat, la distorsion et la pensée métaphysique.

La détection d’une anomalie dans une structure anatomique ou dans la configuration des rythmes semble signifier une pathologie possible en lien avec le type de modifications observée. Ce lien est donné par les corrélations anatomocliniques ou anatomoradiologiques. Il s’agit du lien entre des tissus morts (histologie) et des images inertes. Ces corrélations sont faibles dans la représentation qu’elles nous donnent de l’histoire naturelle de la maladie.

La distorsion survient entre une image ou un tracé normal et la présence d’une anomalie neurologique ou psychiatrique ressentie par le patient. Un EEG normal et une IRM normale sont considérés comme en faveur de l’absence d’organicité des troubles. Les dichotomies anormal/normal, psychique/organique sont des pièges car on oublie le faible niveau de résolution de nos ampèremètres face à la complexité des processus cérébraux. Les discordances mettent en évidences des altérations métaboliques significatives.

L’activité EEG est la somme des activités corticales de très nombreux neurones régulées par les circuits réticulothalamocorticaux et provenant d’immenses zones de cortex, mais laissent de cotés l’activité de toutes les structures sous-corticales. L’IRM n’est que la cartographie de l’état physicochimique moyen des molécules d’eau à un niveau mésoscopique ignorant le niveau microscopique. Il existe un danger de l’exploration normale.

Comme le dit Saint Exupéry dans le Petit Prince, l’essentiel est invisible pour les yeux. L’essentiel est ce qui relève de l’essence, formant le fond de l’être, la nature. Selon l’idée d’Heidegger du lien entre l’être et le temps, ne pas perdre le lien avec l’être même consiste à expérimenter le temps, pensé comme une expérience d’écoute, d’accès à l’invisible ou au non objectivable.

Problèmes de consciences

Les moyens informatisés ne donnent accès qu’à des corrélats des processus cérébraux. Il y a une distance entre le corrélat et l’explication ou la cause et donc la compréhension. Les méthodes d’exploration possèdent un intérêt diagnostique évident en neurologie et en réanimation. En clinique psychiatrique, elles permettent de mettre en évidence une lésion ou une souffrance cérébrale qui seraient à l’origine du symptôme psychiatrique.

Les potentiels évoqués cognitifs donnent accès, forcément limité, aux processus cérébraux impliqués lors de tâches cognitives plus ou moins complexes allant de l’écoute passive de sons à l’accès au sens, en passant par des prises de décisions conscientes ou non. Les potentiels évoqués endogènes rend compte du jeu complexe entre processus conscients et inconscients (ou implicite), production de sens, de pensée, de prise en compte du contexte.

Les moyens d’exploration cérébrale ne permettent pas d’accéder à la conscience, à ses contenus et ses multiples états, ni à la pensée pathologique, délirante ou interrompue. Cette négligence provient peut-être de la tendance à ne retenir que ce qui est objectif comme pertinent dans l’élaboration d’une réflexion scientifique. Nous avons oublié le sujet, celui qui pense et ce qu’il pense, mais aussi la très grande versatilité temporelle des contenus de conscience et des états de conscience. La conscience n’est pas une chose, objectivable. C’est un vécu unique, par une personne unique et dont la science ne peut que saisir des corrélats plus ou moins précis et fidèles. Dans les années futures, il serait intéressant de corréler les observables du fonctionnement cérébral (objectifs) avec les vécus (subjectifs). Il faudra approfondir une sorte de typologie des états conscients, normaux mais aussi pathologiques. Une prise en compte de la subjectivité dans la procédure paraclinique (par essence objective) est nécessaire. Ce qui est en vue c’est le passage du paradigme de simplicité au paradigme de complexité auto-organisante.

 

III. L’imagerie cérébrale, un outil de la psychopathologie ?

Les techniques d’imagerie cérébrale, notamment IRM fonctionnelle (IRMf) en psychologie cognitive sont utilisée dans la recherche des bases cérébrales des processus mentaux avec pour objectif de mieux comprendre la nature et l’organisation des processus mentaux. L’imagerie cérébrale fonctionnelle peut-elle nous apprendre quelque chose sur les troubles mentaux ?

La psychopathologie au servie de l’imagerie cérébrale

L’exemple reprend les résultats obtenus concernant les bases cérébrales de la focalisation sur soi dans la dépression. La dépression est associée à un excès de focalisation sur soi de type analytique. La réduction de ce biais cognitif est associée à une diminution du risque de rechute après rémission, ce qui indique un rôle causal. L’IRMf a permis d’explorer les bases cérébrales chez les sujets déprimés ou vulnérables.

Chez le sujet sain, les tâches de référence à soi activent les structures corticales médianes, dont le cortex médian préfrontal. En comparant avec des patients déprimés, la référence à soi donne une activation spécifique du cortex médian préfrontal dorsal. Cela apparait comme un profil d’activation cérébrale spécifique de la dépression et comme marqueur trait de vulnérabilité dépressive. Il a été observé une hyper-activation du cortex médian préfrontal dorsal lors de la référence à soi d’images négatives chez les sujets les plus vulnérables. Une hyper-activation des structures corticales médianes postérieures, impliquées dans la mémoire autobiographique était également observée. La référence à soi chez les patients déprimés est caractérisée par une hyper-activation du cortex médian préfrontal dorsal et des structures corticales médianes.

Les techniques permettent d’identifier des biomarqueurs cérébraux, non pas les troubles mentaux, mais certains processus mentaux qui y sont associés. La question est de savoir en quoi, à clinique identique, des patients présentant ou non tel biomarqueur différent, notamment en termes de réponse thérapeutique.

Etude de processus mentaux automatiques

La notion de processus automatique versus contrôlé fait référence au caractère conscient, volontaire, coûteux et susceptible d’être inhibé. Certains processus automatiques ne sont pas rapportables par le sujet car non conscients et sont difficiles à inférer à partir de mesures comportementales. L’imagerie cérébrale permet de mettre en évidence des activations cérébrales pouvant témoigner de processus mentaux automatiques. Par exemple, l’implication de l’amygdale dans la tendance des patients déprimés à se focaliser sur les signaux émotionnels négatifs.

Située en avant de l’hippocampe, l’amygdale est plus réactive chez les patients déprimés lors du traitement de stimuli émotionnels négatifs. Certaines études montrent une hyper-activation amygdalienne pour les visages, quelle que soit la valence de l’émotion exprimée. Il existe des processus mentaux non conscients focalisant les ressources cognitives des patients déprimés sur des signaux émotionnels négatifs. L’hyper-activation amygdalienne observée chez les patients déprimés est tributaire de processus automatiques non conscients (hyperréactivité amygdalienne automatique) et de processus contrôlés (activation aberrante du cortex préfrontal lors de tentatives infructueuses de régulation volontaire) se renforçant mutuellement.

L’interprétation d’une activation cérébrale en IRMf comme témoin d’un processus mental donné ou inférence inverse, pose problème notamment lorsque cette activation n’était pas attendue.

Limites de l’inférence inverse en imagerie cérébrale fonctionnelle

Lorsque l’activation en IRMf d’une région cérébrale est observée alors qu’elle n’était pas attendue, cela entraine des spéculations sur les processus mentaux associés à cette activation. Ces spéculations sont basées sur l’inférence inverse. Si R est activé pendant T et si lorsque M est engagé R est activée, alors l’activation de R suggère l’implication de M pendant T.

La probabilité de M dépend aussi bien de la réalisation effective de la tâche que de la capacité de la tâche à susciter ce processus. Il convient surtout de s’assurer que d’autres processus connus pour activer R étaient absents. L’activation du CCA dorsal pourrait notamment témoigner de la détection d’une erreur de prédiction, le sujet s’attendant à recevoir la balle mais de la recevant pas.

Le problème tient aussi de la précision avec laquelle R est définie. La région R mentionnée est-elle réellement la même. Des variations de quelques millimètres suffisent à affecter le degré de confiance que nous pouvons accorder à l’inférence inverse.

Intérêts de l’inférence inverse en imagerie cérébrale fonctionnelle

Certaines régions cérébrales présentent une sélectivité élevée d’activation vis-à-vis de certains processus mentaux, autorisant donc l’inférence inverse avec un degré de confiance plus élevé. La différence d’activité des structures corticales médianes lors de tâche de référence à soi par rapport à autrui est d’autant moins nette que cet autrui est proche de soi. La question est de savoir si le soi est ou non un objet de connaissance spécifique. En psychopathologie, l’activation du noyau accumbens en réponse à des stimuli évoquant un proche décédé permet de distinguer les sujets endeuillés présentant ou non un deuil pathologique. Au vu de la relative sélectivité d’activation, cela confirme les théories psychologiques associant le deuil compliqué au maintien de l’investissement d’un objet désormais inaccessible. Une des faiblesses de l’inférence inverse est extrinsèque et dépend de la validité limitée de la taxonomie des processus mentaux.